http-live-streaming

    1热度

    1回答

    我试图在页面中嵌入html5音频标签,以允许播放来自Icecast服务器的实时AAC +流。 根据media formats developer's guide,Android支持在MPEG-4容器内或ADTS内的多种AAC风格的播放。 我已经成功地扮演了AAC编码的音频文件中的MPEG-4容器,从而: <audio controls="controls"> <source src="h

    4热度

    3回答

    我正在寻找任何现代资源来建立视频流媒体服务器。优选开源解决方案。 我在这方面的搜索导致了很多死路一条。我也需要建立我自己的而不是付费的服务。

    1热度

    2回答

    我使用Andorid ExoPlayer通过http(HLS)从互联网传输内容。当我开始播放它工作正常,但是当我尝试改变播放内容的质量 - player.setSelectedTrack(TYPE_VIDEO, 1) 例如,我GET和HTTP 403禁止错误。如果我初始化播放器并再次运行内容,那很好。我正在使用Demo项目作为源。 你知道什么可能导致这种行为,以及播放初始流和改变曲目有什么不同?

    1热度

    1回答

    在通过HTTP Live Streaming从服务器播放实况视频的iPhone应用程序中,是否可以在解码后访问解码的视频帧? 据我所见,AVPlayer,MPMoviePlayer和CoreVideo似乎没有提供回调来通知应用程序单个帧已被解码。 我的问题类似于“Record HTTP Live Streaming Video To File While Watching?”,但我不一定对完整的D

    0热度

    1回答

    我需要将音频块像流一样发送到服务器,同时在iPhone中录制音频。什么是实施这个最好的方法?我看着HLS。但它支持服务器到客户端的流媒体。我需要客户端到服务器流媒体。请建议一种实现从客户端(iOS设备)到服务器的音频流的最佳方法。

    0热度

    2回答

    我有一个iOS流应用程序。它适用于我的流式网址。我如何使用AudioStreamer .m3u8文件的URL? 预先感谢您

    2热度

    2回答

    我正在研究iOS应用程序的直播功能。我使用了ContainerView中包含的AVPlayerViewController来显示视频。 这里是对的ViewController @interface ViewController() @property MPMoviePlayerController* streamPlayer; @property BOOL isPlaying; @end

    0热度

    1回答

    我需要实时从Mac发送屏幕视频到组播组,如“239.1.1.110:46110”。 我知道AVCaptureMovieFileOutput有一个方法“startRecordingToOutputFileURL:recordingDelegate:”。 我只想知道URL的参数可以是多播组地址吗?或者如果不是,我能做些什么来将流视频发送到多播组? 有人说使用ffmpeg,但我什么都没有。可以有人给一些

    4热度

    1回答

    我试图在网页上显示实况网络摄像头视频流,并且我有一份工作草案。但是,我对表现不满意,并寻找更好的方式来完成这项工作。 我有一个摄像头连接到Raspberry PI和一个简单的python-Flask服务器的Web服务器。通过使用OpenCV捕获网络摄像头图像并将其格式化为JPEG。之后,这些JPEG将被发送到服务器的一个UDP端口。我到目前为止所做的就像是一个自制的MJPEG(motion-jpe

    1热度

    1回答

    我使用远程src中的ffmpeg生成hls内容,并且经验滞后,我在浏览器中不理解。 举例来说,即使有说out8.ts,out9.ts ... hls.js玩家将在发言权out7.ts并不会加载out8.ts或out9.ts. 它会等到out7.ts 已基本完成播放,然后尝试加载out.m3u8其中将包含out8.ts并可能out9.ts.但是这样做太晚了,最终导致滞后。我在本地主机上以高效的方式执