live555

    1热度

    1回答

    我想从文件中进行RTSP流式处理,因此我使用了实时555库。在实时555测试目录“testMpeg2TransportStreamer”程序中,流式传输TS格式文件,什么我做的是,我把整个代码在线程,所以每当客户端请求流线程开始工作,当客户端说DONT STREAM然后线程关闭线程我也写代码中::关闭(指针rtsp服务器),所以要关闭rtsp服务器,这对于第一个STREAM和DONT STREAM

    1热度

    2回答

    如何修改示例“openRTSP”Live555以在iOS应用程序中显示RTSP流?

    7热度

    2回答

    我一直在努力编写一个从Live555中的FramedSource派生出来的类,它将允许我将实时数据从我的D3D9应用程序传输到MP4或类似。 我所做的每一帧都是将缓冲区作为纹理抓取到系统内存中,然后将其转换为RGB→YUV420P,然后使用x264对其进行编码,然后理想地将NAL数据包传递给Live555。我创建了一个名为H264FramedSource的类,它基本上通过复制DeviceSourc

    1热度

    2回答

    我正在制作流式网络摄像头的应用程序。我想用OpenCV捕获摄像头,ffmpeg作为编码器,live555作为服务器。我知道我必须在live555中实现DeviceSource.cpp来封装编码器以接收来自ffmpeg的帧。但是,似乎没有如何做到这一点的例子。所以任何人都可以提供一些有关实施DeviceSource的教程或示例。先谢谢了。

    4热度

    1回答

    我试图构建框架为Live555库。 我得到了here这个库文件,按照这个answer of SO我已经尝试过多次生成它。它只是给出以下错误: /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/g++ -c -Iinclude -I../UsageEnvironment/i

    0热度

    1回答

    使用TCP流中的数据包的RTSP人succeedded 有没有人在succeedded通过现场555个库使用TCP流RTSP包?** 我try'ed搜索网站了很多,但没有发现任何东西有用的所有解决方案提供我try'ed但wireshark显示UDP数据包正在流。

    1热度

    2回答

    我使用基于Live555/openRTSP的代码将H.264视频源流式传输到mp4文件,并且想要同时读取文件的早期部分(来自不同的应用程序)。更改fopen是fid = _fsopen(fileName, "wb", _SH_DENYWR)(从OutputFile.cpp)显然是不够的,因为它没有什么区别和媒体播放器还是不会打开它(是,对于MP4输出的写行?) 在一个相关的说明,如果我模拟软件的不

    1热度

    1回答

    我是Objective-C的新用户。 如何阅读iOS应用程序中的RTSP流? 显然库live555和ffmpeg能够,但我觉得没有这样简单和功能。 还有其他解决方案吗?

    0热度

    1回答

    我试图使用libavcodec解码帧。我的应用程序使用live555从rtsp流中检索rtp数据包。由于avcodec_decode_video将got_picture_ptr设置为0,但我找不到它。 任何人都可以告诉我avcodec_decode_video2如何在内部工作吗?什么原因可能导致got_picture_ptr指针被设置为零? PS:该函数确实读取字节,即返回值始终是正数,而不是-1

    0热度

    1回答

    我正在开发用于桌面(C++)的RTSP客户端。我现在了解库live555的操作,我可以用“testRTSPClient”示例接收帧。现在我想在屏幕上显示视频。 如何将接收到的数据转换为图像?