首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏技术综合

    OBS

    1.png 2.png 3.png 4.png 5.png

    7.8K30发布于 2020-08-25
  • 来自专栏SRS开源服务器

    HTTPS直播实战,搞定HTTPS-HLS和HTTPS-FLV,还有WebRTC

    WebRTC要HTTPS页面和API怎么办?请看视频介绍。 服务器,如果服务器在阿里云上可以申请免费HTTPS证书(只支持个人站点这种一两个固定域名) 自签名证书需要手动确认才能继续,页面空白处敲密码  thisisunsafe 需要将网页(RTC播放器和页面

    3.1K20编辑于 2022-03-18
  • 来自专栏海之滨云视频和流媒体技术

    网页端WebRTC流转换为RTMPGB28181等其他直播协议

    网页端WebRTC流转换为RTMP/GB28181等其他直播协议 WebRTC是一个在WEB浏览器端广泛应用的流媒体引擎,通过点对点的方式实现音视频数据的传输,以完成视频会议等功能。 但是考虑到WebRTC主要是为有限人数情况下的点对点视频会议服务,在做其他直播应用的时候,或者接入现有流媒体网络的情况下,并不太适合,可以考虑将浏览器端的WebRTC,转换为RTMP/GB28181等其他流媒体协议 WebRTC 使用了一些优化技术,比如前向纠错、重传和重构等,来提高音视频传输的质量和稳定性。 除了传输音视频数据,WebRTC 还支持数据通道协议,用于在浏览器之间传输任意数据。 数据通道协议基于 SCTP 协议,并且支持可靠传输和控制等功能。它可以用于传输文件、消息和游戏数据等,提供了一种全新的浏览器间通信方式。 WebRTC编码的H.264数据只会发送一次关键帧,这个如果不做处理直接转换成其他协议的直播,很可能会导致播放端连接后无法获取到关键帧从而无法解码。

    1.9K60编辑于 2023-04-06
  • 来自专栏dongfanger

    JMeter扩展Java请求实现WebRTC本地音视频压测脚本

    就是基于WebRTC实现音视频通信的。 与HTTP不同,WebRTC应用的主要压力是码,JMeter没有找到提供WebRTC Sampler的第三方jar包,只能自己尝试写一个。 runTest()是测试执行,访问会议URL进行。teardownTest()是测试清理,关闭无头浏览器。setupTest()和teardownTest()在运行时每个线程只会执行一次。 默认音视频是这样: ? 本地音视频是这样: ? 脚本弄好了就可以开始对WebRTC应用进行压测了。 小结 本文介绍了如何使用Java对Puppeteer封装的jvppeteer,实现对WebRTC进行本地音视频的压测脚本,打包成jar包后,可以在JMeter中进行扩展,通过Java请求Sampler

    2.9K30发布于 2021-03-15
  • 来自专栏转载gongluck的CSDN博客

    使用librtmp

    MAKEWORD(1, 1); WSAStartup(version, &wsaData); int res = 0; RTMP* rtmp = RTMP_Alloc(); RTMP_Init(rtmp); res = RTMP_SetupURL(rtmp, "rtmp://192.168.34.40/live/test");// PRINTERROR(res, 1, "RTMP_SetupURL ; //if unable,the AMF command would be 'play' instead of 'publish' RTMP_EnableWrite(rtmp);//要设置写 \n"); // FILE *fp_push=fopen("save.flv","rb"); FlvHeader flvheader; fread(&flvheader //if unable,the AMF command would be 'play' instead of 'publish' //RTMP_EnableWrite(rtmp);//要设置写

    6.7K60发布于 2018-03-08
  • 来自专栏txp玩Linux

    得劲,使用srs进行webrtc流体验!

    大家好,我是小涂,今天给大家分享一篇关于如何使用srs来进行webrtc进行推拉;不过在这之前,你需要进行srs运行环境搭建,这个可以具体参考srs官网的wiki,我这里就不重复了,如果你有在搭建过程中遇到啥问题 ,可以私下交流沟通,下面是srs官网搭建环境中文wiki: https://github.com/ossrs/srs/wiki/v4_CN_Home#getting-started 一、webrtc演示操作 /objs/srs -c conf/rtc2rtmp.conf 先使用ffmpeg终端进行和ffplay终端进行拉操作: : ffmpeg -re -i time.flv -vcodec rtc播放器: srs播放器: 二、使用webrtc进行: 这里直接使用srs网页版命令进行的话,我现在的浏览器是不支持的,因为没有使⽤https+域名的⽅式,所以在使⽤WebRTC时需要修改 unsafely-treat-insecure-origin-as-secure="http://192.168.32.128:8080" 配置好这个之后,关闭浏览器,然后再重新打开浏览器,就可以进行流了

    3.4K11编辑于 2022-03-21
  • 来自专栏流媒体

    Android RTMP之MediaCodec硬编码二(RTMPDump

    Android平台下RTMPDump的使用介绍了如何将RTMPDump移植到Android平台下,并读取解析flv文件进行。 有了上面两篇文章的基础后,接下了就是整合,在Android平台下使用MediaCodec进行硬编码,然后使用RTMPDump进行。 先来张效果图: ? 主要增加三个方法:建立连接,数据,释放连接。 我们还是使用Android RTMP之MediaCodec硬编码一(H.264进行flv封装)里的代码。 第三步 c++层方法实现 c++层逻辑的编写。我们将方法写到rtmp_handle.cpp。

    5.3K50发布于 2018-08-23
  • 来自专栏小鑫同学编程历险记

    WebRTC 之媒体与轨道

    媒体指的是访问设备后产生的数据,轨道指的是 WebRTC 中的基本媒体单元。 当开始采集音频或视频设备后就会源源不断的产生媒体数据(媒体),比如从摄像头,画布,桌面捕获到的视频,从麦克风捕获到的音频。只有当我们不停的接收到媒体才能看到视频和听到音乐。 在实际应用场景中这些媒体将由更多种数据组成,WebRTC 将其划分成了多个轨道,我们可以得到不同轨道对应的设备信息,也可以对其进行控制,如麦克风静音或网络不优秀的时候关掉视频。 媒体有多少中获取的方式呢?如何得到媒体? 使用对等连接来接收新的

    1.6K10编辑于 2022-12-26
  • 来自专栏腾讯云产品

    【腾讯云】TRTC直播+页面渲染云直播实践

    该文档实践步骤如下:使用TRTC的web demo开启直播房间使用云函数的“TRTC直播”模板函数给web直播房间使用云直播生成录播和直播地址使用云函数的“页面渲染”应用录播TRTC的直播房间并给云直播 图片发布好之后,根据参考文章【腾讯云】TRTC直播实践使用云函数模板"TRTC直播"给对应SdkAppId的对应roomId(111)发送。 注意播放域名地址生成使用的AppName,StreamName必须和的一样,否则之后播放地址看不到图片云直播测试/播放参考云直播文档 web流点击"云直播"->"Web",以"多路混 图片设置好输入源后,可以在右边预览查看图片输入WebRTC地址后,点击"开始"。 tcplayer 预览直播地址的url,可以看到直播的画面,表示/播放测试成功。

    17.1K102编辑于 2022-08-31
  • 来自专栏呱牛笔记

    FFmpeg命令总结

    今天考虑一个mcu混合的实现,也就是接收多路过来的rtp,然后转发出去一路的rtmp,使用ffmpeg测试做的记录,刚开始一直通过ffmpeg推送的文件不能满足要求,还是对参数配置不熟悉; 0、ffmpeg 1、udp或者rtp >最简单模式: ffmpeg -re -i d:\videos\1080P.264 -vcodec copy -f rtp rtp://127.0.0.1:1234 ffplay 192.168.0.100   m=audio 5005 RTP/AVP 97 a=rtpmap:97 PCM/8000/1 a=framerate:25 c=IN IP4 192.168.0.100 2、rtsp rtsp_transport tcp -f rtsp rtsp://192.168.2.161/live/rtsp_test -rtsp_transport tcp 标识使用tcp作为rtp的通道 3、rtmp concat=n=3:v=1:a=1 表示有三个输入文件,输出一条视频和一条音频

    9.1K40编辑于 2023-05-02
  • 来自专栏Helloted

    在iOS上

    三、 因为librtmp用的是C语言,为了方便调用,我用OC封装了一下一个类RTMPPuser。 用来的代码是 RTMPPusher *pusher = [[RTMPPusher alloc]init]; BOOL success = [pusher connectWithURL = thisChunkSize; [self write:chunk]; sleep(1); } while (offset < length); } 3、写入 RTMP_Write(_rtmp, [data bytes], (int)[data length]); } return sent; } } 以上代码可以在

    2.1K20编辑于 2022-06-07
  • 来自专栏进击的多媒体开发

    【流媒体】与拉简介

    :将直播的内容推送至服务器的过程。 即指的是把采集阶段封包好的内容传输到服务器的过程。其实就是将现场的视频信号传到网络的过程。 “”对网络要求比较高,如果网络不稳定,直播效果就会很差,观众观看直播时就会发生卡顿等现象,观看体验很是糟糕。 要想用于还必须把音视频数据使用传输协议进行封装,变成数据。 在这个过程中有三个要素:1-服务器【提供视频文件存储的地方】 2-传输协议【就是你要通过什么方式传输视频】3-读取终端【就是通过什么播放出来】 示意图 以下是从网络上搜寻到的有关与拉的示意图, 一张示意图没有看明白,没有关系,再来一张示意图: 其实可以简要的理解为就是直播端,而拉就是客户端哦。 每一个码地址唯一指向单个的直播活动。它由rtmp://开头,包含了上传服务器地址,上传目录名和上传节点,三部分组成。

    14.9K42编辑于 2022-10-31
  • 来自专栏james技术专栏

    FFmpeg循环脚本

    撸了个FFmpeg的循环脚本,你的VPS除了吃灰以外还能24小时不间断直播视频。自己用的脚本,单纯分享一下,如有问题自行解决。 安装FFmpeg才能正常,是否现在安装FFmpeg? ${font}" sleep 2 fi } stream_start(){ # 定义地址和码 read -p "输入你的地址和码(rtmp协议):" rtmp # 判断用户输入的地址是否合法 if [[ $rtmp =~ "rtmp://" ]];then echo -e "${green} 地址输入正确,程序将进行下一步操作. ${font}" echo -e "${green} 1.安装FFmpeg (机器要安装FFmpeg才能正常) ${font}" echo -e "${green} 2.开始无人值守循环 ${font

    4.4K21编辑于 2023-01-07
  • 来自专栏C/C++与音视频

    视频RTMP实践

    对应RTMP,业界有很多开源方案。如使用FFMPEG,librtmp(rtmp-dump),gstream。由于ffmpeg和gstreamer比较庞大,仅仅用来,有大炮打蚊子之嫌。 NULL;      NALU * CopyNALU(NALU * src);      void FreeNALU(NALU * nalu); }; Wrapper_RtmpLib对外提供RTMP接口 \n");     return 0; } 基本思路如下: 读文件----解析NAL单元---利用 SendData发送一个完成的NAL单元完成 编译main.cpp Wrapper_RtmpLib.cpp 运行可执行程序 . 3.如果是云主机,在云主机内不能公网IP,而要内网IP 192.168.1.226,客户端访问需要外网IP。 客户端播放效果如下:。

    9.3K30编辑于 2022-06-14
  • 来自专栏流媒体

    Android平台下使用FFmpeg进行RTMP(摄像头

    简介 前面讲到了在Android平台下使用FFmpeg进行RTMP(视频文件),里面主要是介绍如何解析视频文件并进行,今天要给大家介绍如何在Android平台下获取采集的图像,并进行编码 学习本章之前最好先看之前的文章,这里是一套连贯的教程 RTMP服务器搭建(crtmpserver和nginx) 音视频编码相关名词详解 基于FFmpeg进行RTMP(一) 基于FFmpeg进行RTMP (二) Linux下FFmpeg编译以及Android平台下使用 Android平台下使用FFmpeg进行RTMP(视频文件) 打开摄像头并设置参数 具体代码查看CameraActivity.java (ofmt_ctx, pCodec)这个就和之前的文件一样了。 输出视频数据 ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt); 释放资源 在结束编码后我们也需要释放相关的资源 if (video_st

    7.4K51发布于 2018-08-23
  • 来自专栏腾讯云原生实践教程

    【云函数SCF】TRTC直播+页面渲染云直播实践

    该文档实践步骤如下:使用TRTC的web demo开启直播房间使用云函数的“TRTC直播”模板函数给web直播房间使用云直播生成录播和直播地址使用云函数的“页面渲染”应用录播TRTC的直播房间并给云直播 发布好之后,根据参考文章【腾讯云】TRTC直播实践使用云函数模板"TRTC直播"给对应SdkAppId的对应roomId(111)发送。 云直播测试/播放参考云直播文档 web流点击"云直播"->"Web",以"多路混"为例,选择"多路混" ? 输入WebRTC地址后,点击"开始"。看到界面上显示已经再 ? url,可以看到直播的画面,表示/播放测试成功。

    7.5K41编辑于 2022-09-01
  • 来自专栏音视频开发技术

    FFmpeg流媒体处理-收

    流媒体系统是一个比较复杂的系统,简单来说涉及三个角色:流媒体服务器、客户端和收客户端。客户端是内容生产者,收客户端是内容消费者。示意图如下: ? 本文提及的收的功能,属于协议层的处理。 2.2 有两个需要注意的地方。 rtmp必须推送flv封装格式,udp必须推送mpegts封装格式,其他情况就当作是输出普通文件。这里使用push_stream变量来标志是否使用功能,这个标志后面会用到。 测试: .

    11K32发布于 2019-04-19
  • 来自专栏流媒体

    Android平台下使用FFmpeg进行RTMP(视频文件)简介

    在Android平台下用FFmepg解析视频文件并进行RTMP。如果对FFmpeg基础不熟或者不知道如何在Android项目中使用,请先阅读流媒体专栏里之前的文章。 新增函数 异常处理 设置回调方法 常见问题 源码 新增函数 首先我们将所有FFmpeg的操作抽取到一个类里面,然后增加方法。 源码见末尾 异常处理 在我们之前的代码中,并没有做异常处理。这样在正式的使用中肯定不太好的。所以我们加上try catch。统一进行资源释放。 源码见末尾 设置回调方法 为了方便我们查看的信息,我们新增一个回调类。 而我们需要在的时候使用到这个对象,所以需要转化成全局变量 pushCallback = env->NewGlobalRef(pushCallback1); 同样也需要定义对应的全局变量 jobject

    7.9K20发布于 2018-08-23
  • 来自专栏字节流动

    FFmpeg 流媒体处理 - 收

    本文提及的收的功能,属于协议层的处理。 2.2 有两个需要注意的地方。 这里使用 push_stream 变量来标志是否使用功能,这个标志后面会用到。 二是要注意的速度,不能一股脑将收到的数据全推出去,这样流媒体服务器承受不住。可以按视频播放速度(帧率)来测试: . 收测试:先按照上一步命令启动,然后运行如下命令收 .

    5.3K01发布于 2021-03-16
  • 使用腾讯云云直播流到抖音,如何获取抖音的地址和

    方案1、获取抖音的地址和码,云直播官网是没有对应的文档的。可以在抖音平台搜索获取抖音地址码等关键词。即可搜索相关视频学习如何获取。 方案2、下载火绒应用商店,搜索推拉小助手,安装应用,打开直播伴侣开启直播,通过改工具即可获取抖音的地址和码。注意:安装使用该应用需要填写用户账号和密码,自己填写记住即可。 如何使用云直播流到抖音,看我的其他的文档。 注意:本文的操作方案和步骤,均参考公网,该推拉助手应用的使用方式也是本文作者从公网处了解到的,特此记录分享,使用该推拉助手应用产生的一切问题本文作者概不负责。

    2.1K00编辑于 2025-06-28
领券