武陵观察网 百科 腾讯会议怎么一边开视频一边放ppt(视频会议系统的功能简介)

腾讯会议怎么一边开视频一边放ppt(视频会议系统的功能简介)

视频会议系统的主流解决方案和技术趋势

视频会议系统的关键技术

视频会议系统传输多媒体数据,声音和运动图像的源信号数据量大,一般情况下无法在数字线路上传输。同时,基于实际使用效果的要求,要求传输的声音和图像信号连续流畅,其他辅助功能易于使用。因此,在声音/图像压缩、通信线路条件、数据/应用共享等方面,对系统有很高的技术要求。本文将对视频会议的主要技术、解决方案、未来技术趋势和网络技术标准进行探讨,希望能为该领域的研究人员提供参考。

1)多媒体信息处理技术

多媒体信息处理技术主要是对各种媒体信息进行压缩和处理。视频会议的发展也反映了信息处理技术,尤其是视频压缩技术的发展。目前,新的理论和算法不断推动多媒体信息处理技术的发展,进而推动视频会议技术的发展。特别是在网络带宽不丰富的情况下,多媒体信息压缩技术已经成为视频会议中最关键的问题之一。

与基于PC的CPU技术和专用芯片组技术相比,媒体处理器由于其独特的数字视音频输入输出接口、多媒体协处理器等,应用变得更加简单。而且设备厂商可以根据市场变化随时调整软件应用,及时适应市场需求,不受专用芯片组本身技术局限性的限制。媒体处理器支持的嵌入式操作系统和软件优化使得视频会议系统更加高效、稳定和可靠。事实上,媒体处理器技术已经成为视频会议的核心芯片技术,未来也将服务于3G可视电话等终端产品。

在视频会议系统中,目前的媒体处理器主要有飞利浦的TriMedia系列和新PNX1500,ESS的LVP,ADI的ADSP2106X和Blackfin,TI的C6X和C8X以及DM642多媒体DSP芯片。这些媒体处理器的高速计算能力可以实现适用于不同协议的视频会议通信终端。这些芯片可以轻松实现MPEG视音频处理、H.263视频处理,以及DVD、数字机顶盒、数字电视等其他多媒体应用。

2)宽带网络技术发展迅速的IP网络,由于是非连通网络,不适合实时多媒体信息的传输,但TCP/IP协议对多媒体数据的传输没有根本性的限制。目前,全球各大标准化组织、行业联盟和各大公司都在改进IP网络上的传输协议,并取得了初步成果,如RTP/RTCP、RSVP、IPv6等协议。这为在IP网络上开展视频会议等多媒体业务奠定了良好的基础。据预测,IP网络上的视频会议业务将大大超过电路交换网络上的视频会议业务。

随着互联网网络规模和用户数量的快速发展,如何进一步扩大在线服务的种类,提高网络的服务质量是目前最受关注的问题。由于IP是一种无连接协议,在Internet网络中没有QoS的概念,无法保证足够的吞吐量和传输延迟,只能尽力满足用户的需求。因此,如果不采用新的方法来改善目前的网络环境,就无法大规模开发新的业务。

在现有的网络技术中,从支持QoS的角度来看,ATM作为继IP之后迅速发展起来的快速分组交换技术,具有独特的技术优势。因此,ATM曾被视为一种随处适用的技术,人们最终会构建一个纯粹的ATM网络,通过网络核心到达另一个桌面终端。然而实践证明,这种想法是错误的。首先,纯ATM网络实现过于复杂,导致应用价格高,难以被大众接受。其次,随着网络的发展,相应的业务发展没有跟上,造成了目前ATM的发展。第三,尽管ATM交换机已被广泛用作网络的骨干节点,但ATM信元到桌面业务的发展非常缓慢。

由于IP技术和ATM技术在各自的发展领域都遇到了实际困难,都需要相互依赖才能进一步发展,所以这两种技术的结合是必然的。多协议标签交换(MPLS)技术是为了综合利用网络核心的交换技术和网络边缘的IP路由技术的优势而产生的。其特点如下:

(1)基于单一转发机制,可以同时支持同一网络中多种业务类型的转发;(2)通过短而固定的标签,将传统路由器的最长匹配路由方法替换为精确匹配路由方法;(3)通过集成链路层(ATM、帧中继)和网络层路由技术,解决了互联网扩展和保证IP QoS传输的问题;(4)使用显式路由功能,通过带QoS参数的信令协议建立CR-LSP,可以有效实现全国范围的流量工程。目前MPLS技术在QoS标签分配信令、解决VC合并、传输分类业务等很多方面还存在很多困难,需要进一步完善。

3)分布式处理技术视频会议实现点对点、点对多点、多点之间的实时同步交互通信。视频会议系统要求不同媒体、不同位置的终端收发同步协调,多点控制单元(MCU)统一有效控制,使与会终端共享数据,有效协调各种媒体的同步传输,使系统在信息交换和处理上更加人性化。通信、合作与协调是分布式处理的要求,也是交互式多媒体协同工作系统(CSCW)的基本内涵。因此,从这个意义上说,视频会议系统是CSCW的主要群件系统之一。

主流媒体处理器解决方案

随着多媒体技术的广泛应用,用DSP芯片设计多媒体设备已经成为人们关注的焦点。然而,对可编程媒体处理器的需求也很高。由于多媒体信号处理技术正处于高速发展阶段,各种国际标准并存,新的标准不断涌现。比如仅视频压缩编码,国际标准就有很多:H.261、H.263、MPEG-1、MPEG-2、MPEG-4和新H.264等。网络上传输的可能有很多不同的标准码流,对于一个设备来说,视频编码技术应该是不断更新的。

例如,早期的视频会议设备使用H.261对视频进行编码。H.263出现后,最好切换到H.263标准,或许很快就会采用H.264作为视频会议的编码标准。有两个要求,一是设备的升级,二是各种标准的转换。对于用固定专用芯片实现的设备,两者都很难实现。但如果以DSP为核心处理器,第一个要求只需要更新软件就可以满足,第二个要求可以适度增加一些功能软件来满足。

考虑到这种需求,一种新型的DSP芯片——媒体处理器应运而生,并很快获得了业界的广泛关注。飞利浦、ADI、TI等半导体供应商非常看好媒体处理器市场,纷纷推出有竞争力的产品。高处理能力芯片的出现给视频会议带来了更小的延迟和更高的帧率。比如TI的TMS320 DM642,Philips的Trimedia,赤道的MAPCA,它们集成了丰富的多媒体信号接口,根据多媒体信号的特点优化处理器结构,甚至嵌入特殊操作的专用协处理器来缓解通用处理器的压力,比如视频编码中的变长编解码器(LC/VLD)。

媒体处理器为实现完全可编程的多媒体设备提供了工具。媒体处理器继承了通用DSP芯片的特点,扩展了多媒体应用的各种接口功能,优化了CPU结构。虽然媒体处理器出现的时间不长,但一直受到广泛关注。可以预见,媒体处理器将很快应用于多媒体设备制造业。

中星微电子公司的多媒体芯片SoC平衡了集成度、灵活性、成本和功耗的要求。目前视频会议系统使用的多媒体芯片产品有VC0301P、VC0302、VC0321。公司副总裁余庆表示,中星微电子的多媒体芯片可以支持目前各种主流的音视频算法,支持从无线多媒体到高端视频会议的一系列应用。在PC平台上,中星微电子与微软合作,最近推出了基于USB2.0的视频即时通讯系统,将视频质量和系统稳定性提升到了一个新的水平。

对于视频会议等多媒体应用,飞利浦推出了数字媒体处理器PNX1500,这是一种片上系统(SoC)。飞利浦半导体高级媒体处理集团市场总监Jan Koene表示:“最新产品Nexperia PNX1500在视频会议系统所需的操作控制任务和数字信号处理任务方面具有出色的能力。这两个任务可以在单个PNX1500上运行,但同样的效率,对于竞争方案来说很难实现。在PNX1500上结合视频I/O、音频I/O、通用接口等硬件模块,可以降低BOM成本。由于所有的音视频编解码功能都由软件实现,飞利浦产品可以很容易地适应新的标准,如H.264”

TI的新数字媒体处理器TMS320DM642有三个视频端口,它们都可以输入或输出。支持BT656、百兆以太网口、多路音频串口、66MHz PCI等。它可以支持四幅D1图像和30帧/秒的MPEG-2实时压缩。TI的数字媒体处理器不仅可以提供微软WMV9格式的高清视频流,还可以提供MPEG-4、MPEG-2和MPEG-1。此外,该设备还支持H.264.

TI半导体事业部高级业务代表郑小龙表示,除了提供720 MHz DM642的样品,TI目前还提供DM640、DM641和600 MHz DM642的量产器件。这些代码兼容的数字媒体处理器可以扩展各种时钟速率和存储容量,并支持从基于视频的便携式消费电子产品到视频基础设施设备的各种应用。

微软Windows Media技术部门副总裁Amir Majidimehr表示,“对于Windows Media 9编码器和解码器,TI的DM642是第一款成功通过D1定义下一致性测试的可编程DSP。TI的新720MHz DM642有助于将HD WM9集成到各种嵌入式消费应用中,具有代码兼容性和可编程性。”

ADI Blackfin是一款高性能、双乘加器(MAC) DSP,具有微处理器性能,如监控和用户模式、存储器保护、8/16/32位运算和多媒体处理扩展等。Blackfin处理器不仅可以用作主音频和视频处理器,还可以用作图形用户界面(GUI)和网络处理的主处理器。Blackfin完全可编程。因此,在不改变硬件平台的情况下,可以容易地支持新标准。比如ADI可视电话平台的Blackfin处理器可以支持H.264,这是通过软件升级实现的。

ADI公司软件和系统技术部产品营销经理Dan Ivanciw表示,Blackfin处理器架构经过优化,可以很好地执行控制和数字算法,可以用作主处理器和音视频处理器。“无论是开发典型的主要功能代码,还是高级的音视频编解码,设计人员都不需要使用多个不同的处理器、不同的开发环境和不同的工具包。使用Blackfin,开发团队只需掌握一种编程方法、指令系统和开发工具环境。用户还将受益于缩短产品上市时间、削减开发成本、降低开发风险和提高IP可重用性。”

在多媒体信号处理领域,特别是在视频处理领域,通常要求数字信号处理器具有优化的内核结构和丰富的多媒体应用接口,但通用信号处理器在这方面的性能无法得到充分发挥。鉴于此,美国赤道公司推出了BSP系列高速宽带数字信号处理器。BSP-15就是其中一个系列,向后兼容MAP-CA。

BSP-15是一款专为视频应用设计的高效DSP,其高度集成的单芯片满足了宽带产品的需求。BSP-15的时钟频率为400MHz,处理能力为40 GOPS(每秒400亿次整数运算),处理速度是奔腾III的8.5倍,是同系列MAP-CA芯片的1.33倍,是其他解决方案的10倍以上。BSP -15的核心功能是使用专为高性能和大视频流的宽带应用而设计的软件。结合iMMediaTools的软件开发环境及其视音频库,BSP-15可以为数字视频图像应用提供高效的解决方案。

据某视频会议产品R&D工程师介绍,BSP-15芯片在视音频系统设计中有三大优势:一是BSP-15专门针对视频图像处理而设计,可以提供高质量的视频效果;其次,BSP-15具有丰富的片上I/O接口,不需要增加太多的外围设备,可以降低整个系统的成本和设计的复杂度。第三,完全用C语言编程,不需要汇编语言,升级方便,灵活性高。BSP-15与TI DSP系列和Philip的Trimedia系列DSP相比,缺点是软件开发难度大,稳定性存疑。但是,BSP-15处理器由于其出色的处理性能,在消费电子、视频会议、数字图像处理等领域仍将占据较大市场。

去年,以色列VCON通信有限公司推出了基于新一代赤道BSP-15多媒体处理器的高性能视频会议编解码器——HD 100视频会议引擎。VCON首席营销官Gordon Daugherty表示:“视频会议的质量越来越接近广播电视,视频会议市场进入了一个新的阶段。VCON集成商可以利用HD100视频会议引擎的紧凑尺寸和高音频和视频质量,以极具竞争力的成本构建各种高级多媒体会议应用。”

未来视频会议的技术趋势

随着IETF技术和标准(如组播技术、带宽预留协议和实时控制协议)逐步解决延迟问题,基于IP的视频会议方案将终端互操作性和高传输性能结合起来。就标准而言,RSVP有助于避免网络拥塞,保证视频会议的传输质量。实时传输协议(RTP)不能保证数据传输的完整性,但可以通过时间戳的方式处理时序关系,使传输过程中的数据序列不会被打乱。视频沟通会变得更容易,成本更低,传统的会议模式已经不能满足互联网时代的需求。视频会议系统作为一种支持人们远距离交流实时信息和开展协同工作的应用系统,使协同成员能够远距离进行直观、真实的视频/音频交流。

ADI公司软件与系统技术部产品营销经理Dan Ivanciw认为,视频会议的技术趋势之一是需要更高压缩率的视频编解码技术;还有服务质量和安全性提高的网络;今天的固定和不灵活的视频会议产品需要更换,或者采用昂贵的硬件升级来兼容,或者在未来利用这些变化和改进。另一个趋势是基于IP的视频服务和VoIP产品的融合。第三大趋势是服务提供商向更广泛的家庭和商业客户提供IP视频增值服务。这种情况也存在于大部分产品领域,用户总是希望增加更多的功能,比如三方或者多方音视频会议。的附加功能要求终端设备具有更强大的处理能力,但是通过将一些性能结合到终端设备中,可以降低基础设施要求。

飞利浦半导体公司的Jan Koene也认为,视频会议的主要趋势是更先进的编解码技术,比如符合H.264标准;另一个趋势是基于POTS(PSTN)的视频会议系统将向基于IP的系统转变;第三个趋势是分辨率将从现有的CIF级别提升到SD级别甚至HD级别。

中星微电子于青表示,除了适用于视频会议终端的高质量/低码率视频压缩技术,视频会议应用层的抗误码技术和视频会议服务器的QoS控制技术也是视频会议的重要技术发展趋势。

中兴通讯视频系统部工程师王良将视频会议的发展趋势总结为“四化”:

1.系统功能多样化,具有图文同声传译功能:除视频、音频外,还可以方便地传输和显示计算机文档,用于培训、汇报和交流;视频会议和电话系统一体化:您可以轻松接入会议电话系统,也可以通过电话和手机加入会议;将视频会议与办公自动化(OA)系统有机结合,在OA网络上实现以下功能:会议组织、会议邮件通知、会议控制、系统维护和升级;在OA网络上实现个人视频通话和多方会议;OA只需普通PC在线即可随时学习会议或培训内容;集中指挥,远程调度——电视墙显示全局,并接入电话进行远程指挥。

2.系统联网的多样化

可以用网络召开会议,可以通过专线、ISDN、IP(ADSL、LAN接入)和电话等现有网络接入各种多媒体终端。

3.图像清晰度

视频会议需要更好、更清晰、更成熟的图像编解码技术。

4.使用维护简单。

易于使用,可以自己组织和控制会议;进行远程管理、远程维护和升级,降低维护成本;更新设计,大大提高系统的稳定性。

华为多媒体产品线营销工程部总监陈崇军指出,未来视频会议的发展需要更先进的音视频编解码技术和更专业的图像、语音的前端和后端处理技术。其次要和下一代网络融合,比如支持IPv6。第三,终端技术的配合

网络标准促进了视频会议的发展。

网络标准的建立为多媒体应用奠定了基础。H.323协议是IP网络的多媒体通信标准,解决了各厂商设备的互通互控问题。随着H.264的推出,视频会议可以以更低的成本提供更高质量的视频效果,之前因资金和技术问题而无法实现的视频应用也有望成为现实。正如博客和即时通讯在过去几年成为重要的网络应用一样,H.264技术将大力推动新的视频应用的诞生。

采用H.264技术的MPEG-4在低比特率视频传输方面取得了突破。据悉,目前Tandberg和Polycom已经生产出支持H.264的产品,华为将在今年年底公布H.264的产品,鼎世通也宣布在voyage系列产品中支持该标准。

2003年7月,ITU批准了H.239标准。基于该技术,视频用户可以获得双流视频服务。据Polycom技术总监余宝生介绍,Polycom的双流人内容技术允许主机发送视频和内容(PowerPoint、浏览器屏幕内容等。)同时进行视频会议。此外,该标准提供的方案同时适用于基于信令的H.320和H.245系统,可以实现会议系统中多路视频信息的同时传输和显示。RADVISION、索尼、VCON等公司也纷纷宣布支持H.239,并生产相关产品。Tandberg的Duo视频也可以实现这个功能。

随着各种技术的不断发展和一系列国际标准的出台,视频会议技术及其设备由少数大公司主导的局面被打破,逐渐发展成为国外公司(如Polycom、Tandberg、VTEL、VCON等)垄断的格局。)和中国本土企业(如中兴、华为、众泰、瑞福等。)共同争夺视频会议市场。随着IP网络和互联网的快速发展,视频会议的应用和发展进入了一个新的时期。未来几年,视频技术将越来越广泛地应用于各个领域,成为信息社会的主流应用之一。

本文来自网络,不代表本站立场,转载请注明出处:https:

腾讯会议怎么一边开视频一边放ppt(视频会议系统的功能简介)

武陵观察网后续将为您提供丰富、全面的关于腾讯会议怎么一边开视频一边放ppt(视频会议系统的功能简介)内容,让您第一时间了解到关于腾讯会议怎么一边开视频一边放ppt(视频会议系统的功能简介)的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。