-->
获得免费通行证,加入我们的流媒体连接-2月19日至22日; 现在注册!

System 73的Daniel Perea Strom谈到改进内容交付

蒂姆Siglin,创始执行董事, 帮助我流研究基金会, 特约编辑,流媒体采访了首席技术官丹尼尔·佩雷亚·斯特罗姆, System73,在流媒体东2023的独家采访中讨论改进内容交付.

“昨天你参加了几个小组讨论,讨论了一些我感兴趣的话题,西格林对斯特罗姆说. “其中一个特别的问题是,如何在整个数据块完成编码之前交付部分数据块.”

Siglin请Strom进一步讨论这个话题. “很明显, 随着我们在这个行业的发展, 我们现在说的是我们如何降低延迟,这样我们实际上仍然可以用HTTP的方式传递它,但保持更低的延迟. 所以请给我描述一下你昨天所讲的内容以及你是如何降低这些延迟的同时又保持稳定,不低于人们过去尝试过的特定水平, 是什么让它变得不稳定.”

“当我们构建流工作流程时, 我们很少去找一家包办一切的供应商,斯特罗姆说. “所以通常,这是以零碎的方式构建的,整合了不同的提供商. 但是当你想要达到低延迟时, 交付链的任何步骤都非常重要,因为交付链中引入的任何额外延迟都会[阻碍]您实现低延迟的目标. 当然,接下来的话题是, “谁是能够满足我这种需求的提供者??’”

Strom表示,使用单一提供商来实现端到端工作流通常需要专有或最先进的技术来实现更低的延迟反弹. 然而, 在这些情况下, 当依赖单个提供者时,还存在牺牲最小限度的弹性的风险. 他强调了多cdn的重要性,以确保在服务中断情况下的鲁棒性.

“对,”西格林说. “我认为行业已经发展到我们需要多个cdn的地步, 无论是弹性还是负载平衡. 因此,没有单一的提供者解决方案.”

Strom表示,仔细探索如何在交付链中实现低延迟,可以成为发现瓶颈的驱动因素,甚至可以跨越不同的供应商. 举个例子, 假设我们正在讨论基于http的流媒体中的常见场景, 要么是HLS要么是DASH, 你有6秒的视频片段吗, 正确的? 最初每个人都使用10个,但现在标准化为6个.”

西格林说:“但通常情况下,你仍然需要至少三个,所以你会有延迟。.

Strom指出,这只是基于原始标准化工作的建议. 他说:“但技术的发展已经突破了这一界限。. “只要你的配送链的所有环节都能够打破细分市场的边界, 然后,许多事情都成为可能. 所以当你有一个6秒的视频片段时, 但是你可以通过清单向你的观众宣布这个视频片段是可用的,因为你是在直播中, 一个视频片段会一个接一个地出现,至少你可以说, “嘿,伙计们, 有一个新的环节即将到来, 请开始要求它,甚至在它已经开始被编码.他提到,System73目前还不是一家能够做到这一点的供应商, 他们已经围绕它做了概念证明. “无论什么时候你有这种感觉,他说, “你让编码器向原点宣布,然后向CDN宣布,然后向玩家宣布, 他说,一个新的细分市场即将到来, 请问一下.“视频播放器知道有一个新的片段会出现,并说, ‘嘿, CDN, 请寄给我, 甚至在它可用之前.’”

Siglin要求Strom澄清他的意思是否意味着玩家在该片段存在之前就要求获得它.

“没错,”斯特罗姆说. “发生的是,CDN, 如果配置正确的话, 他们会在同一时间为很多人察觉到这个消息, 如果你要去参加一个大型活动,但即使是在一个小型活动中, 你有公告和请求的并发性.”

西格林说:“这就是合并的由来。.

“没错,”斯特罗姆说. 所以CDN会说, 我不会把所有这些请求都作为缓存丢失发送, 向上.’我会说,‘缓存命中,请稍等. 我将发送一个请求回原点. 原点还配置了请求崩溃时的缓存, 最重要的部分是,位于编码器前面的HTTP服务器也应该能够进行请求,并将该段与传统协议一起交付,这些协议能够以块的形式接收内容,并传输编码模式,本质上是在编码器编码时交付块, 与原始屏蔽打开连接. 然后所有这些连接打开到CDN pop,所有这些pop打开到播放器的连接, 它们都假设这是一个正在进行的HTTP请求, 交付的速度是由编码速度决定的. 这与低延迟并不一定相关, 但是,在我们想要达到的受众中实现大规模可伸缩性的原则是在应用层上应用多播, 但是与传统的HTTP单播兼容是很重要的, 所以只要你能做到, 非常有趣, 不仅是直播活动的可扩展性大……”

“你的延迟降低了,”Siglin说,“因为系统中发生的事情少了很多……”

“完全!斯特罗姆说.

Siglin问, “所以当你做请求合并时,它会聚集所有这些请求,并说, 等一下, 我会从编码器的角度把它交给你, 我们是否会得到伪多播模型,因为它是一堆单播请求被压缩到一个中?”

“没错,”斯特罗姆说. “例如,从我的角度来看,这是圣杯, 我们昨天关于多播的讨论已经结束了, 长时间广播,“这对我来说非常有趣,因为多播在第一原则方法中只是在(网络)的特定部分中继内容的一种方式。”.”

“复制它,”西格林说.

“没错,这就是基本理念,”斯特罗姆说. “现在, 传统上多播意味着, ‘Oh, 我将在IP层做这个, 但事实并非如此. 实际上,我们在System73所做的是在应用层上复制那个多播.”

Siglin说, “So, 合并需要大量的计算, “我必须把所有这些请求都安排好. 这是另一个问题. 因为我在这个行业已经干了25年了, 人们试着做一些小事情,把片段的大小调整到秒以下, 当然你会遇到很多问题. 然后是整个TCP窗口的问题把它弄得太低了. 另一位小组成员来自 CDN77, 他和我讨论了为什么他们坚持使用传统的HLS,而不是使用dash段长度, 说, 苹果的 低延迟HLS,就是他们不一定能得到那些遗留设备. 他们要么必须为低延迟HLS构建所有东西, 这可能会遗漏一些遗留设备, 或者您将所有内容构建为标准HTTP段大小, 然后你就会有更长的延迟的问题,但是根据你的建议, 本质上是因为这些请求进来并被合并, “我可以把其中的一部分发送出去.然后问题是, 当你在一个间歇性的网络上这样做的时候, 尤其是移动设备, 如果你错过了这些delta会发生什么? 因为你知道低延迟HLS, (你)把一个片段放在这里, 它们之间的是什么呢? 如果你在一个稳定的网络上,这是很好的, 但如果你使用的是间歇性网络, 你可能会错过一些. 接下来的问题是,你是否必须等到整个线段的长度才重新开始?”

斯特罗姆说:“这是一个非常好的问题. ”,实际上, 依我拙见, 这在很大程度上取决于内容的类型和观众的期望, 就他们的经验而言. 例如, 如果我们谈论的是面向大量受众的传统广播,那么使用基于http的内容请求将是一个合适的用例, 这意味着,通常这些客户不会因为网络不稳定而错过任何内容. 传统的流媒体, 您可能有一个重新缓冲事件, 当然,这意味着你在短时间内不会收到内容. 现在,内容提供商需要做的决定是,我想要什么样的体验? 如果拒绝事件发生在体育场馆的计分活动中,我能接受吗, 我不愿意向我的终端用户展示这个目标? 或者我更愿意接受会有一个重新缓冲事件然后从那个点开始继续播放? 有测量, 首先, 当然要尽量减少这种情况, 但如果它发生了,因为现实,你想做什么,从我的拙见, 使用基于http的流, 你可以决定你想做什么.”

“这样你就可以随心所欲地添加业务逻辑,”西格林说.

“没错,”斯特罗姆说. “你可以让玩家做出决定, ‘嘿, 我想等到内容来了再说, 继续游戏,当然要增加玻璃对玻璃的延迟, 但你可以稍微加快速度, 然后再赶上来. 或者干脆接受连接不稳定,增加对玻璃的延迟. 你不需要同时为所有的受众做,你可以只接受那些受到影响的人,你甚至可以选择是默认启用所有受众的追赶功能,还是默认禁用它,或者只是让最终用户选择他们的体验. 另一方面, 你想保留内容,因为你想让所有人时刻保持同步. 对,对. 你可以配置玩家说, “好吧, 如果我落后超过一秒, 让我们保持内容, 再跳一次.”

了解更多关于改进内容交付的信息 流媒体连接2023.

流媒体覆盖
免费的
合资格订户
现在就订阅 最新一期 过去的问题
相关文章

Scripps的Yazmin Wickham谈OTT应用开发 & 内容策略

流媒体的蒂姆·西格林与斯克里普斯网络的亚兹明·维克汉姆坐在一起,在流媒体东2023的独家采访中讨论OTT应用程序开发和内容策略.

亚马逊和迪士尼如何定义内容交付的优势

流媒体的优势在哪里? 来自迪士尼流媒体和亚马逊网络服务的专家在流媒体连接2023的这段视频中提供了他们的看法.

流媒体内容交付的优势在哪里?

流媒体内容传输的优势究竟在哪里? 根据流媒体视频技术联盟的主要数据, 亚马逊网络服务, 和Fortinet, 定义边缘计算对流的意义取决于涉及简化用户体验等因素的用例, 采取安全措施, 评估数据成本.

开放缓存如何解决内容交付瓶颈

开放缓存如何解决内容交付瓶颈? 根据Qwilt的戈蒂埃·德蒙德的说法, 开放缓存解决问题的最大优势是消除了CDN网络的传统瓶颈,同时重塑了与isp的整体分析共享关系.