首页 / 雷锋网 / 正文

老罗数字人直播6小时背后,百度AI正在拉开差距

雷锋网 2025-06-19 18:01:15

百度AI,又一次给行业制造惊喜。(雷峰网雷峰网(公众号:雷峰网)雷峰网)

6月15日,罗永浩数字人在百度电商完成直播首秀,给出漂亮的成绩单:开播仅26分钟,超过罗永浩真人1小时的GMV,当晚GMV突破5500万元,部分3C、食品等核心品类商品带货单量超罗永浩 5 月真人首秀同期数据,创下数字人直播带货新纪录。

可以说,这场超6小时、近10万字讲解的数字人直播,是百度大模型多模态能力的又一次华丽“阅兵”。它的背后,是百度研制的多模协同的数字人技术的支撑,以保证数字人在长时间直播中,像真人一样、形神音容高度协调、会思考决策、且能协作完成特定任务。

AI战场硝烟弥漫,各方厮杀愈发激烈。不过,当行业还在卷“通用视频生成模型”时,百度高举的是“AI应用战略”的大旗,聚焦在有实际需求的场景,发展模型能力。

罗永浩数字人直播,证明百度已经开始用AI创造GMV。显然,百度的野心不止于此,而是要创造出越来越多“超级有用”的AI应用。

01 AI驱动GMV破5500万,创行业新标杆

凭借极具个人魅力和传播影响力,罗永浩在直播电商领域自有一席之位,其一举一动都备受行业瞩目。

这次,罗永浩与百度数字人直播合作,在数字人的技术驱动和罗永浩的IP效应带动下,期待值早就被拉满。

当晚直播间更是吸引超1300万人次观看,GMV 突破5500万元,侧面说明数字人直播技术的商业可行性。

早在今年4月份的Create AI开发者大会上,百度连发两大模型:文心大模型4.5 Turbo和文心大模型X1 Turbo,其中高说服力数字人,正是多模态大模型的一个典型应用。

这些数字人不仅在神形音容上达到高度一致,更搭载有AI大脑,通过剧本模式和多智能体协同,数字人能够在直播电商领域实现带货转化。

本次罗永浩数字人首秀,在原有高说服力数字人基础上,又创下多个首次。

比如,首次实现头部主播用数字人直播带货,并突破AI视频生成极限播出超6小时。

对于头部主播来说,启用数字人往往伴随操作失误等风险,但在这场数字人直播里,观众通过表情和动作,已经很难判断不是真人。

这些都来自多模融合技术,实现了动作、表情、语调等多个维度与话术的完美统一,以及动作驱动技术,让数字人拥有更长的待机时间,同时让表情和动作更加自然,进一步增强数字人的真实感。比如,数字人老罗直播中,提到抬头纹、法令纹、颈纹的时候,也配合手部动作指出相应位置,这也是业内首次实现多模高度融合的数字人。

首次突破多数字人互动直播,罗永浩与助播数字人配合自然、频频爆梗。

以往罗永浩直播间,通常都会有另一位主播朱萧木做搭档,这次百度AI技术也把朱萧木的数字人搬来了,通过视觉大模型和语音大模型的全面升级,两个数字人在直播间里一唱一和,默契互动,讲解衔接自然,支持打断和同时说话,高度还原了主播和助播的真实直播状态,提升营销转化和C端体验。

这些数字人不但能做出喝奶茶、拎可乐等细节动作,还能与直播间用户弹幕进行实时互动。

在内容方面,得益于最新文心4.5Turbo的加持,大模型不再局限于简单脚本生成,而是既懂创作更懂用户,可以量身打造大师级剧本模式,让数字人拥有罗永浩的强烈个人风格,“罗氏幽默”的话语更是张口就来。

面对多任务的复杂直播场景,整场直播AI调用知识库 1.3 万次,生成 9.7 万字产品讲解内容,双数字人搭档做出超8300个动作,并以3倍于真人直播间的互动次数,再次证明百度AI应用的强大控场力。

以上种种技术优势的背后,全部依托于百度研制的多模协同的数字人技术,这是基于文心 4.5T 实现了融合多模规划与深度思考的剧本生成,由剧本驱动数字人多模协同,实现动态决策的实时交互,再结合文本自控的语音合成大模型生成风格恰当、自然流畅的声音,以及高一致性超拟真数字人长视频生成,使数字人的“神、形、音、容、话”达到高度统一。

最终,呈现出一个具备高表现力、内容吸引人,且“人-物-场”可自由交互的超拟真数字人。

02 超6小时数字人直播背后,源于多模协同的数字人技术

数字人这一概念并非新词,其发展阶段也经历了从探索到商业爆发的历程。

数字人最初起源于20世纪末,早期受限于技术,主要应用于游戏和动画。随着图形学和AI进步,虚拟助手和偶像开始出现,比如2007年初音未来的走红;随着AIGC技术的突破,大幅降低了数字人的制作成本和技术门槛,使其在直播电商、教育、金融等领域得到广泛应用。

坦白讲,要达到罗永浩数字人这样的效果并非易事,需要具备出色的表现力、吸引人的内容、数字人与场景、物品的互动等。此前就有商家选择AI主播,结果出现了内容模板化、缺乏创意、答非所问的状况。

那么,百度高说服力数字人的“超能力”从何而来?答案是,剧本驱动的数字人多模协同、融合多模规划与深度思考的剧本生成、动态决策的实时交互、文本自控的语音合成、高一致性超拟真数字人长视频生成等五项创新技术组成的多模协同的数字人技术。

语言模型是这套数字人技术方案的核心引擎。由它生成的剧本,能够精确指导语音和视觉系统,实现高度协同的多模态交互。这种协同作用最终塑造了数字人逼真的音容笑貌,使其整体表现更为自然流畅。

首先,最关键技术就是剧本生成。

数字人不管是直播,还是完成视频内容的生产,第一个关键就是数字人本身讲出来的内容——台词。台词包括多样化风格、拟真化人设、吸引力内容。

有很多主播受到用户的喜爱,原因是因为他们有非常鲜明的人设和独特的语言风格。这些都需要模型在台词生成上建设相应的能力来实现。

基于大语言模型的剧本生成在生成台词时,同步生成数字人的动作、表情和语调等信息标签,以及每个模态的对齐位置,实现多模协同工作。

简单来说,新一代数字人技术不再只是“照本宣科”,而是以剧本驱动视频和语音,在生成时进行多模态的内容匹配和位置对齐,实现更智能和自然的表现。

第三,动态交互是数字人能够像真人一样,与用户互动的关键能力,也是体现数字人真实性的关键因素。百度研制的动态交互技术,让数字人的互动能力媲美真人,并通过视频断点设计,让动态视频片段能够在视频流中顺畅衔接。

在数字人场景的语音合成上,和以往熟悉的朗诵式语音合成也有很大的区别。

最主要的区别在于数字人需要语音的自然流畅,在讲述不同东西的时候有抑扬顿挫感,在希望能够更好地感染别人的时候有激情澎湃的感觉。

通过文本自控的语音合成大模型,实现字级别指令遵循的合成能力,控制声音效果的平滑流畅,再结合直播文本及发音人信息,合成风格恰当、自然流畅的声音。

罗永浩数字人还遇到了直播双人声音配合的难点,百度选择采用对话上下文编码器的方法,将对话历史输入和当前对话进行语音合成的统一推理计算,最终实现了老罗和朱萧木两人流畅、自然的对话效果。

最后,在高一致性超拟真数字人长视频生成上,百度构建了一整套数字人形象生成和驱动技术,专门解决数字人面临的高可控交互,高精度、长时间一致性保持等难点,保证数字人能够长时间稳定运行,并具备高表现力和自由交互能力。

最终呈现在直播间里,就像是观众看到的罗永浩数字人一样,是一个能够理解用户、并会多种表情和神态的智能体。

可以说,百度呈现的数字人直播是大模型技术的集大成应用,罗永浩数字人是基于文心大模型的最佳实践。

03 提升应用落地效果,模型能力是关键

OpenAI首席执行官Sam Altman说过:“AI 的真正革命不在实验室,而在普通人的指尖。”

理解了这句话,就能够理解当下百度AI正在做的事情。

作为国内最早投入大模型产研的企业,百度在芯片、框架、模型、应用四层技术栈进行全面布局,AI大模型领域的技术创新优势明显。

今年上半年,百度连发4款基座大模型,文心大模型4.5/4.5T、文心大模型X1/X1 Turbo,其中文心4.5价格仅为GPT的1%,X1 Turbo在信通院评测中获得最高评级。

就在今年百度Q1财报电话会议上,李彦宏表示,2025年将加速迭代文心系列模型,下一代文心大模型已在研发中,6月30日将开源最先进的文心4.5系列模型。

百度正以数字人、代码智能体、无人驾驶等为切入点,全力推动AI应用落地。

当行业还在探索通用视频生成模型时,百度已将AI应用落地,聚焦实际需求发展模型能力,率先用AI创造商业价值、提升GMV。

相较于通用的视频生成模型,数字人聚焦特定垂直领域,具备更精准的模型优化、极致的人机交互体验、实时互动能力等优势,技术门槛相对较低,应用场景清晰,更易形成可复制的商业模式。

从这一点来看,此次罗永浩的数字人超长直播,正是百度大模型在多模态上的综合应用的有力证明。

今年,百度上线无代码生成工具“秒哒”,降低了应用开发的门槛,让更多人有机会参与技术创新。同时,AI代码辅助工具“文心快码”也服务了数百万开发者,在无人驾驶领域,百度旗下萝卜快跑加速出海,在全球范围内积累了超过1100万次服务,积极推动无人驾驶技术的商业化应用。

从数字人、代码智能体到无人驾驶......都预示着百度AI技术正加速渗透到各个领域。可以断定,AI将不再是个遥远的概念,它正加速在各行各业落地扎根。

正如百度创始人李彦宏一直强调的,“应用才是大模型真正价值所在”,从应用出发做模型,正在让百度创造出越来越多“超级有用”的AI应用。


雷峰网原创文章,未经授权禁止转载。详情见转载须知

时讯快报

5.5亿用户的选择

立即打开