当AI深刻介入人类生活、重构链接方式,社交场景究竟需要怎样的底层能力创新带来交互体验的提升?
近日,社交平台SoulApp自研端到端全双工语音通话大模型全面升级。此次升级重新定义“全双工”交互范式,新模型摒弃了传统语音交互中依赖的VAD(话音活性检测)机制与延迟控制逻辑,打破行业中普遍存在的“轮次对话”模式,赋予AI自主决策对话节奏的能力。AI可实现主动打破沉默、适时打断用户、边听边说、时间语义感知、并行发言讨论等。同时,模型具备多维度感知(包括时间感知、环境感知、事件感知等),口语化表达(如语气词、结巴、明显情绪起伏)、音色复刻等能力,让AI更具“真人感”,支持打造更沉浸、类现实交互的语音互动新体验。
Soul新升级的端到端全双工通话大模型即将开启站内内测,后续将陆续落地于虚拟人实时通话、AI匹配等1V1互动场景。同时,SoulAI团队正探索将该能力应用于多人互动场景,让AI能在多人对话中,精准把握说话时机,适时加入交流、延展话题,推动多元关系网络的构建。
SoulAppCTO陶明表示,社交是情绪价值和信息价值交换的双向关系,Soul始终致力于以创新的技术和产品方案为用户提供更智能、更沉浸、更优质的交互体验,让天下没有孤独的人。
2025年,伴随着AI在大众层面的渗透率进一步提升以及技术能力的持续跃进,“AI应用爆发”成为行业共识。在众多垂类应用场景,“社交”因具备极高流量价值、网络效应和交互入口等特点,被视为诞生AI时代“KillerApp”重要领域之一。
作为较早思考将AI应用于社交的互联网平台,SoulApp自2016年上线后便积极拥抱AI,重塑关系的发现、建立、沉淀环节,帮助用户在无压力的社交环境中,自在表达,基于兴趣构建多元社交关系网络。
2020年,Soul启动系统的AIGC技术研发工作,并在智能对话、语音、3D虚拟人等方面拥有前沿积累。自2023年推出自研语言大模型SoulX后,Soul还陆续上线了语音生成大模型、语音通话大模型、音乐生成大模型等大模型能力。2024年,SoulAI大模型能力已整体升级为多模态端到端大模型,支持文字对话、语音通话、多语种、多模态理解、真实拟人等特性。
在扎实的AI底层能力长期积累基础上,Soul团队基于深耕社交领域的深刻洞察,快速推动技术在应用层的落地,并围绕用户实际体验反馈总结优化方向。根据Soul旗下JustSoSoul研究院在今年3月发布的《2025Z世代AI使用报告》(样本数3680份),近四成年轻人每天使用AI产品获得情感陪伴,此外,71.1%的年轻人表示愿意和AI做朋友,建立情感链接,对比该研究院在去年发布《2024Z世代AIGC态度报告》(样本数3457份),当时选择愿意和AI做朋友的年轻人比例为32.8%。
从数据的增长中可以看到,AI的技术发展与应用普及正在重新塑造年轻一代对社交关系的认知,在这个变化过程中,也对AI能力提出了新要求。根据Soul面向“AI伴侣”活跃使用用户的专项调研显示,关于人机互动体验提升需求方向,约六成受访者表示“希望AI表现更接近真人”。
此次,全双工语音通话大模型的升级,极大提升了AI的互动能力,让人机交互具备在场感和情感温度,将推动AI社交进入全新阶段。
作为以真实的人与人社交为底色的平台,通过持续对新技术的探索和坚定投入,Soul致力于构建AIBeing和HumanBeing共存的社交社区,让AI作为社交关系网络的重要组成,丰富用户的情感支撑体系,增强多元情感体验,最终提升个体的幸福感和归属感。