Soul App首席技术官陶明:聚焦用户安全与内容安全 严守隐私与伦理规范-新华网
新华网 > > 正文
2025 11/07 15:03:44
来源:新华网

Soul App首席技术官陶明:聚焦用户安全与内容安全 严守隐私与伦理规范

字体:

  新华网北京11月7日电(马渭淞)随着生成式AI等技术的突破性发展,人工智能已从单一场景应用迈向多领域通用阶段,这种转型在重塑生产生活方式的同时,也对技术应用与规范约束之间的平衡提出了更高要求。

  在2025年世界人工智能大会上,Soul App展示的“群聊派对”(Audio Partyroom)AI主持人演示引人瞩目,其采用的端到端全双工语音大语言模型经过升级,使AI主持人能够无缝衔接群聊对话,从而消除了传统语音交互中的迟滞感,让参与者直接体验到自然流畅的交流氛围。

  在此当中,技术的飞跃式发展,正使AI伦理治理显得尤为紧迫。面对如此高度自主、深谙人性的AI应用,如何在激励创新的同时,前瞻性地构建伦理规范与风险防线,已成为关乎技术健康可持续发展的核心议题,亟待企业与社会凝聚共识、共同应对。

  聚焦 AI 社交赛道:以技术创新满足用户需求,以伦理意识护航发展之路

  “我们的愿景是构建一个开放的社交网络,让用户在 Soul 上享受健康、安全、信任、真实、温暖且无压力的社交环境。”Soul App首席技术官陶明在谈及公司布局 AI 技术的初衷时明确表示。这一愿景的背后,是平台对年轻人社交诉求的洞察,而 AI 技术则成为实现这一目标的重要支点。

  据了解,早在2016年上线后,Soul便积极布局人工智能技术,初期以传统机器学习与深度学习为核心,着力优化人与人之间的连接效率,助力用户更高效地找到志同道合的伙伴,并促进自我表达与有效倾听。随着社交网络持续演进,用户对社交体验的需求日趋多元,单一推荐算法已难以全面满足期待。因而在2019年前后,Soul洞察生成式AI的技术潜力,由此逐步启动相关布局,旨在进一步推动社交体验的升级与创新。

  “社交是多边或双边关系,良好的社交体验源于双方出色的表达能力。” 陶明表示,Soul 在 AI 技术构建上,一方面致力于增强用户的表达能力,促进人际社交关系,另一方面通过打造虚拟人、AI Agent生态,为不善于主动打开自己、表达自我的用户,提供人机交互的社交新选择。这种技术探索,不仅丰富了平台的社交场景,更让 AI 逐渐成为推动社交体验升级的核心力量,形成了从传统 AI 辅助社交连接到生成式 AI 打造多元社交体验的清晰发展路径。

  然而,AI技术的迅猛发展虽赋予其深刻改变社会互动的能力,但若缺乏伦理约束,可能导致隐私侵犯、算法偏见等问题,侵蚀用户信任与社会公险。因此,Soul 始终保持着对 AI 伦理治理的高度警惕。对此陶明强调:“AI 技术的使用与 AI 伦理治理、安全治理,这两方面我们都要抓,且都要抓得住,只有这样才能让业务更好地发展。”他表示, 自开展社交业务以来,Soul 便确立了两大安全底线 —— 用户安全底线与内容安全底线,并围绕这两大底线,逐步构建起完善的社区行为规范与内容安全规范,这些规范成为平台治理社区、保障社交环境健康的重要准则。

  当进入 AI 社交发展阶段,Soul 将过往在社区治理中积累的经验,顺利迁移到人机交互、人机社交场景中。“我们将原来的用户行为规范和内容安全行为规范,直接移植到自身的 AI 模型上,无需采用传统串联式的安全过滤模式。在底层模型的数据治理层面,我们构建了健康绿色、符合站内行为规范的数据与场景数据机制,从根源上为人人、人机交互提供安全保障。” 陶明的这番言论,揭示了 Soul 将伦理治理融入技术底层的核心思路,也体现出平台在技术创新与伦理治理协同推进上的前瞻性。

  值得一提的是,Soul 推出的官方AI陪伴功能,在数据采集与隐私保护方面的实践,也进一步印证了其对 AI 伦理治理的重视。陶明向记者表示,作为社交平台,Soul 始终积极推进符合用户安全规范与隐私规范的流程制度体系建设,建立了严格的等保安全保护机制与高标准的安全评估审计流程。在模型训练数据方面,Soul 主要采用平台公域合规数据与网上开源数据集,既保障了数据的合规性,又结合垂直社区数据特点与对社交场景的深入理解,通过技术创新与场景构建,让 AI 虚拟人呈现出独特的拟人化、情感化特征,能够为用户带来情绪价值与信息价值的双重传递。

  筑牢伦理治理屏障:多维度构建保障体系,长远规划引领行业发展

  随着人工智能技术日益融入社交领域,AI社交体验正不断深化,随之而来的用户过度依赖、情感沉迷等伦理风险也逐渐显现。在这一背景下,社交平台Soul依托长期积累的企业自律意识,逐步构建起一套系统化的伦理风险监测与干预机制,致力于在技术创新与用户福祉之间寻求平衡。陶明认为“当行业处于发展初期,治理体系尚未完善时,企业自律至关重要。”这一理念贯穿于Soul从技术研发到产品设计的全流程,也成为其推进AI伦理治理的核心出发点。

  早在行业对数据隐私、安全保护等科技伦理问题涌现讨论之前,Soul便从顶层设计入手,成立了专门的数据安全委员会和算法审核委员会,建立起覆盖技术、数据及产品等多个环节的伦理审计机制。该机制将用户规范与行为准则切实融入业务操作层面,不仅体现了平台对伦理风险的前瞻性布局,也反映出其将社会责任置于商业利益之上的经营哲学。陶明透露,平台还计划与高校以及相关研究组织、部门建立紧密交流机制,积极推动行业共识的形成。

  针对用户可能出现的情感依赖问题,Soul并未局限于被动应对,而是将其在“人人社交”场景中积累的治理经验复制并优化至人机交互场景中。具体而言,平台通过打造多元社交场景有效降低了用户的单一场景沉迷风险。除了情感交流功能外,Soul还设立了广场、兴趣社群等多种互动空间,引导用户拓展社交维度,实现更加健康、均衡的社交体验。与此同时,平台建立起实时的用户体验保障机制,能够在监测到用户出现过度依赖倾向时及时介入,通过主动引导帮助用户调整使用行为。

  值得一提的是,Soul提出的“破壁”理念进一步体现了其推动虚拟与现实融合的治理思路。该平台通过技术手段使AI虚拟人能够突破纯虚拟的局限,例如获得用户授权后,当系统感知到用户位于上海时,便可结合当地场景信息提供建议或话题,从而增强AI交互的现实关联性。这一设计不仅提升了AI伴侣的情感交互能力,也有助于用户平衡虚拟社交与现实生活,从根本上减轻对虚拟世界的依赖。

  在AI技术日益同质化的行业背景下,Soul通过对社交行为的深入理解形成了差异化的伦理治理竞争力。陶明认为:“短期来看,技术差异会带来体验差异;但长期来看,体验差异的核心源于对社交认知的积累与对社交行为范式的理解。”正因为Soul长期深耕社交领域,其对用户心理、社交规则具有更敏锐的洞察,能够将伦理治理理念精准嵌入技术研发与产品设计中,使AI社交既保持创新活力,又不偏离安全底线。

  此外,针对此前行业普遍关注的“虚拟人背后是否存在真人”的争议,Soul从技术透明化与用户知情权保障两个维度作出了明确回应。所有AI虚拟人均明确标注“虚拟人”身份,使用户清晰知悉交互对象的属性。此外,平台还通过参与行业论坛、开源部分模型等方式主动公开技术进展,以实力赢得用户信任。

  “我们不刻意去澄清,而是积极与大众沟通,用技术实力与公开透明的举措,让用户逐渐认可Soul是AI驱动的平台。”陶明说道,在保护核心技术安全与保障用户知情权之间,Soul始终以用户利益为核心,在合规范围内,最大限度地向社会披露关键信息。

  迈向协同共治新阶段:技术与伦理并驾,综合治理体系奠定可持续发展基石

  面向未来,Soul已制定清晰的AI伦理治理发展路径,旨在实现技术与伦理的同步演进,避免陷入“技术领先、伦理落后”的困境。首先,平台计划将现有伦理标准与治理规范自动化,并引入红蓝对抗机制,构建能够7×24小时持续迭代的自动化安全保障系统,从而改变传统“模型发布时集中开展伦理治理”的滞后模式,实现对风险的动态防控。其次,Soul希望将自身治理经验转化为行业公共财富,积极参与跨平台伦理框架共建,从更广泛的生态层面推动AI技术稳健发展。最后,该公司还将AI伦理治理视为一项文化工程,从企业价值观层面强化全员对伦理治理的认同,确保每一项决策都经得起伦理考量。

  陶明向记者表示:“AI技术的迭代永无止境,Soul在AI伦理治理方面的探索也不会停歇。”在可预见的未来,Soul将继续以用户需求为核心、以技术创新为驱动、以伦理治理为保障,在AI社交领域持续探索,旨在为用户构建更安全、更健康、更有温度的社交环境,同时也为行业伦理治理体系的完善提供实践范本。这一从自律到共治、从技术到文化、从防护到引导的综合治理体系,不仅体现了企业的社会责任感,也为AI社交行业的可持续发展奠定了坚实基础。

  

【纠错】 【责任编辑:于琦】