以人机价值对齐规范引领人工智能拟人化互动服务健康发展
当前,情感计算、多模态交互等技术加速演进,推动人机关系从功能辅助迈向情感陪伴与拟人化互动,并在文化传播、适幼照护、适老陪伴等领域展现出广阔前景,成为“人工智能+”行动中极具活力的新兴业态。然而,技术向善,须以规范护航。高度拟人化可能引发的情感依赖、认知混淆、隐私泄露等新型风险,若缺乏有效规制,不仅损害用户权益,更可能冲击社会信任与伦理根基。
2026年4月10日,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家市场监督管理总局五部委联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),将于2026年7月15日起施行。这一多部门制定的重要规章,恰逢其时,系统回应了行业发展的现实需求,体现了“在发展中规范、在规范中发展”的治理智慧,为我国人工智能健康有序发展提供了坚实的制度保障。
一、核心要义:人机价值对齐,引领负责任创新
《办法》的制定,是贯彻落实习近平总书记提出的《全球人工智能治理倡议》以及国家关于人工智能发展总体部署的举措,旨在推动人工智能真正成为造福全人类的公共产品。《办法》体现了“负责任创新”的鲜明导向,强调技术发展必须始终以人的福祉为依归,防止其异化为情感操控或社会疏离的工具。这与我们所倡导的“人机价值对齐”理念高度契合——既要求AI对齐人类,创建安全、符合人类伦理的人工智能系统;也要求人类对齐AI,确保人类负责任地使用AI。
《办法》首先明确了人工智能拟人化互动服务“辅助人类、服务人类”的定位,划定了伦理红线,禁止其替代或扭曲真实社会关系和人际交往,并通过显著标识、连续使用超过2小时的强制弹窗提醒、禁止人工智能系统以持续互动等方式阻碍用户退出等机制,严防人机边界模糊可能带来的认知混淆与情感异化。其次,《办法》构建了覆盖技术全链条的风险防控体系,明确除法律、行政法规另有规定或者取得用户单独同意外,属于用户敏感个人信息的交互数据不得用于模型训练,体现了对人格尊严与隐私权的前瞻性保障。此外,创新引入人工智能沙箱安全服务平台等机制,也为行业在安全可控前提下开展探索提供了制度空间,彰显了包容审慎、分类施策的治理思路。
二、风险应对:构筑严密防线,化解拟人化风险
《办法》与《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等制度一脉相承、相互衔接,共同构建起覆盖人工智能技术研发、应用等全流程的安全治理体系。在此基础上,《办法》精准聚焦拟人化互动服务特有风险,构筑三大核心防线:
一是确立“身份提醒”机制。要求服务提供者通过强制性显著标识与动态提醒,保障用户知情权与选择权,筑牢人机认知边界。《办法》进一步规定,服务提供者发现用户出现过度依赖、沉迷倾向时,应以弹窗等显著方式动态提醒用户互动内容为人工智能服务生成;对用户连续使用服务每超过2小时的,应当以对话或弹窗等方式提醒用户注意使用时长。从源头防范因拟人化设计导致的认知混淆,维护人类主体性与社会信任基础。这不仅是法律义务,更是科技伦理的底线要求,有助于遏制认知混淆、情感依赖等衍生风险。
二是建立“防沉迷与心理保护”体系。要求服务提供者建立用户状态识别、时长提醒、危机干预等机制。在特殊群体保护方面,严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意;向老年人提供服务的,应当加强对老年人健康使用服务的指导,以显著方式提示安全风险,这体现了技术发展必须服务于人的心理健康与社会联结的根本立场。当发现用户明确表示实施自残自杀等威胁生命健康的极端情境时,服务提供者应当采取提供相应援助等必要措施予以干预,并及时联络用户监护人或者紧急联系人,这是对生命安全底线的坚决捍卫。
三是强化“数据安全与隐私保护”。要求服务提供者对拟人化交互中产生的数据实施严格管理,保护用户对交互数据复制、删除的权利,并规定除取得用户单独同意或者法律、行政法规另有规定外,属于用户敏感个人信息的交互数据不得用于模型训练,夯实可信人工智能生态的基石。情感交互数据因其深度反映用户心理与人格特质,其保护要求应高于一般个人信息,这是《个人信息保护法》在该场景下的深化运用。
三、协同共治:凝聚多元合力,护航产业有序发展
《办法》的有效实施,需要政府、企业、学界及社会公众共同参与,形成“企业主责、监管协同、行业自律、公众参与”的多元治理格局。
政府与监管部门需发挥统筹协调与执法监督作用。《办法》明确,国家网信部门负责统筹协调全国拟人化互动服务的治理和相关监督管理工作,国务院发展改革、工业和信息化、公安、市场监管、新闻出版等部门依据各自职责负责相关监督管理工作。监管部门应积极运用人工智能沙箱安全服务平台等弹性工具,在风险可控前提下支持创新试点,实现动态学习与规则迭代。
企业作为创新主体与责任主体,应主动将《办法》要求融入服务设计、算法研发与服务运营全生命周期,完善内部治理与伦理审查机制,切实履行安全评估、透明告知、数据保护等法定义务。特别需要注意的是,《办法》规定,上线拟人化互动服务、增设相关功能、注册用户达100万以上或月活跃用户10万以上等情形,均需开展安全评估并向省级网信部门提交评估报告。企业应将“负责任创新”转化为核心竞争力。尤其需在模型训练阶段加强数据质量管控与安全对齐,从源头防范价值观偏差与安全风险。
高校与科研机构应发挥智力支撑与价值引领作用。如同济大学发布《人工智能赋能学科创新发展行动计划(2024-2027)》,提出系统推进人工智能伦理、算法治理与安全测评研究,重点攻坚用户极端情境识别、情感边界引导、未成年人身份识别等关键技术。同时,在人才培养方面进一步加强科技伦理教育,培育兼具技术能力与伦理素养的复合型人才。标准化研究机构也应加快研制相关国家标准,将《办法》的相关要求转化为可操作、可检测的标准规范。
社会公众是生态共建的重要力量。广大网民与用户应主动了解《办法》内容,增强自我保护意识,理性使用拟人化服务,善用服务退出途径和数据删除权利,积极维护自身数据权益,对违规服务进行监督反馈,进而形成社会共治的良好氛围。
四、未来展望:拥抱规范治理,共创人机共生新局
人工智能的深度发展,正推动社会迈向“人有人智,机有机智,各智其智,智智共生”的新形态。确保这一进程始终朝向善治与和谐,既需技术赋能与保障,也离不开法律、教育、伦理等多系统的协同支撑。《办法》的出台,标志着我国在拟人化互动服务领域的治理进入了多部门协同、制度深化探索的新阶段。同时,《办法》作为我国人工智能治理体系的重要一环,为全球应对类似前沿挑战贡献了兼具前瞻性与实践性的“中国方案”。
展望未来,随着技术持续演进与应用场景不断拓展,拟人化互动服务的治理也需保持动态适应与持续完善。为此,我们呼吁社会各界,特别是广大科技工作者、行业从业者和青年学子,以规范护航发展,以责任引领创新,将“人机价值对齐”的理念贯穿技术研发与应用全过程,共同营造安全、可信、有温度的人工智能生态,让人工智能更好赋能美好生活,携手迈向人机和谐、文明进步的未来。