中国发布类人人工智能系统监管规则草案
中国“类人AI规则”本周引发关注:国家网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向社会征求意见;与此同时,中国已在2025年9月起实施AI生成内容强制标识要求,推动“可识别、可追溯”的治理框架。 发生了什么:谁在做、做什么、何时何地 国家互联网信息办公室(国家网信办)在官方网站公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,对“拟人化互动服务”提出系统性管理要求,并向社会公开征求意见。 多家公开报道指出,此次征求意见期截至2026年1月25日,意味着相关企业、研究机构与公众可在窗口期内提交修改建议。 该举措发生在中国强化生成式AI与合成内容治理的大背景下:2025年9月1日起,中国已实施AI生成内容标识规则,要求对AI生成/合成的多媒体内容进行显性或隐性标注。 “拟人化互动服务”指什么 从公开信息看,征求意见稿瞄准的是具备“类人沟通”“人格化表达”“情感陪伴”等特征的AI服务形态,覆盖文字、图片、音频、视频等多模态交互,并强调其对用户心理与行为可能产生的持续影响。 这类产品在市场上常被称为“AI陪伴”“数字人”“拟人化聊天机器人”等,其核心卖点往往不是单纯的信息检索,而是模拟人的语气、性格与情绪反馈。 监管为何聚焦“类人化” 公开报道将监管关注点指向两类风险:一是“过度沉浸、依赖甚至成瘾”的使用风险;二是情绪操控、诱导消费或不当内容对未成年人及脆弱人群的影响风险。 在这一逻辑下,监管不只看“AI生成了什么”,也看“AI如何与人建立关系、如何影响人的决策与情绪”。 征求意见稿的核心要求(公开摘要层面) 从已披露的公开摘要与报道梳理,征求意见稿对提供者提出了更强的“全流程责任”与“风险处置义务”,尤其强调对沉迷、极端情绪等状态的识别与干预。 相关报道指出,规则要求服务提供者进行提醒与干预,避免用户过度使用,并在识别到疑似成瘾或异常情绪状态时采取措施。 此外,公开信息也将其与算法治理、数据安全、个人信息保护等既有合规框架相衔接,强调企业需建立可审计的安全管理体系。 重点条款方向一览 监管方向 公开信息显示的要求重点 沉迷与依赖治理 提醒理性使用;发现疑似沉迷或过度依赖时应干预处置。
Read More