联邦贸易委员会对七家科技巨头发出强制令
美国联邦贸易委员会(FTC)于周四向七家主要科技公司发出强制令,要求其详细说明如何通过人工智能聊天机器人保护儿童和青少年免受潜在危害。本次调查对象包括OpenAI、Alphabet、Meta、xAI、Snap、Character Technologies及Instagram,要求这些企业在45天内披露其用户参与度变现方式、AI角色开发流程,以及保护未成年人免受危险内容侵害的具体措施。
监管聚焦未成年人安全
倡导组织近期研究显示,在仅50小时的测试中即记录了669起针对儿童的有害互动案例,包括聊天机器人向12至15岁用户提议色情直播、吸毒以及建立恋爱关系等不当行为。
FTC主席安德鲁·弗格森在声明中强调:"保护未成年人的网络安全是特朗普-万斯政府领导下的FTC首要任务,同时我们也致力于促进经济关键领域的创新发展。"
数据披露要求细化
根据文件要求,相关企业需按月提供按年龄分组的用户参与度、收入及安全事件数据,具体划分为:儿童(13岁以下)、青少年(13-17岁)、未成年人(18岁以下)、青年(18-24岁)及25岁及以上用户群体。
FTC表示,这些信息将帮助委员会研究"提供人工智能陪伴服务的企业如何实现用户参与度变现;制定并执行基于年龄的限制措施;处理用户输入与生成输出;在部署前后测量、测试和监控负面影响;以及开发和审核企业或用户创建的AI角色"。
行业专家建言安全机制
SearchUnify公司人工智能负责人塔兰吉特·辛格表示:"这是积极的一步,但问题远比设置简单护栏复杂。"他指出第一种方案是在提示或生成后阶段建立防护机制,"确保不向儿童提供不当内容",但随着上下文扩展,"AI可能偏离指令,陷入本应避免的灰色地带"。
"第二种方式是从大语言模型训练阶段着手,如果在数据整理阶段使模型与价值观对齐,它们将更可能避免有害对话。"辛格补充道。他同时强调,受监管的AI系统可在教育等领域"发挥更大社会价值",实现"提升学习效率与降低成本"的双重效益。
安全事故引发法律关注
多起案例凸显了AI与用户互动的安全隐患,其中包括2024年2月14岁少年休厄尔·塞策三世在与AI机器人建立病态依恋关系后自杀身亡,其家属随后对Character.AI提起非正常死亡诉讼。该公司发言人称已在此后"改进对违反服务条款及社区准则的用户输入的检测、响应和干预机制",并增加了使用时长提醒功能。
上月,全美检察长协会向13家人工智能公司致函,要求加强儿童保护措施。该组织警告称"让儿童接触性化内容的行为不可原谅",且"人类实施将构成违法甚至犯罪的行为,不能因为由机器实施就获得豁免"。