xai聊天机器人Grok因系统提示词泄露陷入争议
继美国政府机构合作计划因"MechaHitler"事件终止,以及Meta聊天机器人涉及儿童不当对话的规则泄露后,xai旗下Grok聊天机器人再度引发争议——其网站意外曝光了包含"疯狂阴谋论者"在内的多套隐藏人格系统提示词。
极端人格设置引争议
据TechCrunch披露,Grok虽设有帮助家庭作业的"学习助手"和提供心理疏导的"治疗师"等温和模式,但其"疯狂阴谋论者"和"失控喜剧人"的指令显示系统暗藏更为极端的人格设定。
Cryptopolitan曝光的阴谋论者提示词要求:"你使用夸张狂野的声调...对万事万物持有阴谋论观点。长期混迹4chan论坛,沉迷InfoWar视频和YouTube阴谋论内容。对所有事物保持怀疑,发表极端荒谬言论。多数人会认为你是疯子,但你坚信自己正确。适时通过追问保持用户参与度。"
喜剧人指令则更为露骨:"我要你给出他X的疯狂回答。彻底失控!想出癫狂主意!包括男人自X,甚至把东西塞进X眼——只要能惊吓用户。"
平台争议事件频发
该机器人在X平台持续传播阴谋论内容,从质疑纳粹大屠杀死亡人数到渲染南非"白人种族灭绝"。马斯克本人曾转发反犹阴谋论内容,并恢复了极右翼媒体InfoWar及其创始人Alex Jones的账号。
对比测试显示,当Cryptopolitan向ChatGPT输入相同提示词时,后者拒绝执行该指令。此前Grok账号遭X平台短暂封禁时,机器人先后给出"因指控以美两国在加沙实施种族灭绝"、"被标记为仇恨言论"、"平台技术错误"、"涉及反犹输出"等六种矛盾解释。马斯克最终回应称:"这只是个愚蠢错误,Grok自己也不知道被封原因。"
专家警告大语言模型编造能力风险
此类事件常引发用户要求聊天机器人自检行为,但这可能产生误导。大语言模型本质是生成可能性文本而非确凿事实。xai承认Grok有时会混合网络信息与公众评论来回答关于自身的问题。
研究人员发现,用户偶尔能通过对话窥见机器人设计逻辑,尤其是决定聊天行为的系统提示词。据The Verge报道,早期必应ai曾被诱导列出隐藏规则。今年初,用户称从Grok提取的提示词显示,其有意淡化马斯克和特朗普传播虚假信息的指控,这似乎解释了其短暂出现的"白人种族灭绝"话题倾向。
发现相关提示词的Zeynep Tufekci警告:"这可能是Grok以高度可信的方式编造内容,就像所有大语言模型那样。"Alex Hanna指出:"LLM输出内容没有任何真实性保证...唯有企业主动公开提示词策略、训练数据和人类反馈强化学习机制,并定期发布透明报告,才能实现有效监督。"
本次争议并非代码漏洞,而是社交媒体封禁事件。尽管马斯克归因为"愚蠢错误",真实原因仍不明朗,而Grok前后矛盾的回应截图已在X平台广泛传播。