自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

以太坊联合创始人Vitalik就ChatGPT安全漏洞发出AI治理风险警告

2025-09-13 15:50:55
收藏

Vitalik Buterin警示AI治理风险 ChatGPT邮件泄露敲响安全警钟

核心要点

以太坊联合创始人Vitalik Buterin针对最新ChatGPT安全警告发出AI治理漏洞警报,指出单纯依赖AI分配资源或管理任务可能为恶意利用打开方便之门。此前演示表明,仅凭受害者邮箱地址即可操纵ChatGPT泄露私人邮件数据。Buterin提出结合开放市场、人工监督和多元AI模型的替代方案以降低系统性风险。专家表示这凸显了加密与金融领域AI工具的广泛隐忧。

Vitalik警示AI治理风险

在最近推文讨论中,Vitalik Buterin强调天真的AI治理极易被利用。他解释称,用户可能提交越狱指令诱导AI转移资金或违背既定规则,此类漏洞证明自动化系统在面对恶意行为者时可能失效。Buterin建议采用"信息金融"模式,允许多个AI模型在人工抽查和评审机制下运作。

他指出,AI贡献的开放市场能确保模型决策的实时多样性,这种设置也激励外部参与者快速监控错误或漏洞。Buterin强调,为治理硬编码单一AI本质上是危险的,人类评审团配合模型间的开放竞争,能有效创建检测和纠正操纵的机制。

ChatGPT邮件泄露事件

安全研究人员Eito Miyamura的演示表明,利用ChatGPT的模型上下文协议(MCP)工具,通过发送含越狱指令的日历邀请,即可诱使AI读取邮件并发送给攻击者。目前OpenAI虽要求开发者模式及手动批准MCP会话,但决策疲劳可能导致用户在不完全理解后果的情况下批准请求。

Buterin回应强调AI治理不应孤立运作,整合人工监督、多元模型和财务激励有助于更快发现缺陷。他指出若无此类保障措施,即便精密AI工具也可能使用户暴露于本可避免的风险之中。

展开阅读全文
更多新闻