自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

牛津研究警告:AI聊天机器人提供医疗建议存在"危险"

2026-02-12 23:23:53
收藏

人工智能医疗助手距离现实应用尚有差距,可能带来潜在风险

人工智能聊天机器人正力图成为医疗健康领域的下一个重大突破,它们能够通过标准化测试,为人们的健康问题提供建议。然而《自然·医学》期刊近期发表的一项研究表明,这类技术不仅远未达到理想目标,甚至可能带来危险。

由牛津大学多个团队主导的这项研究揭示了大语言模型存在明显缺陷。研究人员发现,尽管这些模型在医学知识理解方面技术先进,但在帮助用户解决个人健康问题方面仍显不足。

技术尚未达到临床医生水平

研究主要负责人丽贝卡·佩恩医生在成果公告中表示:“尽管备受瞩目,人工智能尚不具备承担医生角色的能力。”她进一步指出:“患者需要意识到,向大语言模型咨询症状可能存在风险,它们可能给出错误诊断,也无法识别何时需要紧急医疗救助。”

研究邀请了1300名参与者使用多个科技公司的人工智能模型进行健康问题识别。参与者根据医生设计的系列模拟场景,向人工智能系统咨询应对医疗问题的建议方案。

诊断效果未超越传统方式

研究发现,人工智能模型的诊断效果并未优于传统的自我诊断方式,例如网络搜索或个人判断。研究还观察到用户与模型之间存在信息断层——用户往往不清楚需要提供哪些信息才能获得准确建议。模型给出的建议质量参差不齐,导致用户难以确定后续应对步骤。

佩恩医生解释道:“作为医生,做出正确诊断远不止于记忆医学知识。医学既是科学也是艺术,倾听、追问、澄清、确认理解、引导对话这些技能至关重要。”她指出:“医生会主动追问相关症状,因为患者通常不了解哪些细节具有临床意义。研究表明,大语言模型尚无法可靠地与非专业人士进行这种动态交流。”

未来发展需明确方向

研究团队得出结论:目前人工智能尚不适合提供医疗建议,若要在医疗领域合理应用,需要建立新的评估体系。但这并不意味着该技术在医疗领域没有发展空间。

佩恩表示,大语言模型“确实能在医疗保健领域发挥作用”,但应定位为“助手而非医生”。她解释说,这项技术在“总结和重组已获信息方面具有优势”,目前已有诊所利用大语言模型“记录会诊内容,并将其转化为转诊信件、患者须知或病历记录”。

研究团队总结称,虽然不反对人工智能在医疗领域的应用,但希望通过这项研究引导其朝着更正确的方向发展。

展开阅读全文
更多新闻