牛津研究警告:人工智能聊天机器人提供“危险”的医疗建议

CN
Decrypt
关注
1天前

人工智能聊天机器人正在争夺医疗保健领域的下一个重大突破,轻松应对标准化测试并为您的医疗问题提供建议。但一项发表在自然医学的新研究显示,它们不仅在实现这一目标方面还很遥远,实际上可能是危险的。


这项研究由牛津大学的多个团队领导,发现大型语言模型(LLMs)存在明显的差距。虽然它们在医学理解方面技术上非常先进,但在帮助用户解决个人医疗问题时却显得不足,研究人员发现。


“尽管有很多炒作,但人工智能根本还没有准备好承担医生的角色,”研究的首席医疗专家瑞贝卡·佩恩博士在新闻稿中宣布研究结果时说道。她补充道:“患者需要意识到,询问大型语言模型他们的症状可能是危险的,因为它可能给出错误的诊断,并且无法识别何时需要紧急帮助。”


研究中,有1300名参与者使用OpenAI、Meta和Cohere的人工智能模型识别健康状况。他们列出了由医生开发的一系列场景,询问人工智能系统接下来应该如何处理他们的医疗问题。





研究发现,其结果与传统的自我诊断方法并没有太大区别,例如仅在线搜索或个人判断。


他们还发现,用户对此存在不确定性,无法知道大型语言模型需要什么信息才能提供准确的建议。用户获得了一系列优劣不等的建议,这使得识别下一步行动变得困难。


Decrypt已联系OpenAI、Meta和Cohere寻求评论,并将在他们回应后更新此文章。


“作为一名医生,达到正确诊断的过程远不止回忆事实。医学既是一门艺术,也是一门科学。倾听、探问、澄清、检查理解和引导对话是至关重要的,”佩恩告诉Decrypt


“医生会积极引导相关症状的询问,因为患者往往不知道哪些细节是重要的,”她解释道,并补充说这项研究表明大型语言模型“尚未能够可靠地处理与非专家的动态互动。”


研究小组得出结论,目前人工智能显然不适合提供医疗建议,如果要在医疗保健中正确使用,亟需新的评估系统。然而,这并不意味着它们在当前医疗领域没有位置。


尽管佩恩表示大型语言模型“在医疗保健中肯定有其作用”,但它的角色应该是“助理,而不是医生。”这项技术在“总结和重新包装已提供给它们的信息”方面有益,目前大型语言模型已经被用于诊室“转录咨询并将该信息重新包装为专家信件、患者信息单或医疗记录,”她解释道。


该团队总结道,尽管他们并不反对人工智能在医疗保健中的应用,但希望这项研究能够更好地引导其向正确的方向发展。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接