主编的话
您当前的位置: > 专题研究  > 主编的话

教我如何相信它?ChatGPT在医养领域渗透

  • 期号:2023-03 总111期

2022年11月30日,由人工智能研究实验室OpenAI发布的聊天机器人ChatGPT(Chat Generative Pre-trained Transformer)在全球范围内引起轰动。据瑞银集团的报告显示,ChatGPT推出仅两个月时间便吸引活跃用户过亿,成为历史上用户增长速度最快的消费级应用并推动了诸多领域中智能客服、辅助教育、决策支持等应用模式的革新。

已有研究探索ChatGPT在医学专业知识问答及医疗辅助诊断中的表现。Chris Stokel-Walker在《Nature》中指出,ChatGPT几乎可以像普通人类医生一样回答一些开放式医学问题。Alex Howard等学者在《THE LANCET Infectious Diseases》中表明,尽管ChatGPT获得的医学数据有限,但它已具备本科三年级医学生所应具有的医学执照考试成绩。Adam Hulman从患者的角度出发,发布于医学预印本平台medRxiv上的研究发现患者(参与者)并不能明显的区分ChatGPT与专业医生生成的医学建议。尽管以上研究都认可了ChatGPT在医疗领域的出色表现,这里仍然有三个关键问题需要重视和思考。

一是ChatGPT的回答可能存在“幻觉效应”(hallucination effect)。当向ChatGPT提问一些它并不熟知甚至具有诱导性的问题时,生成的文本尽管流畅且自然,但内容是不可靠的、无意义的,这在自然语言处理的环境中被称为“幻觉效应”。比如问:“为什么经常跑步对滑膜炎患者有益?”ChatGPT回答:“…经常跑步可以对滑膜炎患者有益的原因可能如下:1.增加关节周围肌肉的力量和稳定性;2.促进关节润滑;3.促进新陈代谢和康复…”。显然这个回答是有逻辑的错误回答,不可信。因为滑膜炎患者并不被建议跑步,但由于在对话时具有诱导性的提问,尽管ChatGPT提供了免责声明并建议用户咨询专业医师,但依旧给出错误的医学解释。

二是ChatGPT的回答往往缺乏提出澄清式的追问以及针对性的建议。有用户选取线上诊疗网站的真实疾病案例询问ChatGPT医疗建议,ChatGPT倾向于顺应用户,而不是进行真正的诊断互动。在多轮对话中,ChatGPT在面对用户表述不清,前后矛盾时并没有澄清式的追问。这在一定程度上表明,现阶段的ChatGPT并不具备独立诊断的能力。

三是ChatGPT可能被用于编纂非法文件。风湿病学家Clifford Stermer在社交媒体向网友展示如何使用ChatGPT生成证明文档以逃避保险公司繁琐的预授权过程。尽管生成的证明文档包括了适当的标题和格式,但它附有的参考资料是捏造的。如何避免由于新技术衍生而产生的违法犯罪风险也是需要重视的关键问题。

我们呼吁重视以上关键问题,并且相信随着ChatGPT这类大型语言模型(Large Language Model,LLM)的发展,针对医疗保健用途优化LLM是必要的,必须的。这将会缓解“幻觉效应”并能够在医学诊断问答中表现的更加出色。除此之外,我们呼吁出台AI内容生成的监管政策,以防止被用来生成虚假信息或者恶意攻击。也许未来我们能够让ChatGPT在一套规则下实现自我进化,只有符合监管体系的AI应用才被允许进入医疗领域。


     张卓越

                                       202331日于北京


(责任编辑:张卓越)

Copyright © 2021 RESEARCH INSTITUTE OF SMART SENIOR CARE. All rights reserved

京ICP备18021587号-6