AI 用例 微软研究院NEJM特别报告:GPT-4临床应用、局限和风险 《新英格兰医学杂志》(NEJM)发表题为《GPT-4作为医学AI聊天机器人的优势、局限和风险》的特别报告(Special Article),举例介绍了AI聊天机器人的临床能力:撰写病例和病例咨询。该文还展示了GPT-4强大的自我修正能力。当测试人员让GPT-4核对其生成信息正确性时,它能发现自己的错误并修改。 - GPT-4的错误回应有时被称为“幻觉” (hallucination),这种错误在医疗场景中尤其危险,因为错误或虚假信息可能很细微,而聊天机器人又常用令人信服的方式说出回应,这可能导致进行查询的人相信其真实性。因此,一定要检查或核实GPT-4的输出信息。 - 幸运的是,GPT-4本身非常善于捕捉这类错误,而且不仅可捕捉自己工作中的错误,还可捕捉人类工作中的错误。图1C给出了一个示例,在与GPT-4的新会话中向其提供正在进行的对话完整文本,并要求其找出错误。尽管幻觉是由GPT-4本身产生,但GPT-4在另一次会话中发现了这一错误 (图一) 使用GPT-4协助撰写医疗记录 (图二) - GPT-4可生成数种常用格式的医疗记录,例如SOAP(主观资料、客观资料、评估和计划),还可自动包含计费代码。 - GPT-4还可应提示回答关于此次诊疗的问题,提取预先核准信息,生成符合Health Level Seven快速医疗互操作性资源(Fast Healthcare Interoperability Resources)标准的实验室检查单和处方,撰写就诊总结以及向临床医师和患者提供重要反馈。 使用GPT-4协助问诊 (图三) - 提供患者初始临床表现或实验室检查结果后,GPT-4通常可做出有用回应,有可能帮助提出查询的医务人员解决关注的问题。 #AIusercase @protoolkit 讨论群: @aitoolkit All about AI and Productivity. 542 views22:16