Get Mystery Box with random crypto!

AI 用例 微软研究院NEJM特别报告:GPT-4临床应用、局限和风险 | AI Digest Today - 效率工具箱📦

AI 用例

微软研究院NEJM特别报告:GPT-4临床应用、局限和风险

《新英格兰医学杂志》(NEJM)发表题为《GPT-4作为医学AI聊天机器人的优势、局限和风险》的特别报告(Special Article),举例介绍了AI聊天机器人的临床能力:撰写病例和病例咨询。该文还展示了GPT-4强大的自我修正能力。当测试人员让GPT-4核对其生成信息正确性时,它能发现自己的错误并修改。

- GPT-4的错误回应有时被称为“幻觉” (hallucination),这种错误在医疗场景中尤其危险,因为错误或虚假信息可能很细微,而聊天机器人又常用令人信服的方式说出回应,这可能导致进行查询的人相信其真实性。因此,一定要检查或核实GPT-4的输出信息。

- 幸运的是,GPT-4本身非常善于捕捉这类错误,而且不仅可捕捉自己工作中的错误,还可捕捉人类工作中的错误。图1C给出了一个示例,在与GPT-4的新会话中向其提供正在进行的对话完整文本,并要求其找出错误。尽管幻觉是由GPT-4本身产生,但GPT-4在另一次会话中发现了这一错误
(图一)


使用GPT-4协助撰写医疗记录 (图二)
- GPT-4可生成数种常用格式的医疗记录,例如SOAP(主观资料、客观资料、评估和计划),还可自动包含计费代码。
- GPT-4还可应提示回答关于此次诊疗的问题,提取预先核准信息,生成符合Health Level Seven快速医疗互操作性资源(Fast Healthcare Interoperability Resources)标准的实验室检查单和处方,撰写就诊总结以及向临床医师和患者提供重要反馈。

使用GPT-4协助问诊 (图三)
- 提供患者初始临床表现或实验室检查结果后,GPT-4通常可做出有用回应,有可能帮助提出查询的医务人员解决关注的问题。


#AIusercase

@protoolkit
讨论群: @aitoolkit
All about AI and Productivity.