如果我告诉你,你的医生会根据你的病史咨询配备人工智能的“机器人同事”来诊断你的健康状况并开药呢?
几十年来,将医疗诊断委托给机器的想法被简单地认为是科幻小说。现在,随着复杂语言模型的出现,例如 GPT-3,这种可能性可能变得非常真实。
说三万三千
12 月,来自越来越多的关于人工智能的科学文章 它突然出现 先见之明,由伦敦国王学院 (KCL) 的研究人员开发的医学机器学习模型。
它利用 GPT-3,该模型为流行的“智能”聊天机器人提供动力 ChatGPT,以及基于 10 年真实电子健康记录的数据集。 它有什么作用? 它预测未来的医疗事件、估计风险、建议替代诊断,或预测输入信息的真实或模拟人的并发症。
他并不是唯一迈出第一步的“人工智能医生”。 2022 年底,谷歌 宣布 的最新进展 医保,其巨大的 Al 模型的医学版本称为 PaLM。 Med-Palm,顾名思义,它是根据从网络和医学书籍中获取的文本进行训练的,并使用医学文档进行了优化。
这里的讨论变得更加有趣。 Med-Palm 回答了需要长篇书面答案的常见医学问题,经过测试的(真正的)医生看到了疯狂的结果。 当我们开始谈论它时截至 2021 年 75 月,该模型的准确率为 XNUMX%。今天, 92,6% 的 Med-PaLM 回答“符合科学共识”——仅比人类医生给出的回答少 0,3%。
一些答案和可能的安全问题仍然存在差距,尚未使该模型做好临床使用的准备,但很明显,这种人工智能正在取得非常快速的进展。
我们距离在诊所和医院看到这些人工智能医疗工具还有多远?
记下这个一般性的预测,然后我会解释。 在监管机构制定所有必要的规则和限制之前,医疗人工智能模型可能会达到临床能力水平。
我为什么写给你? 因为临床使用医疗人工智能的最大障碍可能是隐私。
国王学院 Foresight 的创建者表示,他们已经从用于训练人工智能的电子病历中删除了任何可能识别身份的信息。即使是少于100个样本的罕见疾病的存在。这消除了(或至少降低了)患者身份识别的风险,但也限制了系统的功能。
无论如何,为了回答有关时间的问题,技术人员表示还需要一年的时间来“武装”这些医疗系统的安全。好吧,到 2024 年这些东西就会准备好:到那时(让我们回到一般规则) 他们的采用只会是一个政治事实。 规范的。
个人疑惑
我想,在使用“机器人医生”之前,答案的准确性和决策过程的透明度并不是唯一要评估的事情。例如,有必要了解医疗人工智能是否“公平”,而不是由于部分“训练”而对某些人群产生偏见。
此外,有必要限制“幻觉”,这种幻觉有时会导致这些人工智能医疗系统给出明显精确的答案,但却被悲剧性错误所玷污。
一如既往,最终决定权取决于我们:但考虑到这些初步模型的结果,这是一个“何时”的问题,而不是“是否”的问题。人工智能很快将协助医生进行诊断。