医疗保健教我们如何应用大型语言模型的4个教训

2024-03-27 09:00:11 multilingual

本文共1797个字,阅读需5分钟

阅读模式 切换至双语

关于生成AI(GenAI)可以做什么,不能做什么,不应该做什么,一直不乏新的主张和想法。尽管大肆宣传,但只有少数成功的现实企业项目应用了这项技术。医疗保健行业是个例外,它拥有广泛的GenAI用例。 从使用大型语言模型(LLM)进行临床决策支持,患者旅程轨迹和有效的医疗文档,到使医生能够构建一流的医疗聊天机器人,医疗保健在将GenAI投入生产并显示即时价值方面取得了重大进展。那么,其他从业者可以从医疗保健的最佳实践和应用人工智能的经验教训中吸取什么呢? 以下是AI在医疗保健领域应用的四个教训。 数据越多越好 许多传统的医疗LLM只考虑患者的诊断和年龄。但是,如果将其扩展到多个多模态记录,例如人口统计学,临床特征,生命体征,吸烟状况,过去的程序,药物和实验室检查,会怎么样?通过统一这些功能,可以创建更全面的患者视图,从而有可能制定更全面的治疗计划。 额外的数据可以显着提高模型在各种下游任务中的性能,如疾病进展预测和不同疾病的亚型分型。考虑到额外的功能和可解释性,LLM可以帮助医生对各种疾病的疾病轨迹,诊断和风险因素做出更明智的决定。很容易看出这种方法如何应用于营销人员的客户旅程,或保险或金融公司的风险评估-潜力是无限的。 干净的数据是好数据 结合结构化数据(如电子健康记录和处方)和非结构化数据(如临床笔记、医学图像和PDF)来创建患者的完整视图至关重要。然后,这些数据可以用于提供用户友好的界面,例如聊天机器人,以收集有关患者的信息或识别可以成为临床试验或研究工作候选人的患者队列。这听起来很简单,但我们不要忘记隐私和数据限制,这对医疗保健和其他高合规性环境来说是一个挑战。 为了充分利用聊天机器人并满足监管要求,医疗保健用户必须找到解决方案,使他们能够将嘈杂的临床数据转移到可以自动回答问题的自然语言界面-大规模和完全隐私。由于这不能通过简单地应用LLM或检索增强生成(RAG)LLM解决方案来实现,因此它从医疗保健特定的数据预处理管道开始。其他高合规性行业,如法律和金融,可以从医疗保健的书中学习一页,在商品硬件上私下准备数据,使用其他模型进行查询。 领域专家提高准确性 人工智能只有在企业级用例背后的数据科学家和IT专业人员才有用-直到现在。无代码解决方案正在出现,专为最常见的医疗保健用例而设计。最值得注意的是使用LLM来引导特定于任务的模型。从本质上讲,这使领域专家能够从一组提示开始,并提供反馈,以提高提示工程所能提供的准确性。然后,LLM可以为该特定任务训练小的、微调的模型。 这种方法将人工智能引入到领域专家的手中,从而产生比LLM本身更高精度的模型,并且可以大规模廉价运行。这对于高度合规的企业特别有用,因为不需要数据共享,并且可以在组织的防火墙后面部署零触发提示和LLM。可以内置全方位的安全控制,包括基于角色的访问、数据版本控制和完整的审计跟踪,这使得即使是新手AI用户也可以轻松跟踪更改并随着时间的推移继续改进模型。 道德发展建立信任 确保人工智能生成的输出的可靠性和可解释性对于维护患者安全和对医疗保健系统的信任至关重要。此外,解决固有的偏见对于所有患者群体公平获得人工智能驱动的医疗保健解决方案至关重要。临床医生、数据科学家、伦理学家和监管机构之间的合作是必要的,以建立在医疗保健及其他领域负责任地部署人工智能的指导方针。 正是由于这些原因,健康AI联盟(CHAI)成立了。CHAI是一个非营利组织,负责制定具体的指导方针和标准,以负责任地开发和部署医疗保健中的AI应用程序。CHAI与美国政府和医疗保健社区合作,为在医疗保健领域部署GenAI应用创造了一个安全的环境,涵盖了在构建公平、公正和公正的产品和系统时需要考虑的特定风险和最佳实践。像CHAI这样的组织可以在任何行业复制,以确保人工智能的安全和有效使用。 结论 医疗保健处于GenAI的前沿,由精准医学,个性化治疗和改进的新时代定义,这些改进将带来更好的结果和生活质量。但这并不是一夜之间发生的; GenAI在医疗保健领域的整合是经过深思熟虑的,解决了技术挑战,道德考虑和监管框架。其他行业可以从医疗保健对人工智能驱动的创新的承诺中学到很多东西,这些创新使患者和整个社会受益。 上述领域将是今年医疗保健NLP峰会的重点:一个免费的虚拟社区活动将于4月3日至4日举行,重点介绍该技术的真实用例。

以上中文文本为机器翻译,存在不同程度偏差和错误,请理解并参考英文原文阅读。

阅读原文