您正坐在诊所里等待医生的到来。然后突然之间,出乎意料,你看到了什么?一个机器人大步走进来,就坐在对面。大吃一惊,您开始与充斥您脑海的想法作斗争。“天哪,这里怎么会有机器人?医生去哪儿了?这个机器人能不能正确诊断我的病情?”等等。 当然,医疗保健中的 AI 是一个热门话题。虽然我上面提到的场景仍然存在于虚构的领域,但不能否认人工智能系统正在努力加强患者医疗保健并使医生的生活更易于管理。 事实上,在大流行开始时,许多人工智能驱动的系统被用于检测和爆发监测。而且,即使是现在,人工智能系统也被用于疫苗和治疗开发。
虽然不能否认人工智能在医疗领域的潜在好处以及医疗保健世界如何在更大程度上高度依赖它,但用户对人工智能技术公司的机制存在根深蒂固的不信任适用于运行某些医疗应用程序。 这种机制通常被称为 BlackBox AI 模型,用于多种医疗应用。当这种机制应用于低风 专业人士和行业电子邮件列表 险工具(例如用于慢性病管理的面向患者的提醒应用程序)时,它被证明非常有效。 这个问题出现在复杂的医疗应用程序中,尤其是那些用于诊断和处方等领域的应用程序。典型的 Blackbox AI 是通过将数据输入算法并允许其自行“学习”来训练的。问题是我们不知道机器决策背后的逻辑。 也就是说,鉴于机器学习人工智能正在生成结果,黑盒模型具有准确的决策能力,从而赢得了决策算法的声誉。
尽管享有盛誉但此类人工智能系统无法满足医生了解模型内部工作原理的需求,这使得他们很难相信这些系统提供的诊断。 就我们所知,医生需要知道人工智能系统在做什么,更重要的是,他们是如何得出结论以绝对自信地治疗患者的。最重要的是,医生需要在 AI 干预的帮助下,有时是明确地向相关患者解释他们被诊断出的疾病,以及他们计划如何进行治疗过程。 换句话说,医生应该与病人坦诚相待,充满同理心。 BlackBox AI 破坏了与患者的这种联系,因为他们非常神秘。另一方面,可解释的人工智能配备了明确的可解释性特征,提高了医学界对它的接受程度。正是这种难以理解,尽管被认为是准确的,为可解释人工智能或透明人工智能铺平了道路。