查看原文
其他

人工智能医学应用的分类与伦理问题反思

周琬琳 中国医学伦理学 2023-10-31

欢迎关注“中国医学伦理学”





人工智能医学应用的分类与伦理问题反思



周琬琳

(福建医科大学健康学院, 福建 福州 350122,

ipss.ikis@gmail.com)


2016年3月,国务院首次将“人工智能”(Artificial Intelligence,AI)一词写入2016年至2020年中国经济发展的《国民经济和社会发展第十三个五年规划纲要(草案)》的规划中;2017年7月20日,国务院在《新一代人工智能发展规划》中指出要在医疗领域“推广应用人工智能治疗新模式新手段”[1],《新一代人工智能发展规划》是我国第一个国家层级AI发展的中长期规划,也是我国政府发展及推动AI发展的蓝图,它从整体上部署我国的AI发展,并提出面向2030年我国新一代AI发展的指导思想、战略目标、重点任务与保障措施等[2]。然而,人工智能医学的快速发展同时也带来许多伦理、社会及法律问题,包含对AI的不信任及担忧被AI所取代等。无论是学术界或产业界,唯有透过层层检视AI医学应用技术所带来的伦理问题,加以反思后提出对策来作为完善制度与制定相关规范的政策建议,才能在AI医学时代站稳脚跟,协力开展。

01

人工智能的发展

被称为“人工智能之父”的图灵(Alan M. Turing)于1950年发表的“Computing Machinery and Intelligence” (《计算器与智能》)[3]一文中,试图回答计算器是否能具有人类智能?结论是:计算器不仅具有比人类智能更高效率的运算功能,甚至可以跟人类一样拥有发掘与创造知识的能力。如果图灵的预测是对的(事实上也是对的),那么,拥有人类智能的计算器就是我们称作人工智能(Artificial Intelligence, AI)的最早雏形。

从计算器到人工智能历经三个阶段:强大运算系统阶段、专家系统(Expert System,ES)阶段以及机器深度学习系统阶段。强大运算系统以图灵机(Turing machine)为始祖,1936年,图灵将人类的运算行为抽象化,并使用数学与逻辑符号加以构建出来的超级计算模型。图灵机具有仿人类运算能力的功能,其运算效能却远比人类还要快速准确,能帮助提高工作效能,在这个阶段,AI可以说是计算机程序。随着技术的突破,AI被灌注更多人类的思考方式,包含形式逻辑、数理逻辑、语言逻辑、认知逻辑等各种逻辑学的基本规律,进行归纳、演绎、推算等思维活动。当人类专业知识加上这些具有逻辑思维的计算器一起运作时,将得到1+1>2的成果,称之为专家系统。简单来说,专家系统就是一个知识数据库+仿真专家推理思维机器的系统。世界上第一个成功运用人类专家知识与逻辑推理规则来解决特定问题的专家系统程序是20世纪60年代出现的DENDRAL程序,该程序主要帮助有机化学家根据物质光谱推断未知的有机分子结构[4]。专家系统堪称是当时最先进的AI技术。然而,一方面,专家系统有其局限性,只能就特定领域进行运作;另一方面,随着生物学、神经科学与心理学的发展,人类神经元网络的学习概念被带入AI系统,发展出可以仿真人类神经元学习机制的深度学习(Deep Learning),深度学习最著名的是2016年打败世界围棋冠军李世石的AlphaGo。由谷歌DeepMind所开发的AlphaGo,展现出AI不仅仅只是在计算机程序的控制下,机械性地完成检索搜寻解答而已,还可以执行高级算法。虽然2017年AlphaGo败给它的进阶版AlphaGo Zero,但也只能表明深度学习系统的更精进,因为AlphaGo Zero甚至不需要人类提供数据就可以进行自我学习[5]

02

人工智能应用于医学

人工智能应用于医学的范围非常广泛,可以进一步简单区分为三个范畴:人工智能辅助医疗器械、AI与健康医疗大数据的应用以及人工智能诊疗等。第一个范畴针对医疗器械来讨论;第二的范畴主要就AI与“互联网+健康医疗”的应用进行省思;第三个范畴关注深度学习的终极版——“超级智能医生”(Dr. Super AI)所可能衍生的伦理反思来探讨。

2.1人工智能辅助医疗的伦理问题

人工智能辅助医疗又可分为两大类,一是用来辅助识别或诊疗的医疗器械,例如MRI、X光射线设备、CT、胸片摄影等医学影像器械;二是医用软件,泛指用来搜集、储存、分析、显示、转换人体健康状态、生理参数、医疗相关纪录等处理软件[6]

由于人工智能拥有巨量的医疗大数据和高效能的运算系统,还能半自动或全自动化学习,不仅可以快速检阅医疗刊物和信息,输入患者信息后能够协助提供诊疗方案,同时也能减少人为误差,有效地协助医疗人员作出更精准的医疗方案。然而,大量智能医疗器械的使用与研究开发却也衍生出医疗资源分配正义与器械临床试验伦理的问题。

首先,关于医疗资源分配正义问题。智能医疗器械造价昂贵,除三甲医院以及大型医学教学综合医院等能取得较多医疗资源的医院之外,其余中小型医院及基层医院、卫生院、医疗院所皆难以取得智能器械,间接导致国民健康照护权利的受损与不公平的医疗对待,同时也反映出城乡差距与医疗资源的分配不公。此外,患者使用智能医疗器械进行辅助诊疗也需要支付高额诊疗费用,凸显了贫富差距,“穷人没有生病的权利”也可能加速社会阶层分化,影响社会安定。与此同时,智能辅助诊疗器械也可能造成过度医疗的情况,智能辅助器械虽然可以降低人为误差,但是会让医疗从业人员太过依赖智能判断,间接开展“滥检查”不仅加重患者的经济负担,也造成医疗资源的浪费。

其次,关于医疗器械临床试验的伦理问题。人工智能医疗时代的来临,很多公司积极地将所开发的产品提供给医院免费试用,借此收集大量的临床试验数据。人工智能医疗器械审查注意事项的伦理委员会在审查时应注意公平受益、失业、患者隐私、医疗安全、责任划分和监管等问题。然而,数据库本身的建制不全、隐藏算法偏差及立法与监管的缺失,都使得伦理审查有其难度,但无论如何,评估受试者的风险与受益肯定是伦理审查的核心任务[7]

再者,医用软件包含个人医疗信息的搜集与储存,管理不当将会有导因于个人隐私泄露所造成的不当利用的风险与社会歧视的可能。此部分同时关联到AI与健康大数据的管理与应用。

2.2人工智能与健康医疗大数据的

应用的伦理问题

健康医疗大数据作为国家战略发展的重点之一,国务院办公厅于2015年9月发布《促进大数据发展行动纲要》,2016年6月发布《国务院办公厅关于促进和规范健康医疗大数据应用发展的指导意见》,这两份文件成为我国推动健康医疗大数据采集、收集与应用的核心指导文件。国务院于2018年4月的常务会议中明确促进“互联网+医疗健康”发展的举措,不仅有利于完善医疗信息资源,对于我国医改及卫生健康事业的发展也起到促进作用。其中,AI的演算系统就是推动健康医疗大数据的轮轴。

AI与健康医疗大数据建设过程中也涉及许多伦理问题,包含数据主体的知情同意权、个人信息隐私安全、数据开放共享的公正性以及成果分享的公益性等四大主轴。只有在充分保护个人信息安全的基础上,透过推动大数据的规范治理,有效利用及运用数据来提高医学科学水平、促进公共卫生安全及发展产业运用才是可能的。其中,与AI有直接关系的部分是个人信息隐私安全问题。

以谷哥流感趋势预测为例,AI演算所根据的数据是基于过去用户网络搜寻关键词来预测流感,换言之,大数据分析是透过相关关系而非因果关系进行预测,其可靠程度有待检验。其次,虽然谷歌流感预测是出于公共利益而为,并非以营利为目的,然而,用户通过在谷歌使用搜索引擎会留下带有自己身份的数字信息,这些信息在不同的网络情境中构成数字身份,而这个数字身份可能会泄露用户的私人信息,包含联系方式或用药偏好等[8],即便是谷歌的隐私保护机制,都无法百分之百确定个人信息安全不会遭黑客盗取利用或非法使用。

我国目前还未出台专门的隐私权保护法,仅是在其他法律条文中有所规定,如《中华人民共和国侵权责任法》将隐私权的保护归结成为对人格权的保护,当发生“对我国公民的隐私权造成侵害的,应当承担侵权责任。” 2016年新颁布《中华人民共和国网络安全法》虽然在个人信息保护方面提出了具体要求,但并未对隐私权保护提出具体要求。在人工智能高速发展时代,我国应借鉴国际已有条款,尽快就人工智能技术加强相关部门的监管力度,完善有关政策立法,保护个人数据隐私安全[9]

此外,健康医疗大数据建设的技术基础是人工智能与互联网,也因为互联网的流通,增加了个人健康信息暴露的风险,包含数据储存技术不佳及管理不当、医护从业人员保护患者隐私的意识不足等。前者可以通过数据安全技术的提升及数据管理监督的机制改善,后者更需要加强医护人员及可能接触数据的从业人员的制度规范与素质培养。

2.3人工智能诊疗的伦理问题

如果说AI应用在辅助医疗器械与医用软件方面,关联到健康医疗大数据的应用这些是现在进行式,那么,全自动人工智能诊疗机器与“超级智能医生”(Dr.Super AI)的诞生就是AI医疗的未来式。

可以想象未来有一部机器,把它称为“自助式家用医科诊疗机”,机器上面有许多按键链接着医疗大数据,只需要在输入身份标识符,个人身份标识符会连接过去的诊疗记录与健康信息,然后再根据病征与发作时间进行点选,在按下最后的确认键时,表示已经完成自助就医,诊断结果会显示在屏幕上,可以存取或打印出来,诊断结果上面可能会建议到医院找人类医生进行较深入的诊疗,或是直接开药,而药单将会在数秒钟之后打印出来,我们可以拿着药单在药物领取机器上自助领药。如果有更高级的设备,在按下最后确认键的数秒后就可以领到药品,无须换设备。这台自助式家医科诊疗机的操作十分便利,什么时候开始有病征,有哪些病征,连有没有药物过敏都可以不用点选,因为身份标识符已经有记录了。

当我们如实地向医生反映身体状况,再由医生通过他的专业知识判断来诊断病情,并给予对应的药物治疗时,医生的误诊概率会比拥有超级检索及推算功能的“自助式家医科诊疗机”低吗?如果人类医生误诊需要负担责任,那么当患者因为自己输入的病征信息不准确或有阙漏时,其所导致的医疗疏失该由谁负责?

如果这台“自助式家医科诊疗机”是一位同时拥有人类情感意识程序的“超级智能医生”呢?我们知道,基于大数据库的AI首先需要保障的就是数据的准确。而在医院就诊过程中,患者隐瞒病情的情况也会发生,这对于一个经验丰富的医生来说可能是极好辨认的,而对于一个不富有感情的智能AI来说,错误的信息输入极可能会产生错误的诊断,从而引起错误的治疗[10]。责任的归属问题确实是未来式人工智能诊疗的棘手问题,但是“责任鸿沟”并非不可突破。在确定不是患者自身过失的情况下,我们可以将“超级智能医生”的错误分为四个类型:①系统设置有漏洞,造成自动化偏差;②控制监管有疏失,忽视系统警讯;③医学的不确定性与特例;④患者提供错误信息或缺漏重要信息所导致。在第一种犯错的类型中,系统设置漏洞属于产品设计不良,可采用产品责任的观点来归咎责任;在第二种类型中,监管疏失类似于饲主疏失导致他人的损伤,可用动物管理人责任的观点来进行究责;第三种类型严格来说不是犯错,它是一种患者错误认知及过度期待的结果。人体是复杂的有机体,除了基因与细胞的变异之外,微生物的影响力也不容小觑。再多的数据库和医学文献都有不能穷尽之处,即便是超级智能医生也不可能达到零误诊[11]。前三类错误属于AI本身技术或管理上的缺失,可以从产品责任及管理人责任的角度来咎责,第四种看似是患者自身疏失所导致。然而,正因为患者并非医学专业,才需要就医,由专业医生透过勘诊来判断病情并给予治疗,如果将全部的咎责归于患者自找显然是不适当的,但是患者仍需要负担部分责任,因为即使患者所面对的是人类医生,也可能发生同样的憾事,特别是在技术没有出错的情况下,超级智能医生的误诊率可能是远远小于人类医生的。

AI诊疗的责任归属问题势必要有更明确的规范,毕竟惩罚一部机器甚至销毁一位超级智能医生对于所造成的伤害都没有实质上的帮助,如何能够透过建立完整的责任制度来让技术更精准、管理监督更到位、使用人更信任,减少事故避免憾事才是人类福祉。

03

人工智能医学应用的伦理原则

无论是现在进行式或是未来式的人工智能医学应用,都应当遵守基本的伦理原则,避免因为走过头而造成不可挽救的后果。欧盟的高阶AI专家小组在2019年提出“可信任的AI伦理准则”(Ethics Guidelines for Trustworthy AI, 以下简称“欧盟准则”),指出AI的应用因以人类作为为中心进路(Human-Centric Approach),主张以人类基本权利作为论述基础,开展四项伦理原则及七项伦理要件。四项伦理原则为[12]:

第一,尊重人类自主原则。除了要求人类在与AI互动的过程中,必须保障人类拥有完全及有效的自主之外,也要求AI的运作必须有人类的监督。

第二,预防伤害原则。为保护人类身心的完整性与人性尊严,AI技术必须是能够强力抵御恶意之使用,包含避免对自然环境和所有生物的伤害。

第三,公平原则。包含程序向度与实质向度,前者要求人们可以对AI的操控者提出纠正与异议,并且要求AI的决策者应该是可以被识别的。后者确保AI的利益是可以公平、公正分配的,并且要能够避免任何歧视或污名。

第四,可解释性原则。要求AI的制造目的与具备的功能必须经过公开协商,具备透明性并且避免“黑箱”问题。

作为可信任的AI,每个在AI生命周期的涉利者应该被赋予不同的伦理要求,欧盟准则提出可以归纳为七个伦理要件[13]除了系统层面,也将个人及社会的考虑纳入制定:

第一,AI不得侵犯人类自主性与自由:主要维系人性尊严并确保由人类来监督。

第二,AI应具备信息安全性与正确性:要求技术强健并具备安全性。

第三,AI搜集的数据得受到安全与隐秘的管理:着重在隐私与数据管理。

第四,建构AI系统与算法应公开且可以追溯到开发者:要求透明性。

第五,AI须具备多元性与公平性:避免歧视,要求公平。

第六,AI须促进社会正面改变,且具永续性:针对社会及环境福祉。

第七,AI须建立咎责机制:要求确立可问责性(Accountability)。

中国台湾地区参考欧盟准则,在2019年发布《人工智能科研发展指引》,提出三个AI应遵从的核心价值:以人为本、永续发展、多元包容;还有八项核心指引:共荣共利、公平性与非歧视性、自主权与控制权、安全性、个人隐私与数据治理、透明性与可追溯性、可解释性、问责与沟通。期望在AI的开展道路上能够兼顾科研与伦理,这些伦理价值实践于AI之研发与应用中,以增益人类福祉[13]。欧盟准则与中国台湾地区的发展指引可作为中国大陆地区制定AI应用相关的规范参考。

04

结  语

在AI技术的发展下,智能医疗是趋势也是双刃剑,我们必须积极应对人工智能医学应用带给我们的伦理挑战。在人工智能设计制造及应用过程中应始终秉着以人为本的理念,在保证安全的前提下,尊重数据主体的自主性和充分保护个人隐私,积极促进技术的可及性,并建立完善相关法律法规和伦理规范,以保证人工智能在医疗行业应用中符合伦理规范。



参考文献向上滑动查阅参考文献

[1]国务院印发《新一代人工智能发展规划》[EB/OL].(2017-07-20)[2019-03-08].http://www.Gov.cn/xinwen/2017-07/20/content_521 2064.htm.

[2]过子庸,金士懿.对中国人工智能科技发展的探讨[J].前瞻科技与管理,2018,8(2):1-25.

[3]A.M.Turing.Computing Machinery and Intelligence[J].Mind,1950,236(59):433-460.

[4]李开复,王咏刚.人工智能来了[M].台北:天下文化出版社,2017:45.

[5]林书弘,陈牧言.人工智能技术于智能医疗之理论探讨与实务应用[J].护理杂志,2019,66(2):7-13.

[6]牛惠之.浅论人工智能时代医疗器材软件的风险与管理思维[J].生物产业科技管理丛刊,2020,8:39-56.

[7]周吉银,李红英,杨阳.人工智能医疗器械的伦理审查要点[J].医学与哲学,2020,41(6):35-39,56.

[8]李晓洁,丛亚丽.从“谷歌流感趋势”预测谈健康医疗大数据伦理[J].医学与哲学,2019,40(14):5-8.

[9]颜俊,孙宜利.人工智能在生物医疗领域的应用及法律伦理问题应对策略研究[J].科技与金融,2017(3):55-60.

[10]刘琪,谷笑颖.医疗人工智能应用中的伦理困境及对策研究[J].医学与哲学,2019,40(21):5-8.

[11]周琬琳.评论The promise and perils of AI in medicine——文中“责任归咎”的疑虑与可能的因应[J].中外医学哲学,2019,17(2):126-132.

[12]蔡甫昌,胡嘉辉.人工智能医疗应用与伦理准则[J].澄清医护管理杂志,2020,16(2):4-8.

[13]李姿莹.2019年欧盟人工智能伦理准则协助产业建立值得信赖的数字转型架构[J].电工通讯季刊,2019(2):98-99.






文献来源

周琬琳.人工智能医学应用的分类与伦理问题反思[J].中国医学伦理学,2020,33(7):826-830.



《中国医学伦理学》杂志由中华人民共和国教育部主管、西安交通大学主办。1988年创刊,自2003年起连续18年蝉联“中国科技核心期刊”,2019年影响因子为1.584。


编辑:邢源 孙小楠

审核:吉鹏程







继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存