当人工智慧的伤害已经出现,谁来补救?

(《科学月刊》625期共同刊载)
「你今天被祖了吗?」
众所皆知目前社群网路最大的平台脸书(Facebook),为遏阻违法或侵权的言论,会判定某些言论违反其「社群守则」而隐藏。不可否认,违法与侵权言论在社群网路上造成了严重的伤害,不过有时候这些隐文的原则,似乎与政治或特定议题有关。时不时也有朋友提到,一则再平凡不过的贴文或照片,却莫名其妙地被宣告违反社群守则。於是乎在去(2021)年时,网友们开始把脸书创办人祖克柏(Mark Zuckerber)的姓氏,变成了讽刺脸书封锁文章标准混乱的话梗:你被「祖」了吗?
想当然尔如脸书等社群媒体,是仰赖着演算法自动判断一则贴文是否违规。除了针对文字与图片的内容分析以外,其他例如被检举的数量、帐号的活跃程度、帐号的发文模式、商业价值等,都成为演算法评估一则贴文是否违规的依据,彷佛法官在定罪犯人时不只依据犯罪行为,也会权衡犯人及其社会状态一样。然而,我们看得到法官的决策过程与理由,但却从来没有机会搞清楚,到底演算法发生了什麽事情,才会宣告一则平凡的贴文违规。
虽然大家平常遇到这种贴文被删的情况,通常也就是重新打篇文章贴个图发发牢骚,就这麽过去了。但这个时不时可见的神秘隐文事件,其实就是我们生活中,人工智慧(artificial intelligence, AI)已经持续带来隐性伤害的频繁案例。

AI的伤害跟以往想像的不一样

自工业革命以降,人类其实蛮迅速地就提出对科技发展副作用的深层反思。例如人类史上第一部科幻作品,1818年由英国作家雪莱(Mary Shelley)所着作的《科学怪人》(Frankenstein),即是以一个具有拟人思维的人造生命为主角的科幻惊悚作品。伴随着机器的发展,1956年达特矛斯会议(Dartmouth Summer Research Project on Artificial Intelligence)上,与会专家提出「artificial intelligence」一词,认为机器的发展将可像人一般具有学习、理解、适应的能力。
随着AI技术上的演进,人们对AI的乐观与悲观态度,也愈发分歧。对於AI发展所带来社会的影响,依其态度可以分为:对科技抱持乐观者,相信「强AI」的问世可以使电脑与人有相同甚至超越人类的思考能力,并为人类解决大部分问题,带来更理想的明天,在电影动画等作品中不乏这类理想的人工智慧角色;重视科技实用者,倾向认为AI是以辅助人类的角色,解放人类的劳力工作而能开创更多科技应用的可能;重视科技发展脉络者,则认为AI只是科技发展中的一个流行词(buzzword),只有尚在发展中,尚未充分掌握的技术才会被视为AI。与科技领域相对,在人文社会领域中则较常出现对AI发展的反思,例如研究AI对人类劳力取代後所创造的弱势冲击;或更甚者认为强AI的不受控发展,将会导致人类文明的毁灭。这些不同立场的观点,均揭示了人类看待AI对社会影响的多元与矛盾预测。
尽管当代影视作品和学术研究,都对AI会造成什麽样的伤害有兴趣,但AI带来的伤害早已出现多年而默默影响着人类社会。2018年在《自然》(Nature)期刊上的一则评论,介绍了一张身披白纱的欧美传统新娘和印度传统新娘的组图,而演算法在看待两张新娘照片时,会将前者判断为「新娘」、「洋装」、「女人」、「婚礼等,但将後者判断为「表演」和「戏服」。在这个案例中,AI或演算法设计本身其实并没有独锺哪一种文化,但因为演算法的训练来自於既有图库,而图库中的图片来源和图片的诠释注记,与真实世界的样貌出现落差,使人工智慧就如真人一般,凭藉着片面不完整的学习资料,产生了对族群与文化的偏见(偏误),而演算法可能更无法自觉与反思自我产生的偏见(图一)。

图一:由於AI 只凭藉片面且不完整的资料进行学习,以婚纱为例,AI 只能辨识出传统欧美的婚纱装扮(左),却难以辨识出不同文化的婚纱样貌,例如印度传统服饰(右)。(123RF)

除了资料库的误差而导致演算法对文化或族群的偏见以外,「深度学习」(deep learning)的演算法因处理庞大的训练资料、分析资料,也常使研究者或使用AI服务的机构,无法理解与回溯AI决策的具体原因。例如亚马逊公司(Amazon.com, Inc.)仰赖演算法全自动判断大量受雇员工的工作状态,并以此决定他们的绩效与裁员与否。尽管这种做法能大幅缩减决策时间,并减少人资成本,但也因此发生数起亚马逊员工因系统过失而被降低绩效,或是员工绩效良好却被无故裁员,更申诉无门的矛盾事件。这与将AI应用於人资的初衷似乎有点相悖,演算法或许可以避免人为决策时,因涉及个人喜恶偏好而作出不公允的判断,但却也造成了另一种不公允也无从理解缘由的伤害。

谁来规范AI?

既然AI的伤害已然出现,自然也应有对AI的监管与规范机制。例如欧盟执委会(European Commission)在2019年4月公布「值得信赖的人工智慧伦理指引」(Ethics Guidelines For Trustworthy AI),强调人工智慧应为辅助角色,尊重人类自主、避免伤害、维护公平、具有可解释性,且能受到监管并回溯决策过程,以避免演算法的黑箱决策,作为欧盟成员国在订定AI相关规范的上位依据。2019年5月,经济合作暨发展组织(Organisation for Economic Cooperation and Development, OECD),提出AI发展的原则应有永续精神以造福人类与地球,能尊重民主与法治、人权与多元性,兼顾透明度、课责机制等原则。美国白宫科技办公室在2020年1月发布的「人工智慧应用的管制指引」(Guidance for Regulation of Artificial Intelligence Application),也强调衡量风险避免伤害、公平无歧视、透明度、重视科学实证、立法过程应兼顾公共参与等,作为美国政府各机关在订定与人工智慧相关规范的指导原则。联合国教科文组织(United Nations Educational Scientific and Cultural Organization, UNESCO)则在去年11月,发布《人工智慧伦理建议书》草案(Draft text of the recommendation on the ethics of artificial intelligence),作为会员国订定AI相关法律与政策时,可依循的通用价值观、原则和行动框架。
国际上重要的原则指引,也同等地体现在民意对AI治理的期待,台湾师范大学教授李思贤、刘湘瑶、张瓅匀等人针对台湾1200位民众的调查发现,台湾民众对AI的应用最在意的是避免伤害,其次则是透明度与公平性,相对最不在意的是隐私。调查亦发现民众明确偏好以公民审议和立法机关来制定严格倾向的规范,这反映了民众对新兴科技的担忧与对透明治理的期待,也呼应了国际组织的指引方向(图二)。

图二:李思贤教授等人,调查国人对AI 规范制定的偏好。发现国人无论对AI 发展持保守态度或开放态度,均倾向以公民审议和立法机构来制定规范。

然而,国际上的重要指引与民调结果,却也让我国在相关规范的设计上略显矛盾。例如调查研究显示,虽然民众最期待以「公民审议」和「立法机构」来订定AI相关规范,但现今国内外相关规范的研拟与讨论,仍是以由产官学组成的研究与应用社群为主,例如科技部自2017年起,开展多场AI伦理议题的研究计画与论坛工作坊等,并於2019年9月提出《人工智慧科研发展指引》,明订AI科研的核心价值与指引,使科研人员在学术自由与创新发展的同时,也能兼顾AI发展的方向。
但科技部并非产业的主责机关,所订定的指引仅能提供科研人员更好的方向,对已产生伤害的业界应用仍然鞭长莫及。尽管2018年11月立法院曾通过初具AI伦理精神的《无人载具创新实验条例》;2019年5月,时任立法委员许毓仁等人也提出《人工智慧发展基本法》修法草案,作为政府兼顾人工智慧产业发展和伦理规范的法律基础,但该草案的相关修法讨论并未被积极延续,作为国家更上位看待AI发展的治理框架,於立法体制和公民审议机制中均尚未开展高强度的讨论。
AI对今日生活的便利已无远弗届,而AI所带来的伤害,虽微小、难以察觉,但也已经出现,对应的伦理指引与规范在国际也蔚成趋势,但台湾仍在牛步,或许国家在看待AI发展时,必须开始将这些规范视为迫切的基础建设。
如同历史上所有科技进展一般,科技带来的进步与灾变往往是隐性与持续的,直到人们已惯於新兴科技的进步,发现科技的受害者已经出现,才惊觉世界已经完全改观。

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
Back to top
0
希望看到您的想法,请您发表评论x