今年发生了许多事情,人工智能取得的突破也十分引人注目。有评论员推测,语言生成模型GPT-3或已经拥有“人工生成智能”,谷歌母公司Alphabet旗下的人工智能公司DeepMind重磅推出Alphafold,成功攻克蛋白质折叠预测,令人赞不绝口。尽管这样的描述不如头条新闻夺人眼球,但这也并没有挫伤行业热情,毕竟这个行业要获取利益,树立口碑,还依赖于人工智能的普及。
可是谷歌仿佛在与大势背道而驰,解雇了人工智能领域的佼佼者蒂姆尼特·格布鲁(Timnit Gebru)。格布鲁是人工智能领域少有的黑人女性研究员,BIPOC支持者,她完全胜任在谷歌的职位。不过,讽刺的是,据格布鲁说,也正是她身上的种种特质,导致谷歌解雇了她。格布鲁说,在她和她的团队撤回了一篇关于批判大规模人工智能系统的文章后,谷歌告知她的团队她已被解雇(公司方面尚未对此作出回应)。
谷歌解雇格布鲁一事反映出人工智能研究领域的两大危机:这一领域被白人男性主宰,并且集中在微软、脸书、亚马逊、IBM、谷歌等几家大企业之手。但这种情况也表明,不管谷歌这样的公司的承诺多么真诚,公司资助的研究永远不能脱离权力的现实,收入和资本的流动。
人工智能已经走向卫生健康、刑事司法、教育等多个领域,研究人员和支持者自然更加担心。这些领域关乎个人发展,与此同时又加剧了种族歧视问题。人工智能还将权力集中在设计者和使用者手中,用复杂的计算掩盖责任与义务。这样一来,风险徒增,相应的激励措施也十分不合理。
当前的危机暴露了一个问题,阻碍我们围绕人工智能建立有效保护。这一点特别重要,因为受到人工智能伤害和偏见的主要群体为BIPOC、妇女、宗教人士、性别少数群体,以及穷人。目前,关于人工智能有一种明确的划分,即人工智能获益企业、白人男性研究人员和开发人员,和易受人工智能影响的弱势群体。
就以面部识别技术为例,该技术识别深肤色人数明显少于浅肤色人数。这仅仅是敲响了一个警钟,种族问题阻碍的不仅仅是面部识别技术的发展。Tawana Petty是Data for Black Lives的负责人,他指出,在黑人社区和城市,面部识别系统随处可见,反而是在白人区,人们禁用面部识别。
如果不去了解那些饱受人工智能伤害的人的经历,考量他们的立场,我们就难以正确认识这些技术。谷歌解雇格布鲁一事足以表明,当企业中心工作和商业激励政策相矛盾时,他们会把重点放在哪里。也就是说,人工智能系统不会对弱势群体负责。
科技公司与表面上独立的学术机构之间的紧密联系进一步削弱了对该行业的认识。公司和学术界的研究人员共同发表论文,同桌议事,一些研究人员甚至在科技公司和大学担任兼职。这无疑模糊了学术研究和企业研究的界限,并掩盖了支持此类工作的动机。大企业往往能够影响公众对复杂科学问题的认识。
格布鲁被解雇一事再次表明,像谷歌这样的大公司有能力压低或消除对人工智能的负面评论,毕竟人工智能是这些公司的摇钱树。根据最近路透社的报道,谷歌高层在引导研究员保持积极态度,尤其是在检查涉及公司利益底线的技术和事务时,对外口吻要积极向上。格布鲁的离职还敲响了警钟,如果我们只允许不太会受到人工智能负面影响的精英和研究团队推动企业有关人工智能的研究,那么其他群体很有可能面临危险。那一小部分从人工智能普及中获益的人们开始引导和影响学术界和公众对人工智能的认识,而将弱势群体排除在学术讨论之外。这种不平等还和种族、性别、阶级不平等相关。
格布鲁解雇一事逐渐平息,但人们又发出疑问:我们该如何应对目前的激励措施?又如何让所有受人工智能伤害的人团结起来继续开展工作?对此,我们有初步的答案。
首先,科技工作者需要工会,工会是变革和问责制的关键,能够与大型企业抗衡。例如亚马逊员工为应对气候变化所作出的斗争和谷歌员工抵制人工智能用于军事的抗争都有力改变了企业政策,也显示出了科技工作者强大的力量。工会必须反对种族主义和阶级主义,尽可能容纳所有科技工作者,优先保护并提升BIPOC科技工作者的地位。
此外,还需要相应保护和资金,以保障关键研究能在不受企业过分干预的情况完成。最后,人工智能发展需要法律法规约束。地方、州和联邦政府必须参加立法,保护隐私;加强对工人保护,包括举报人保护和措施,以更好地保护BIPOC工人和其他弱势群体。
这场危机清楚地表明,当前的人工智能研究环境受企业干预,并被研究专员控制,因而无法解决受人工智危害的人的问题。具有公众意识的研究和知识创造不仅就其自身而言很重要,它还提供重要信息,推动人工智能的发展和监管,有效抵制科技错用。支持和保护工会,发展人工智能监察体系,营造单纯研究环境,免受企业干预等都是解决当下难题的有效措施。