谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?

2021-04-15 17:17:38  阅读 62 次 评论 0 条

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第1张-YMS黑板报

  近期,谷歌AI伦理团队(Ethical AI group)的"连续剧"又有了新料:谷歌下属机构——谷歌大脑(Google Brian)的知名机器学习专家Samy Bengio宣布本月底将从谷歌离职。外界普遍认为,这是他对谷歌此前解雇两名AI伦理研究者的抗议

  在诸多媒体的笔下,该事件正成为一场娱乐大众的闹剧,充满了"气急败坏的巨头公司"、"牺牲自己做出反抗"、"不畏强权的平民英雄"等等观众喜闻乐见的元素。

  不过,较少有人注意到这件事背后的一些关键词,例如AI伦理、人工智能、种族歧视、少数群体和算法等等。尽管这些词我们早已经司空见惯,但它们距离现实的生活却显得遥远且无从触及。

  格奥尔格曾在诗中写道:"词语破碎处,无物可存在"。想要真正吃好谷歌AI伦理团队的瓜,还得从AI这个词讲起。

  AI的三次浪潮:从学界走向业界

  AI,即ArtificialIntelligence,中文通常翻译为人工智能。在相关科学技术仍在迅猛发展的今天,我们还不能给AI下一个本质性的定义。不过,今天人工智能已经覆盖到了我们生活的方方面面,哪怕是从个人的角度,我们也可以在许多场景中触摸到它的影子。

  比如我们手机支付需要用到的指纹和人脸识别,新闻客户端中"千人千面"的信息流、外卖软件中的个性化推荐等等。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第2张-YMS黑板报

  不过,从学界到业界,人工智能的诞生与发展并非一帆风顺的连续不断,深入到我们生活中也只不过是最近十几年的事情。这里需要简单回顾一下人工智能发展的三次浪潮,而这也正是构成如今人工智能伦理问题的底层逻辑

  现在普遍认为,"人工智能"这一概念最早出自1956年美国的达特茅斯会议上。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第3张-YMS黑板报

  2006年,五十年后,达特茅斯会议当年的与会者重聚。

  左起:摩尔,麦卡锡,明斯基,赛弗里奇,所罗门诺夫

  1956年的夏天,被后人认为是最早提出人工智能这一概念的约翰·麦卡锡,组织了一场"人工智能夏季研讨会"(Summer Research Project on Artificial Intelligence),会议主要探讨如何让机器模仿人的智能

  但两个月过去,会议最终也没有达成共识。不过,对这一问题的探索以及提出建立人工智能这一学科,也就使1956年成为了人工智能元年人工智能的三次发展浪潮也就随之而来。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第4张-YMS黑板报

  第一次浪潮:20世纪50到60年代,这段时间内科学家们在探索如何让机器具备逻辑推理能力,并且成功研发出第一款感知神经网络软件和聊天软件。

  第二次浪潮:20世纪 70 年代中期,这段时间学界提出了Hopfield神经网络和BT训练算法,解决特定领域的专家系统问世并得到广泛应用。

  第三次浪潮:进入到2006年,人工智能再次迎来新发展。互联网、云计算、大数据、芯片等新兴技术都为AI产业发展提供充足的数据支持和算力支撑。深度学习大放异彩,算法的应用被普及到许多行业

  最近几年,计算机视觉、自然语言处理、智能芯片、脑机接口等人工智能技术的分支都获得了不同程度的突破。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第5张-YMS黑板报

  不过,随着技术走向尖端,曾经"野蛮生长"的人工智能技术,如果想要百尺竿头更进一步,学界的资源已无法满足。目前人工智能已经逐渐从学界主导转移向业界主导商业化的同时也背负上了争议。随着AI走进我们生活的方方面面,这种争议声也就越来越大。

  阳光下的阴影:强大的渗透力让AI成了"双刃剑"

  人工智能在科学层次的发展带动了相关技术的成熟。随着人工智能多个分支研究的精进,其中较为成熟的技术就逐渐进入到我们的生活当中。随着人工智能的覆盖面越来越广,对个人、企业乃至社会,都正发挥着越来越重要的作用。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第6张-YMS黑板报

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第7张-YMS黑板报

  伴随人工智能地位的提高,人工智能产业巨大的经济潜力也慢慢浮现出来。据统计,仅2020年,全球人工智能产业规模就达1565亿美元,同比增长率是12%,中国人工智能产业规模大约3100亿元人民币,同比增长15%。另有统计称,全球人工智能产业未来的趋势仍是稳步向上。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第8张-YMS黑板报

  巨大的利益背后,自然少不了科技巨头们的身影。之前说过,限于研发资源的门槛,目前人工智能的发展已经逐渐从学界主导走向了业界主导。目前像IBM、谷歌、亚马逊、微软和Facebook等巨头,是少数拥有足够资源投入对人工智能进行开发的公司

  但这些公司对人工智能的研发投入并非出于对科学的追求,而是希望技术革新能够给公司带来丰厚的回报。这本无可厚非,不过人工智能的特殊之处就在于,当公司因其而获益时,有可能是以伤害社会为代价。

  例如作为人工智能重要分支之一的人脸识别,就曾被指存在"种族偏见"而在多个国家引起过争议。据外媒表示,目前像美国各地警方以及FBI等执法部门存在高度依赖人脸识别技术来协助犯罪调查的现象,但出现了多起涉及有色人种的误判,引起了广泛的批评甚至是抵制。

  美国波士顿市,就在去年6月通过了《波士顿禁止人脸监控技术条例》来抵制人脸识别在该市的应用。法案中称,"人脸识别技术在识别非裔和亚裔群体时准确率更低。人脸识别监控中的种族偏见有可能伤害有色人种群体。"

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第9张-YMS黑板报

  这种批评和抵制并不是对技术的偏见。事实上,巨头们的技术目前还没有那么完善,对有色人种的误判的确存在,而这有可能助推社会的撕裂。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第10张-YMS黑板报

  回到谷歌AI伦理团队的系列闹剧中,首个被谷歌解雇的Timnit Gebru,就曾因揭露面部识别系统中的种族和性别偏差而闻名。而本次害她丢掉工作的导火索,是她的邮件内容中涉及了对谷歌AI伦理现存问题的不满。这不禁让我们沉思,AI伦理问题是巨头们的"逆鳞"吗

  巨头口中的"科技向善",真能实现吗?

  实际上,为了消除外界的质疑,巨头们也做出了很多努力。像2014年谷歌收购人工智能公司DeepMind时,就要求后者成立伦理和安全委员会,来监督公司的AI研发方向。微软在2018年也成立了人工智能伦理道德委员会AETHER,意图来规范公司在人工智能方向的业务。

  2016年时,亚马逊,微软,谷歌,IBM和Facebook还联合成立了一家非营利性的人工智能合作组织(Partnership on AI),推进AI研究的同时也希望针对伦理挑战能做出解决方案。后面,苹果、百度、英特尔、Salesforce、eBay、索尼、SAP、麦肯锡、Zalando和Cogitai等企业也纷纷加入该组织。

  谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?第11张-YMS黑板报

  但问题是,目前人工智能的问题涉及的非常广泛。除了偏见歧视,像人工智能作恶(如机器人在战争中的潜在应用)、责任归属(如无人车交通意外)、过度依赖(如算法造成的"信息茧房"现象)和技术鸿沟(如本次疫情中部分老年人对"健康码"等要求的手足无措),都是AI给我们带来绚丽而又方便生活背后的阴影。那么,企业自身对AI的伦理研究与问题管控,真的可行吗?

  本次谷歌AI团队的风波,就把现实更真实地摆在了每个人面前:无论像谷歌等巨头公司的承诺多么真诚,被企业所资助的研究,可能永远无法逃离资本的权力边界。

本文地址:https://www.yms7.com/post/9081.html
版权声明:本文为原创文章,版权归 yms 所有,欢迎分享本文,转载请保留出处!

发表评论取消回复


表情

还没有留言,还不快点抢沙发?