AI变成IBM终止面部识别
时间:2020-06-11 19:48

  6月8日,IBM公司最新上任的CEO阿尔文德·克里什纳表示,将停止提供面部识别软件,并且今后也不会再继续研发此类技术。对此,他给出的理由是为了反对“将技术用于大规模和种族歧视”。

  曾几何时,人工智能(AI)技术被视作“与客观”的,避免人们的歧。埃森哲曾在《技术展望2019》中表示,不少企业在发布工作岗位时存在性别,而AI工具能够帮助人们识别并纠正此类,尽量实现薪酬公平。

  2013年,哈佛大学计算机科学家拉坦娅·斯威尼发现,如果用谷歌搜索一个典型的非裔名字,就会跳出许多关于记录信息查询的广告,而如果搜索一个白人常用名,则不会出现这种情况。

  为降低员工离职率、削减高额成本,施乐公司(Xerox)曾试图通过大数据程序来预测员工的在职时长。程序发现,通勤距离与员工离职率高度相关,家住得远的员工会更快提出离职。但该公司的管理层很快意识到,由于公司位于富人区,如果依照程序而不雇用住址偏远的员工,将对中低收入人群产生歧视。

  相似地,亚马逊在2014年启用的以AI驱动的招聘系统,由于频频被诟病歧视女性,最终于2018年被停用。

  近年来,人工智能极受资本追捧,许多争先发出“机器人超越人类阅读水平,令数百万人面临失业风险”等的文章。这使得人们开始忧虑其自身地位是否会被AI替代,机器人占领地球是否近在眼前。

  机器人创业公司Robust.AI的创始人兼CEO盖瑞·马库斯、纽约大学柯朗数学科学研究所计算机科学教授欧内斯特·戴维斯认为,大可不必如此焦虑。在他们联手合著的新书《如何创造可信的AI》中,二人表示,理想与现实之间,存在着“AI鸿沟”(The AI Chasm),人们总是误以为AI解决了简单的问题,就相当于向解决难题迈出了一大步。

  IBM对沃森(Watson)系统的大肆就属此类。IBM的目标是解决从药理学、放射学到癌症诊断与治疗中存在的问题,该公司希望能利用沃森的认知系统去读取医学文献,给出人类医生可能会遗漏的医疗。然而在2017年,MD安德森癌症中心停止了与IBM在肿瘤学方面的合作,理由是沃森给出的治疗“不安全、不正确”。

  谷歌的Alpha Go很可能也会同样的老。Alpha Go在围棋上的成就引发了人们对于AI智慧的热烈讨论,但他们忽略了围棋和国际象棋都属于完全信息型的游戏。Alpha Go可以与自己下100万盘围棋,以建立数据库,在每一次落子前都计算出赢率。但在真实的世界中,我们所掌握的数据常常充满噪音,存在着大量的不确定性。而依赖于数据、机器学习的人工智能,目前无法应对这样的模糊性。

  这些花费了巨大的人力物力研发出来的系统,都跟我们所畅想的“拥有超级智慧的机器人”相去甚远。而对实验条件的苛刻要求、在模糊性方面的应对,甚至还会使AI连“基本的小事”都无法顺利完成。

  例如,苹果的“自动化组装电子设备”的尝试近期宣告失败,其新研发的机器人连拧螺丝、涂胶水等简单任务都无法完成。

  特斯拉也于近日再次“翻车”。在中国的高速公上,一辆特斯拉Model 3在自动巡航的模式下,没有采取任何避让措施,直直地撞向一辆静止的货车。在系统眼中,卡车和广告牌的高度均高于特斯拉车,故而错把静止的货车当成了广告牌,导致了事故的发生。

  每当人们找到了在某些时候能发挥作用的AI解决方案时,就会假定,只要再多一些数据,系统就能在所有的时刻发挥作用。但正如杜克大学人类与自动化实验室主任米西·卡明斯所说,问题不在于某辆无人驾驶汽车能在不出事故的情况下跑几公里,而在于汽车本身的适应能力有多强。将车辆在理想的实验条件下的行驶表现与极端情况的表现混为一谈,是将整个行业置于边缘的重大问题。

  《如何创造可信的AI》一书进一步指出,太多的人工智能都只是短期解决方案的堆砌,而缺乏关键的工程保障。

  当发现AI系统无法识别非裔女性的性别后,IBM就拿了一个带有更多非裔女性图片的全新数据集来对系统进行训练。谷歌的解决方更为“彻底”。当谷歌图片错把非裔美国人识别为大猩猩后,该公司直接把大猩猩的图片从数据集里去除了。

  以上两个解决方法固然能在短期内平息人们的怒气,但这不过是让盲目的数据分析得出正确结果的小,其背后隐藏的真正问题始终没有得到解决。

  AI能利用统计数据来分类,但这只能近似地表示意义,而无解图像和语言的真正含义。正如盖瑞·马库斯和欧内斯特·戴维斯所说,“目前我们正处于人工智能的过渡时期:具有自主性和网络化的狭义AI”。它并不具备真正的智能,也无法对情况进行评估、对未来的可能性进行预测,更不能随情况变化进行动态判断。

  在这样的情况下,“机器人将接管人类的生活”还只是美好希冀,未来学家雷·库兹韦尔的预言——“AI将在2029年之前超越人类本身”,则不过黄粱一梦。