机器中隐藏的偏见
尽管成为了近年来技术发展的里程碑,人工智能(AI)仍然会受到意想不到的后果的影响。在2016年,微软公司的Twitter机器人Tay在与平台上的同行学习之后,竟然发布了种族主义和非常不适当的言论。由于无法从社会学习中覆盖和改写恶意信息,Tay的帐号被关闭,仍然只能保持私密。 像Tay这样的其他事件也浮出水面。最著名的是谷歌公司的图像识别软件。GooglePhotos在将一些非白人用户标记为“大猩猩”后被指控种族歧视。谷歌公司声称这个事件是无意的,但仍然是一个令人担忧的问题,将一个被忽视的代码转化为种族歧视问题。 不幸的是,像微软公司和谷歌公司这样的算法仍然依赖于人类的输入,并且其内容受到算法参数的限制。这是Tay无法通过互联网确定真相,以及Google Photos无法区分一些非白人用户与大猩猩的能力。然而,这个问题存在于比人们所知道的更多的算法中。 这种基于机器的偏见源自人类编程人工智能以自动化机器学习的时候。由于人类构建了用于训练人造智能偏差的数据集,限制和人为错误可能会影响产出,故障原因在于人类从一开始就对这些机器进行培训。 机器是人类互动的产物 有了人工智能,人类就是木偶大师。...