如何避免人工智能的偏见?专家建议设立第三方监督机构

生活

2017-02-02 10:03

随着人工智能的发展,人类正在把更多决策权交给计算机。问题在于,这些算法并不是透明的,而是掌握在少数科技公司手里。出于商业竞争需求,它们很少透漏决策背后的细节。为此,计算机专家们建议,应当设立第三方的监督机构,以避免算法自身的一些偏见。

卫报的报道,在一份新报告中,伦敦图灵研究所与牛津大学的研究团队提出了上述想法。他们认为,当人们觉得自己遭到不公正待遇后,第三方机构应该调查人工智能做出的决策。“我们希望看到一个可信任的第三方机构。它应该有检查和监督算法的权力,能够了解算法是否真的透明和公正。” 研究人员 Sandra Wachter 说。

ai-decision-1

(图片来自 singularityhub)

2018 年,欧盟成员国将采用一项新法案,以监督人工智能系统的应用。不过,研究人员认为,这项法案的实际作用是值得怀疑的。“有人觉得,这项法案能够让人工智能系统更加透明,但是,这并一定能实现。一切都取决于欧盟成员国法庭的解释,” 另一位研究人员 Mittelstadt 说。

不过,即使第三方机构已经设立,对算法的监督并非一件易事。“监督机构需要如何具备何种能力?我们并不知道完整的答案。因为,人工智能系统是难以预测、不断变化而且难以理解的。开发团队也未必能完全理解。” Mittelstadt 说。另外,科技公司可能会抗议,因为现代的人工智能技术是 “难以理解” 的,例如深度学习。

robotai

(图片来自 phdmedia)

西英格兰大学的机器人道德学教授 Alan Winfield 正在主导人工智能行业标准的起草工作,目的是让人工智能系统更加透明,更加容易追责。“监督机构是个非常好的建议,” 他说,“这不是一个未来问题,而是一个现实问题。”

但是,他认为科技公司也未必能解释人工智能的决策。那些基于深度学习的算法很不透明,基本上不可能解释其作出某项决策的原因何在。“我向科技公司——比如 Google 的 DeepMind——提出的挑战是,发明一套可以自我解释的深度学习系统,” Winfield 说,“那不是件容易的事情,不过,研究这些系统的都是些非常聪明的家伙啊。”

图片来自 watson2016

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中