2016年十大AI败笔:人工智能选美、AlphaGo败局上榜

ai001

AI世代编者按】过去一年,人工智能技术正在复兴。无人驾驶、语音识别,以及成为围棋大师的AlphaGo都反映了人工智能的快速发展。然而我们也要注意到,人工智能可能会出现问题。我们需要从中吸取经验,避免未来更多的错误。

近期,路易斯维尔大学信息安全实验室主任罗曼·雅博尔斯基(Roman Yampolskiy)在一篇论文中总结了人工智能遭遇的失败,这些问题与“人工智能系统设计带来的问题直接相关”。

雅博尔斯基表示,这些问题可以归因于人工智能系统学习或应用阶段的失误。

根据雅博尔斯基和其他多名专家的介绍,TechRepulice网站总结了2016年人工智能的10大败笔。

1、用于预测犯罪的人工智能变成了种族主义者

FILE - This July 22, 2015, file photo, shows the inside of the Waller County jail in Hempstead, Texas. Several recommendations issued by a panel investigating the small-town Texas jail where Sandra Bland died could be difficult to implement, including a call to separate sheriff and jail operations that may run afoul of state law. (AP Photo/Pat Sullivan, File)

Northpointe开发了一款人工智能系统,能预测有案底的罪犯再次犯罪的可能性。这被认为存在种族歧视倾向:系统一般认为,黑人罪犯再次犯罪的风险更高。

另一家名为ProPublica的媒体评论称,无论罪犯是什么种族,Northpointe的软件“通常都不能实现有效的预测”。

2、电子游戏中的NPC制造出了突破原计划的武器

ai003

今年6月,一款名为《Elite: Dangerous》的电子游戏发生了出乎意料的事件。人工智能在游戏中开发出了超级武器,突破了游戏设计。根据一家游戏网站的报道,“玩家被拉进战斗中,而对方的舰船配备了可笑的武器,会将玩家撕成碎片”。游戏开发者随后将这些武器下线。

3、机器人误伤幼童

ai004