如何创造可信的AI

新冠肺炎肆虐,人工智能的发展和应用充满机遇与挑战。未来几十年,人工智能应该往何处去?
7月10日,陆奇和Gary Marcus “围炉夜话” 拉开2020 WAIC·开发者日帷幕。
奇绩创坛创始人兼CEO陆奇和Robots.AI CEO兼创始人Gary Marcus进行连线对话,话题聚焦「重启AI」话题,探讨深度学习技术的局限性,也对当前公众关切的AI伦理问题进行了反思,同时指出了未来推动AI稳健发展的可能方向。

1 深度学习VS常识推理
在深度学习的指导下,数据代替了机器本身的思考,人工智能依赖于大量的数据训练,其行为也局限在预设好的程序中。面对新冠病毒等缺乏知识库的问题时,AI缺少用武之地。在Gary看来,新冠病毒的出现敲醒了一个警钟,提醒人们研发更聪明、更稳定的人工智能。这最好的办法是从历史中找答案,就像早期科学家所信奉的那样,「尝试让机器思考常识,人工智能最终可以和人类一样思考。」Gary提及的「让机器思考常识」就是「常识推理」,约翰·麦卡锡的Advice Taker是世界上第一个解决常识知识的人工智能程序,目的是让机器通过学习常识性知识来像人类一样做出推理和思考。

2 AI伦理之争:隐私、偏见和版权
一直以来,隐私泄露和偏见总是成为人工智能发展的衍生话题。尤其在新冠疫情的背景下,隐私泄露与保护的矛盾日益显现。
Gary谈到,「联邦学习」是解决隐私问题的一个可行的办法。作为解决人工智能与隐私问题的普遍性技术,其本质是用分布式机器学习技术,让客户端处理本地数据,这样就可以让中央处理器在边缘设备不贡献数据的情况下训练构建全局模型。隐私之外,同样在最近产生了较大伦理争议的人工智能偏见。面对陆奇「是否可能存在不带偏见的人工智能应用算法或系统?」这个问题,Gary表示,「现在没有,也许最终会有。」他认为,人工智能存在偏见原因是机器只是在反馈过去发生的事情。唯一破除偏见的方法是让机器通过常识推理和训练获得理解数据背后意义的能力。除了隐私和偏见之外,人工智能还存在一些未被重视但同样有隐患的问题,比如版权侵犯。Gary认为,除版权外,生成模型还在不断侵入影视、音乐和文学创作领域,更改原本的内容侵权作者版权。更严重的结果在于,一旦制作虚假内容变得简单,就会产生更广泛的政治影响。

最后,陆奇和Gary还就「如何实现」更稳定的AI进行了实践探讨。
他们认为,从学术届的角度来说,应当改革激励机制,鼓励「可复现性」的项目研究;而从AI市场来看,则需要改变垄断现状,将巨头公司拆分为多个创业项目,激发市场活力。

展开查看详情

1.