作为人工智能者、Google Brain高管和大学教授,Geoffrey Hinton对于谷歌参与五角大楼AI军事项目的态度如何?在最近的一次中,他终于告诉人们:我反对!此外,Hinton还对人工智能在创新上的挑战等问题发表了意见。看得出,Hinton对于人工智能的未来非常有信心,他也希望研究者们能够将眼光放得更加长远。
20 世纪 70 年代初期,Geoff Hinton 开始做简单的数学模型,模仿人脑神经元视觉理解世界的过程。之后数十年,人工神经网络仍然是一门不实用的技术。但是 2012 年,Hinton 和他的两名本科生使用神经网络实现了计算机图像目标识别准确率的大幅提升。之后六个月内,谷歌收购了这三名研究者创办的创业公司 DNNresearch。
「作为谷歌高管,我不应该公开抱怨五角大楼项目,因此我私下里抱怨。」Geoff Hinton 说。
NeurIPS 2018 期间举办了人工智能 G7 大会,来自世界顶尖工业化经济体的代表讨论如何鼓励 AI 的优势,并最小化其负面影响(如工作职位减少和学会歧视的算法)。Geoff Hinton 参加了这次会议,《连线》对他进行了访问。访问内容如下:
Wired:总理贾斯丁·特鲁多在人工智能 G7 会议上说,需要更多研究来应对人工智能带来的伦理挑战。你怎么认为?
Geoff Hinton(下称 GH):我一直很担心致命自主武器的。我认为应该设立类似《公约》的法规来它们的使用,就像禁用化学武器那样。即使并非所有国家或地区都签署这样的条约,但它可以作为一种旗帜。你会注意到谁没有签署它。
Wired:超过 4500 名谷歌员工签名五角大楼合同。谷歌称该项目并非用于目的。你是否签署了书?
GH:作为谷歌高管,我认为我不应该公开抱怨它,因此我私下里抱怨。我没有签署书,而是和谷歌联合创始人 Sergey Brin 吐槽了几句。他说他对此也很苦恼。还好现在谷歌放弃竞标五角大楼的合同。
Wired:谷歌的领导者决定仅完成合同,而不是续约合同。他们发布了关于 AI 应用的准则,不将技术用于武器。
GH:我认为谷歌做出了正确的决定。将来或许所有事情都需要云计算,我们很难知道在哪儿画线,一定程度上画线这件事是随意的。我很高兴谷歌画下了这条线。这些准则对我来说意义重大。
Wired:人工智能在日常生活中也引发了一些伦理问题。例如,用软件为社会服务或医疗做决策。我们应该注意什么呢?
GH:在让技术运转这方面我是专家,但在社会政策方面我是外行。我对此持有技术专业见解的地方在于,监管结构是否让你解释 AI 系统的运行原理。我认为这将是灾难。
人们无释自己做很多事的工作原理。当你雇佣某人时,决策是基于你能够量化的所有事物,以及所有本能直觉。人们不知道自己是怎么决策的。如果你让人解释自己的决策,你就是强制他们编故事。
神经网络也有类似的问题。当你训练神经网络时,它会学习从训练数据中提取的十亿个表示知识的数字。如果你输入一张图像,它会输出正确的决策,比如这是不是行人。但是如果你问它「为什么你这么认为?」,要是有用于决定一张图像中是否包含行人的简单规则,那这个问题早就解决了。
GH:你应该基于执行效果来管理它们。运行实验来看是否存在偏差,或者它会不会。拿自动驾驶汽车来说,我认为人们逐渐接受它了。即使你不怎么了解自动驾驶汽车的运作原理,但如果自动驾驶汽车的事故率大大低于人类驾驶汽车,那么这就是件好事。我认为我们必须像对待人类一样对待人工智能系统:只看它们的执行效果,如果它们不断遇到困难,那你可以说它们不够好。
Wired:你曾经说过,思考大脑的运作原理对你在人工神经网络方面的研究有所。人类大脑通过由大量突触联结而成的神经元网络从感官中获取信息。人工神经网络通过由权重连接的数学神经元网络获得数据。在上周发布的一篇论文《Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures》中,你和几位共同作者认为我们应该进一步人脑中的学习算法。为什么?
GH:人脑与大部分神经网络解决的问题大相径庭。人脑中大约有 100 万亿个突触,是人工神经网络权重数量的 10,000 倍。人脑使用大量突触尽可能多地从几个 episode 中学习。而深度学习擅长利用神经元之间的连接(比人脑突触少得多)来学习,且它还需要有很多 episode 或样本。我认为人脑不考虑将大量知识挤到少量连接中,它考虑的是用大量连接来提取知识。
我们用来运行神经网络的几乎所有计算机系统,甚至谷歌的特殊硬件,都使用 RAM 来存储正在运行的程序。将神经网络的权重从 RAM 中取出以便处理器使用需要耗费大量能源。因此每个人必须确保自己的软件能够获取权重,软件还会多次使用权重。这是一笔巨大的成本,而你对每个训练样本都必须这么做。
在 Graphcore 芯片上,权重存储在处理器上的缓存中,而不在 RAM 中,这样权重就无需移动。这样很多事就比较好探索了。我们或许将得到这样的系统:拥有一万亿权重,而每个样本只能接触其中十亿权重。这样就更像大脑的规模了。
Wired:近期对 AI 和机器学习日益高涨的兴趣意味着对相关研究的资助前所未有。该领域的快速增长是否也带来新的挑战?
GH:社区面临的一项巨大挑战是,如果现在你想发表一篇机器学习论文,那么论文中必须有图表,表中列举不同数据集、不同的方法,且你提出的方法必须看起来是最好的那一个。如果不是,那么这篇论文很难发表。我认为这不利于人们思考创新型想法。
现在如果你写了一篇表达全新想法的论文,它几乎没有可能被接收,因为很多年轻的论文评审者压根不理解它。或者它到了资深评审者手里,但 ta 要评审太多论文,无法在第一轮就理解它,并认为这篇论文无意义。任何让大脑受伤的事物都可能不会被接受。我认为这非常糟糕。
在基础的科学会议上,我们应该追寻全新的想法。因为我们知道长期来看,全新想法要比小的改进具备更大的影响力。现在我们的做法了,我认为这是最大的弊端。
GH:只需要等待几年,失衡会纠正失衡。这只是暂时的。公司忙于教育员工,大学忙于教育学生,大学终将雇佣更多该领域的教授,它会自行回归正确的道。
Wired:一些学者提醒,当前的人工智能炒作将导致「AI 寒冬」,就像 1980 年代那样,由于进展无法满足期望,而导致兴趣和资金的干涸。
GH:不会进入「AI 寒冬」,因为 AI 已经进入你的手机了。在之前的「AI 寒冬」中,AI 并没有成为人们日常生活的一部分。而现在它是了。
本文由机器授权爱尖刀发表,并经 爱尖刀 编辑。转载此文章须经作者同意,并请附上出处(爱尖刀)及本页链接。原文链接
相关文章复盘2018:中国连锁零售便利店的“冰”与“…营销、数据、提效、全周期:家居品牌商2…来自2019的“颜值”测试世界杯预选赛要来了,留给国足的时间不…00后贩卖新型”邮票“毒品!毒性是…只因1元钱,她突然扇了公交司机一巴掌almosthuman2014作者专业的人工智能和产业服务平台文章1700
金字旁的女孩名字本文由来源于财鼎国际(www.hengpunai.cn)