新闻中心

2019 年人工智能现状:机器学习、自然语言处理、游戏和知识图谱的突破

#新闻中心 ·2019-07-08 06:41:37

人工智能是当今发展最快的领域之一。追踪和评估人工智能的发展不仅需要持续关注,还需要具备从多个维度进行剖析和评估的能力。这正是Air Street CapitalRAAIS创始人Nathan Benaich、人工智能天使投资人、伦敦大学学院 IIPP客座教授Ian Hogarth所做的事情。

另外:通过神经科学创造的人工智能ZDNet YouTube

在 6 月 28 日发布的题为《2019 年人工智能状况报告》中,Benaich 和 Hogarth 用 136 张幻灯片全面介绍了人工智能的各个方面:技术突破及其能力、该领域人才的供给、需求和集中度、当前和未来人工智能驱动创新的大型平台、融资和应用领域、人工智能政治专题以及中国的人工智能。

Benaich 和 Hogarth 不仅仅是风险投资家:他们两人都拥有丰富的人工智能背景,参与过从研究到初创的众多人工智能项目。此外,他们还借鉴了谷歌人工智能研究员兼 Keras 深度学习框架负责人 François Chollet、风险投资和人工智能思想领袖李开复以及 Facebook 人工智能研究员 Sebastian Riedel 等知名人士的专业知识。

这项集体工作凝聚了丰富的专业知识、经验和知识。在发现并阅读这份报告后,我们联系了 Benaich,并与他进行了一次深入的问答。我们将这份报告和 Benaich 的见解提炼成两篇系列文章,首先探讨技术突破和能力,然后探讨它们的影响以及人工智能的政治影响。

解读人工智能

如果您对人工智能感兴趣,这很可能不是您遇到的第一份人工智能报告。许多人都熟悉FirstMark 的《数据与人工智能格局》(由 Matt Turck 和 Lisa Xu 编写)以及MMC Ventures 的《人工智能现状:分歧》。这三份报告的更新几乎同时发布。虽然这可能会导致一些混淆,因为显然存在重叠,但在内容、方法和格式方面也存在差异。

FirstMark 的报告更为详尽,涵盖了从数据基础设施到人工智能等各领域的参与者。该报告也经历了从大数据格局到数据和人工智能格局的演变。正如我们之前指出的那样,大数据向人工智能的演进是一个自然而然的过程。MMC Ventures 的观点则有所不同,因为它更加抽象,可能更适合高管层级。两份报告的视角各不相同,并非选边站队——每份报告都有其独到之处。

首先,我们问贝纳奇为什么这样做:为什么他们要分享无疑是有价值的知识,并为此付出额外的努力,而且似乎是免费的?

Benaich 表示,他们相信人工智能将成为我们这个日益数字化、数据驱动的世界技术进步的倍增器。这是因为,如今我们周围的一切,从文化到消费品,都是智能的产物:

我们相信,人们越来越需要了解人工智能在多个领域(研究、产业、人才、政治和中国)的现状,这些信息既易于获取,又详细准确。我们发布报告的目的是推动关于人工智能发展及其对未来影响的深入讨论。

这份报告实现了贝纳奇在回复中设定的目标。报告的前40页以幻灯片的形式呈现,重点介绍了人工智能研究的进展——技术突破及其能力。重点涵盖的领域包括强化学习、游戏应用及未来方向、自然语言处理突破、医学领域的深度学习以及AutoML。

另外:外星人工智能会来拜访我们吗? ZDNet YouTube

强化学习、游戏和现实世界中的学习

强化学习是机器学习的一个领域,在过去十年中受到了研究人员的广泛关注。Benaich 和 Hogarth 将其定义为“一种软件代理,它通过在环境中反复试验来学习面向目标的行为,而环境会根据代理为实现目标而采取的行动(称为“策略”)提供奖励或惩罚。”

强化学习领域取得的很大一部分进展与训练人工智能玩游戏有关,使其达到或超越人类的表现。《星际争霸 II》《雷神之锤 III:竞技场》和《蒙特祖玛的复仇》只是其中的一部分。

然而,比“人工智能击败人类”的煽情更重要的是强化学习能够达到这些结果的方法:游戏驱动学习、模拟与现实世界的结合,以及好奇心驱动的探索。我们能通过玩游戏来训练人工智能吗?

孩童时期,我们通过以低风险的方式(例如玩耍)学习和练习各种策略和行为,从而习得复杂的技能和行为。研究人员利用监督游戏的概念,赋予机器人控制技能,使其能够比使用专家技能监督演示进行训练时,更好地应对干扰。

在强化学习中,代理通过反复试验来学习任务。它们必须在探索(尝试新行为)和利用(重复有效的行为)之间取得平衡。在现实世界中,奖励很难明确编码。一个可行的解决方案是:将强化学习代理对其环境的观察结果存储在内存中;并在其达到“内存中不存在”的观察结果时给予奖励。

上述报告中引用的观点似乎同样优秀且自然。那么,利用这些观点能否成为人工智能的未来发展方向呢?Benaich 指出,游戏是训练、评估和改进各种学习算法的沃土,但他也提出了一些质疑:

在虚拟环境中生成的数据通常成本更低、获取范围更广,这对于实验来说非常有利。此外,在模型开发过程中,游戏环境的复杂程度可以根据实验目标而调整。

然而,大多数游戏并不能准确地模拟现实世界及其丰富的细微差别。这意味着它们是一个很好的起点,但本身并非终点。

另外: 了解供应链中的人工智能 ZDNet YouTube

自然语言处理和常识推理

正如 Benaich 和 Hogarth 所指出的,这是自然语言处理 (NLP) 领域重要的一年:Google AI 的 BERT 和 Transformer、艾伦研究所的 ELMo、OpenAI 的 Transformer、Ruder 和 Howard 的 ULMFiT 以及微软的 MT-DNN 证明,预训练语言模型可以显著提高各种 NLP 任务的性能。

通过预训练模型来学习高级和低级特征,这在计算机视觉领域带来了革命性的变革,这主要归功于ImageNet。ImageNet是一个包含超过 20,000 个类别的数据集。一个典型的类别,例如“气球”或“草莓”,由数百张带注释的图像组成。

自2010年以来,ImageNet项目每年都会举办一项软件竞赛,即ImageNet大规模视觉识别挑战赛(ILSVRC),参赛软件程序竞相正确分类和检测物体和场景。该挑战赛使用一千个不重叠类别的“精简”列表,并已成为推动计算机视觉技术逐步完善的动力。

图像网.jpg

ImageNet 是一组精心挑选的计算机视觉训练数据集,它推动了当前最先进的技术发展。图片来源:Nvidia

去年,在大型文本语料库上预训练语言模型以学习高级和低级语言特征方面也取得了类似的经验突破。与 ImageNet 不同,这些语言模型通常基于大量公开可用的、即来自网络的未标记文本进行训练。

该方法可以进一步扩展,以在 NLP 任务中产生收益并解锁许多新的商业应用,就像 ImageNet 的迁移学习推动了计算机视觉的更多工业用途一样。

Benaich 和 Hogarth 重点介绍了GLUE 竞赛,该竞赛为评估 NLP 系统在逻辑、常识理解和词汇语义等一系列任务中的表现提供了单一基准。

为了证明自然语言处理 (NLP) 领域的进展速度,他们补充道,最先进的 GLUE 评分在 13 个月内从 69 分提升到了 88 分。而人类的基准水平是 87 分。进展速度远超预期,新的基准 SuperGLUE已经推出。

然而,语言在人类认知中却很特殊。它与常识推理息息相关。常识推理也取得了进展。我们已经看到,Salesforce 最近的一项研究将技术水平提高了 10%

纽约大学的研究人员证明,通过对数据集的推理知识进行生成式训练,神经模型可以获得简单的常识能力,并对之前未见过的事件进行推理。这种方法扩展了诸如始于 80 年代、被称为世界上持续时间最长的人工智能项目 的 Cyc 知识库项目等工作。

另外: 机器学习和人工智能的趋势ZDNet YouTube

前进的道路:结合深度学习和领域知识?

我们请教了 Benaich 对将深度学习与领域知识相结合用于 NLP 的方法的看法,因为 Yandex 的 David Talbot 等专家认为这是一个很有前景的方向。Benaich 也认为,将深度学习与领域知识相结合是一条富有成果的探索之路:

“特别是当人工智能项目的目标是解决现实世界的问题,而不是构建一个应该学会解决白板问题的通用智能代理时。领域知识可以通过编码原语有效地帮助深度学习系统引导其对问题的认识,而不是强迫模型使用(可能昂贵且稀缺的)数据从头开始学习这些问题。

Benaich 还指出了知识图谱对于自然语言处理 (NLP) 任务中常识推理的重要性。Cyc 是一个著名的知识图谱,或称知识库(最初的术语)。然而,他还补充道,常识推理不太可能仅通过文本作为唯一模态来解决。

报告中的其他亮点包括联邦学习、谷歌的TensorFlow PrivacyDropout LabsTF-Encrypted在数据隐私方面的进展,以及深度学习在医学领域的诸多用例。这些用例包括一些科幻般的壮举,例如解码脑电波思维和恢复残疾人的肢体控制。

要解读报告中的所有内容,例如 AutoML、GAN 和语音合成深度伪造的进展(这些是我们几年前就预测到的),需要进行非常深入的研究。仅仅浏览一下这份报告就需要一段时间,但它确实有很多值得借鉴的地方。


相关标签:

Copyright © 2011-2031 Ai Master