热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

https:www.toutiao.coma6638804610406416903AI先锋周刊2018-12-2513:52:30来源:Medium;Reddit等

https://www.toutiao.com/a6638804610406416903/

 

AI先锋周刊 2018-12-25 13:52:30

来源:Medium; Reddit 等

编辑:新智元 文强,肖琴,大明

【导读】2018年,人工智能发展到什么阶段了?Quora鼎鼎有名的大V认为,AI炒作和AI威胁论在今年都降温,并且不会有AI寒冬,升温的是各种开源框架,2019年的AI,你认为会是怎样?

2018年,机器学习和人工智能领域最重要的突破是什么?

(这里给你留出充分思考的时间。)

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

看看其他的观点。

之前,KDnuggets邀请了11位来自工业、学术和技术一线人员,回顾2018年AI的进展。其中,呼吁阻止AI学术顶会向商业化沦陷的CMU助理教授Zachary C. Lipton认为,2018年 (深度学习) 最大的进展就是没有进展。

最近,Forbes则采访了120位AI行业的创始人和高管,在2018年AI技术和产业现状的基础上,对2019年进行展望,提出了120个预测。(里面有让你觉得英雄所见略同的看法吗?)

与往年一样,Quora鼎鼎有名的大V、机器学习研究者、前Quora工程负责人 Xavier Amatriain,也写下了他认为2018年机器学习和人工智能领域最大的进展:


  • AI炒作和AI威胁论都有所降温;
  • 越来越多的人开始关注公平性、可解释性或因果关系等问题;
  • 深度学习不会再遇到寒冬,并且在图像分类以外(尤其是自然语言处理)领域投入实用并产生效益;
  • AI框架方面的竞争正在升温,要是你想做出点事情,最好发表几个你自己的框架。

 

一起来看看。

深度学习寒冬不会到来,2018对AI的期望和恐惧都下降了

正如Xavier Amatriain说的那样,深度学习的寒冬不会到来——这项技术已经用到产业里并带来了收益,现实让人们收起了一部分对AI的期望和恐惧,业界开始思考数据的公平性、模型的可解释性等更本质的问题。

如果说2017年是人工智能炒作和威胁论的风口浪尖,那么2018似乎是我们开始冷静下来的一年。

虽然马斯克等人确实还在继续强调他们对人工智能的恐惧,但他们可能忙于处理其他事务而无暇顾及这个议题。

与此同时,媒体和公众看来也都意识到,虽然自动驾驶汽车和类似的技术在推进,但不会很快到来。不过,仍然有声音支持对AI本身进行管制,Xavier Amatriain认为这种观点是错误的,真正该管制的是AI所造成的结果。

深度学习:可解释性得到更多关注,NLP迎来ImageNet时刻

关于AI炒作和AI威胁论的降温实际上前面已经说过了,Xavier Amatriain表示他很高兴看到今年的重点似乎已经转移到去解决更具体的问题上面。

例如,业内围绕公平性 (fairness) 展开了大量的讨论,不仅举办了多个相关主题的会议 (比如FATML、ACM FAT),甚至还出现了一些在线课程。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

ACM FAT会议,2019年1月底在美国召开

关于可解释性 (interpretability) 、对算法或模型的理解 (explanation)因果关系 (causality)。后者重新成为人们关注的焦点,主要是因为Judea Pearl出版了“The Book of Why”这本书。关于推荐系统的ACM Recsys会议,最佳论文奖也颁给了一篇讨论如何在嵌入中包含因果关系的论文 (Causal Embeddings for Recommendations)。

话虽如此,许多其他作者认为,因果关系在某种程度上是对深度学习理论的干扰,我们应该再次关注更具体的问题,比如 interpretability 或 explanation。说到 Explanation,这个领域的亮点之一可能是华盛顿大学 Marco Tulio Ribeiro等人发表的 Anchor论文和代码,这他们对自己提出的著名模型LIME的改进。

虽然关于深度学习是最通用的AI范例这一点,仍然存在许多疑问(提问者算我一个);虽然Yann LeCun和Gary Marcus两人已经是第n次争论这个问题,但很明显,深度学习不仅仅停留于此。

在这一年里,深度学习方法在视觉以外的领域,包括语言、医疗、教育等领域取得了前所未有的成功。尤其是教育方面,国内国外的自适应学习(Adaptive Learning) 都愈发火热,以中国的松鼠AI (乂学教育) 为代表的个性化自适应教学平台,甚至请到了“机器学习教父”Tom Mitchell出任首席科学家。

事实上,在NLP领域,我们看到了今年最引人注目的进展。如果让我必须选择今年最令人印象深刻的AI应用程序,那么我的选择都来自NLP领域(而且都来自谷歌)。第一个是谷歌的超级有用的Smart Compose智能撰写邮件工具,第二个是Duplex对话系统。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

使用语言模型的想法加速了NLP的进步,这个想法在今年由Fast.ai的UMLFit推广起来。接着,我们看到了其他(改进的)方法,如艾伦研究所的ELMO,Open AI的transformers,以及最近谷歌发布的BERT,它在许多任务上击败了此前的SOTA结果。这些模型被描述为“NLP的ImageNet时刻”,因为它们提供了随时可用的预训练通用模型,也可以对特定任务进行微调。

除了语言模型之外,还有许多其他有趣的改进,比如facebook的多语言嵌入。值得注意的是,我们还看到这些方法和其他方法是如何迅速地集成到更一般的NLP框架中,比如AllenNLP或Zalando的FLAIR。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

 

生态:AI框架战升温,要出成绩你最好发表几个自己的框架

说到框架,今年的“AI框架战争”可谓愈演愈烈。令人惊讶的是,随着Pytorch 1.0的发布,Pytorch似乎正在赶上TensorFlow。

虽然在生产中使用Pytorch的情况仍然不够理想,但是Pytorch在这方面的进展似乎比TensorFlow在可用性、文档和教育方面的进展要快。有趣的是,选择Pytorch作为实现Fast.ai library的框架很可能起了重要作用。

话虽如此,谷歌已经意识到了这一切,并正在朝着正确的方向推进,例如将Keras纳入框架。最后,我们都能从所有这些伟大的资源中获益,所以请继续迎接它们的到来吧!

 

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

pytorch 与 tensorflow 的搜索趋势

在框架空间中,另一个进展很快的是强化学习

虽然我认为RL的研究进展并不像前几年那样令人印象深刻 (浮现在我脑海中的只有DeepMind最近的Impala工作),但令人惊讶的是,在一年时间里,我们看到所有主要AI玩家都发布了RL框架。

谷歌发布了用于研究的Dopamine框架,Deepmind发布了某种程度上与Dopamine竞争的TRFL框架。Facebook不甘落后,发布了Horizon,而微软发布了TextWorld,后者更专门用于训练基于文本的智能体。希望2019年所有这些开源的优势能够帮助RL领域取得更多进步。

最后,我很高兴看到谷歌最近在TensorFlow之上发布了TFRank。 Ranking是一个非常重要的ML应用。

数据:用合成数据训练DL模型

深度学习似乎最终消除了对数据的智能需求,但事实远非如此。

围绕着改进数据的想法,该领域仍有一些非常有趣的进展。例如,虽然数据增强已经存在了一段时间,并且对于许多DL应用程序来说是关键,但谷歌今年发布了AutoAugment,这是一种深度强化学习方法,可以自动增强训练数据。

一个更极端的想法是用合成数据训练DL模型。这已经在实践中尝试了一段时间,被许多人视为AI未来的关键。NVidia在Training Deep Networks with Synthetic Data这篇论文中提出了有趣的新颖想法。在“Learning from the experts”这篇论文中,我们还展示了如何使用专家系统来生成合成数据,然后将合成数据与实际数据相结合,使用这些数据来训练DL系统。

最后,还有一个有趣的想法,即使用“弱监督”来减少对大量手工标记数据的需求。Snorkel是一个非常有趣的项目,旨在通过提供一个通用框架来促进这种方法。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

基础理论:AI没有太多基础性突破?

我并没有看到太多AI更基础性的突破。我并不完全同意Hinton的观点,他说这种创新的缺乏是由于该领域“资深人士太少,年轻人太多”,尽管在科学上确实存在这样的趋势,即突破性研究经常是在更老的年纪完成的。

在我看来,目前缺乏突破的主要原因是,现有方法和变体仍然有许多有效的实际应用,所以很难冒险采用那些可能不太实际的方法。当该领域的大部分研究由大公司赞助时,这一点就更加重要了。

这方面,今年有一篇有趣的论文挑战了某些假设,题为“对用于序列建模的一般卷积和递归网络的经验评估”(An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling)。在高度经验主义和使用已知方法的同时,这篇论文打开了发现新方法的大门,因为它证明了通常被认为是最优的方法实际上并不是最优。

需要明确的是,我不同意Bored Yann LeCun的观点,他认为卷积网络是最终的“终极算法”(master algorithm),而且我认为RNN也不是。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

即使是序列建模,也有很大的研究空间!另一篇具有高度探索性的论文是最近的NeurIPS最佳论文“Neural Ordinary Differential Equations”,它挑战了DL中的一些基本内容,包括layers本身的概念。

2018年,机器学习和人工智能的发展卡在了数据集上面

在 Xavier Amatriain 的观点之后,新智元也补充一点:

2018年,机器学习和人工智能的进展卡在了数据集上面。

为什么这么说?

昨天,创业公司Graphext在Reddit上发帖,公布了他们对2018年Reddit网站Machine Learning内容分类里2509条帖子聚类分析的结果 (点击“阅读原文”查看大图):

(Reddit上) 人们最关心的话题 (占比20%) 是数据集,包括训练数据,大规模数据集,开源,新的数据、模型、样本等等;其次是研究论文 (占比18%),包括复现结果、Kaggle竞赛和谷歌、FB的工作;再次是训练 (占比16%)。

2018机器学习和AI最大突破没找到,但有人发现了最大障碍!

 

Graphext对2018年Reddit机器学习帖子聚类结果:最受关注的是数据

虽是一家之言,但这个聚类结果也在一定程度上反映了当前机器学习和人工智能从业者的关注点——数据!大数据!开源大数据!

也难怪作为学者的Zachary Lipton要说,2018年深度学习最大的进展就是没有进展——我们仍旧在依靠大数据,手握大数据和大算力的谷歌、FB等巨头最容易出成果,而迫切复现其算法和模型的其他机器学习工程师则关注训练的问题。


推荐阅读
  • 2019年斯坦福大学CS224n课程笔记:深度学习在自然语言处理中的应用——Word2Vec与GloVe模型解析
    本文详细解析了2019年斯坦福大学CS224n课程中关于深度学习在自然语言处理(NLP)领域的应用,重点探讨了Word2Vec和GloVe两种词嵌入模型的原理与实现方法。通过具体案例分析,深入阐述了这两种模型在提升NLP任务性能方面的优势与应用场景。 ... [详细]
  • 本文介绍如何使用OpenCV和线性支持向量机(SVM)模型来开发一个简单的人脸识别系统,特别关注在只有一个用户数据集时的处理方法。 ... [详细]
  • 独家解析:深度学习泛化理论的破解之道与应用前景
    本文深入探讨了深度学习泛化理论的关键问题,通过分析现有研究和实践经验,揭示了泛化性能背后的核心机制。文章详细解析了泛化能力的影响因素,并提出了改进模型泛化性能的有效策略。此外,还展望了这些理论在实际应用中的广阔前景,为未来的研究和开发提供了宝贵的参考。 ... [详细]
  • 从2019年AI顶级会议最佳论文,探索深度学习的理论根基与前沿进展 ... [详细]
  • 表面缺陷检测数据集综述及GitHub开源项目推荐
    本文综述了表面缺陷检测领域的数据集,并推荐了多个GitHub上的开源项目。通过对现有文献和数据集的系统整理,为研究人员提供了全面的资源参考,有助于推动该领域的发展和技术进步。 ... [详细]
  • 第三届人工智能、网络与信息技术国际学术会议(AINIT 2022)
    20223rdInternationalSeminaronArtificialIntelligence,NetworkingandInformationTechnology第三届 ... [详细]
  • 自然语言处理(NLP)——LDA模型:对电商购物评论进行情感分析
    目录一、2020数学建模美赛C题简介需求评价内容提供数据二、解题思路三、LDA简介四、代码实现1.数据预处理1.1剔除无用信息1.1.1剔除掉不需要的列1.1.2找出无效评论并剔除 ... [详细]
  • 每日前端实战:148# 视频教程展示纯 CSS 实现按钮两侧滑入装饰元素的悬停效果
    通过点击页面右侧的“预览”按钮,您可以直接在当前页面查看效果,或点击链接进入全屏预览模式。该视频教程展示了如何使用纯 CSS 实现按钮两侧滑入装饰元素的悬停效果。视频内容具有互动性,观众可以实时调整代码并观察变化。访问以下链接体验完整效果:https://codepen.io/comehope/pen/yRyOZr。 ... [详细]
  • 【图像分类实战】利用DenseNet在PyTorch中实现秃头识别
    本文详细介绍了如何使用DenseNet模型在PyTorch框架下实现秃头识别。首先,文章概述了项目所需的库和全局参数设置。接着,对图像进行预处理并读取数据集。随后,构建并配置DenseNet模型,设置训练和验证流程。最后,通过测试阶段验证模型性能,并提供了完整的代码实现。本文不仅涵盖了技术细节,还提供了实用的操作指南,适合初学者和有经验的研究人员参考。 ... [详细]
  • 通过使用CIFAR-10数据集,本文详细介绍了如何快速掌握Mixup数据增强技术,并展示了该方法在图像分类任务中的显著效果。实验结果表明,Mixup能够有效提高模型的泛化能力和分类精度,为图像识别领域的研究提供了有价值的参考。 ... [详细]
  • 探索聚类分析中的K-Means与DBSCAN算法及其应用
    聚类分析是一种用于解决样本或特征分类问题的统计分析方法,也是数据挖掘领域的重要算法之一。本文主要探讨了K-Means和DBSCAN两种聚类算法的原理及其应用场景。K-Means算法通过迭代优化簇中心来实现数据点的划分,适用于球形分布的数据集;而DBSCAN算法则基于密度进行聚类,能够有效识别任意形状的簇,并且对噪声数据具有较好的鲁棒性。通过对这两种算法的对比分析,本文旨在为实际应用中选择合适的聚类方法提供参考。 ... [详细]
  • 基于OpenCV的图像拼接技术实践与示例代码解析
    图像拼接技术在全景摄影中具有广泛应用,如手机全景拍摄功能,通过将多张照片根据其关联信息合成为一张完整图像。本文详细探讨了使用Python和OpenCV库实现图像拼接的具体方法,并提供了示例代码解析,帮助读者深入理解该技术的实现过程。 ... [详细]
  • Python与R语言在功能和应用场景上各有优势。尽管R语言在统计分析和数据可视化方面具有更强的专业性,但Python作为一种通用编程语言,适用于更广泛的领域,包括Web开发、自动化脚本和机器学习等。对于初学者而言,Python的学习曲线更为平缓,上手更加容易。此外,Python拥有庞大的社区支持和丰富的第三方库,使其在实际应用中更具灵活性和扩展性。 ... [详细]
  • 视觉图像的生成机制与英文术语解析
    近期,Google Brain、牛津大学和清华大学等多家研究机构相继发布了关于多层感知机(MLP)在视觉图像分类中的应用成果。这些研究深入探讨了MLP在视觉任务中的工作机制,并解析了相关技术术语,为理解视觉图像生成提供了新的视角和方法。 ... [详细]
  • 在第七天的深度学习课程中,我们将重点探讨DGL框架的高级应用,特别是在官方文档指导下进行数据集的下载与预处理。通过详细的步骤说明和实用技巧,帮助读者高效地构建和优化图神经网络的数据管道。此外,我们还将介绍如何利用DGL提供的模块化工具,实现数据的快速加载和预处理,以提升模型训练的效率和准确性。 ... [详细]
author-avatar
鲁有军_644
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有