热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

人工智能_人工智能正在推动“硅”复兴

篇首语:本文由编程笔记#小编为大家整理,主要介绍了人工智能正在推动“硅”复兴相关的知识,希望对你有一定的参考价值。人工智能正在推动“硅”复兴

篇首语:本文由编程笔记#小编为大家整理,主要介绍了人工智能正在推动“硅”复兴相关的知识,希望对你有一定的参考价值。


  人工智能正在推动“硅”复兴

  半导体是数字时代的基础技术。它是硅谷名字的来源。它是过去半个世纪改变了社会各个方面的计算机革命的核心。

  自从英特尔在1971年推出世界上第一个微处理器以来,计算能力的提高步伐令人叹为观止,且永不停息。根据摩尔定律,当今的计算机芯片比50年前的功能强大了数百万倍。

  然而,尽管数十年来处理能力飞速增长,但直到最近,计算机芯片的基本体系结构仍基本上保持静态。在大多数情况下,芯片的创新需要进一步使晶体管小型化,以便将更多晶体管压缩到集成电路中。几十年来,英特尔和AMD等公司通过可靠地提高CPU性能而蓬勃发展,这一过程被Clayton Christensen称为“持续创新”。

  今天,这种情况正在以戏剧性的方式改变。AI迎来了半导体创新的新黄金时代。数十年来,机器学习的独特需求和无限的机会第一次激发了企业家重新思考和重新思考芯片架构的最基本原则。

  他们的目标是设计一种专为AI设计的新型芯片,它将为下一代计算提供动力。它是当今所有硬件中最大的市场机会之一。

  新的计算范式

  在计算的大部分历史中,主要的芯片体系结构一直是CPU或中央处理器。如今,CPU无处不在:它们为笔记本电脑,移动设备和大多数数据中心供电。

  1945年,传奇的John von Neumann 设计了 CPU的基本体系结构。值得注意的是,此后其设计基本上保持不变:今天生产的大多数计算机仍是冯·诺依曼机器。

  CPU在用例中的优势是其灵活性的结果:CPU是通用计算机,能够有效执行软件所需的任何计算。但是,尽管CPU的主要优势是多功能性,但是当今领先的AI技术需要非常特殊且密集的一组计算。

  深度学习需要迭代执行数百万或数十亿个相对简单的乘法和加法步骤,简单那来说就是线性代数,深度学习的根本是参数微调,矩阵相乘。

  这种重复的,计算量大的工作流程对硬件体系结构具有一些重要意义。并行化(处理器能够同时而不是一个接一个地执行许多计算的能力)变得至关重要。与此相关的是,由于深度学习涉及大量数据的连续转换,因此将芯片的内存和计算核心尽可能靠近地放置,可以通过减少数据移动来获得巨大的速度和效率。

  CPU 不足以支持机器学习的独特需求。CPU按顺序而不是并行地处理计算。它们的计算核心和内存通常位于单独的模块上,并通过带宽受限的通信系统(总线)连接。这在数据移动中产生了瓶颈,称为“冯·诺依曼瓶颈”。这就导致在CPU上训练神经网络效率极低。

  鉴于机器学习应用在整个社会中正变得越来越普遍,传统芯片无法处理现代AI算法这个问题变得越来越严峻。正如AI行业伟大的Yann LeCun最近说的那样:“如果您预估未来的五,十年,您会发现计算机大部分时间都花在做深度学习之类的事情。”

  至此,推动AI繁荣的芯片是GPU(图形处理单元)。GPU架构是Nvidia在1990年代后期为游戏应用发明的。为了以高帧速率渲染计算机游戏的详细图形,GPU专门用于连续处理大量数据。与CPU不同,GPU可以并行完成数千个计算。

  在2010年代初,AI社区开始意识到 Nvidia的游戏芯片实际上非常适合处理机器学习算法所需的工作负载类型。这就让GPU找到了巨大的新市场。Nvidia抓住机遇,将自己定位为AI硬件市场领先的提供商。这就让公司收获了惊人的收益:从2013年到2018年,英伟达的市值跃升了 20倍。

  然而,正如Gartner分析师Mark Hung所说,“每个人都同意GPU并非针对AI工作负载进行了优化。” GPU已被AI社区采用,但它并非为AI而生。

  近年来,一大批企业家和技术人员开始重新构想计算机芯片,从头开始对其进行优化,以释放AI的无限潜力。用Alan Kay令人难忘的话来说:“真正认真对待软件的人们应该自己制造硬件。”

  在过去的24个月中,出现了五只AI芯片独角兽。令人瞠目结舌的估值也吸引了更多新贵。传统CPU的领导者为了避免被抛弃,也参与其中。仅英特尔一家就完成了这一类别的两项重大收购:Nervana Systems(2016年4月以4.08亿美元收购)和Habana Labs(2019年12月以20亿美元收购)。在未来几年中,随着这场竞赛的进行,将有数千亿美元的企业价值被争夺。

  下一个英特尔?

  巨大的市场机会和前景技术的挑战相结合,激发他们创造出惊人的创意——有时是惊人的、设计理想的AI芯片的方法。

  新一代AI芯片初创企业中最引人注目的就是Cerebras Systems。简单地说,Cerebras的大胆方法是制造有史以来最大的芯片。最近该公司的价值为$ 1.7B,该公司已从包括Benchmark和Sequoia在内的顶级投资者筹集了$ 200M。

  Cerebras芯片的规格令人难以置信。它比典型的微处理器大60倍左右。它是历史上第一个容纳超过1万亿个晶体管(准确地说是1.2万亿个)的芯片。它的片上内存为18 GB,这是有史以来最多的。

  将所有计算能力打包到单个硅基板上可带来诱人的好处:数据传输效率大大提高,内存与处理并置,大规模并行化。但是,如果想轻描淡写工程上的挑战,这是荒谬的。因为几十年来,制造晶圆级芯片一直是半导体行业梦寐以求的梦想,但从未实现。

  Cerebras首席执行官Andrew Feldman说:“每个规则,每个工具和每个制造设备都是为正常尺寸的“巧克力曲奇”设计的,我们提供了整个“曲奇纸”大小的产品。” “方法的每一步,我们都必须发明。”

  Cerebras的AI芯片已经投入商业使用:就在上周,Argonne National Laboratory宣布将使用Cerebras的芯片来帮助对抗冠状病毒。

  另一家采用全新的芯片设计新方法的公司是基于湾区的Groq。与Cerebras相比,Groq的芯片专注于推理,而不是模型训练。创始团队拥有世界一流的领域专业知识:Groq的团队包括Google TPU项目的十个原始成员中的八个,这是迄今为止最成功的AI芯片工作之一。

  Groq颠覆了业界的传统常识,正在构建批量batch size为1的芯片,这意味着它可以一次处理一个数据样本。据该公司称,这种架构几乎可以实现瞬时推断(对于诸如自动驾驶汽车等对时间敏感的应用程序至关重要),而无需牺牲性能。Groq的芯片很大程度上是软件定义的,从而使其具有独特的灵活性和永不过时的特性。

  该公司最近宣布其芯片达到每秒1万亿次运算的速度。如果为真,这将使其成为历史上最快的单die芯片。

  也许没有一家公司比Lightmatter具有更出色的技术愿景。它是由光子学专家创立,总部位于波士顿。Lightmatter寻求构建一种AI微处理器,该微处理器不是由电信号而是由光束驱动的。该公司已从GV,Spark Capital和Matrix Partners筹集了3,300万美元,以实现这一愿景。据该公司称,光的独特性能将使其芯片性能比现有解决方案高十倍。

  此类别中还有许多其他玩家值得关注。两家中国公司Horizon Robotics和Cambricon Technologies各自以更高的估值筹集了比其他任何竞争对手都更多的资金。帕洛阿尔托的SambaNova Systems 资金雄厚,技术精湛。尽管有关SambaNova计划的细节仍然很少,但其技术似乎特别适合于自然语言处理。其他值得注意的初创公司包括Graphcore,Blaize,Mythic和Kneron。

  几家科技巨头已经开始自己的内部努力来开发专用AI芯片。这些程序中最成熟的是上面提到的Google的Tensor处理单元(TPU)。像往常一样,在技术曲线之前,谷歌于2015年开始研发TPU。最近,亚马逊宣布其Inferentia AI芯片在2019年12月大张旗鼓地发布。特斯拉,Facebook和阿里巴巴以及其他技术巨头都在参与其中。内部AI芯片程序。

  结论

  争相开发将为即将到来的AI时代提供动力的硬件的竞赛正在进行中。自硅谷成立以来,如今的半导体行业正在发生比以往任何时候都更多的创新。不可估量的数十亿美元正在发挥作用。

  下一代芯片将在未来几年中塑造人工智能领域的轮廓和轨迹。用Yann LeCun 的话来说:“硬件功能...激励并限制AI研究人员将想象并允许自己追求的想法类型。我们可以使用的工具比我们愿意承认的更能塑造我们的思想。”


推荐阅读
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • OCR:用字符识别方法将形状翻译成计算机文字的过程Matlab:商业数学软件;CUDA:CUDA™是一种由NVIDIA推 ... [详细]
  • Android中高级面试必知必会,积累总结
    本文介绍了Android中高级面试的必知必会内容,并总结了相关经验。文章指出,如今的Android市场对开发人员的要求更高,需要更专业的人才。同时,文章还给出了针对Android岗位的职责和要求,并提供了简历突出的建议。 ... [详细]
  • [译]技术公司十年经验的职场生涯回顾
    本文是一位在技术公司工作十年的职场人士对自己职业生涯的总结回顾。她的职业规划与众不同,令人深思又有趣。其中涉及到的内容有机器学习、创新创业以及引用了女性主义者在TED演讲中的部分讲义。文章表达了对职业生涯的愿望和希望,认为人类有能力不断改善自己。 ... [详细]
  • 计算机存储系统的层次结构及其优势
    本文介绍了计算机存储系统的层次结构,包括高速缓存、主存储器和辅助存储器三个层次。通过分层存储数据可以提高程序的执行效率。计算机存储系统的层次结构将各种不同存储容量、存取速度和价格的存储器有机组合成整体,形成可寻址存储空间比主存储器空间大得多的存储整体。由于辅助存储器容量大、价格低,使得整体存储系统的平均价格降低。同时,高速缓存的存取速度可以和CPU的工作速度相匹配,进一步提高程序执行效率。 ... [详细]
  • 统一知识图谱学习和建议:更好地理解用户偏好
    本文介绍了一种将知识图谱纳入推荐系统的方法,以提高推荐的准确性和可解释性。与现有方法不同的是,本方法考虑了知识图谱的不完整性,并在知识图谱中传输关系信息,以更好地理解用户的偏好。通过大量实验,验证了本方法在推荐任务和知识图谱完成任务上的优势。 ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 本文介绍了OkHttp3的基本使用和特性,包括支持HTTP/2、连接池、GZIP压缩、缓存等功能。同时还提到了OkHttp3的适用平台和源码阅读计划。文章还介绍了OkHttp3的请求/响应API的设计和使用方式,包括阻塞式的同步请求和带回调的异步请求。 ... [详细]
  • 本文介绍了H5游戏性能优化和调试技巧,包括从问题表象出发进行优化、排除外部问题导致的卡顿、帧率设定、减少drawcall的方法、UI优化和图集渲染等八个理念。对于游戏程序员来说,解决游戏性能问题是一个关键的任务,本文提供了一些有用的参考价值。摘要长度为183字。 ... [详细]
  • cs231n Lecture 3 线性分类笔记(一)
    内容列表线性分类器简介线性评分函数阐明线性分类器损失函数多类SVMSoftmax分类器SVM和Softmax的比较基于Web的可交互线性分类器原型小结注:中文翻译 ... [详细]
  • 3年半巨亏242亿!商汤高估了深度学习,下错了棋?
    转自:新智元三年半研发开支近70亿,累计亏损242亿。AI这门生意好像越来越不好做了。近日,商汤科技已向港交所递交IPO申请。招股书显示& ... [详细]
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • ICRA2019最佳论文  Making Sense of Vision and Touch: SelfSupervised Learning of Multimodal Representatio
    文章目录摘要模型架构模态编码器自监督预测控制器设计策略学习控制器设计实验结论和展望会议:ICRA2019标题:《MakingSenseofVision ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • 2017亚马逊人工智能奖公布:他们的AI有什么不同?
    事实上,在我们周围,“人工智能”让一切都变得更“智能”极具讽刺意味。随着人类与机器智能之间的界限变得模糊,我们的世界正在变成一个机器 ... [详细]
author-avatar
大众化的公爵樱桃rwr_208
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有