热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

人工智能随笔硬件

人工智能时代,程式化的,重复性的,仅靠记忆与练习就可以掌握的技能将是最没有价值的技能,几乎一定可以由及其来完成;

人工智能时代,程式化的,重复性的,仅靠记忆与练习就可以掌握的技能将是最没有价值的技能,几乎一定可以由及其来完成;反之,那些最能体现人的综合素质的技能,例如,人对于复杂系统的综合分析,决策能力,对于艺术和文化的审美能力和创造性思维,由生活经验及文化熏陶产生的直觉,常识,基于人自身的情感(爱,恨,热情,冷漠等)与他人互动的能力......这些是人工智能时代最有价值,最值得培养,学习的技能。而且,这些技能中,大多数都是因人而异,需要“定制化”教育或培养,不可能从传统的“批量”教育中获取。

比如,同样是学习计算机科学,今天许多人满足于学习一种编程语言(比如java)并掌握一定特定编程技能(比如开发android应用),这样的积累在未来几乎一定会变得价值有限,因为未来大多数简单的,逻辑类似的代码一定可以由机器自己来编写。人类工程师只有去关注计算机,人工智能,程序设计的思想本质,学习如何创造性地设计下一代人工智能系统,或者指导人工智能系统编写更复杂,更有创造力的软件,才可以在未来成为人机协作模式里的“人类代表”。一个典型的例子是,在移动互联网刚刚兴起时,计算机科学专业的学生都去学移动开发,而人工智能时代到来后,大家都认识到机器学习特别是深度学习才是未来最有价值的知识。过去3年内,斯坦福大学学习机器学习课程的学生就从80人猛增到了1000多人。

再比如,完全可以预见,未来机器翻译取得根本性突破后,绝大多数人类翻译,包括笔译,口译,同声传译等工作,还有绝大多数从事语言教学的人类老师,都会被及其全部或部分取代。但这绝不意味着人类大脑在语言方面就完全无用了。如果一个翻译专业的学生学习的知识既包括基本的语言学知识,也包括足够深度的文学艺术知识,那这个学生显然可以从事文学作品的翻译工作,而文学作品的翻译,因为其中涉及大量人类的情感,审美,创造力,历史文化沉淀等,一定是及其翻译无法解决的一个难题。

未来的生产制造行业将是机器人,智能流水线的天下。人类再去学习基本的零件制造,产品组装等技能,显然不会有太大的用处。这个方面,人类的特长在于系统设计和质量管控,只有学习更高层次的知识,才能真正体现出人类的价值。这就像今天的建筑行业,最有价值的显然是决定建筑整体风格的建筑师以及管理整体施工方案的工程总监。他们所具备的这些能够体现人类独特的艺术创造力,决断力,系统分析能力的技能,是未来最不容易“过时”的知识。

人工智能时代,自动化系统将大幅解放生产力,及大地丰富每个人可以享有的社会财富。而且,由于人工智能的参与,人类可以从繁重的工作中解放出来,拥有大量的休闲时间。这个时候,这个社会对文化,娱乐的追求就会达到一个更高的层次,而未来的文娱产业,总体规模将是今天的数十倍甚至上百倍。那么,学习文艺创作技巧,用人类独有的智慧,丰富的情感以及对艺术的创造性解读去创作文娱内容,显然是未来人类证明自己价值的最好方式之一。当绝大多数人每天花6个小时或更多时间去体验最新的虚拟现实游戏,看最好的沉浸式虚拟现实电影,在虚拟音乐厅里听大师演奏最浪漫的乐趣,阅读最能感动人的诗歌和小说......作家,音乐家,电影导演和编剧,游戏设计师等,一定是人工智能时代的明星职业。


有了AI,人生还有意义吗?

在可预见的未来人机协作随处可见,人类有大量的空闲时间,或者沉浸在高水准的娱乐内容里,或者追随自己的个人兴趣,或者干脆无所事事。在这样的时代离,压在每个人肩头的工作压力,家庭压力会小很多,人生经历,人生目标以及人的价值观会前所未有地呈现出多样化的特征。

我觉得,基于生物特征的进化也许快要称为过去时,但基于人类自身特点的“进化”才刚刚开始。

人之所以为人,正是因为我们有感情,会思考,懂生死。而感情,思考,自我意识,生死意识等人类特质,正是需要我们全力培养,发展与珍惜的东西。

人脑中的情感,自我认知等思想都是机器所完全没有的。人类可以跨领域思考,可以在短短的上下文和简答的表达方式中蕴藏丰富的语义。

浮生碌碌,汲汲营营,我们身为万物之灵,到底该怎样活着?AI兴起的未来时代里,我们怎样才能在时代竞争中立于不败之地?

不断提高自己,善于利用人类的特长,善于借助机器的能力,这将是未来社会里各领域人才的必备特质。机器可以快速完成数学运算,可以下出极高水准的围棋,可以独立完成量化交易,甚至可以从事一些最初级的诗歌,绘画等艺术创作。但人类总是可以借助机器这个工具来提高自己,让自己的大脑在更高层次上完成机器无法完成的复杂推理,复杂决策以及复杂的情感活动。

在AI时代里,只会在某个狭窄领域从事简单工作的人,无论如何都无法与AI的效率和成本相比,必然会被机器所取代。如果不想在AI时代失去人生的价值与意义,如果不想成为无用的人,唯有从现在开始,找到自己的独特之处,拥抱人类的独特价值,成为在情感,性格,素养上都更加全面的人。此外,人生在世,无论是理性还是感性,我们所能知,能见,能感的实在是太有限了。AI时代,我们可以更多地借助机器和互联网的力量,更好地感知整个世界,整个宇宙,体验人生的诸多可能--这样才不枉我们短暂的生命在浩瀚宇宙中如流星般走过的这一程。

的确,人只不过是一根苇草,但人却是一根能思想的苇草。

AI来了,有思想的人生并不会因此而黯然失色,因为我们全部的尊严就在于思想。



其次是通用数字处理器。所有的信息都用数字计算机这样一种统一的设备进行处理。处理信息通用数字表示的数字计算机代替了处理专门的模拟信息所用的实体机器。实际上手机就是相当复杂的计算机,其运算能力已经比得上五六年前的笔记本电脑。我们稍后会发现,不同的计算机在“能计算什么”上的能力是一样的,差别只在于计算速度有多快,能存储的数据有多少。以前只在台式机和笔记本电脑上做的事,必然会越来越多地可以在手机上完成。如果有什么要特别指出的话,那就是,这个趋同化的过程只会越来越快。

再次是通用数字网络。互联网把处理数字表示的数字计算机联接在一起。计算机,手机被联到邮件,搜索,社交网络,购物,网上银行等各种服务上。与别人互发电子邮件的时候,完全不需要考虑对方在哪里,选择用什么方式存取电子邮件。用笔记本电脑,手机,平板电脑都可以搜索商品,比较价格,下单购物。社交网络也让你通过手机和计算机与家人朋友保持联系。显然,要让所有这些计算服务正常工作,网络这个基础设施的影响是巨大的。

最后,海量的数字化数据也在持续不断地被收集和更新。全球的地图,航线和街区照片都可以免费获取。搜索引擎为了有效地应对查询而孜孜不倦地扫描着整个互联网。成千上万的书都做成了数字形式。社交网络和资源分享站点为我们保存了关于我们自己的巨量数据。当我们访问网上商店和服务时,它们一方面让我们读取其后台数据,另一方面又在搜索引擎和社交网络的协助和怂恿下默默记录着我们的一举一动。互联网服务供应商记录下我们在网上所有互动操作的联接信息,或许甚至更多。

这一切变化得太快了,数字系统变得越来越小巧,越来越快速,也越来越便宜而且这种进步呈指数式增长:每过一两年,以同样价格就可以买到新能翻倍的产品,或者说同样的计算能力只需要付出一半钱即可得到。具有更时髦功能,更靓丽屏幕,更有趣应用的新手机不断面世。新的组件程序一直在推出,其中最实用的那些功能则随着时间推移而被直接加入到手机里。这种现象是数字技术天生的副产品:技术发展会导致各种数字设备一刀切式的进步。如果一种技术变化能让数据处理变得更廉价,更快或提升数据处理量,那么所有设备都会从这种变化中得益。结果就是数字系统在我们的生活中无孔不入,成为台前幕后都不可或缺的有机组成。

这种进步,看上去毫无疑问很棒的样子,事实上在大多数情况下也的确很棒,但有时候也会在人们的心中投下不安的阴影。就个体而言,技术对个人隐私的影响就是其中最显著也是最令人担心的一方面。在我搜索电视机然后跳到网点的过程中,所有当事方的系统里都留下了我访问和点击的记录。他们如何知道我是谁?哦,因为我用了手机,可以独一无二识别出我来。他们又如何知道我在哪里从而给我列出附近商店?当然也很简单,手机一直在报告我们的位置。我的手机装有GPS,于是手机公司可以定位到我家周围5米的精度;就算没有GPS,也可以大致定位到几百米的范围。我们竟然没有经过深思熟虑就允许手机跟踪我们的位置。

其次,对于我们在网上所作所为和往来踪迹的记录看其来会永存不灭。数字存储已经如此廉价,而数据的价值却非常宝贵,于是很少有人会丢失数据。如果你在网上发表了令人尴尬的不当言论,或者电子邮件发出去后又觉得不妥帖,那么是没有后悔药吃的。从不同来源获得的关于你的信息将让别人有机会拼凑出你生活细节的方方面面,从而被用于商业和政府的用途,而这一切你却一无所知,也未曾授权。这些信息很可能会一直保留着,说不定将来哪一天就会冒出来,让你下不来台。

20世纪计算机科学的伟大发现这一是,现在的数字计算机,最初的PC以及再往前体积更大,计算能力更弱的老式计算机器,它们在逻辑或者功能上的特性是完全一样的。如果我们不考虑速度,存储容量这些因素,这些计算机可以做完全一样的计算。


计算机表示信息的三个基本思想


  • 首先,计算机是数字处理器。它们存储和处理离散的信息,这些信息表现为不连续块,具有不连续的值,基本上就是一个个数值。而与之相对的模拟信息,则是平滑变化的值。
  • 其次,计算机用比特表示信息。比特就是二进制数字,即一个非0即1的值。计算机中的一切都用比特来表示。计算机内部使用二进制,而不是人们所熟悉的十进制。
  • 再次,较大的信息以比特组表示。数值,字母,单词,姓名,声音,照片,电影,以及处理这些信息的程序所包含的指令,都是用比特组来表示的。

模拟与数字

模拟

变化过程没有间断,一个事物的微小变化就意味着另一个事物的微小变化。

数字系统处理的是离散值:可能的取值是有限的(转向灯只可能是关闭的或在左右方向打开)。某个事物小小的变化,要么不引发其他事物变化,要么就引发其他事物的突变,使其从一个离散的值跳到另一个离散的值。

有人要问,为什么用数字而不用模拟呢?我们这个世界可是模拟的呀,而且手表,速度表等等模拟设备也更容易让人一目了然。但不管怎样,很多现代的技术都是数字的,而且我们这本书也是在讲述数字的故事。外部世界的数据--声音,图片,运动,温度,等等一切,在输入端都会尽可能早地转换为数字形式,而在输出端则会尽可能晚地转换回模拟形式。原因就在于数字化的数据容易处理,无论最初来源是什么,数字化数据都可以用多种方式来存储,传输和处理,但模拟信息则不行。第9章将会介绍,通过删除冗余和不重要的信息,还可以压缩数字化信息。为了安全和隐私可以对它进行加密,可以将它与其他数据合并,可以复制它而不出错,可以通过互联网把它发送到任何地方,可以将它保存到几乎无限种设备中。而对于模拟信息,上述很多做法是根本行不通的。

与模拟系统相比,数字系统还有另一个优势,就是它跟容易扩展。比如说,给模拟天文馆增加一颗新发现的星星,专业人员必须辛苦地作出光照效果来;而在数字天文馆,只要在数据文件里添加一行信息即可。我的数字手表可以连续不断地以百分之一秒显示时间流逝,而要让模拟手表做到这一点可就太难了。不过,模拟系统有时候也有它的优势,像泥版,石雕,羊皮纸,图书和照片等古老的媒体,都经历了数字格式未曾经历过的时间考验。


模数转换

声音和图片经常会被压缩,因为这两种媒体包含很多人类根本感知不到的细节。对于音乐,典型的压缩技术是MP3,大约能把音频文件的体积压缩到原来的十分之一,同时几乎让人感觉不到音质下降。对于图片,最常用的压缩技术是JPEG(是指定该标准的联合图像专家组),它的压缩率也能达到10倍甚至更高。上文提到很多处理对数字信息能做,但对模拟信息却很难(或不可能),压缩就是一个例子。

一言以蔽之:数字表示法能够表示上述所有信息,以及任何可以转换为数值的信息。

因为只有数值,所以就可以用数字计算机来处理,而且正如第9章要介绍的,还可以通过互联网等通用数字网络将它复制到其他计算机上去。


比特,字节与二进制

惯例还是用0表示关,用1表示开。


深入了解CPU

中央处理器如何工作?它处理什么,怎么处理?直观来讲,CPU有一个小型指令系统,包含着它能够执行的基本操作。它可以做算术题,加,减,乘,除,跟计算器一样。它可以从RAM中取得要操作的数据,然后再把结果保存到RAM,与很多计算器中的存储操作一样。CPU还要控制计算机的其他组件,确保鼠标,键盘等外围设备输入的数据得到相应,让信息在屏幕上得以显示,同时还要控制和协调连接到计算机的其他所有器件。

最重要的是,它可以作出决定--尽管是简单的决定:它可以比较数值(这个数比那个数大吗?)或者比较其他数据(这段信息与那段信息一样吗?)还能根据结果决定接下来做什么。这一条最重要,因为这意味着CPU能做的虽然比计算器多不了多少,但它可以在无人看管的情况下完成自己的工作。正如冯`诺依曼所说的:“要让这种机器完全自动化,即让它在计算开始后不再依赖人工操作。”

由于CPU能根据它所处理的数据决定下一步做什么,因此它就能自己运行整个系统。虽然其指令系统并不大,或者说并不复杂,但CPU每秒可以执行数十亿次运算,所以它能完成极为复杂的处理。

现代计算机会在CPU和RAM之间使用少量的高速存储器来保存最近使用过的指令和数据,这种高速存储器叫做缓存。如果可以从缓存中找到信息,那么就会比等待RAM返回数据快得多。

比较不同CPU的速度并不是特别有意义。即便是最基本的算术运算,其处理方式也可以完全不同,很难直接比较。比如,同样是计算两个数的和并保存结果,有的处理器需要用三个指令(比如我们的玩具计算机),有的则需要两个,而有的可能只需要一个。有的CPU具有并行处理能力,或者说能够执行多条指令,从而让这些指令在不同阶段上执行。为了降低处理器的耗电量,牺牲执行速度,设置根据是不是电池供电动态调整速度都是很常见的。对于某个处理器比另一个处理器“更快”的说法,不必太当真,因为很多情况下都要具体问题具体分析。


缓存

在CPU中,缓存是容量小但速度快的存储器,用于存储最近使用的信息,以避免访问RAM。通常,CPU会在短时间内连续多次访问某些数据和指令。

典型的CPU有两到三个缓存,容量依次增大,但速度递减,一般称为一级缓存,二级缓存和三级缓存。

除了发现性能提升之外,用户是感受不到这种缓存的。但缓存的思想却无处不在,只要你现在用到的东西不久还会用到,或者可能会用到与之邻近的东西,那运用缓存思维就没错。CPU中的多个累加器本质上也是一种缓存,只不过是高速缓存而已。RAM也可以作为磁盘的缓存,而RAM和磁盘又都可以作为网络数据的缓存。计算机网络经常会利用缓存加速访问远程服务器,而服务器本身也有缓存。

在使用浏览器上网的时候,你可能见过“清空缓存”的字眼。对网页中的图片和其他体积较大的资源,浏览器会在本地保存一份副本,因为再次访问同一网页时,使用本地副本比重新下载速度快。缓存不能无限地增长,因此浏览器会悄悄地删除旧项目,以腾出空间给新的,它还给你提供了删除所有缓存内容的命令。


其他计算机

人们很容易认为计算机不是PC就是Mac,因为那是我们最常见到的。实际上,还有很多其他类型的计算机。这些计算机无论大小,都具有相同的核心特性,即都能完成逻辑运算,并且都具有类似的体系结构,只不过在设计的时候会不同程度地考虑成本,供电,大小,速度等因素。手机和平板电脑也是计算机,它们运行操作系统并支持更加丰富多样的运算环境。比这还小的系统是嵌入式系统,日常生活里能见到的几乎所有数字设备里都有嵌入式系统,比如数码相机,摄像机,GPS导航系统,家电,游戏机,等等。

更大的计算机在很多年前就已经实现多个CPU共享内存了。如果能把大任务分解成小任务,而分解后的小任务又可以通过不同CPU协作完成,CPU相互之间不会出现太长的等待,也不会有太多的相互干扰,那么就能以这种方式加快完成大任务。除了在大型系统中广泛应用,这种集成多个处理器的多核芯片在个人计算机中也已经司空见惯,而且未来很可能会普及。

超级计算机往往有大量的处理器和大量的内存,这些处理器本身可能带有一些特殊指令,在处理某种数据时,它们比通用的处理器速度更快。今天的超级计算机通常是高速计算机集群,CPU仍然是普通的CPU,并没有什么特殊的硬件。

分布式计算指的是很多更加独立的计算机(比如不共享内存),而且地理上更加分散,甚至位于世界的不同地方。这样一来,通信更加成为瓶颈,但却能够实现计算机之间的远距离协作。大规模的Web服务,比如搜索引擎,在线商店和社交网络,都是分布式计算系统。在这种系统中,数以千计的计算机协作,可以为海量用户迅速地提供结果。

所有这些计算系统都有相同的基本原理。它们都使用通用处理器,可以通过编程完成无穷无尽种任务。每个处理器都有一个有限的简单指令表,能够完成算术运算,比较数据,基于前置计算结果选择下一条指令。不管物理结构的变化让人多么眼花缭乱,它们的一般体系结构从1940年代至今并没有太大的变化。

实际上,从能够计算什么的角度讲,所有计算机都是等价的,尽管运行速度明显不可能等价。

图灵是计算机领域最重要的人物之一,他对人类理解计算做出了重大贡献。


硬件部分总结

数字计算机包含处理器和存储器。处理器执行简单的指令,速度非常快。它可以根据早先计算的结果以及外界的输入,决定接下来做什么。存储器包含数据和处理数据的指令。

计算机是一种通用的机器。它从存储器中读取指令,而人把不同的指令放到存储器中,可以改变它要执行的计算。指令和数据要通过使用场景区分,一个人的指令可以是另一个人的数据。

尽管如此,我们还是有太多太多的事物不知道怎么用比特来表示,更不必说怎么用计算机来处理了。比如,日常生活中最重要的一些事物:艺术,创意力,真理,美,爱,荣誉和价值。我想在一定的时期内,这些事物仍将超出计算机的能力之外。如果你碰见了一个人,声称知道怎样“通过计算机”处理这些东西,那你可不要随随便便就相信他。


推荐阅读
  • 能够感知你情绪状态的智能机器人即将问世 | 科技前沿观察
    本周科技前沿报道了多项重要进展,包括美国多所高校在机器人技术和自动驾驶领域的最新研究成果,以及硅谷大型企业在智能硬件和深度学习技术上的突破性进展。特别值得一提的是,一款能够感知用户情绪状态的智能机器人即将问世,为未来的人机交互带来了全新的可能性。 ... [详细]
  • 自动驾驶中的9种传感器融合算法
    来源丨AI修炼之路在自动驾驶汽车中,传感器融合是融合来自多个传感器数据的过程。该步骤在机器人技术中是强制性的,因为它提供了更高的可靠性、冗余性以及最终的 ... [详细]
  • 本文详细介绍了 Java 网站开发的相关资源和步骤,包括常用网站、开发环境和框架选择。 ... [详细]
  • 当前物联网领域十大核心技术解析:涵盖哪些关键技术?
    经过近十年的技术革新,物联网已悄然渗透到日常生活中,对社会产生了深远影响。本文将详细解析当前物联网领域的十大核心关键技术,包括但不限于:1. 军事物联网技术,该技术通过先进的感知设备实现战场环境的实时监测与数据传输,提升作战效能和决策效率。其他关键技术还包括传感器网络、边缘计算、大数据分析等,这些技术共同推动了物联网的快速发展和广泛应用。 ... [详细]
  • 在前一篇文章《Hadoop》系列之“踽踽独行”(二)中,我们详细探讨了云计算的核心概念。本章将重点转向物联网技术,全面解析其基本原理、应用场景及未来发展前景。通过深入分析物联网的架构和技术栈,我们将揭示其在智能城市、工业自动化和智能家居等领域的广泛应用潜力。此外,还将讨论物联网面临的挑战,如数据安全和隐私保护等问题,并展望其在未来技术融合中的重要角色。 ... [详细]
  • 兆芯X86 CPU架构的演进与现状(国产CPU系列)
    本文详细介绍了兆芯X86 CPU架构的发展历程,从公司成立背景到关键技术授权,再到具体芯片架构的演进,全面解析了兆芯在国产CPU领域的贡献与挑战。 ... [详细]
  • 本文介绍了实现人工智能的多种方法,并重点探讨了当前最热门的技术——通过深度学习训练神经网络。文章通过具体实例详细解释了神经网络的基本原理及其应用。 ... [详细]
  • Python 数据可视化实战指南
    本文详细介绍如何使用 Python 进行数据可视化,涵盖从环境搭建到具体实例的全过程。 ... [详细]
  • 在2019中国国际智能产业博览会上,百度董事长兼CEO李彦宏强调,人工智能应务实推进其在各行业的应用。随后,在“ABC SUMMIT 2019百度云智峰会”上,百度展示了通过“云+AI”推动AI工业化和产业智能化的最新成果。 ... [详细]
  • 浏览器作为我们日常不可或缺的软件工具,其背后的运作机制却鲜为人知。本文将深入探讨浏览器内核及其版本的演变历程,帮助读者更好地理解这一关键技术组件,揭示其内部运作的奥秘。 ... [详细]
  • 深入解析Java虚拟机的内存分区与管理机制
    Java虚拟机的内存分区与管理机制复杂且精细。其中,某些内存区域在虚拟机启动时即创建并持续存在,而另一些则随用户线程的生命周期动态创建和销毁。例如,每个线程都拥有一个独立的程序计数器,确保线程切换后能够准确恢复到之前的执行位置。这种设计不仅提高了多线程环境下的执行效率,还增强了系统的稳定性和可靠性。 ... [详细]
  • 通过使用CIFAR-10数据集,本文详细介绍了如何快速掌握Mixup数据增强技术,并展示了该方法在图像分类任务中的显著效果。实验结果表明,Mixup能够有效提高模型的泛化能力和分类精度,为图像识别领域的研究提供了有价值的参考。 ... [详细]
  • 夸克网盘电脑版上线,实现三端同步备份与高效编辑播放功能 ... [详细]
  • 从2019年AI顶级会议最佳论文,探索深度学习的理论根基与前沿进展 ... [详细]
  • Python与R语言在功能和应用场景上各有优势。尽管R语言在统计分析和数据可视化方面具有更强的专业性,但Python作为一种通用编程语言,适用于更广泛的领域,包括Web开发、自动化脚本和机器学习等。对于初学者而言,Python的学习曲线更为平缓,上手更加容易。此外,Python拥有庞大的社区支持和丰富的第三方库,使其在实际应用中更具灵活性和扩展性。 ... [详细]
author-avatar
常州秆时尚女人帮
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有