《智能时代》读后感

时间:2017-10-28 作文 我要投稿

  智能时代,1999年,提出物联网这个概念。同年中国科学院就启动了传感网的研究,建立了一些适用的传感网。物联网不是科技狂想,而是又一场科技革命。过去在中国,物联网被称之为传感网。下面是关于《智能时代》的读后感

  《智能时代》读后感一

  第一次读智能时代,是通过朋友的豆瓣阅读邀请码下载到手机上看的。起先并没有太认真阅读,只是在下班路上随手翻几页,以为这就是写现在比较热门的关于智能设备或者智能生活方式的乏善可陈的书,毕竟书名"智能时代"给我第一印象就是如此。实际读的时候才发现,这是一本讲人的智能和计算机能否产生类似智能的书。书的原名是《on Intelligence》,本意是关于智能的讨论,翻译书名《智能时代》和副标题不是很切题,会给人错误的第一印象。

  抛开书名不说,《智能时代》是我几年内读过最好的书之一,作者——杰夫•霍金斯的文笔很简洁,这本书翻译的水平也很高,文中很客观和批判性地描述了智能和人工智能研究,并阐述了作者自己对智能的理解。本书一推出就获得两个诺贝尔奖得主及专业领域人士的大力推荐,考虑到霍金斯本人是企业家而不是职业科学家这一点,是十分罕见的。

  我从小经常思考关于智能的问题,这本书能解答我很多疑惑,读书时那种开悟的感觉只能用醍醐灌顶来形容。还记得初一的某天下课回家,我骑着自行车,突然产生了一个疑问——我的手是怎么掌把的,我没有有意识地控制哪根手指放哪个位置啊?然后我撞了汽车。如果你和我一样,曾经思考过这类问题,那么本书绝对是你的菜。

  霍金斯在书中首先回顾了当今人工智能研究的历程以及自己探索的经历,客观批判了"智能行为派",他认为智能是系统的内在属性,和外在表现无关。比如一个人在静静思考的时候,虽然没有表现出任何行为,他也是有智能的。退一步来讲,假使通过行为来判断是否有智能,当下的计算机也不合格。计算机要能识别图片,必须设计一套视觉识别算法,计算灰度、色阶、轮廓等;识别语音要设计语言算法,计算声波频率、音调、匹配语义等。图片算法和声音算法之间没有任何关联,从术语到计算过程完全不同。但是对于大脑来说,声音和图像在大脑中的处理过程很类似,只是接受刺激的感官不同。把实验动物幼崽的视觉神经接到本来应该发育听觉的位置,这些动物都能发育出正常的视觉——而如果把计算机的摄像头接到话筒上,结果可想而之。作者并非在否定算法本身,无疑,大脑也有自己的算法,这个算法是高度抽象的,能根据信号输入的不同发展出相应的知觉。相比之下,计算机算法毫无变通的可能性。从这两点出发,作者认为以往的计算机智能研究是一条死路。

  那么智能应该是什么样的?霍金斯从日常生活出发,通过对学习、记忆、回想等等行为的分解,结合脑部神经结构,提出了产生智能的"记忆——预测"框架。整个推断过程非常精彩,在此就不剧透了,以免破坏了阅读乐趣。

  这个系统的核心在于"恒定表征"这样一个概念,霍金斯认为人类(或海豚猴子等其他动物)之所以能认知世界,依赖于对事物高度抽象的能力。这种抽象能力,不是指刻意训练的逻辑思维能力,而是智慧生物由大脑结构决定的固有能力。举个例子:当我看到我家的小狗,我能意识到它在附近;当我听到它熟悉的叫声,我也能意识到它在附近;甚至当我只是看到它掉在沙发上的毛,都能推断出它肯定爬上过沙发。我并不一定直接看到它,是如何判断它是否在附近呢?这就表明我的大脑有关于这只狗的"恒定表征",不以我观测的方式转移。我认识我家的狗,无论它是蹲着还是趴着还是把脑袋藏在沙发下面,我都能意识到它的独特存在。"恒定表征"也就是人们常说的"理解"某个事物,对于计算机来说,目前的技术只能按部就班地计算,没有理解的产生,更无所谓智能。

  《智能时代》读后感二

  未来的社会,属于那些具有创意的人,包括计算机科学家,而不属于掌握某种技能做重复性工作的人。

  第一章 数据——人类建造文明的基石

  信息是关于世界、人和事的描述,它比数据来得抽象。信息既可以是我们人类创造的,比如两个人的语音通话记录,也可以是天然存在的客观事实,比如地球的面积和质量。

  数据可以把信息描述清楚,它最大的作用在于承载信息,但是并非所有的数据都承载了有意义的信息。数据本身是人造物,因此它们可以被随意制造,甚至可以被伪造。

  人类文明的过程其实伴随着获取数据->分析数据->建立模型->预测未知的过程。数据在人类文明中起到了基石的作用。像地心说、日心说等都是一种模型。

  数据之间大多存在相关性。很多时候,我们无法直接获得信息(比如疫情传播情况),但是我们可以将相关联的信息(比如各地搜索情况)量化,然后通过数学模型,间接地得到所要的信息。而各种数学模型的基础都离不开概率论和统计学。

  统计学的前提是可靠的样本,而样本的选取并非易事。而且在互联网出现之前,获得大量的具有代表性的数据其实并非一件容易事。

  从概率论一诞生人们就有这种担忧,人们希望能够从理论上证明当观察到的数据量足够多了以后,随机性和噪声的影响可以忽略不计。

  切比雪夫不等式证明了当样本数足够多时,一个随机变量和它的数学期望值之间的误差可以任意小。

  要建立数学模型就要解决两个问题,首先是采用什么样的模型,其次是模型的参数是多少。简单的模型未必和真实情况相匹配,从一开始如果选择错误,则以后修修补补就很难了。而寻找模型的参数,以便让模型至少和以前观察到的数据相吻合,这个过程就是机器学习。

  完美的模型未必存在,即使存在,找到它也非常不容易。但是经常可以用多个简单的模型拼凑出一个复杂的模型,而且常常成本更低。

  回到数学模型上,其实只要数据量足够多,就可以用若干个简单的模型取代一个复杂的模型。这种方法被成为数据驱动法。因为它是先有大量的数据,而不是预设的模型,然后用很多简单的模型去契合数据。