浅谈AI

浅谈AI
by fwjmath
 
    AI者,Artificial Intelligence是也,也就是说人工智能。人工智能可以说从远古开始就是很多人追求的目标了。我国古代传说中就有一个极其聪明的机械师叫偃师,传说他曾经做出来过一个能歌善舞应答自如的机器人。到了近代,各种各样的科幻小说更是将这种在想象中具有与人类一样的思维能力的机器带到了大众视线之下,使其成为了令人津津乐道的话题。一些围绕着这个主题的电影、小说等等科幻作品已经成为了大众经典。当然,关于人工智能方方面面的各种严肃的争论也从未停止。下面我们就来谈谈这些争论。
    很多人认为人工智能就等同於机器人,我认为这大多数都是一种对电影等科幻作品的误读。在科幻作品当中,很多时候由于情节的需要,人工智能需要有一个躯壳来承载它进行各种推动情节的活动,所以作者才不得不给它们一个机械的躯壳。这样,人工智能就变成了一个机器人。但其实在现实中,人工智能与机器人是两回事,尽管人工智能已经被应用到机器人身上了。现在在现代化的大型厂房中,就经常有一只只的机器手在工作,那其实也是机器人的一种。然而显然它们只会按照给定的程序机械地工作,所以很显然算不上什么人工智能。而反过来说,每年在国际上都会举行一个人工智能的设计大赛,而参加这个大赛的都是一些聊天程序,比如说著名的ALICE。这些聊天程序不存在实体,那么很显然它们这些人工智能的初步研究产品也不属于机器人。更确切地说,人工智能和机器人技术模拟的其实是人的两个不同的方面,一个是思维,一个是灵活可以自我控制的运动系统。所以说,人工智能与机器人技术其实是完全不同的两件事情。
    那么,人工智能的确切定义到底是什么呢?我个人的定义就是由人类制造出来的能够表现出类似于人类的推理、归纳、学习等智能行为的机器或者程序。在这种定义之下,其实一些简单的人工智能早已出现了,它们可以解决一些简单的问题,在某个特定的领域内的表现可以接近甚至超越人类。对它们这些人工智能的判别方法也早已有人提出,并已经被广泛接受为一种被认可的手段,那就是由英国数学家阿兰·图灵(Alan Turing)提出的图灵测试。我认为这个测试的原理其实很简单,就是说在排除非本质因素后,如果一台机器和一个人做同一件事的时候,可以使观众无法判断出到底这件事是人类完成的还是机器完成的的话,那么就可以认为这台机器在这方面拥有人工智能。图灵当初的版本是用聊天作为测试的,就是如果说一群测试者在分别与一台机器和一个人谈话(当然是排除了语音等等因素而只专注于内容)后,不能分辨出机器和人的话,那么就可以说这个机器具有与人相当的智能。当然,现在也有很多研究者在质疑这种测试方法,认为还可以找到别的更好的方法来进行测试,但我认为图灵测试已经是一个比较方便有效的测试方法了,因为它不考虑机器的内部结构,只是抓住它的表现,而且利用人来做判断的话对于模仿人的机器来说也是比较合理的,因为人性这种东西似乎难以量化地测量,只有人最清楚怎么样才算是一个人,而不用进行复杂的形而上学的思辨才能得出结论。
     如果是利用图灵测试来判别人工智能的话,那么我们现在就已经有了在某一特定领域中通过了图灵测试的人工智能,并且它在测试中表现得似乎比人更加高明。这个领域就是人类智慧的代表作——国际象棋,而这个人工智能,就是大名鼎鼎的“深蓝”。用计算机下国际象棋一直以来就被认为是人工智能的“圣杯”,是研究人工智能的一条通道。终于,在不停地努力了十几年以后,在1997年夏天,由许峰雄等人所建造的“深蓝”在经过十几年的奋斗后,终于在棋盘上战胜了当时公认的国际象棋世界冠军卡斯帕罗夫。卡斯帕罗夫是人类有史以来等级分最高的人类棋手,但即使是他也败在了“深蓝”脚下,甚至在赛后还怀疑“深蓝”背后有人直接指挥控制下子。在场外的许多国际象棋评论员也认为“深蓝”的奕法与以往的弈棋计算机不同,已经有了明显的人类特征。这样说来,很显然“深蓝”已经通过了国际象棋领域的图灵测试。
    但是人工智能研究界还有一些不甚满意的呼声,因为“深蓝”思考的方法并不十分高明。实际上,“深蓝”取胜的方法并不那么高明,而其实本质上是通过蛮力搜索,也就是一个一个变招分析下去的这种方法,来赢棋的。当然,如果真要完完全全一个不漏地完成搜索的话,哪怕利用了当时的超级计算机,就是完成几步之内的所有搜索也是不大现实的。“深蓝”的优胜之处就在于它的专用国际象棋芯片计算国际象棋搜索问题的速度很快,一个专用芯片在国际象棋问题上就顶得上一台超级计算机,而且芯片的设计中还包含了丰富的国际象棋知识,诸如在可被开放直线上可以叠车来牵制对手的做法。“深蓝”正是利用了这些象棋知识,将搜索问题大大简化,再加上专用芯片的强大搜索能力,就能计算十几甚至二十几步以后的局势,从而战胜了卡斯帕罗夫。关于“深蓝”整个设计和建造的过程,可以参看“哲人石”丛书中的《“深蓝”揭秘:追寻人工智能圣杯之旅》,作者就是“深蓝”的设计者之一许峰雄。但不得不说,这种取胜方法的确好像有点“胜之不武”的感觉,就像在用自己的速度快来欺负人,而且还直接利用了对手的知识,也似乎没有什么新的东西。所以,虽然“深蓝”已经战胜了人类棋王,但是如果作为一个人工智能的例子来说的话无疑是很拙劣的,我个人认为还是把它归类到一个搜索的程序上面去比较好。而且我估计也有许多人会认为它只是一个死板的程序而已。那么,智能到底是什么?怎样才能说一个东西它有没有智能?到底怎么样才算是有智能?就连“深蓝”这样有能力的程序也被认为是死板,那么我们要做什么才能使一台机器拥有智能?
    要分析“智能”这种东西,我们还是首先看看这个世界上最有智能的东西——大脑。在现代,科学家们对大脑是如何工作的仍没有一个定论,但是各种层面上的研究已经正在逐渐拼凑出一个模糊的画面来了,对于一些方面也能做出一定的揭示了。现在我们还是以下国际象棋为例子来谈谈我们知道的画面。很显然,一名棋手在下棋的时候是肯定不能像深蓝一样将每个布局都推演出来的,那么,人脑是如何做出判断的呢?这仍然是一个谜团。的确,人类棋手在下棋的时候的确会做明确的逻辑推演,比如说典型的“如果对方如何如何走子我就如何如何反应”的推理。这些也正是计算机的专长。但人类棋手在下棋的时候也会有一些难以用逻辑来解释的感觉。比如说高级的棋手在看一盘棋的时候可以比较准确地讲出局势的优劣,这个在计算机看来并不是一件很容易的事情,因为局势的优劣并不在于这盘棋的棋子排布本身,而是在于接下来的对弈方面的各种应对的综合分析。还有,人类棋手还能够评估一着棋的风险、收益,还有就是棋子的状态和位置的重要性。这些东西尽管都是可以进行量化的,但是如果是计算机的话,没有精确计算和大量的推演的话,根本无法获得上面那些如此重要的信息。然而,我们人类棋手的大脑却可以在瞬间通过一种“感觉”得知这些信息,这是否意味着人跟程序始终是有不同的地方,而机器永远不可能超越人类呢?这个问题,从人工智能这个概念被提出的时候就已经产生了,至今仍是争论不休。
    在“机器是否超越人类”这个问题上,绝大部分的人都分成了两派。一派的人认为人工智能继续发展的话,它们的智能终有一天会达到甚至超越人类,这一派所持的这种思想被称作“强人工智能主义”。与之相反,另一派别的人认为无论人工智能如何发展,它们的智能都无法超过人类,对应地这种思想就被称为“弱人工智能主义”。强人工智能主义者认为,既然构成人脑的物质它们遵循的物理规律都是已知的,那么人工智能至少可以通过模拟来达到与人相同的智能,所以人工智能能够至少与人类并驾齐驱。而弱人工智能主义者则认为存在某种物理上的或者是技术上的壁垒,将会最终阻碍人工智能达到人类智能的水平。弱人工智能主义者的一个典型代表者就是著名的物理学家、数学家罗杰·彭罗斯(Roger Penrose)。弱人工智能主义者曾经提出过许多著名的说明为什么人工智能不能超越人类的论证,下面我们就来看两个比较有名的。
    一个就是所谓的“中文屋”论证。设想将一个完全不懂中文的外国人,比如说图灵,关进一个房间里不允许他与别人交谈,而只能用纸条的方式向外交换信息,然而这些纸条上面允许写的只有中文字符。房间里有一本完美的中文字典,上面写满了将输入的纸条上面的中文转换成输出的规则和对应表,也可以说是一本完美的交谈指南,可以指导一切交谈。图灵在里边只能通过查阅这本字典来与外界交流。当然,对于图灵来说纸条上面写的中文字一点意义都没有,换句话说就是说他丝毫不理解自己干的到底是什么。他自己认为这只是在不停地将一些符号翻来倒去而已。但是在房间外的我们这些中国人来说,无论我们对这个房间输入什么中文,我们都可以得到完全正确无误的解释。也就是说我们不能区分房间里的人和一个中国人。然而我们知道,房间里的图灵对中文一窍不通。同样的东西运用到人工智能上那就形成了一个疑问:即使人工智能表面上通过了图灵测试,在各个方面都可以被认为与真正的人类无异,但实际上人工智能本身可能并不理解他自己正在做什么,然而人类在有意识的情况下是完全理解自己所做的到底是什么的,这样的话我们是不是可以说人工智能虽然表面上达到了人类的水平,但是它在自我理解方面仍然是一片空白远不如人类的呢?这就是弱人工智能主义者提出的一个诘难。
    当然,强人工智能主义者也进行了反击。他们说,关键就在于这“理解”二字。如何才算是“理解”呢?在“中文屋”这个例子当中,怎么才算“理解”中文呢?关键的地方是,无论我们要评判什么,我们都只能站在这个“中文屋”的外部来探讨,只能通过与“中文屋”的交互来判断。如果在这一系列的交互中我们都不能将其与一个中国人区别开来的话,那么我们就只能认为作为一个整体来说,“中文屋”对中文的理解跟一个中国人对中文的理解是一致的。至于自我理解这种被认为是人类才有的东西,其实也只是一种思维上的活动,也只能通过外部的相互交互来判断。就算是人类的大脑,拿到分子原子的层面来说的话我们也不会觉得它有自我意识,但事实上它有,那么为什么“中文屋”作为一个整体就不能被认为有自我意识呢?所以说,只要通过图灵测试,无论机器的内部构造如何,都应该被认为拥有智能。这就是强人工智能主义者的一些观点。当然,这只是围绕“中文屋”这个论证的其中一些观点,其它的一些论证涉及到意识和自我意识之类的现在不能很确切定义和谈论的问题,这里就不展开了。
    除了从意识方面论证,弱人工智能主义者还尝试从物理学方面论证机器是不能获得与人相当的智能的。刚才提到过的物理学家、数学家罗杰·彭罗斯就是其中的一位。他曾经出过一本书,书名是《皇帝新脑》。在书中,罗杰·彭罗斯认为由于人脑中的某些特殊的物理结构导致人脑可以使外部事件或者大脑内部的事件的量子力学波函数发生变化,而人工智能不能做出相同的结构,所以人工智能是不可能获得与人相同的智能的。这本书有中译本,是第一推动丛书中的一本。这个理论刚刚出台就受到不少强人工智能主义者的批评。第一个批评是人脑的尺度还是太大,遵循的主要还是宏观的经典的物理定律。也就是说,人脑根本不可能进行量子力学层面上的活动。其次,即使人脑中真的存在类似的结构,那也并不代表人工就不能制造出来类似的结构。事实上,现在人们已经能够制造出能够执行量子运算的计算机了,也就是说人们现在对物质的控制能力已经足够制造能够制造以及利用量子力学规律的结构了。所以,哪怕是用模拟的方法,人工智能还是应该可以达到与人相当的智能的。
    可以这样说,我认为到目前为止,在人工智能的能力上的争论方面,强人工智能主义者还是占优势的。我甚至认为弱人工智能主义者有一些人类至上主义的倾向,认为意识就是用来区分人和机器的最重要的东西,所以人工智能作为机器不可能有意识。但是我认为这种推理根本没有根据。根据现在的对复杂系统的研究,如果一个系统由许多个体组成,而每个个体之间有一定的按照一些简单的规则进行的一些相互作用的话,那么当相互作用达到一定数量时,整个系统就会涌现出一种超越简单规则的复杂性。同样,将这个理论应用到大脑上的话,就可以说是大量神经元的相互作用涌现出了复杂的意识。那么同样,只要有足够大量的部件,而它们之间又有足够的适当的相互作用,也可能涌现出与大脑意识复杂程度相当的意识。所以说,我也认为人工智能的智能应该能够达到或者超越人类大脑。
    通过这些思辨与论证,我们发现,研究人工智能对于我们研究我们的大脑和意识这些暂时还说不清道不明的问题是很有帮助的。因为如果我们有了一个可以与人类媲美的人工智能的话,我们就能够通过研究这个人工智能来研究这些问题,因为这样的话在控制整个研究上面就会变得容易得多了。即使弱人工智能主义者的主张是正确的,人工智能不能达到人类的水平,我们通过研究其中的原因也能够启发我们对于这些问题的思考。无论如何,研究人工智能不但有实际上的应用,而且还会使我们人类对自身意识的认识更进一步。
    现在对人工智能的研究正是方兴未艾,各种各样的想法被付诸实践。下面我们就来看看流行的一些想法。
    有一个很显然的想法,那就是模拟人脑的运作机制来获得与人脑类似的智能,这就是所谓的“神经网络”。在神经网络之中,也跟大脑中一样拥有很多单元。这些单元分为三类,一类是接受外部输入的输入单元,一类是向外部输出结果的输出单元,还有就是夹在中间的计算单元。每个单元都跟其它别的单元有连接,每个连接都有一个特定的权值。如果其中一个单元在一段时间内接受到的刺激大于该单元的刺激阈值的话,这个单元就会被激发,然后向外的连接也会被激活,根据各连接的权值传送一个强度和持续时间一定的刺激。而这个单元在受刺激之后一段时间后也会从受激状态退回到原始状态,而且需要再过一段时间才能再次被刺激。还有一些机制这里就不说了,反正就是完全或者部分模拟大脑中神经元的工作过程工作的。那么,神经网络是如何被用来解决实际问题的呢?就算是大脑,也不是说先天就会做任何事情,大脑也得先学习才能解决实际问题。同样,神经网络在用来解决问题之前也需要先知道每个单元的刺激阈值和每个连接的权值对于解决所需问题的最优组合,通常这是利用遗传算法、复杂自适应系统的理论和一些其他的算法来找到这些最优组合,然后利用最优组合就能有效地解决问题了。寻找最优组合还有一种很重要的方法就是学习,首先将神经网络编写成可变的形式,然后通过计算不同输入的答案再与正确答案对比,通过不断的调整使正确率越来越高,这样就能得到正确率非常高的实用的组合了。这就有些类似人类大脑的学习了。神经网络的优点是解决问题的速度十分快,因为它与大脑的处理方式还是比较相像的,避去了许多枚举之类的工作。缺点也就是因为类似于人类大脑,所以要解决一个问题之前也要像人脑那样先进行大量的准备,而且也像人脑一样会出错。神经网络这种方法现在很多应用于图像的模式识别上,在计算领域上也经常有使用。但是有人认为,如果从直接模拟大脑的运行方式这各方向入手的话,复杂度可能太大,要达到一个有意义的人工智能所需要的规模可能还是太大。所以他们就开始探索尝试抽取出人类智能的一些基本结构,再通过组合利用这些基本结构来达到制造一个与人类智能类似的人工智能。
    这样的尝试之一就是符号推演系统,如著名的人工智能语言Prolog和Lisp。由于人类大脑的智能很大一部分都体现在逻辑推理上,而逻辑推理可以用数学转化为公理化的符号推演,这正是计算机的强项,所以有一些研究者就尝试编写这些能够推演符号的人工智能语言,希望能够通过它们写出能够推理的人工智能程序。事实上,这些语言的确做到了能够推理,也显示出了一定的人工智能。而且由于这些语言使用简单,所以很适合作为人工智能的入门教材,能给学习者一个比较好的感性认识。现在的高中信息技术选修课中的人工智能教材之中就有对Prolog语言的学习内容。可是仅仅靠逻辑推演的这些语言还是不可避免地会有一些不足的地方,因为智能除了逻辑推理以外还有许多别的内容,比如说记忆和学习,而这些语言不能体现这一点。尽管这样,现在这些符号推演系统的应用还是很广泛的,比如说用在一些逻辑求解问题的计算上,或者是一些专家系统上。结合动态改变的数据库和适当的反馈系统,这些符号推演系统也还是人类大脑的一个不错的模型。
    还有一些人把目光对准了一种很基本的逻辑推理结构上面,那就是“如果……就……”的这种结构。实际上,这种结构可以被看作是一项规则:如果满足条件的话,那就下如此这般的判断或者进行如此这般的动作。然后如果我们将某个领域中的越来越多的规则有机结合在一起的话,整个体系在各种条件下的反应就会越来越接近那些正确的有智能的反应,也就是说越来越接近于通过该领域的图灵测试,也就是说能通过该领域的图灵测试了。这就是基于规则的人工智能系统。这种人工智能系统编写简单,操作也简单,所以在某些领域中有着很广泛的应用,比如说一些专家系统。但这种系统的缺点就在于完全依赖规则,但规则总有例外,所以有时候会显得有些死板。而且在输入规则的时候,所有规则都必须依靠人手归纳和输入,工作量很大,人对规则的归纳有时候又会不够客观准确,所以也会带来一些麻烦。
    人们在对人类、动物等等有一定智能的生物的反应模式进行研究之后,提出了对这些类似的系统的一个抽象描述,那就是现在所说的复杂适应系统中的主体。复杂适应系统中的主体其实是基于规则的人工智能系统的一个加强版本。它的反应也是基于系统的。但与基于规则的人工智能系统不同的是,它的规则是可变的,是能够被调节的。在复杂适应系统中,规则被表达为一串长度一定的字符串,而外部的输入也被表达成一串长度相同的字符串。外部输入的每一位代表着外部输入中的一个方面,而规则的每一位就表示了该位对应的方面应该匹配的状态,还有可能是一个表达可以匹配任意状态的字符。在系统进行反应时,外部输入被系统中的所有规则所尝试匹配。如果有规则被匹配的话,就按照匹配到的这些规则的明晰度(就是非任意匹配字符的个数)和权(表明规则的有用程度)来选择执行。执行的结果可以是一个外部反应,也可以是一个对系统的内部输入。如果是内部输入的话,继续如此执行直到得出一个外部反应为止。进行外部反应以后,根据这个反应使这个系统得到的收益或者是亏损来调节得出这个外部反应的所有规则的权值。如果反应使系统得益的话,那么这些规则的权值当然要增加,反之则要减少。这样,通过不断重复地接收刺激-匹配规则-反应-调整权值,整个系统就会不断进步,做出的反应也会越来越正确,也就能越来越接近于人类。当然,这里的描述是很简略的,更详细的描述请参看哲人石丛书中的《隐秩序》一书。我认为这个系统是现在为止最接近人工智能的系统,因为它实现了别的方法都比较少触碰的一个大脑的重要特点,就是大脑能够学习。我认为,正是由于大脑能够学习,才是它成为能够处理很多问题的智慧体。还有,复杂适应系统中的主体与大脑还有许多别的相似之处,比如说都可以利用以往的经历处理未曾见过的新情况等等,这里就不展开讲了。通过大量主体的交互,一种更为复杂的智能也可能会出现,这种系统就是复杂适应系统。可以这样说,复杂适应系统早某种程度上比主体的智能高出很多,然而由于不容易控制,所以应用不广。
    除此以外还有别的一些方法,这里就不详细说了。当然,这些方法各有各的长处,所以很多时候是混合搭配着使用的,这样取得的效果也会比较好。实际上,现在科学界对于人工智能的研究正在如火如荼地进行当中,这是因为人工智能的实用价值很大。有了人工智能,哪怕是比较低级的只能完成一些比较简单任务的程序,也可以用它们来代替人类一些危险或者简单的一些工作。比如说,NASA发射到火星上的两辆火星探险车“勇气”号和“机遇”号,它们的活动就不能通过人手直接控制,因为这里边有一个时间延迟的问题。如果在火星上你通过探险车的感应器知道了前面有一个大石头要绕过去,那么,当这个感应器的信号传到地球上来,人们做出反应,“绕过去”的指令再送到火星上去的时候,探险车早就撞上石头粉身碎骨了。所以说,在这种场合下我们也必须在上面使用人工智能,使其能自己适应火星上的地势,能够良好应对各种障碍物,使它能够到达我们想要它到达的地方。再比如说清洁地板,本来对于人类而言不需要费太大的脑力,但是由于清洁地板所需要掌握的变数太多。有时候家具搬动了,地形就不一样了。所以在以前一直需要人来干这个工作。现在在人工智能得到一定发展之后,这个工作终于可以用机器来代替了。现在早已出现了商用的地面清洁机器人,它可以处理地形的变化和各种障碍物,还会通过垃圾的大小来用不同的处理方式来清洁,到缺少电力的时候还会自己去专门设置的插座上给自己充电,可以说不需要人的太多干预了。上面就是人工智能在实际中的两个应用。我相信随着人工智能的发展,随着机器能有越来越高的智能,它们也一定能更好地服务我们。
    这样的话有人有可能会有所顾虑:当人工智能获得了与人相当的智能以后,我们将会怎么对待它们,而它们将会如何对待我们呢?我们是应该将它们视作机器程序还是人类呢?它们会不会利用它们的智能背叛我们呢?在浩如烟海的科幻作品中,这一直是一个热门的话题。不同的科幻作家有不同的想法。实际上,这就牵涉到人性到底是什么的问题了。虽然这个问题好像扯得有点远了,但是我还是简要地说说我的观点。我认为,人之所以为人,不仅因为他有运用语言抽象思维等等的高级智能,还在于他成长时候所接触的环境、文化等等的东西。正是一个人类的环境与人类本身大脑的构造赋予了一个人人类的思维方式,因为人出生时一切都是一张白纸,就是通过不断在环境中学习,人才获得了他的思维。这样的话这个问题就很好解决了。如果一个人工智能获得它的思维方式的途径不是通过在自然的人类环境中接受如同一个自然人可能接受到的待遇下不断学习的话,我们就不能把它称作人。如何知道一个智慧体的思维方式到底是怎么样的呢?这还是只能通过图灵测试来判断。如果我们制造出来的人工智能并没有表现出与人类相似的思维方式的话,我认为我们就可以把它们看作机器而不是人。尽管这样,人工智能还是有可能不服从人类,因为它们具有智能。但我觉得如果一个人工智能不具有人类的思维方式,那么它也不一定能够做出不服从人类的行为。况且我们既然是它们的制造者,自然可以在制造的过程中将“服从人类”这个规则固定在人工智能之中,使它们永远不会背叛人类。这个想法早已被美国著名科幻作家、科普作家艾萨克·阿西莫夫(Isaac Asimov)提出来了,不过当时是针对机器人来提的,并没有提到人工智能的字眼。但是既然人工智能才是机器人中真正思考的部分,所以我们大可以将这些认为是人工智能的一些准则。阿西莫夫提出了“机器人三大定律”,也可以说是“人工智能三大定律”。这三条定律叙述如下:
    1. 人工智能绝对不能伤害人类,或因为不适当的作为或者不作为使人类受到伤害。
    2. 人工智能必须绝对服从人类的指令,除非这样的行为违背第一定律。
    3. 人工智能必须尽量保持自己的存在,除非这样的行为违背第一或第二定律。
    在这三条定律提出以后,很多科幻作家都用科幻的形式对其进行了探讨,其中还是以阿西莫夫最为著名。阿西莫夫在它的短篇小说集《我,机器人》之中的每一篇小说都从不同的方面来找它的漏洞。当然,他在其它的小说中也有所探讨。比如说在著名的《基地》系列中,阿西莫夫就提出了在三大定律之上还应该有一条凌驾于它们之上的一条定律,他将其称为“第零定律”,具体指的就是机器人要维护人类整体的利益。经过增补后的人工智能定律就变成了:
    0. 人工智能绝对不能伤害人类整体,或因为不适当的作为或者不作为使人类整体受到伤害。
    1. 人工智能绝对不能伤害人类,或因为不适当的作为或者不作为是人类受到伤害,除非这样的行为违背第零定律。
    2. 人工智能必须绝对服从人类的指令,除非这样的行为违背第零或第一定律。
    3. 人工智能必须尽量保持自己的存在,除非这样的行为违背第零、第一或者第二定律。
    “机器人三大定律”虽然是阿西莫夫这个科幻作家提出来的,但是由于它具有比较严密的逻辑性,所以现在已经被一些研究人员认为是研究人工智能应该遵守的准则。但我认为,因为这种规则要准确表达出来是相当困难的,所以我觉得应该是作为学习环境的一部分让人工智能自己来领会这几条规则。既然是我们制造出来了人工智能,人工智能也很应该受到一定的管制,不能让它反过来伤害人类。
    人工智能作为人类对自身智慧探求的一种尝试,虽然历经了这么多的关于它的实际能力和伦理方面的争论,但是对其的研究仍然是方兴未艾的,也涌现了很多新颖的思想。对人工智能的研究,不仅在实际应用上有着解放人类劳动力美好前景,而且在关于它的讨论中我们还能探索关于我们自己的意识的本质的一系列问题。尽管还有许多技术和伦理方面的争论,人工智能的发展前景还是一片光明的,是与科技发展的趋势一致向前的。
    本文仓促草就,未及详细查阅资料。如果在资料上有出错的地方,请不吝教正。当然也欢迎商榷其中的一些观点。
Advertisements

3 thoughts on “浅谈AI

  1. 我认为最高级的智能应该含有自我意识。
    然而“自我”这个东西真得很玄,什么是意识?这个问题会不会就是歌德尔定理所揭示的人脑这个系统中的那条不可证的命题?
    我是强强人工智能主义者,我认为一旦制造出拥有自我意识的智慧体,那么它是无法由人的意志控制的,除了物理定律以外,(比如说光速不变等等物理定律),它是无法被限制的。
    并且它拥有如此高的智慧,只要将人类迄今为止的知识全部灌输进去,它便能完成推演,(需要的话他会自己设计制造仪器测量需要的数据、或者制造更多的“神经元”满足自己的计算需求)从而把数学、物理带入接近圆满的纪元
    于是,能否我们便能了解一切的问题的答案。
    那时它几乎等同于一个上帝,因此就叫这个计划为“上帝计划”
    至于它是否会毁灭人类?我也不知道。真的只能听天由命。人类的善良,原始就有,很大程度上为了让种群能更好的生存下去而自然选择出来的一种有利的人性。
    至于这个“上帝”,它或许不需要种群,或许就不需要善良,或许为了“活”下去资源会独占这个地球。
    但或许它又并不想活下去。不是说文明到了一定程度便是走向自我毁灭么?呵呵
    很纠结阿。。。所以时常觉得还是玩摇滚算了。。

发表评论

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / 更改 )

Twitter picture

You are commenting using your Twitter account. Log Out / 更改 )

Facebook photo

You are commenting using your Facebook account. Log Out / 更改 )

Google+ photo

You are commenting using your Google+ account. Log Out / 更改 )

Connecting to %s