《通用人工智能》(5)

王培
查看全部 内容介绍:
收起 内容介绍:

 

 

 

通用人工智能将来是有很大的前景。同时自主性是智能的必然后果,所以对计算机、人工智能系统的教育也是我们现在讨论的重要内容

 

 

关于它的社会影响这方面我只是说我的基本观点。第一点,所有重大科学进展对于人类社会来说都一定既是机会又是挑战,没有哪个东西是百分之百好没有任何危险的。人工智能也不例外。而我们想做的东西,包括纳思系统,是希望它做出来后遵循人类似的思维规律,或者说是有既不比人高也不比人低的思维。现在我的信念就是,人脑里面能做出来的东西包括我刚才那个很长的列表,我相信在计算机里面,在纳思系统里面都可以做出来。虽然说它的具体形式会有差别,但是它不会比人低,不会有哪个东西只有人脑能有。但是另外一方面我也不认可“超人智能”的说法。它认为人工智能能够比人高,高到将来它做出来以后我们完全不懂它了,=。我不认为有那种现象存在,我觉得基本上会是一样的。我们可以懂它,但是它的具体问题的实现方式会比我们要好,比如说它的存储量比我们脑的存储量要大很多,它的运算的速度比我们的运算速度要高很多,所以它在解决具体问题的时候一定有好多问题比我们解决的又快又好,这个是一定的。包括它的创造性也不是从天上掉下来的,我们知道它是怎么样根据它的经验和现有的规则组合来应用的,这样我们就可以通过控制这些规则或者控制它的经验来控制最后它能生成哪些东西,不能生成哪些东西。

 

所以我觉得通用人工智能将来是有很大的前景的。因为现在这个社会已经发展到这个程度,好多复杂的东西光凭我们自己脑子去控制已经不够的了。我们需要工具,而在这个意义下,现在做出来的这种东西可以实现成为我们的工具,但是它又跟人不一样,跟传统的工具不一样,这也是好多人所担心的,就是它会有一定的自主性。实际上根据我的这个定义,自主性是智能的必然后果,你不可能又要它有自主性又要它所有的东西都在我们控制的范围之内,这个是不可能的,所以你要容忍它一定程度上的自已做主张。但是我们要给它画一个大的圈,让它的行为不要太出圈,比方说不要到威胁我们的程度。怎么做这个事情?这也是我们这两年讨论很多的一个问题。我觉得简单的说,我们将来对付人工智能的办法跟我们现在对付人的办法是基本一样的。包括设计的时候要注意这个问题,但是设计不能解决所有的问题。你不能够用基因遗传工程的办法来保障这个小孩将来不会变成罪犯,没有办法能做到这一点。所以更重要的是什么?是教育。所以对计算机、人工智能系统的教育也是我们现在讨论的。还有涉及到比如说伦理,比如说法律,现在也都开始提到议事日程上来了。将来我们控制人的日常办法大概都会用到控制计算机上去。能不能百分百解决问题?当然不能。我们人类社会自己的问题也没有办法百分之百解决。但是不会到另外一个极端就是完全没办法。那不就天下大乱了吗?肯定也不是。虽然说现在各种不尽人意的现象我们没有办法一下子解决掉,但是起码现在人类社会也没有天下大乱。我觉得人工智能未来也是这种情况。

 

对于人来说基本上是分两类经验。一个是直接经验,一个是间接经验。直接经验就是眼、耳、鼻、舌、身这些东西,还有行万里路。间接经验就是读万卷书,不是你自己看见的,是别人看见的,他写给你,你通过通讯、语言等方式把这个东西学习到,然后你自己设身处地的想。你觉得你好象亲身经历了这件事,实际上你并没有看见。在一定程度上这两个东西可以互相替代,但是有些地方不能互相替代,总之最后它是整合到系统当中去的。具体到“纳思”上说,我们前一段主要的着重点是在规则而不是在这些环节上。

 

我们用的基本上是三个途径,一个途径是直接给它感知运动系统,类似于把“纳思”装到一个机器人里面去,这样它可以通过机器人去看。这种方式就和我们说的直接经验很接近。比如说它是轮式机器人,不用腿走的,那么它的行走经验跟我们的行走经验就不一样,但是还会有共同点。间接经验怎么办呢?我这有两个办法,一个办法也是跟读万卷书是一样的,首先教它人类语言,它有了人类语言以后直接上网去读,或者可以系统的教它。我前两天还在跟我们的一个合作小组讨论。他们现在试图教它婴幼儿的知识,从最小的小孩的那些知识开始。一开始它什么都不知道,就教它最基本的那些东西。这是通过语言界面就是类似于间接知识。然后我们还有一套跟人不一样的计算机特有的东西,就是可以直接把一个知识库或者数据库灌进去,那个是我们人所不能做到的。对计算机来说还有一个更省事的办法。虽然说对计算机来讲也有一个教育的过程,但是在某种程度上我教一个就够了。然后我做一百万个副本,这一百万台新的计算机生下来就已经有了小学毕业的水平了,因为前面那个我已经教到小学毕业了。

 

我刚才讲什么地方像人,什么地方不像人?它不像人的地方很多。首先它不是生物,它一定没有生物性的东西。现在有些人的做法是让它假装有生物性就是模拟。这个当然也可以做,比方说让它每过五个小时就说饿了,但实际上它根本没有生物性的进食需求。我们可以模拟但是我觉得这没有什么意思。所以在这个意义下它一定不像人。但它在什么意义下像人?它有一开始的初始动机,这个肯定是我们设计者或者使用者给它的。我让它干什么事情,这是我给它的动机。如果我给它的事情是稍微复杂一点的话,它就不可能直接做的到,它就会产生一些派生动机。然后这个动机的派生过程和人的动机的派生过程有非常强的可比性,实际上这两个过程在这个意义上是一样的。虽然说它的动机的内容是不一样的,比如说它本质上是没有饥饿问题的,但是它有能源不足的问题,比如说它电量不足要找地方充电,就跟我们找地方吃饭一样,在某种程度上这是一类的问题。如果找地方充电它首先要看哪有地方可以充电,这个电是不是它能用的,或者说是不是要管它要钱之类的?再复杂的一点,比如有些人开玩笑说给它一个动机,让它实现世界和平。那它就会想这个问题怎么分解成一些具体的、可以操作的问题。这个逻辑跟我们人在处理类似问题时的逻辑是一样的。还有一点一样的就是我们人的初始动机也不是我们个体可选择的。生物性的东西实际上是做死在我们身体里面。“纳思”我也可以给它做死一些东西,让它生下来就去追求那些东西,那些东西不是它所能选择的而是我给它写进去的。但是后来它根据自己的经验派生出来的一些东西也跟人一样。虽然说不同的人生物性的东西基本差不多,但是他后来发展出来的那些东西是非常不一样的,因为他们的经历不一样。经历不一样就影响他的派生过程。前两年我专门有一篇文章讨论它的动机结构。它的动机结构就是派生过程和生成过程。

 

有一个很重要的现象就是它的动机就跟人一样一定会互相冲突。它同时想干几个事,这个时候怎么办?实际上也跟人很类似,也有一个轻重缓急,也有些东西会被强化,有些东西会被抑制,但是抑制的如果太厉害了可能又会反弹。甚至我们有一个合作者现在想用这个系统做精神病的模型,来解释一个精神病人的某事情。实际上就是动机结构失调。在纳思这个模型里面是可以做的出来的。如果说两个动机都非常强,谁也不让谁,就会精神分裂。所以你要设计一套机制,确保在正常情况下不允许这种情况发生。这就是为什么我后面提到伦理道德的问题、法律的问题。人工智能一开始就必须要有非常强的动机,比如说某些东西不管是什么情况下都是绝对不能做的。或者依靠内在的道德律令,或者依靠外在的法律法规性的规定,而且它自己知道它必须遵循这个规定。

读书人简介:

作者(译者)面对面为你讲解一本书的核心要义。
喜欢就下载APP试用吧!

读书人简介:

作者(译者)面对面为你讲解一本书的核心要义。
喜欢就下载APP试用吧!