2018/4/15 15:10:20当前位置推荐好文社会热点浏览文章

近年来,少量悲观的媒体与专家开始担忧人工智可以的高速发展将会对人类自身的生存产生威胁,甚至连理论物理学家、《时间简史》的作者霍金都曾公开告诫大众:“完全人工智可以的研发意味着人类的末日”。特斯拉与Space X的创始人埃隆·马斯克与霍金有大致类似的担忧。马斯克说:我们必需非常小心人工智可以。假如必需预测我们面临的最大现实威胁,恐怕就是人工智可以。”那么问题来了,人工智可以到底会否对人类产生威胁?

电影《复仇者联盟2》中的奥创就是对人类有威胁的代表性AI

李开复博士在《人工智可以》一书中提到了三种不同层级的人工智可以来答复这个问题。

一、弱人工智可以(Weak AI)

弱人工智可以(Weak AI)也称限制领域人工智可以(Narrow AI)或者应消耗型人工智可以(Applied AI),指的是专注于且只可以处理特定领域问题的人工智可以。毫无疑问,今天我们看到的所有人工智可以算法和应消耗都属于弱人工智可以的范畴

Alpha Go是弱人工智可以的一个最好实例。Alpha Go在围棋领域超越了人类最顶尖选手,笑傲江湖。但Alpha Go的可以力也仅止于围棋(或者相似的博弈领域),下棋时,假如没有人类的帮助(还记得Alpha Go与李世石比赛时,帮机器摆棋的黄士杰博士吗?),Alpha Go连从棋盒里拿出棋子并置于棋盘之上的可以力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪 了。

一般而言,限于弱人工智可以在功可以上的局限性,人们更愿意将弱人工智可以看成是人类的工具,而不会将弱人工智可以视为威胁。也就是说,弱人工智可以在总体上只是一种技术工具,假如说弱人工智可以存在风险,那也和人类已大规模使消耗的其余技术没有本质的不同。只需严格控制,严密监管,人类完全能像使消耗其余工具那样,放心地使消耗今天的所有AI技术。

二、强人工智可以(Strong AI)

强人工智可以又称通消耗人工智可以(Artificial general intelligence)或者完全人工智可以(Full AI),指的是能胜任人类所有工作的人工智可以。

人能做什么,强人工智可以即可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智可以。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是图灵测试。

图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过少量装置(如键盘)向被测试者随便提问。

进行屡次测试后,假如有超过30%的测试者不可以确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具备人类智可以图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智可以》,其中30%是图灵对2000年时的机器思考可以力的一个预测,目前我们已远远落后于这个预测。)

但即使是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机究竟需要具有哪些具体的特质或者可以力,才可以实现这种不可区分性。

一般认为,一个能称得上强人工智可以的程序,大概需要具有以下几方面的可以力:

1)存在不确定因素时进行推理,使消耗策略,处理问题,制定决策的可以力;

2)知识表示的可以力,包括常识性知识的表示可以力;

3)规划可以力;

4)学习可以力;

5)使消耗自然语言进行交流沟通的可以力;

6)将上述可以力整合起来实现既定目标的可以力;

基于上面几种可以力的形容,我们大概能想象,一个具有强人工智可以的计算机程序会体现出什么样的行为特征。一旦实现了符合这一形容的强人工智可以,那我们几乎能一定地说,所有人类工作都能由人工智可以来取代。从乐观主义的角度讲,人类到时即可以坐享其成,让机器人为我们服务,每部机器人也许能一对一地替换每个人类个体的具体工作,人类则取得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智可以的定义里,存在一个关键的争议性问题:强人工智可以能否有必要具有人类的“意识”(Consciousness)。有些研究者认为,只有具有人类意识的人工智可以才能叫强人工智可以。另少量研究者则说,强人工智可以只要要具有胜任人类所有工作的可以力即可以了,未必须要人类的意识。

一旦牵涉“意识”,强人工智可以的定义和评估标准就会变得异常复杂。而人们对于强人工智可以的担忧也主要来源于此。不难设想,一旦强人工智可以程序具有人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使消耗者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会由于某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智可以得以实现,这些问题将直接成为人类面临的现实挑战。

三、超人工智可以(Superintelligence)

假设计算机程序通过不断发展,能比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智可以系统即可以被称为超人工智可以。

牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智可以》一书中,将超人工智可以定义为“在科学创造力、智慧和社交可以力等每一方面都比最强的人类大脑聪明很多的智可以”。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智可以、强人工智可以相比,超人工智可以的定义最为模糊,由于没人知道,超越人类最高水平的智慧究竟会体现为何种可以力。假如说对于强人工智可以,我们还存在从技术角度进行讨论的可可以性的话,那么,对于超人工智可以,今天的人类大多就只可以从哲学或者科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎么的一种存在。现在去谈论超人工智可以和人类的关系,不仅仅是为时过早,而是根本不存在能清晰界定的探讨对象。

其次,我们没有方法,也没有经验去预测超人工智可以究竟是一种不现实的幻想,还是一种在未来(不论这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法精确推断,究竟计算机程序有没有可以力达到这一目标。

显然,假如公众对人工智可以会不会挑战、威胁人类有担忧的话,公众心目中所担心的那个人工智可以,基本上属于这里所说的“强人工智可以”和“超人工智可以”。

我们究竟该如何看待“强人工智可以”和“超人工智可以”的未来?它们会像Alpha Go那样,以远超我们意料的速度降临世间吗?

#科技发展瓶颈带来的缓冲带

那么到底什么到什么时候强人工智可以和超人工智可以才可以被制造出来?是有前提的,前提是人类科技总是以加速度形式跃进的基础上的。一种更有可可以出现的情况是:特定的科技如人工智可以,在肯定时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性可以的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会添加一倍,性可以也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的解决速度,曾在1975年到2012年的数十年间保持稳固的增长趋势,却在2013年前后明显放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我能看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”

正如本来受摩尔定律左右的芯片性可以发展已遭遇技术瓶颈那样,人工智可以在从弱人工智可以发展到强人工智可以的道路上,未必就是一帆风顺的。从技术角度说,弱人工智可以与强人工智可以之间的鸿沟可可以远比我们目前所可以想象的要大得多。而且,最重要的是,因为基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的准确形容,从弱人工智可以发展到强人工智可以,其间有很大概率存在难以在短期内处理的技术难题。今天,学者们对超人工智可以何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智可以的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智可以在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智可以的门槛。

上述论调只是站在不同角度的猜测,科技的发展到底以怎么的速度发展、强人工智可以和超人工智可以何时可以够诞生,还是让我们稍安勿躁拭目以待。


网友评论