人类要担心机器人太聪明?


2020-06-16


人類要擔心機器人太聰明?

电影常有机器人大军企图歼灭人类的情节,专家说,免惊啦!但如果人类掉以轻心,未来可能会与执意完成任务的智慧机器发生冲突。

我们很难不担心,创造出比人类更聪明的机器可能会产生问题。毕竟如果当初是大猩猩意外创造了人类,现在这种濒临灭绝的灵长类大概会后悔曾这幺做。但为何先进的人工智慧(AI)可能造成麻烦?好莱坞电影中邪恶的机器突然觉醒并指挥机器大军屠杀人类的情节实在太扯,真正的问题是AI变得超级聪明,但其目标并非我们想要的。创立控制论的数学家维纳(Norbert Wiener)在1960年说:「如果无法有效干预执行特定任务的机器,那最好确定当初交付它的目标是我们想要的。」

执意完成任务的机器还具有一种特性:试图维护自身的存在。这是生物的本性,但机器有这种特性既非与生俱来,也非人类所赋予,而是简单逻辑演算的结果:如果机器坏掉了,便无法达成原本设定的任务。如果我们单纯派机器人去拿咖啡,它可能会有强烈的动机去破坏使自己停止的开关,甚至消灭任何妨碍它的人,以确保能成功完成任务。因此如果人类掉以轻心,未来可能会与执意完成任务的智慧机器发生冲突。

人类可能与机器发生冲突而成为输家,这项隐忧让电脑科学家寝食难安。有些研究人员建议我们不妨把机器锁在某种防火墙内,需要时再利用它来回答困难的问题,但绝不允许机器影响真实世界。(当然,这就意味我们必须放弃拥有超级聪明的机器人!)不幸的是这项计画注定会失败,毕竟我们连建立阻挡一般人的防火墙都做不到,遑论超级聪明的机器了。

但如果我们记取维纳的警告,设计出任务目标与人类一致的AI系统呢?这种想法说得比做得容易。毕竟在神灯精灵与三个愿望的故事中,许愿者最后一个愿望通常是设法复原前两个愿望带来的问题。但我相信如果遵守以下三项核心原则,便有可能成功:

机器的任务目标必须是实现人类的价值观。特别是机器不会拥有自己的目标,或自我防护的欲望。机器不能完全确知人类真正的价值观为何。这是避免维纳难题的关键。机器能学习越来越多的人类价值观,但永远无法完全确知人类真正的价值观为何。机器必须藉由观察人类的选择来学习人类价值观。

前两项原则乍看违反直觉,但能避免机器产生强烈动机去破坏其停止开关。机器知道它必须澈底实现人类的价值观,但无法确知人类的价值观为何,因此能理解人类关掉它其实是好的,可以防止它做出违反人类价值观的行为。正因为机器永远无法确知人类的价值观,因此具有不会破坏其停止开关的正向动机。

第三项原则借用自人工智慧学的分支,称为逆向增强学习法(IRL):藉由观察特定对象(不论是人类、狗或蟑螂)的行为得知事物对被观察对象的价值,例如观察人类在早晨习惯喝咖啡,机器人知道咖啡对人类的价值。这个领域还处于发展初期,但已产生许多实用的演算法,并展现设计智慧机器的潜力。

随着IRL发展,机器必须有能力去应付人类的不理性、前后矛盾、意志薄弱以及有限的计算能力等特质,毕竟人类的行为并非总是反映其价值观。此外,人类的价值观相当多元,这意味机器人必须审慎处理人与人之间的潜在冲突与利弊权衡,还有不该帮助甚至模仿少数邪恶的人。

儘管存在这些难题,我相信机器能学到足够的人类价值观,因此不会对我们构成危险。除了直接观察人类行为,机器还能从大量书籍与影片中学习人类如何处理事情以及与他人互动。设计出理解这些讯息的演算法,远比设计超级聪明的机器容易。此外,机器人製造商也有强烈的经济动机去让机器人了解并认同人类的价值观:如果设计不良的家务机器人,因为不了解猫咪对人类的情感价值胜过其营养价值,而把牠煮了当晚餐,製造商肯定会关门大吉。

虽然解决AI的安全问题并不容易,但仍有可能做到。儘管超级聪明的机器数十年后才会出现,但这个问题不容忽视。有些AI专家认为,只要人类与机器分工合作,便能和平共处,但前提是机器与人类的目标必须一致;其他人则认为直接把机器关掉就好,彷彿超级聪明的机器笨到不会想到这招;还有人觉得超级聪明的AI永远不会出现。1933年9月11日,知名物理学家拉塞福(Ernest Rutherford)信心满满表示:「预期我们将拥有改变原子的能量,那是癡人说梦。」然而,就在隔天(9月12日),物理学家西拉德(Leo Szilard)便成功以中子诱发核能连锁反应。



上一篇:
下一篇: