第A07版:文体
首页 上一期  下一期 版面导航
2018年11月05日 星期一
-- 文体 --
版次:[ A07 ]
《生命3.0》
作者:(美)迈克斯·泰格马克 湛庐文化/浙江教育出版社

    每日悦读

    在人工智能崛起的当下,你希望看到一个什么样的未来?当超越人类智慧的人工智能出现时,人类将何去何从?

    关于人工智能的误区

    我个人的分析发现,媒体报道夸大了人工智能安全性辩论的争议程度。结果就是,人们通常会高估他们之间的分歧程度。比如,如果一个技术怀疑主义者只从英国通俗小报那里了解比尔·盖茨的观点,那他很可能会错误地认为,盖茨相信超级智能很快就要来临了。同样地,人工智能有益运动支持者如果只知道吴恩达说了“火星人口过剩”这句话,那他也可能会错误地认为,吴恩达完全不关心人工智能的安全性问题。实际上,我知道吴恩达很关心这个问题,只不过,由于他预估的时间长一点,所以他很自然地将人工智能面临的短期挑战放在比长期挑战更重要的位置上。 

    还有一个关于人工智能的误区是关于风险类别的误区。 

    当我在《每日邮报》上读到一篇题为“史蒂芬·霍金警告说,机器人的崛起对人类可能造成灾难性的破坏”的头条报道时,我翻了个白眼。我已经数不清这是第几次看到类似的标题了。通常情况下,文章里还会配一张一看就很邪恶的机器人拿着武器的图片,并建议我们应该担忧机器人的崛起,因为它们可能会产生意识并且变得邪恶,然后把我们赶尽杀绝。这样的文章确实令人印象深刻,因为它们简洁地总结了我的人工智能同行们不会担心的情景。这个情景集合了三个不同的误区,分别是对意识、邪恶和机器人的理解。 

    当你开车时就会发现,你拥有对颜色、声音等东西的主观体验。但是,一辆无人驾驶汽车是否会拥有主观体验呢?或者,它只是一个没有任何主观体验的无意识“僵尸”?但是,这个问题与人工智能的风险毫无关系。如果你被一辆无人驾驶汽车撞到,它有没有主观意识对你来说没什么两样。同样地,超级智能究竟会如何影响我们人类,只取决于它会做什么,而不取决于它主观上感觉到了什么。 

    我们真正应该担心的不是它们有没有恶意,而是它们的能力有多强。从定义上来说,一个超级智能会非常善于实现自己的目标,不管这个目标是什么,因此,我们需要确保它的目标与我们的相一致。举个例子,你可能并不讨厌蚂蚁,也不会出于恶意踩死蚂蚁,但如果你正在负责一个绿色能源的水电项目,在即将淹没的区域里有一处蚁穴,那么,这些蚂蚁便凶多吉少了。人工智能有益运动的目的就是要避免人类处在这些蚂蚁的境地。 

    机器显然能拥有目标,热跟踪导弹的行为就是为了实现“击中靶标物”这一目标。如果一台目标与你的目标不一致的机器令你感受到了威胁,那么,狭义地说,令你担忧的正是它的目标,而不是它拥有意识或体验到了意志。 

    这种与我们的目标不一致的智能要引发我们的忧虑,并不需要一个机器人的身体,只需要连接互联网即可。即使不能建造出实体的机器人,一个超级智能和超级富有的人工智能也能很轻易地收买或操纵大量人类,让他们在不知不觉中执行自己的命令。 

    对机器人的误解源自“机器不能控制人类”的误区。智能让控制成为可能:人类能控制老虎,并不是因为我们比老虎强壮,而是因为我们比它们聪明。这意味着,如果我们不再是地球上最聪明的存在,那么,我们也有可能会失去控制权。 

    如今,我们面临的问题是:应不应该进行人工智能军备竞赛,以及如何才能让明天的人工智能系统不出故障和保持稳定。如果人工智能的经济影响日益增长,我们还需要考虑如何修改法律,以及我们应该为孩子们提供什么样的就业建议,以免他们选择那些很快会被自动化取代的工作。 

    如果人工智能发展到人类水平,我们还需要想一想如何保证它对人类有益,以及我们能不能或者应不应该创造出一个不需要工作就能保持繁荣的休闲社会。

    6

南京日报社主办南京日报总编辑:丁辉宇国内统一刊号:CN32-0030南京日报广告刊例表南京日报信息热线:4008885998南报网新闻热线:025-84686110
南京日报