生命3.0一书由迈克斯·泰格马克所著,是作者对于未来的畅想,让我们思考人工智能和人类的意识等问题,你有什么感悟?下面小编带来的是《生命3.0》读后感:意识的未来才是生命的未来。
人工智能的目标与人类的目标一致吗?
由于人类发展人工智能的目的就是为了帮助人类去完成一些目标,那么在完成目标的能力上,最终的超级智能一定会强于人类。这些超级智能未必会对人类存在恶意,但是如果彼此的目标不一致,就很有可能会对人类产生大麻烦。就像现在我们人类想要在一个地方修建水库,会对附近的蚁窝造成灭顶之灾,可实际上我们对蚁窝其实并没有恶意一样。套用小说《三体》中的一句话就是:
我消灭你,与你无关!
因此,让人工智能与人类的目标保持一致至关重要,如果把这个问题进行拆解,可以细化成三个子问题:
1.让人工智能学习我们的目标
2.让人工智能接受我们的目标
3.让人工智能保持我们的目标
首先第一步,对于要学习我们的目标,也许你会说:“这很简单啊,我们在设计人工智能的算法的时候,或者让人工智能工作的时候,直接下达一个明确的目标,不就行了吗?”可是,一个目标在执行的过程中,会有很多意外情况的发生。比如在未来,你叫一辆无人驾驶的汽车“尽快送你去机场”,结果它就不择手段的把你“尽快地”送到了,超速、违章、把你搞得晕车狂吐......这显然不是你想要的,可是人工智能说:“我是按照你的目标执行的啊。”也许你会说,那我们把这些限制条件写入到算法中去喽,比如必须在遵守交通规则的前提下。可是,一定会有我们事先无法预料的复杂情况出现,比如著名的电车难题:如果在你去机场的路上,碰到了一个紧急情况,无人驾驶的汽车只有两个选择:要么,撞上突然横穿马路的学生;要么,撞向路边的行人。你希望人工智能怎么选呢?因此,一个目标的背后是一整套复杂的行为准则,这套行为准则很难在我们编写软件的时候直接写入到计算机。有时候甚至会牵涉到价值观取舍的问题,其实我们人类自己也没有一个确定的答案,你如何能让人工智能完全理解呢?
再看第二步,即便人工智能完全理解了我们的目标,它也有可能未必会接受我们的目标。就像我们教育我们的孩子,试图让孩子接受我们的价值观和目标体系,可是随着孩子智力的发育和成长,我们的目标未必会被他们所接受。同样的,超级人工智能也拥有与人类相当,甚至超过人类的智力水平,它们会完全接受我们的目标吗?这看起来也是一个一厢情愿的问题。
第三步,假设人工智能理解并接受了我们的目标,它就能始终保持与我们的目标一致吗?答案还是存疑的。我们在实现一个相对复杂的目标的时候,会把它拆分成若干个子目标来进行努力。假如我们现在给一个人工智能设置的目标是“尽可能好的下围棋”,那么对它来说,最佳的选择就是把所有能利用的资源都用来增加自己的算力,比如把太阳系转变成一台巨大的计算机,或者向宇宙深处进发以获取更多的能源,这就很有可能与我们的目标发生冲突。还有一种可能,就是也许随着人工智能自身智力的发展,也许它会觉得原来被赋予的目标无聊乏味。比如说,假如一群蚂蚁创造了你,给你的目标是修建更大更好的蚁丘。最初也许你是认真的执行,可是当你的智力发展到远超蚂蚁的时候,你会不会觉得原来的这个目标变得索然无味呢?你会不会给自己设定一个“更有意义的目标”呢?
可以看出,以上这三个问题,到目前为止,我们一个也没有解决。事实上,暂时也不知道如何解决。
除了这三个问题,实际上我们还有一个更为棘手的问题,那就是:当我们讨论“我们的目标”时,“我们”到底是谁呢?我们讨论的到底是谁的目标呢?这里面涉及到哲学、社会学、伦理学等诸多复杂的内容,到目前为止,人类还远远没有在这些方面达成共识,各种意识形态和文化之间充满着矛盾和冲突。如果连这个最基本的问题都没搞清楚,我们又怎么能保证人工智能的目标是符合我们的预期的呢?因此,作者在本书中呼吁,人类应该尽快对这些哲学和伦理学问题进行讨论,在超级智能发展出来之前,具备回答这些问题的能力,否则,这些问题的答案很有可能就与我们人类无关了!
让我们往更深一层去思考:当我们谈论所谓的“目标”的时候,我们为什么要有目标?比如,今年你的小目标是先赚一个亿,为什么?因为可以从中获得一种成就感。那“成就感”是什么?今天我的目标是吃顿好的,因为美食可以让我获得满足感,那“满足感”是什么?这就牵涉到一个更为难以捉摸的概念——意识。
意识的未来
意识是一个有争议的话题,有些科学家甚至认为意识不是一个科学问题,不过越来越多的神经科学研究正在逐渐揭开“意识”的神秘面纱。像之前一样,我们首先要明确一下关于“意识”的定义。泰格马克在书里对意识给出的定义也是这样的:
意识(consciousness)=主观体验(subjective experience)
顺便插一句,在阅读整个《生命3.0》这本书的时候,你会处处体会到作者作为一个科学家的严谨,他会在讨论每个关键概念的之前,给出他对于这个概念的定义。这并非是为了表示他的定义有多么高明,而是为了让读者明确的了解他所要讨论的内容,避免误解。这是一个非常值得我们学习的科学态度。我们在生活和工作中经常就会犯这种错误:两个人对一个问题进行激烈的争论,争得面红耳赤,结果发现大家对其中使用的一个概念的含义理解完全不同。我就亲身经历过在一个饭局上,来自全国各个地区的人争论“地瓜到底长什么样”,半个小时后发现大家说的“地瓜”根本不是同一个东西。可见,在沟通过程中,统一语言是多么的重要。
回到关于意识的话题。根据泰格马克的定义,如果你能感觉到“这就是现在的我”,那么你就是有意识的。也就是说,如果一辆无人驾驶的汽车能够认识到自己就是一辆无人驾驶的汽车,那么我们就可以说这辆汽车是“有意识”的。
关于意识的研究,目前科学家们只对“大脑如何处理信息”这个相对简单的问题上有所进展。概括来说,意识就是信息处理时产生的感觉。由于人类的大脑从收集信息到做出反应是需要一个时间的,因此,实际上意识是发生在“过去”的。也因此,我们会有很多无意识的快速反应。然而我们对哪些物理性质来区分有意识和无意识系统,以及为什么会产生意识这些更难的问题,科学家们还没有什么头绪。
那么,如果未来的人工智能拥有意识,那他的”主观体验“会是怎样的呢?从目前我们已知的信息推测,虽然人工智能处理信息的速度更快(电磁信号以光速传播,比神经元信号快数万倍),但是人工智能的尺寸也会更大,因此,人工智能的”主观体验“系统也很有可能分为“有意识”和“无意识”两种,甚至有可能是一个层级嵌套系统,从微观尺度一直嵌套到宏观的宇宙尺度。
为什么我们要关心人工智能的“意识”问题呢?这其实是一个关乎人类存在的意义的问题。不管意识是如何产生的,为什么会产生,如果没有了意识,也就是主观体验,那积极的体验也就不复存在。也就是说,如果没有意识,所谓快乐、美丽、善良、目标,都没有了意义。并不是我们的宇宙将意义赋予了有意识的实体,而是有意识的实体将意义赋予了我们的宇宙。然而,一旦未来的世界为超级智能所统治,一旦超级智能是根本没有体验的冰冷的机器,那么,这个宇宙的意义也就不复存在了。
因此,比起智能的未来,意识的未来才更为重要。在未来的场景中,要么,我们已经“教会”了人工智能体验这个宇宙的各种意义;要么,我们人类需要完成一次对自我认知的革命性升级,能够更加深刻的体会到生命的意义。如果我们这两者都没有做到,等待我们的,将是一个僵尸智能控制的没有意义的宇宙。
我的感悟
故事到这里就结束了吗?并没有。如果我们把时间的维度拉的再长一点,我们看到的似乎是一个注定令人沮丧的结局。根据热力学第二定律,宇宙中“熵”的总量是趋于增加的,也就是整个宇宙是趋向于混乱的。最终,它会达到一个极端混乱的最大值,被称为“死寂”。在这个状态下,万事万物都会扩散成一种无聊而又完美的均质状态,没有复杂性,没有生命,也没有任何变化。
那我们之前讨论这些还有什么价值?我们努力地去为人工智能赋予“目标”和“意识”,为这个宇宙赋予意义,岂不是白忙活?
并非如此。虽然宇宙整体是熵增的趋势,但是为了熵增,大自然又有产生生命以促进更有效的热力消耗的趋势。你看,大自然就是这么有趣:一方面它趋向于混乱,一方面又制造一个有组织的生命体,这个生命体通过让环境变得混乱来维持自身的秩序和复杂度。
也就是说,生命的意义就在于折腾,你越折腾,就越是符合宇宙的终极目标!
这不是什么鸡汤,这个看起来矛盾,但是又非常合理的逻辑已经被写入到了物理学定律里面。也许就是因为这个基因,生命中也会出现很多看起来非常矛盾的事情和道理,不过没关系,这只是因为我们还没有参透其背后的物理学规律而已。
另外,在我们思考人工智能的未来,思考生命的未来的时候,经常容易陷入一个“人类中心主义”的思维框架。在这个框架下思考所谓的“有益”和“有害”,其潜在的主体实际上是我们人类。但是,如果把人类只是看作生命形式的一个发展阶段,未来的生命3.0才是生命的终极形式,也许我们就会少一点傲慢,多一点谦卑,在看待未来的时候,也就会多一分理智,而少一分焦虑。
有个说法是:超级人工智能将是人类最后一个发明,在那之后,所有的发明就将都是超级智能所为,跟人类没什么关系了。我倒是觉得,超级人工智能更像是人类培养的一个孩子,它在我们的呵护下长大,继承我们,超越我们,它也许会符合我们一切对“好孩子”的定义,也许会离经叛道,不管怎样,最终它都必将会离开我们,走上属于它自己的道路。或许,这就是我们生命2.0的最后一个使命吧。
来源:网络整理 免责声明:本文仅限学习分享,如产生版权问题,请联系我们及时删除。