AI、意识与人类
最近在调研image caption的AI模型,突然觉得很多东西难以解释,各种意义上的
前言
现在我们所指的AI,大多是基于大规模神经网络建立起来的模型。
神经网络是从13年开始崛起,它的特点是可以模拟非常复杂的函数映射关系,也就是我们所谓的智能函数。这些经过训练得到的函数参数非常的复杂,以至于我们无法准确地理解它当中的参数的意义和作用,我们只是通过结果发现,这样训练出来的神经网络能够解决问题。
一个简单的例子
试想一下,对于一个二次函数,二次项系数a、一次项系数b以及常数项系数c。还记得这些参数的意义吗?a的大小正负决定了曲线的陡峭程度和曲线开口方向、b的大小正负也会影响曲线的陡峭程度、c的数值会影响整个函数在坐标系中的整体偏移位置,a与b的正负则共同影响了曲线的对称轴的位置。
好的,你记得你在初中学习这样一个二次函数花了多少的时间才掌握并理解透彻吗?或许是半个月?一个月?没错,但是请你注意,这样一个普通函数,仅仅只有a,b,c三个参数。而现在的神经网络,参数的数量可以非常轻易地超过千万级别。我们忽略网络中的神经元类型,连接方式和网络结构,并且暂时不考虑多元输入输出的问题(比如对于一个图像识别任务,输入可能是24x24的像素矩阵,输出就是若干个类别),即使忽略如此多的重要的影响因素,我们似乎也无法完整理解一个千万级别参数量的函数,况且学习得到的模型并不一定是一个有规律的多项式函数。
我们现在面临的问题就是,无法理解我们创造出来的模型中的根源性的事物,或者说,产生智能的部分。即使对我这样一个本科生来说,我也可以很轻易地搓出来一个拥有百万参数的小模型,但是我确实无法完全掌握我的造物。我只能在训练的过程中对它进行指导,也就是调整超参数(非训练参数,可以理解为模型训练方向的指导纲领)或者试着改变网络结构,但是我无法保证优化后的结果一定是我想要的。有人很喜欢这样的不确定性,因为它可能会带来令人惊喜的结果。但是对于一项会被广泛应用的技术,如果没有搞清楚内部的原理,很多学者和工程师对AI,尤其是对拥有超大规模参数的模型,比如Chat GPT(1750亿参数),保持谨慎和防备的态度。
毕竟谁也不想在每确保飞机内部安全性的前提下,就驾驶着它来一次环球航行。
为什么学习到的是函数?AI是怎么做的?
为什么我们要训练模型去学习得到一个智能函数?或者说,为什么要找这样一种输入输出的映射关系?
首先,这个世界的运转是遵循一定的规律的,物质的变化,能量的转移。世界是物质的,物质是受物理学原理驱动的,即使是人以及我们引以为豪的造物,也是由物质构成的,并按照一定的规律行事,我们通常无法意识到这一点。
那么,规律本身就是一种映射关系。就像是一个果酱加工厂,你输入苹果,得到的就是苹果酱,输入草莓,得到的就是草莓酱。你将小孩送入学校,那么毕业之后他就可以习得一定的知识和技能,如果你把小孩送入电子厂,那毕业后他打螺丝一定飞快(
我们使用信息来描述物质,用函数来描述物质的规律,得到的结果就是经过规律作用之后的产物,因此我们可以预测。但只是有限的预测,假设我们想要预测下一次体彩的开奖结果,我们需要收集开奖现场每一个空气分子的运动状态,电机的电流大小,桌子的微小震动等等,这些远远不够,你怎么能保证某个工作人员不会会突然干扰结果呢?当然,在收集充分信息的前提下,我们甚至可以预测工作人员是否会故意使坏。但是能做到收集如此庞大的信息流吗?不可能,至少现阶段是这样的。如果你想要预测人类未来的命运,就更不可能了。况且,预测未来的这个行为本身,也会通过蝴蝶效应,影响本来应该发生的结果。
AI有可能做到这一切吗?有可能,但是微乎其微。要解决几个问题,数据、模型、算力、资金。
假设我们想要预测人类的未来,那么我们需要收集过去的历史数据,很遗憾,人类的历史又短又缺乏详细的记录(或许某些人的对话改变了历史进程),现存的历史还有部分是经过修饰或者篡改的,我们既没有充足的数据集来训练,而且这个数据集的噪声还非常大。模型,现在搓出来一个能和人对话的AI模型已经是前无古人的成就了,至于能预测人类未来的模型并从中学习出人类的规律,这个后来者,遥遥无期,我还是更看好社会学家的理论工作。算力,猜猜GPT训练了多久?假设真有这样的模型出现,并且有完好的数据集,以目前的算力,或许模型训练一百年之后,真正的未来已经来了。资金,举国之力不行,举全球之力也不行。
多年前的子弹,正中我的眉心
如果从头说起,这个事情还要追溯到我高中时候读过的书。《人类简史》是一本知名度很高的书,对于这一系列其实还有另外两本书《今日简史》和《未来简史》。
两本书涉及的内容很多,有关这次博客的主题的内容是:意识与人工智能。我是在19年的时候读的这两本书,书的实际出版时间更早。现在看来,作者的预见性真的非常强。
智能与意识
什么是智能?笼统地说,能解决一定的问题的能力,就是智能。有智能就是有意识吗?应该不是。
围棋AI,能根据棋局来判断未来的落子。目前围棋AI的能力,已经远超人类的顶尖棋手,甚至能够开辟新的套路。但是我们能够说它有意识吗?应该不能,因为它只会下棋,或者说,它只是一段代码。
那什么是意识呢?我们该如何定义意识?
引用百度百科的定义:
“意识”是人脑对大脑内外表象的觉察。生理学上,意识脑区指可以获得其它各脑区信息的意识脑区(在前额叶周边)。意识脑区最重要的功能就是辨识真伪,即它可以辨识自己脑区中的表象是来自于外部感官还是来自于想像或回忆。
如果要我自己来描述意识,我会把意识称之为:能够认识自我、认识外在世界、发现规律并利用规律的能力。很模糊的定义,不是吗?那是当然!如果我能搞明白这个问题,我就不是坐在这里写没人看的博客了。
智能似乎是意识的附带产物,其实不是这样的,因为智能是先于意识出现的。试着回想生物的进化历程,你会发现智能出现的比意识要早很多。
那么智能发展到一定程度,集合到一定程度,就会产生意识吗?或许是这样的,因此我们需要警惕人工智能的黑盒问题。
这么多问题的根源,在于我们没法理解意识,为什么无法理解意识?因为我们无法有效研究人脑。对于AI,我们至少可以扒开模型的网络,去看看里面的参数,并且我们清楚地知道网络中的神经元是怎么样连接的。但是对于人脑,这几乎是办不到的。人脑是十分脆弱的,侵入式的实验和研究,很可能会对实验者造成不可挽回的后果。因此我们通常采用动物替代或者非侵入式的实验方法。而且人脑的结构更加复杂多变,现在很多的优秀的神经网络模型都是参考脑科学的研究成果进行设计的,例如循环神经网络中的transformer。比较地狱的是,据我所知,脑科学发展最快的时候恰巧是二战时期,德国在战俘身上开展大量惨无人道的脑部实验。
这一切似乎形成了闭环,AI的不可控 --> 研究AI模型产生智能的原理 --> 惧怕AI产生意识威胁人类 --> 无法理解AI模型 --> 试着从人脑入手 --> 脑科学研究进展缓慢 --> 相较之下AI的进步速度和表现能力日新月异。
对我有什么影响
我为什么会困惑?因为我觉得我学的知识的终极无法从根源进行解释,这让我感到害怕。
慢慢意识到AI与人的差据,不管是智能层面还是“类人”层面,都在逐渐减小,从本质上来说,我们都是一种复杂映射关系的具体化,物质化。这会让我有时感到一种虚无和空洞,尽管持续时间很短。
它不会直接影响我的学习生活,特指负面影响,但是会让我思考人生的意义,虽然想了也是白想。这个意义也是说不清道不明的东西。
人类自我标榜的意识和人权是不是真的存在或者独一无二,现在对我来说已经不是那么重要了。毕竟我只能再活个五十年左右,我只是想尽可能在未来好好看看这个世界。
意识到这一切,真的是一种非常奇妙的感觉,嗯,我产生这种感觉的原因也会是我自己身复杂映射的结果。我阴差阳错选了AI专业或许就是整个世界的复杂映射过程中必然产生的中间量。
不要去解释意义,去感受它。感受你快乐的瞬间,感动的瞬间,悲伤的瞬间,无力的瞬间,疲惫的瞬间,恐惧的瞬间,美好的瞬间。不必将自己从系统中强行抽离出来,那不仅愚蠢也无法做到,只会徒增痛苦罢了。能认识到就已经很完满了。