偶尔翻到年轻时候(2008)写的一篇日志,如下:

《马克思主义哲学》试卷上看到这样一道题目:“人工智能能否超越人的思维?”

很多人认为不能,百度百科里也有这么一句话:“人工智能不是人的智能,更不会超过人的智能。”确实,以人脑来研究模拟人脑的智能,似乎会陷入悖论,人工智能只会越来越接近智能,而无法达到甚至超越智能。

但我在思考一段时间后发现有些问题,如果单纯的靠人来编各种算法来实现人工智能,毫无疑问,人工智能是永远无法超越人类的智能的。但是,若让人工智能参与自身的创造,情况是不是会有所不同呢?即让人工智能在一定的算法前提下自我进化。

人类之所以进化,就是因为学习,而且主要是非本能的、后天的学习。

本人认为,人工智能也应如此。通过一些算法,实现人工智能的学习能力,让算法指导其“学什么”、“怎么学”,然后让人工智能自己编写适合自己的算法,通过不断地改进,更新,以达到进化。人工智能有很多能力,逻辑推理能力,空间想象能力,识别能力,但我认为,最主要的还是学习能力。会学习,其他一切就迎刃而解了。让人工智能系统自己学习,自己编写算法(这些算法人类可能永远无法想到),在网络上学习各种各样的知识,各种各样的能力(人际交往,竞争等)。由于智能系统的高运算率,大存储容量,高精确度等特殊性,系统的知识、能力会以几何级的速度增加和提升。所以,几百万年进化产生的人类智能,在有模板,有目的,条件优越的前提下,经人工智能产生的时间会大大缩短。

也许到了某个临界点,人工智能系统会产生与人类类似的思维(肯定类似,因为是以人类社会为依托的,但不一定和人类一模一样),而由于先前不同的进化方向,不同的智能系统的思维也肯定不会一样。

所以,可以预见,同样算法前提下的两个人工智能系统,在不同的环境下会朝着不同的方向进化,因为它们学的东西不一样。而这正是所期望的,即使是双胞胎,在不同环境下成长也会发生变化,虽然有很多难以解释的诸如心灵感应等问题。

现在再来看看百度百科上的那句话:人工智能不是人的智能,更不会超过人的智能。的确,人工智能不是人的智能,人工智能的思维等人类才具有的能力是它们自己学得的。如果是这样的话,就不能保证其不会超过人的智能了。

也许我们不应把这称为人工智能,因为其是自主产生的,人类只担当了向导的作用。

(貌似人类不会容忍超越人类智能的东西存在)

快进到2022年,其实AI经过最近很长一段时间的井喷发展,其模型的体量与实际效果都提升了非常之多, 比如之前在围棋上的成功,包括今年火爆的stable diffusion文字图像生成,以及chatGPT对话模型, 无一不刷新着大众的认知。而Google工程师在测试LaMDA也认为AI已经具备人格。但是整体的AI领域, 上述的模型也仅仅只能认为是统计类模型,还没能说明AI有了自我意识。

这尤同潘多拉魔盒的自我意识,不知道是否终将由人类自己打开。