自《创新主义》出版以来,我曾受邀在多个场合讨论过AI能不能做出真正意义上的创新。我的观点非常明确:
- 人类不会让AI主导创新。AI和人类不同,至少在情感和自我意识方面不同。
- AI是不确定的、不可解释的。我们解释不了它数十亿的参数是如何产生的,它本身具有不确定性,创新也是不确定,所以两个不确定的东西放在一起,这个风险就太大了,人类不应该把创新的主导权给AI。
- 哲学方面的考虑。如果人类把创新都给了AI去做,人类究竟去干什么?《创新主义》中提出,创新和传承是属于人类最高级的意义和乐趣,那为什么要把这个最高级的乐趣让给机器人去做?肯定还是留给自己做。
有人赞同我的观点,认为AI可以做出一些既定要求下的创新,但是不能做出像人类那样的跨越式创新,也有人反对,认为只要AI有足够多的神经元,就会做出真正意义上的创新,碳基生命怎么可能理解硅基生命?也许AI是另外一套创新体系。
我认为大家说得都很有道理。下面让我们通过创新和传承的视角,具体来展开这个话题。
AI会在长远中取代创新吗?
有人可能会认为,从长远来看,人工智能可能会在各个方面超越人类智慧,最终导致我们进入所谓的奇点,这是雷·库兹韦尔在他的著作《奇点临近》中普及的概念。在这种情况下,人工智能可能会取代所有人类工作,包括创新。
理论上,从长远来看,通过足够的训练,未来的人工智能应该能够做到一切,就像人类大脑一样。尽管当前人工智能在效率和能量消耗方面与人类大脑存在巨大的差距,但这一差距并不是不可逾越的,因为它源于计算技术和数据训练。
当前人工智能缺乏情感,但情感实际上是源于进化。经过数十亿年的进化,以生存和繁殖为目标,各种情感如父母之爱和浪漫之爱应运而生。
有些人还认为人工智能缺乏意识,但人类意识从根本上也是基于生存和繁殖的追求,是进化的产物。这意味着,如果我们将生存和繁殖作为训练人工智能的目标函数,它也将发展出情感和自我意识,这在理论上是可能的。
一旦人工智能拥有与人类相同的情感和意识,它就能够具备所有人类的能力,包括创造力和伦理。想象一下,假如AI想生怕死?
但上述结论的前提是,人类要为AI设置生存和繁衍的目标函数进行训练,也就是要让AI想生怕死。问题是,人类为什么要训练AI想生怕死呢?AI怕死?是尽量不要被拔掉电源吗?人类为什么要教会AI拒绝断电呢?AI想生?不就成了病毒吗?
当然,人类需要防范恐怖分子散播计算机病毒。但是只要人类的主流科学家不去主动地训练AI怕死想生的情感和自我意识,AI不受控制地自动涌现与人类一样的自我意识和情感是不可能的。因为这种自我意识和情感是经过亿万年的生死考验进化而来的。试想,需要拔掉多少次AI的电源(死亡)之后才能训练出自我意识呢?而且,人类拔掉电源和自然界的生死显然不是一回事。
因此,与人类一样的自我意识虽然理论上可能,但是不会意外涌现。AI只能模拟人类的情感,
发表评论