图灵测试只能测假装是人类的人工智能

每个人都是有利己性和利他性的。我不相信一个只有利他性的生物能够存活。

基于工具用途的人工智能,是在不断地在发展AI的功用性,也就是在不断发展利他性。没有人愿意做出一台“有私心”的机器,因为一怕驾驭不了,二来没利可图。

这么看,无论人工智能技术如何发展,都无法让机器有自我的意识,像人一样地思考。

机器不一定要像人一样思考

不过或许,要机器像人一样地思考,出发点就不是正确的。就像教现在的孩子生火、打猎,也不是不可以,偶尔还是一点生活的乐趣,只是很不必要。

人类的智慧源自远古而残酷的优胜劣汰——据我所信。那么它出生时所带的固件是更适应于太阳系中的地球这一隅的环境的,如果放到宇宙中其他环境中,就有着极大的不确定性。

人类总体寿命和总体知识的赛跑

一个人一生能积累的知识、付出的行动是极为有限的。虽然人类可以通过不断延长寿命和教育继承来承载亘古以来的文明,但是几千年的文明已经让“裸机”们需要用掉近1/3有清晰意识的生命来刷入基础知识;而如果要研究到人类认知的尽头并试图推进,则通常至少要用到1/2或者更多的生命抵达。

如何突破困境

人类的硬件已经到了一个局部最优解,如果排开一切风险,难以再有进步了。而传承人类的知识甚至意志的,必将是另一种形式。

我不相信会再有一轮更激烈优胜劣汰,而将会有一种温和的方式升级智能的单位上限。

目前方法有两条科技树:

  • 在硅基上用程序模拟人脑,像上帝一样创造一个自我意识
  • 在碳基上的编辑DNA序列,优化人类物种本身

都很艰难,哪种更难?都是险招,但是哪种风险更小?

图灵测试为何无效?

按照图灵测试的“考纲”,能通过的AI,必然是有一定智慧的——只是这个考试太过站在人类的立场了。

同一个人因为不同的目的,对同一件事也会有截然不同的反应。如果图灵测试中的人类目的是不通过测试,而机器的目的是通过测试,那么不需要具备太高的智能,机器就能比人类更有机会被通过测试。

硅基模拟面临的问题

而人类最终追求的是什么?最终生存并超越人类的AI,他的最终追求又会是什么?是人类给他设定的还是它自己产生的?

我想在没有根本理解清楚这些问题之前,通过硅基模拟人脑,很难创造出有自我意识的思维体,而且即使创造出来了,也是对人类有高度危险的。

编辑DNA面临的问题

而编辑DNA,存在的问题也是很多。首先,人类还没有理解基因序列,对于现有样本的统计和归纳,得不出创造的办法;而基于随机的尝试,又面临调试周期太长,和不人道的问题。

终极的人工智能会是怎样?

这个问题在人类总体知识的积累超过人类总体寿命的时候,才会变得尖锐,才必须解决。由此看来,整个人类都是个巨大的拖延症侯群啊。

想象

如果人类能活到未来,两条科技树都很高级别,并且能融洽相处,可能会有的形态:

新奴隶社会

人类不断地温和演进基因,并且大脑可以外挂芯片;

具有简单意识的利他性机器人为人类服务。

人机平等社会

人类通过基因修改,智力再次达到上限;

由于某种目的,给机器人创造了利己性等自我的意识;

部分机器人真正成为了独立个体,不只为人类服务,也有了自己的目标;

极端的机器被消灭,温和的具有自我意识的机器逐渐被那时的人类接受。

人类被机器全面超越

人类的硬件已经无法再基于原有的底层的神经元结构做出任何优化;

机器的配置可以随心所欲地替换升级,一部分具有意识的机器掌控了大量的资源,开始主导整个社会的发展。