首次提出了具身智能的概念。在之后的几十年里,大家都觉得这是一个很重要的概念,但具身智能并没有取得很大的进展,因为如上所述,人类的本身具备极高的生物进化水平,而当时的技术还远远不足以支撑类似人体的具身智能的发展。 从哲学上思考,笛卡尔说过:“我思故我在”,因为意识决定了我的存在。海德格尔后来对笛卡尔的观点进行了批判,他提出“我在故我思”,因为人的存在才有意识,才能感知这个世界,如果人不是人,而存在于其他的生物体里,比如蝴蝶、鲸鱼,那么人对于世界的认知也会不同 具身智能区别于传统AI也很大程度上受到海德格尔哲学理论的启发: 智能是非表征的; 智能是具身的——存在先于意识; 智能是在与环境交互时体现的。 当然,AI与具身并不是一一绑定关系,智能体可能是多态的,举例来说,对于智能体有多个终端形态作为具身,可以共同提供了关于环境的所有可供性知识; AI在获得了具身智能后(具有身体的人工智能),智能体将有能力与真实世界进行多模态独立自主学习,为进化到更高级的通用智能-涌现自我意识的AGI,打下坚实的基础。 6.意识的形态 当我们讨论意识的时候,意识的出现切并不会与人类讨论。 我们对意识的定义,不可避免的基于人类立场,例如人工智能 ChatGPT使用RLHF(来自人类反馈的强化学习)进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果,包括伦理道德、对与错。 所以当人们谈论(人工)智能的意识时,隐含的立场是“人工意识”或者“类人意识”。 但在没有人类干预的情况下,如果主体进化出了主观意识,极大可能并不会符合人类的立场与想象。这类意识我们可以称为“非人意识”,例如未来机器发明的“机器智能”可能涌现出“机器意识“。 可以预见的是,“非人意识”如果要得到人类的认可,必然需要在某种程度上兼容“类人意识”。 基于本文作者与读者都是人类的事实,本文探讨的将主要是“类人意识”,但也会在有限范畴内,尝试展开对“非人意识”的探索与讨论。  6.1人工意识 早期人类对自然环境的学习和建模,产生了语言和文字这样的抽象描述能力。 对于AI来说,他们也可能在未来对自然的探索过程中,通过自发学习形成一套对当前自然环境的建模和抽象编码规则。 这套规则既可以基于NLP来描述和扩展,也可能是AI自己发明和涌现的新的编码方式,这可以被称为AI语言。 当然,由于AI内置了人类的预先编码,AI语言基本会是在人类现有的编码体系之上进行构建,但是可以预见的是,当未来AI独立进行陌生环境的探索,比如星际旅行时,必然会产生全新的事物建模和词汇。甚至于AI自己会迭代与发明效率更高,蕴含环境熵信息更丰富的编码系统。 这将是AI语言的产生。AI语言的产生,代表着AI对环境的具有学习,探索和自主编码,描述和表达能力,也是“人工意识”产生的重要表现。 6.2人工道德 从人类的角度看,道德是人类在成长过程中,后天形成的社会性共识。对于AI同样如此。AI如同一个婴儿,本身并没有任何道德观念与认知,需要通过学习来形成道德规范。 RLHF在CHATGPT上的成功应用,已经说明了AI与人类形成共识的倾向性,AI道德主要由人类来判定。这个前置结果无可厚非,毕竟AI是人类发明,其必然需要符合人类道德的共识准则。 关于AI的道德定义,这将永远是困难的选择,因为身为创造者的人类,并没有统一的意识形态,类似“人权”和“生存权”之间的优先级,在当前的人类社会,并没有一个统一的答案,这很可能对AI的道德学习,形成区域性的共识。也就是说,对于人类推动的早期AI生态文明,未来会有AI宗教产生,其秉承了不同的人类道德标准和行为共识。 更进一步,在AGI具身通用智能出现之后,AGI将通过自身独立探索演化出“人工道德”标准,这将是“人类道德”标准的扩展集。 6.3人工规则 从AI算法Transforr角度来看,LLM大语言模型就好像一个话痨。它们不论对错,只是模仿。这就是AI“幻觉”产生的由来。 Transforr并不知道该模仿谁,或者说谁都想模仿,毕竟它的训练目标是语言建模,而不是分辨对错。因此在使用和测试时,如果我们想要正确答案,需要明确提出“对与错”的要求。 和道德一样,对与错是人类的长期认知积累形成的标准,AI并没有这样的先天认知。所以通过RLHF,我们可以训练AI,让AI与人类的“对与错”规则标准形成共识。 与AI道德类似,在具身智能AGI出现后,由于AGI会自主探索真实世界,所以AGI在与真实世界的交互过程中,会逐步强化验证,并形成AGI的“对于错”、“真与假”的认知规则集合。 此类个体化的“AI规则集合”,在AGI们在线或者离线的信息交换过程中,得以传播并逐步形成自主AGI之间的共识,成为AGI自主判断“AI对与错”的新准则。 我们可以预测,