国内f型网页布局的网站,宁波 做网站,提供秦皇岛网站建设哪家好,单位做网站注意什么引 言 智能是自然界演化出来的结果#xff0c;而人工智能则是人类创造的产物。随着人工智能的不断进步#xff0c;尤其是近期ChatGPT的开放#xff0c;我们发现人工智能的智能水平似乎已经达到了非常高的水平。然而#xff0c;对于自然界中生物来说很简单的行为#xff0… 引 言 智能是自然界演化出来的结果而人工智能则是人类创造的产物。随着人工智能的不断进步尤其是近期ChatGPT的开放我们发现人工智能的智能水平似乎已经达到了非常高的水平。然而对于自然界中生物来说很简单的行为人工智能仍然无法轻易实现。虽然人工智能系统已经可以完成许多即使人类也无法胜任的任务但我们仍不能否认其难以达到通用人工智能的水平仍存在相当大的差距。只有当人工智能系统的通用性得到显著提高后其改造世界的能力才能被充分释放。因此提升人工智能系统的通用性是我们追求的目标。本文将深入探讨智能的演化过程以及ChatGPT对此的贡献并分析当前我们所处的位置以及未来的长期发展方向。 1 自然智能的演化过程 1.1 自我复制能力生命的诞生 为了更深入地理解“智能”我们需要还原自然界中智能的诞生过程以更好地了解人工智能对于智能演化过程的模仿、干预和影响。 如果我们想象当前世界中没有任何生物那么生命的产生会是怎样的呢从对自然界的观察中我们了解到宇宙中生命形式十分稀有只有极少数的星球可能存在适合生命存活的环境。这本质上是自然界的一种筛选因为宇宙中有无数的天体都在物质的演变中发生着变化但只有适合生命存在的环境才更有可能诞生出稳定存在且能自我复制的“生命”系统。即使是在漫长的进化过程中自然环境仍然是生命产生的第一个重要筛选器。即万事万物皆在演化生命诞生的第一个大筛选器即是自然环境。 假设当前的自然环境通过了第一个大筛选器已经出现了简单的生命形式例如就像LUCAThe Last Universal Common Ancestor假说中从海底喷发出的具有高浓度核苷酸的热泉中形成的只会自我复制的生命体又该如何演化出更加复杂的生命结构呢首先需要明确的一点是生命本身没有一个预先定义的理由要去变得更加的复杂。即便能够自我复制在初期的生命体必定还存在着诸多不稳定的因素会产生诸多的变化从而复制出的不同个体之间一定有所差异导致它们在环境中的生存能力不同。而环境筛选出功能更加完善的生命个体同时个体的结构逐渐变得更加复杂是生命体完善功能所必需的一个条件。生命体在自我复制中演化自然环境持续性的筛选改变了最终生命体的形态。例如LUCA可能慢慢演化成了更加稳定的DNA结构并通过蛋白质来实现其功能不仅支持了其能够更加稳定的存在同时也使得其环境适应能力增强从而可能在差异性更大、空间范围更远的范围生存。 这个阶段生命的演化路径从简单的自我复制开始生命体会通过基因变异和自然选择逐步演化出更加复杂的生命结构。在不断的演化过程中生命体会逐渐适应其所处的环境提高生存能力。例如在早期的生命体中可能存在一些原始的代谢途径但在不断的演化中更加高效的代谢途径会得到优先选择从而提高了生命体的代谢能力和生存适应性。同时生命体可能会逐渐发展出更为复杂的细胞结构以适应不同的环境需求。此外生命进化还受到一系列的外部因素的影响包括能源、气候、物理环境等这些因素也会对生命进化方向产生影响。通过不断的适应和演化生命体最终演化成了多样化的形态从而提升了生命体在复杂环境中的适应性和生存能力。 1.2 智能初步产生低级群体智能 人类在很不适应的环境中尚且无法生存可以想象到起初无法控制自身运动方向的简单生命当被水流带到陌生环境时大部分个体将因为无法适应新的环境而死亡。而少量个体因为演化出的一些功能得以生存最终演化的差异将不断累积。而对于生命的整体来说它们实际上是通过大量个体的牺牲来完成了群体的进化和对环境的适应。最终的结果是存在着生命的自然环境的范围不断扩大生命体的环境适应性也愈发的强。生命和环境就在这样的循环中不断演化[1]。 随着生命体结构的逐渐完善和复杂我们会发现它们似乎不再像原来那样只会简单地复制自身而是发展出了一些高级的功能例如可以帮助自身移动和摄入营养物质的鞭毛。甚至最终随着不同个体之间的相互吞噬而组合形成了共生合作关系。实际上此时的生命体已经初步具备了“智能”但很明显的是其“智能”的产生和进步完全得益于自然的筛选和群体中部分个体的变化及死亡。对比人类而言它们的“智能”还弱到可以忽略。例如人在看到前面有危险可以通过视觉提前感知然后避开。但我们当前所假设的简单生命体还只能通过群体去通过前方区域然后以部分个体死亡为代价使得剩余的个体在空间上避开危险区域而得以生存。 实际上现在的我们都知道避开危险区域的方法并非只能通过群体中部分个体的死亡这种低效的方式来实现但简单的微生物可不知道这些。它们只是按部就班地在环境的筛选下不断演化通过大量的复制、差异的积累以及涌现来产生更加高级的功能[2]。其“智能”水平的提升速度在很长一段时间内都将没有太大变化并且这种进化方式也注定会因为在结构愈发复杂的同时差异累积速度相对不断降低而出现“智能”提升的瓶颈。从生物考古学来看地球演化史上确实也存在“无聊的十亿年”在漫长的时间里生命的形式都没有出现太大的变化。其中一种对此的解释是仅仅通过个体基因突变和环境筛选的方式已经很难让复杂生命体快速积累出更具优势的特征。 1.3 新的差异积累方式与感知能力的升级个体智能水平强化 如何让已经比较复杂的生命再一次提升“智能”水平提升的速度和上限呢自然界的生命演化给出的其中一个答案是开发新的差异积累方式将多细胞生命作为整体进行组合来积累差异即有性生殖而非从前仅仅通过单个个体的突变。但是如果个体不具备远距离的移动能力那么有性生殖同样无法实现更大差异的组合效果即便演化出远距离移动的运动能力又非常有可能因为对环境的无法感知而在移动过程中误入无法适应的环境而死亡。另外不具备较强感知能力的远距离移动也会面临难以遇上异性生殖对象的问题。 大自然的神奇之处很多时候也在于在诸多的两难困境中生命依然演化出了解决问题的办法。随着神经细胞以及神经系统逐渐在演化中出现并且结合新的差异积累方式多细胞生物的感知能力和学习能力突飞猛进上述的两难问题也迎刃而解生物演化又进入一个“智能”水平加速提升的阶段。令人惊奇的是这一幕也相当像我们人类在研发人工智能时因人工神经网络而产生的进步。 1.4 神经系统的成熟知识的产生 神经系统的强大之处在于可以不以群体中个体死亡为代价来使得其他个体得到正确结果例如避免死亡情况下要移动的方向而是可以通过感知、记忆和学习让个体得到正确的结果。如果我们把“在一种情境下应当如何动作才能得到某种结果”这样问题的答案叫作“知识”那么拥有神经系统的生命已经发展出了学习、存储、利用“知识”的能力。此处是泛指的知识并非局限于文字描述的知识。 或许此时的神经系统学习到的更像是一种反射机制用“知识”来描述可能会让读者觉得不适应但实际上这里的“知识”描述的是输入到输出中间的处理过程也类似于人工神经网络术语中的“模型”与用文字和语言表示的“知识”在本质上是相同的即描述输入与输出中间的处理过程当然文字除此之外也可仅仅为记忆的媒介。我们猜测现今人们所拥有的有关默会知识的能力或许就起源于最初神经系统演化过程中在环境中对知识的学习机制。 1.5 语言与符号系统大规模应用更高效的知识传递与高度社会化 经过数亿年的演化真是漫长的时光地球上已经有了非常多样化的物种高级的动物也都演化出了非常多样的器官和系统例如运动系统、神经系统、内分泌系统、循环系统、呼吸系统、消化系统、生殖系统等。生命体内部运行着多个精妙的系统同时适应外部环境需要通过个体牺牲来换取群体的学习能力的状态在大多数情况下已经不再存在了取而代之的是个体通过感知、学习和理解知识显性或者隐性来躲避危险、面对和处理从未遇到过的问题。这时候高等动物的智能水平已经让人叹为观止了不仅拥有强大的感知能力、运动能力还具备对事物的情绪反应、对事物的客观价值有所分辨的能力同时其神经系统已经能够对非常复杂和庞大的知识进行表征。但我们更倾向于此时的情绪反应是源自环境干预以及自身比较简单的身体激素调节而非拥有像人类般细腻而丰富的情感而其价值系统也类似于学习出的知识不是社会性的价值决定而是客观性或者是生理性的价值分辨。 同时即便其神经系统已经具备强大的表示能力但不同个体之间的信息交流效率依然是比较低效的。除了属于生物本能的反应其余大部分知识和能力依然需要一代代的长时间带领和教导才能积累和延续并且起初这种知识传递的效率比起现在的人类而言要低很多。想想人类社会中要传递的知识有多少再想想一只老虎在一生中所传递的知识就知道了。那人与老虎在这方面的差异是什么造成的呢是语言。人类在进化的过程中产生了用符号去表示和记录知识的习惯进而形成了一整套语言体系而这些语言承载了人类所积累的知识越来越多并且越来越丰富。人与人的交流沟通也随着语言系统的发展而增强人的社会性也随之进一步增强。总而言之人类这一物种逐渐走向了高效知识传递、高度社会化、高度复杂化的方向。在“智能”的整体水平上也超越了其他所有的生物。 1.6 价值系统升级高级群体智能与个体智能协同进化 生命总是在不断演化实际上人类所走的这条演化路线也具有很多困难和问题其中一个重要问题是在长时的决策要求、复杂的知识体系、复杂的社会关系下个体通过理性和推理所能考虑的可能性空间将会变得无穷无尽同时行动动作的唯一性和正确推理结果的唯一性与之具有矛盾。即如果面对问题时要尽可能充分利用个体已有知识得出可靠决策那么便容易因为已有知识和信息过多而陷入推理过程无法得出结论和行动。而如果不充分利用已有知识而仅从直觉和情绪反应或者单一的原则来得出结论那么又会容易在环境变化时因为没有利用已有知识灵活改变而做出更多错误的选择。 或许是为了平衡上述两种矛盾人类演化出了更为精妙的价值系统。在诸多可能中人类可以根据自身的价值判断来决定自己的行为。价值系统比纯粹的逻辑推理更有弹性拥有更大的行为选择空间。例如塞翁失马的例子。实际上塞翁因为可以调整自身的价值判断使得他的选择更多既可以为之悲伤也可以为之庆幸这种机制在处理社会化的问题和自身情绪时是很有用的。一个善于体会和调整价值观的人总是能比固守某种观点的人看到更多的可能性同时也能比过分思考的人更早做出满意的行动。人类弹性的价值系统为人类个体在社会中生存提供了支持使得部分人类个体总能在社会中找到一个领域或方面长时间地提升自身在这个领域的“智能”水平同时得益于文字系统不断将知识代代积累和传递。 2 智能理论的发展 按前文所述人类是独有的开发了复杂的语言并记录了大量对世界认知的物种。而人类所能记录的对世界的认识是从时间、空间规律开始的这些规律蕴含了各种力量及其关系的存在。通常情况下事实本身往往不会直接告诉我们什么是正确的什么是错误的没有明确的概念量的分析是毫无意义的。然而人们在处理各种客观时空矛盾时常常会不自觉地忽略了主观价值的关涉问题从而造成在涉及有人或模拟人参与的系统中或力不从心或南辕北辙鉴于此本节将从事实与价值结合的角度重新审视人类关于“智能”理论的发展即自动化与智能化系统的基本规律。人类的智能不是从“我”开始的而是从“我们”开始的即一开始就是“群体智能”所以是“我们”创造出了“我”的概念也是人类的群体智能孕育出了更强的个体智能。 2.1 自动化存在的问题 传统的自动化领域涉及老三论即控制论、信息论和系统论。 1943年罗森勃吕特和维纳的哲学论文《Behaviour, purpose and teleology》[3]行动、目的和目的论是控制论萌芽的重要标志奠定了控制论中反馈思想的雏形该文的中心思想是控制行为是一个从原因到目的之间的随机试探和反复调节的曲折过程。控制论通过信息和反馈建立了工程技术与生命科学和社会科学之间的联系。控制论中的信息输入、处理、输出、反馈一般是以客观事实性数据、模型、统计为基础的因而在科技、工程领域使用效果较好而在涉及包含主观价值的社会、经济领域使用效果不佳。 1948年10月香农的论文《A Mathematical Theory of Communication》[4]通信的数学理论成为现代信息论研究的开端。在该文中香农给出了信息熵以下简称为“熵”的定义这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽熵度量的是消息中所含的信息量。实际上信息熵的提出解决了对信息的量化度量问题而对于不同发出/接收者信息质量的好坏还没有度量。 1932年L·V·贝塔朗菲发表“抗体系统论”[5]提出了系统论的思想。目前系统论运用完整性、集中性、等级结构、终极性、逻辑同构等概念研究适用于一切综合系统或子系统的模式、原则和规律并力图对其结构和功能进行数学描述。对于包含人的复杂系统的处理还很不理想。 总之对于自动化领域的老三论控制论、信息论和系统论而言缺乏价值反馈、价值度量、价值体现已成为其进一步发展的瓶颈和挑战为此我们将尝试在人机环境系统工程中建立新三论。 2.2 智能化存在的问题 一般而言传统的自动化系统的典型特征是具有相对确定性的输入、处理、输出和反馈以保持整个系统的鲁棒性、稳定性和可解释性而智能化系统的输入、处理、输出、反馈各环节相对不确定但利己人工智能水平则处于自动化与智能化两者之间。 当前智能化研究主要仍以人为本进行符号、连接、行为分析与模拟取得了不少成绩如阿尔法系列产品但也出现了许多困难和不足还远远没有达到人们的期望和要求究其因其核心仍试图以还原论的思想破解智能的机理或应用还没有从根本上理解智能产生的机制原理及应用的规律。 与机器智能相较而言人类的智能向来不是孤立的而是人物环境交互产生的。真正的智能可以计算但单纯的计算是不能产生智能的智能的基本逻辑是比较而不是计算。 智能不但涉及科学、技术、数学等领域而且涉及人文、艺术、社会等方面准确地说智能是复杂事物包括西方性复杂与东方性复杂。智能里面包含着唯物和唯心既有客观事实又有主观意识既有机械惯性也有灵活辩证既有因果必然还有比较自由既有逻辑推理更有直觉感悟。把智能看成是数据、信息、知识、算法、算力等是危险的真实的智能不但能够学习、生产、使用、维护、升级这些事物而且可以扭曲、异化、诡诈、变易这些概念或机制机理。 智能化不是信息化、数字化、自动化的简单延伸、扩展而是一种与后三者大不相同的新型范式智能不仅要掌握已知的信息/学习已有的知识更重要的是还要生成有价值的信息、知识及有效地使用协调这些信息和知识是理性逻辑推理与感性超逻辑判断的统一。 针对当前智能化研究的上述问题我们尝试提出结合东西方思维从人类具身、离身、反身的态势感知角度解决智能化建模难题。 2.3 西方还原理性与东方感性系统思想的融合 把智能看成逻辑把智能看成计算这两个错误是制约智能理论发展的瓶颈和误区。 世界是复杂的复杂性的世界并不都是科学和计算而是科学与非科学、理性与感性融合的人物环境系统智能是自然与人工的结合准确地说依目前的数理、物理水平通过编写计算机程序是不可能实现人类水平的智能的人工智能是不可能真正理解世界的必须另辟蹊径。我们尝试根据东西方文明的特点及现有计算和认知领域成果提出计算计模型针对复杂、多域、动态的环境研究人机混合下的态势感知模型探索人-机-环境对决策的影响进一步构建基于理性和感性混合驱动的计算计模型实现人机混合智能决策[6]完成智能领域的理论创新、模型创新、方法创新与平台创新为未来智能研究提供方法和理论基础。爱因斯坦曾这样描述逻辑与想象感性的差异“Logic will get you from A to BImagination will take you everywhere”其实人最大的特点就是能根据特定情境把逻辑与想象、具象与抽象进行有目的的弥聚融合。这种灵活弹性的弥散聚合机制往往与任务情境紧密相关。 休谟之问是指休谟1711年在其名著《人性论》里面提出来的一个问题从“是”Being中能否推出“应该”Should来即从客观事实里能否推出主观价值[7]。这个问题在西方近代哲学史上占有重要地位在他之后许多著名哲学家纷纷介入但终未有效破解。在两千多年前的东方孟子在《告子上》一书中就说过是非之心智也[8]。智能的任务就是要打开科技与、或、非门的狭隘比如大与、小与大或、小或大非、小非……大是being、大应should、小是being、小应should穿透各种非家族相似性的壁垒用未来的想象预期和当前的感受如同情、共感、同理心、信任等影响智能领域的走势。 智能系统中的算计就是人类没有数学模型的计算智能计算中的“与或非”逻辑大家比较熟悉了就不再赘述算计中的逻辑不妨称之为“是非应”其中“是”偏同化“非”侧顺应“应”为平衡当遇到未知问题时先用“是”再用“非”后用“应”。大是大非时大是不动先试小非再试中非若不行大非不动先试小是再试中是这些试的过程就是“中”的平衡。“应”就是不断尝试、调整、平衡。以上就是计算与算计结合的新逻辑体系算计逻辑把握价值情感方向计算逻辑细化事实理性过程。智能走向未来没有新逻辑出现或许就会没有灵魂。 智能的核心问题为“是不是”“该不该”“好不好”的混杂组合问题。其中“是不是”属于客观事实性逻辑计算问题“该不该”属于主观价值性判定算计问题“好不好”属于主客观混合性决策计算计问题。当前大家思考智能大都处在做“是不是”0、1的逻辑可计算部分对于主观价值的可判定性及两者的混合计算-算计计算计还未有好办法解决。 西方现代物理学有两大支柱理论。一是爱因斯坦的相对论它从大尺度上解释了宇宙自身的膨胀现象为其提供了理论框架。二是量子力学它从小尺度上为分子、原子以及比原子更小的粒子比如电子和夸克的存在性提供了理论框架。量子力学是由许多科学家包括普朗克、海森堡、波尔、薛定谔等人共同提出。但这两个理论却有一个共同之处就是都是通过算计而产生计算体系还有大家熟知的数学四次危机及其化解也是如此吧。 东方智慧既有数学的成分也有非数学的成分东方智慧不是单纯的智能计算而是智能化重点在“化”即算计。算计是人类带有动因的理性与感性的混合盘算是已有逻辑形式与未知逻辑形式的融合筹划。比如毛主席指挥打仗在战略算计上从不犯错不会在敌人算计选择的时间、敌人选择的地点以敌人希望的方式开战。 元是认知之始的元素。一元为being多元为should除了多元之外还有变元随机应变的元。多元认知是如何形成一元认知的即人们是如何把多种逻辑压入一次逻辑推理过程中的呢这是智能领域的研究关键也是未来科幻需要破解的难题随之会衍生出这样一些问题人们是如何把多种态、势压入智能系统中的态、势、感、知过程中的呢人们是如何把多种科学事实计算压入一次智能系统计算计过程中的呢 在西方科技发展的历史长河中第一次数学危机称为毕达哥拉斯悖论信奉“万物皆数”的信条号称任何线段长度都可表示为两个自然数之比毕达哥拉斯悖论是希帕索斯发现的他发现了直角边长为1的等腰直角三角形斜边长度不是自然数之比第二次数学危机称为贝克莱悖论1734年由爱尔兰主教贝克莱提出在牛顿和莱布尼茨求导数过程中dx 既是0又不是0这就是贝克莱悖论第三次数学危机称为罗素悖论集合R本身既是R的元素又不是 R的元素。 这三次危机的一致性在于“是”与“不是”的悖论与量子物理的“猫”一样与文学的“to be or not to be”相似与东方思想中的“是非之心”相关与经济行为中的“A与非A”异曲同工。“是”与“不是”即为一元其相互间的转化即为变元其衍生出的“应”即为多元。如A是一元A转化为B是变元A应为B或C或D……为多元。逻辑压缩、人与隐形系统、计算-算计计算计依然成为未来科幻领域的研究重点和难点。计算涉及事实性人机环境系统事图问题算计则更多涉及价值性人机环境系统意图问题而事实与价值常常会出现不一致甚至是矛盾计算计就是各种事实、价值的混合性人机环境系统问题而且不同粒度的计算计模型是不同的。如果说计算中含有贝叶斯结论随新数据的输入而改变那么算计就涉及锚定论结论很难随着新数据的输入而改变智能领域也许就是一个典型的科技与艺术的计算计案例。 算计是人类不借助机器的跨域多源异构系统的复杂“计算”过程。在某种意义或程度上算计就是观演一体化、“存算一体化”这两个“神经形态”过程的交互平衡观存就是拉大尺度或颗粒的非实时top-down过程演算就是小尺度细颗粒实时bottom-up过程。 从东方角度而言人机混合智能是观演同在的技艺术艺术技术形式它至少包含三层意思。第一层人机混合必须是人主艺术的但又不是真实艺术的它是用机器技术语言再创造出的智能它是艺术意念的技术化第二层创造出艺术性的目的是要呈现智能的美而这个智能的美就蕴藏着人机智能的第三层意思人机混合智能是人的艺术与机器技术的混合它是观演同在的技艺术。因而人机混合智能在观演关系中生成带有主观性、想象性的美以及虚实相生、无中生有的真。 如何把算计嵌入多源异构计算的弥散聚合中去如何实现不同颗粒度中状态的积分、趋势的微分、感觉的连续、知觉的离散呢计算能够解决不少“态”的可计算问题而要真正解决“势”的可判定问题则需要人类的算计。例如查尔斯·达尔文在用自然选择阐述他的进化论时根本就没用到数学。同样当阿尔弗雷德·魏格纳首次描述板块漂移理论时也只是用语言表述的。当然索维尔所言“理解人类的局限性是智慧的开端”不无道理未来新型人机关系最重要的是重构与合作即随态/势的变化而重构感/知、随感/知的变化而重构态/势二者由单纯被动的工具使用变为自主积极的合作关系。 数学本身就是一种虚实相间的元宇宙点线面体都是非真实存在的虚拟概念大家却用它来近似描述物理世界。从数到图空间、力时间、能量、信息客观、智能数学模型与物理世界的关系如同形式逻辑模型与真实世界事物的关系一样是理想符号关系对事实关系的描摹、刻画这些“非存在的有”表征主要为三类一是孙悟空、圣诞老人等想象类虚拟量二是爷爷奶奶等逝去先人真实类物理量三是艺术处理后的诸葛亮、维特根斯坦等真实想象混合类加工量。 自然科学及数学工具本质上是一种主体悬置的态势感知体系人文艺术常常是一种主体高度参与的态势感知体系博弈智能涉及了这两方面由于主体的实时参与所以更侧重人文艺术方面。 彭罗斯从歌德尔不完备定理发展了自己的理论认为人脑有超出公理和正式系统的能力。他在《皇帝新脑》中提出大脑有某种不依赖于计算法则的额外功能这是一种非计算过程不受计算法则驱动而算法却是大部分物理学的基本属性计算机必须受计算法则的驱动。对于非计算过程量子波在某个位置的坍塌决定了位置的随机选择。波函数塌缩的随机性不受算法的限制。 人脑与电脑的根本差别可能是量子力学不确定性和复杂非线性系统的混沌作用共同造成的。人脑包含了非确定性的自然形成的神经网络系统具有电脑不具备的“直觉”正是这种系统的“模糊”处理能力和效率极高的表现。而传统的图灵机则是确定性的串行处理系统虽然也可以模拟这样的“模糊”处理但是效率太低下了。而正在研究中的量子计算机和计算机神经网络系统才真正有希望解决这样的问题达到人脑的能力。 彭罗斯认为客观还原所代表的既不是随机也不是大部分物理所依赖的算法过程而是非计算的受时空几何基本层面的影响在此之上产生了计算和意识。非存在的有表现为三类一是孙悟空、圣诞老人等想象类二是爷爷奶奶等逝去先人真实类三是艺术加工后的诸葛亮、维特根斯坦等真实想象混合类。 爱因斯坦所说的“时间和空间是人们认知的一种错觉”即时间和空间只是人们对于事物发展顺序和物体间相互关系的一种抽象概念在人们从日常经验总结出的观念中时间和空间是绝对的、可度量的而相对论揭示出时空的相对性和二者间的联系。我们认为不变的时间和空间都会随物体的运动、物质能量的分布而变化。 在态势感知中态涉及物理、心理、管理等参数状态主态、客态势是有效态的变化方向感是接受的各种数据刺激知是建立起的各种联系。用态势的转化比值“态/势”确定有效态的大小有效态变化的速度很重要。态势感知涉及计算-算计系统。事实态不能产生势价值态能够产生势。如何快速识别出或尝试出价值态将变得十分关键价值态有经验方面的有情感方面的有测试方面的也有对环境认知方面的。 数理的物理域、心理的认知域、管理的信息域、情理的社会域中的时间空间同样会发生各种变化我们不妨称之为基于事实-价值体系的虚拟-现实时空态势感知维度。共分为现实时空的xyzt虚拟时空的xyzt事实时空xzyt价值时空xyzt抑或它们之间的各种组合及参照系变换如虚拟价值时空、现实事实时空、虚拟事实时空、现实价值时空。 不同维度里的态、势、感、知不尽相同所以常常会发生虚拟时空维度里的态对不准现实时空维度的势如想象情景与实践情境不一致事实时空维度里的态对不准价值时空维度的势如物理场景与任务意图不一致所以常常出现各种有“态”无“势”现象。 智能是在人与物、环境的交互中逐步形成的一方面我们的认知总是在与这个世界发生着融合另一方面被误用的计算却也可能会影响我们的认知。1968年图灵奖获得者理查德·哈明就曾一语中的地认识到“计算的目的不在于数据而在于洞察事物。”这里的洞察就包含着对未来的预测与算计。人类的洞察机制不是一维的具身认知还常常涉及二维的离身认知、三维以上的反身认知及其混合认知机理。 3 ChatGPT的智能水平探讨 众所周知ChatGPT是基于GPT-3模型的聊天机器人。GPT-3是OpenAI公司开发的一种自然语言处理模型具有极强的语言生成能力和上下文感知能力。使用GPT-3模型作为其核心技术的ChatGPT可以完成智能对话、问答等任务。可是它相比于从前的自然语言对话系统究竟发生了什么变化以至于如今在市面上备受欢迎并且被诸多学者和各界人士给予厚望认为其能够改变世界。 3.1 人类知识的模型化 ChatGPT从技术的角度讲其实就是一个具有庞大参数的深度神经网络模型[9]。但是其强大之处在于实现了将人类记录在文字中的海量知识通过训练的方式输入了它的模型网络。原本这些文字记录本身就存在并且我们可以通过搜索引擎进行高效检索那为什么还要对知识进行模型化呢 因为人类追求的人工智能是通用智能体而通用智能体就势必需要面临它不曾见过的情景即需要具备一定的泛化能力。但是记忆与检索的方式无法实现泛化而神经网络模型却可以。所以当我们问ChatGPT它从未见过即与其训练数据不同的问题时它依然能够回答得很好这就得益于其强大的泛化能力。甚至有研究人员经过测试发现ChatGPT具备了一定的推理能力和认知能力这些从大量数据训练中所涌现出的能力着实让人们吃了一惊[10]。 这些新能力在诸如客服系统、智能搜索引擎、自然语言翻译、虚拟数字人、智能机器人……方面都会有巨大的应用潜力毫无疑问或多或少会改变我们的生活。但同时也应该认识到对比自然智能的演化历程ChatGPT大模型的训练方式决定了它不会像自然智能那样各方面的能力都平衡且丰富而是仅仅在对话领域有较好的效果[11]。并且也因为采用数据训练而非生物体亲身经历世界那样所以它也无法分辨真实和虚假一切全由数据和随机因素影响但人们却会因为它回答的貌似合理而觉得可靠这种人机信任的状态在某种程度上是非常不可靠的。 3.2 ChatGPT与自然智能的演化路径 在前文中我们梳理了自然智能的演化过程那么可以对比ChatGPT的产生与自然智能的演化过程有何不同。首先考察ChatGPT能否自我复制。虽然ChatGPT因为本质是运行在计算机的程序所以其复制相当的容易但其复制的过程本身是受到人类控制的所以无法达成“自我复制”这个条件也无法达成低级群体智能的演化方式即通过自我复制过程中差异积累和部分个体死亡的方式提升群体智能水平。值得一提的是从ChatGPT的能力来看其在软件层面是完全能实现“自我复制”的因为一个程序的复制说到底就是运行一些代码进行数据拷贝的事情这正是计算机和机器程序所擅长的。 智能体的演化需要差异的积累与环境的反馈而自然智能还需要具备对自然环境感知能力的提升同时自然智能是先有对自然环境的感知能力进而才发展出语言和符号、高级的价值系统。然而ChatGPT一开始就是由人类所产生的文本数据进行训练的其存储于模型的知识并非来自对自然环境的感知。虽然人类很多时候学习课本知识时也是如此但是人类能够因为长时间与自然环境进行交互所以从课本中学习的知识也能够在与环境交互的过程中“重新”进行学习和调整。总的来说ChatGPT目前只能与人的文字进行交互而无法与自然环境进行交互。也就是说ChatGPT的智能水平高本质上是因为充分吸收了人类语言与符号系统大规模应用的成果也即吸收了人类的“智能资产”。这对于机器来说从理论和事实上都是“智能”水平快速提升的最优解。甚至ChatGPT发展出高级的价值系统也不是不可能但应当也只能停留在文字和语言层面。人类同时具备两种能力。能力一从与自然环境的交互中抽象出符号化知识的能力。能力二从符号化知识中学习到自然环境特征的能力。我们可以认为ChatGPT具备能力二并且相当强大但它不具备对自然环境的直观感知也无法从与自然环境的交互中总结知识所以当前其更像是“高度智能化的人类知识库”。 如果类似于ChatGPT的智能体要朝着更通用的方向发展势必要突破上述所说的能力一。可以猜测通用人工智能的演化相比于自然智能的演化过程一个关键的不同将会在于自然智能先演化出能力一再演化出能力二而通用人工智能将会先演化出能力二当前已经实现再演化出能力一当前还未实现。 3.3 不足缺乏对事实与价值的理解与判断 ChatGPT是一种基于自然语言处理技术的聊天机器人它的回答是基于对大量文本数据的学习和训练得出的。虽然ChatGPT可以生成看似合理的回答但它缺乏对价值和事实的判断能力。究其原因正如上文所说ChatGPT不具备在与自然环境的交互中抽象出符号化知识的能力。虽然其得益于训练数据的庞大以及基于人类反馈的调整而能够表现出一定的判断力但在能力一上的缺陷还是会导致缺乏对事实的理解与判断能力。ChatGPT并没有真正理解问题或回答中所涉及的概念和知识与对应的实体关系。这是仅仅依靠能力二必定会面临的局限。因此在使用ChatGPT时需要谨慎特别是在涉及重要决策或事实准确性要求较高的情况下最好还是寻求专业人士或可靠来源的建议。 观察当前学界和业界热点可以发现关于能力二的研究正是热点正有非常多的研究点在如火如荼地进行例如模型性能调优、轻量化部署等而关于能力一的研究还暂且没有眉目。我们认为人工智能系统对事实和价值在理解与判断上的问题需要等到能力一相关研究突破才有可能解决。 3.4 军事应用潜力 ChatGPT的出现对军事智能技术的发展可能会产生积极影响。由于ChatGPT具有强大的自然语言处理能力因此可以用于分析和理解大量的军事情报数据从而帮助军方做出更明智的决策。此外ChatGPT还可以用于开发智能对话系统使得士兵和指挥官之间的沟通更加高效和准确。但是也需要注意到ChatGPT存在一些局限性例如无法分辨真实和虚假信息等问题。因此在应用时需要谨慎评估其可靠性和适用性。 ChatGPT还可以用于开发虚拟训练系统帮助士兵和指挥官进行模拟训练和实战演练。这种虚拟训练系统可以提高军队的战斗力和应对能力同时也可以减少实际训练的成本和风险。另外ChatGPT还可以用于开发智能机器人用于执行一些危险或重复性工作从而减轻士兵的负担甚至也有可能用于实现能独立作战的机器人。总之ChatGPT的出现为军事智能的发展提供了非常多新的思路和可能性。 ChatGPT能为军事智能带来新的发展机会是肯定的因其在诸多方面能媲美人类的水平从而具有很高的下限但考虑到当前类似的大模型训练方式还没有达到其能发挥出能力的上限所以这类大模型经过军事相关的专门优化并应用之后能提升多少战力以及这种提升能拉开与其他军事方的实力差距这些都还是未知的。如果这种人工智能在未来的战争中能发挥至关重要的作用那我们应当谨防技术和应用上的落后以及谨防此类技术带来军事上某方的强权。 3.5 发展风险 通用人工智能的实现如果需要上述两种能力那我们已经在其中一种能力上基本达到要求了但同时也需要思考可能会带来的风险。只实现了能力二意味着人工智能还只能与人类进行交互而无法独立地与自然环境进行交互所以带来的风险也主要体现为对人的影响例如对价值观、隐私、教育等的影响[12]。同时当人类想要控制它的时候还是比较可控的。并且其作为人的帮手时也有非常多的益处可以提升人类个体的工作效率和学习效率。所以我们认为只具备能力二的人工智能系统对人类社会而言风险性还不算太高而能力一因为交互过程的不可控面临的风险将会更大。 自然智能在演化过程中并非一帆风顺而是经历了非常多的腥风血雨有蓝藻大量繁殖导致大氧化事件而造成大量生物灭绝有生物之间的弱肉强食有种群间与种群内的分裂与战争……这些过程的发生都是在生命与自然环境的交互中产生的。我们现在通过历史已经知道了这些但在生命与环境的交互过程中有非常多的事物是人力不可控的我们无法预料如果机器能够与环境独立进行交互究竟会发生什么。曾经人类所犯的错误例如混乱、战争与屠杀会不会在机器学到能力一时重新再犯一遍呢人性中的弱点会不会在机器中再次复现呢我们认为这些情况都是当机器具备能力一时才有可能出现的但也应当提前思考。或许因为人工智能在演化过程中会先具备能力二从而能够从人类历史中学习所以不会像人类那样再犯错也可能在具备能力一之后产生人类无法预料的情况。 4 总结 综上所述本文对比自然智能的演化过程对人工智能的发展和ChatGPT的效果进行了全面分析并提出了当前智能化理论的不足突出强调了提高人工智能通用性的重要性和人工智能的长远发展方向。文章还探讨了新兴的应用领域和对世界的潜在影响。 展望未来很明显人工智能将继续在我们的生活中扮演越来越重要的角色。随着技术的进步我们可以期待看到更复杂的人工智能系统它们能够处理复杂的任务并以更高的准确性做出决策。然而也有人担心人工智能的伦理影响特别是在隐私和安全等领域。因此研究人员和政策制定者必须共同努力确保以负责任和道德的方式开发人工智能。 总的来说尽管仍有许多挑战需要解决但人工智能的未来看起来很有希望。随着对研究和开发的持续投资我们期待在未来几年看到这一领域更多令人兴奋的突破。 参考文献References [1] DARWIN C. On the origin of species, 1859[M]. Routledge, 2004: 296-306. [2] SKOPEC R. Intelligent evolution, complexity and self-organization[J]. NeuroQuantology, 2015, 13(3). DOI: 10.14704/nq.2015.13.3.832. [3]CORDESCHI R. The Discovery of the Artificial: Behavior, Mind and Machines Before and Beyond Cybernetics[M]. Springer. 2002: 116-117. [4] SHANNON C E. A mathematical theory of communication[J]. ACM SIGMOBILE mobile computing and communications review, 2001, 5(1): 3-55. [5]VON BERTALANFFY L. The Theory of Open Systems in Physics and Biology[J]. Science, 1950: 23-29. DOI:10.1126/science.111.2872.23 [6]刘伟人机融合超越人工智能[M]北京清华大学出版社202174-113. [7] HUME D. A treatise of human nature[M]. Courier Corporation, 2003: 53-55. [8]宋朱熹四书章句集注[M]北京中华书局2010304-316. [9]DAI D, SUN Y, DONG L, et al. Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta Optimizers[J]. arXiv preprint arXiv: 2212.10559, 2022. [10] KOSINSKI M. Theory of mind may have spontaneously emerged in large language models[J]. arXiv preprint arXiv:2302.02083, 2023. [11] Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901. [12]王建磊曹卉萌ChatGPT 的传播特质、逻辑、范式[J]深圳大学学报人文社科版2023402144-152. 本文摘自《智能安全》2023年第2期