吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然智能的演化過程 ChatGPT的智能水平探討

AI智勝未來 ? 來源:智能安全 ? 2023-08-08 11:36 ? 次閱讀

來源:智能安全

作者:劉偉 何瑞麟

轉自:人機與認知實驗室

引 言

智能是自然界演化出來的結果,而人工智能則是人類創造的產物。隨著人工智能的不斷進步,尤其是近期ChatGPT的開放,我們發現人工智能的智能水平似乎已經達到了非常高的水平。然而,對于自然界中生物來說很簡單的行為,人工智能仍然無法輕易實現。雖然人工智能系統已經可以完成許多即使人類也無法勝任的任務,但我們仍不能否認其難以達到通用人工智能的水平,仍存在相當大的差距。只有當人工智能系統的通用性得到顯著提高后,其改造世界的能力才能被充分釋放。因此,提升人工智能系統的通用性是我們追求的目標。本文將深入探討智能的演化過程以及ChatGPT對此的貢獻,并分析當前我們所處的位置以及未來的長期發展方向。

1 自然智能的演化過程

1.1 自我復制能力:生命的誕生

為了更深入地理解“智能”,我們需要還原自然界中智能的誕生過程,以更好地了解人工智能對于智能演化過程的模仿、干預和影響。

如果我們想象當前世界中沒有任何生物,那么生命的產生會是怎樣的呢?從對自然界的觀察中,我們了解到宇宙中生命形式十分稀有,只有極少數的星球可能存在適合生命存活的環境。這本質上是自然界的一種篩選,因為宇宙中有無數的天體都在物質的演變中發生著變化,但只有適合生命存在的環境才更有可能誕生出穩定存在且能自我復制的“生命”系統。即使是在漫長的進化過程中,自然環境仍然是生命產生的第一個重要篩選器。即萬事萬物皆在演化,生命誕生的第一個大篩選器即是自然環境。

假設當前的自然環境通過了第一個大篩選器,已經出現了簡單的生命形式,例如就像LUCA(The LastUniversal Common Ancestor)假說中從海底噴發出的具有高濃度核苷酸的熱泉中形成的只會自我復制的生命體,又該如何演化出更加復雜的生命結構呢?首先需要明確的一點是生命本身沒有一個預先定義的理由要去變得更加的復雜。即便能夠自我復制,在初期的生命體必定還存在著諸多不穩定的因素,會產生諸多的變化,從而復制出的不同個體之間一定有所差異,導致它們在環境中的生存能力不同。而環境篩選出功能更加完善的生命個體,同時個體的結構逐漸變得更加復雜是生命體完善功能所必需的一個條件。生命體在自我復制中演化,自然環境持續性的篩選改變了最終生命體的形態。例如,LUCA可能慢慢演化成了更加穩定的DNA結構,并通過蛋白質來實現其功能,不僅支持了其能夠更加穩定的存在,同時也使得其環境適應能力增強,從而可能在差異性更大、空間范圍更遠的范圍生存。

這個階段,生命的演化路徑從簡單的自我復制開始,生命體會通過基因變異和自然選擇逐步演化出更加復雜的生命結構。在不斷的演化過程中,生命體會逐漸適應其所處的環境,提高生存能力。例如,在早期的生命體中,可能存在一些原始的代謝途徑,但在不斷的演化中,更加高效的代謝途徑會得到優先選擇,從而提高了生命體的代謝能力和生存適應性。同時,生命體可能會逐漸發展出更為復雜的細胞結構以適應不同的環境需求。此外,生命進化還受到一系列的外部因素的影響,包括能源、氣候、物理環境等,這些因素也會對生命進化方向產生影響。通過不斷的適應和演化,生命體最終演化成了多樣化的形態,從而提升了生命體在復雜環境中的適應性和生存能力。

1.2 智能初步產生:低級群體智能

人類在很不適應的環境中尚且無法生存,可以想象到起初無法控制自身運動方向的簡單生命,當被水流帶到陌生環境時,大部分個體將因為無法適應新的環境而死亡。而少量個體因為演化出的一些功能得以生存,最終演化的差異將不斷累積。而對于生命的整體來說,它們實際上是通過大量個體的犧牲來完成了群體的進化和對環境的適應。最終的結果是,存在著生命的自然環境的范圍不斷擴大,生命體的環境適應性也愈發的強。生命和環境就在這樣的循環中不斷演化[1]。

隨著生命體結構的逐漸完善和復雜,我們會發現,它們似乎不再像原來那樣只會簡單地復制自身,而是發展出了一些高級的功能,例如可以幫助自身移動和攝入營養物質的鞭毛。甚至最終隨著不同個體之間的相互吞噬,而組合形成了共生合作關系。實際上,此時的生命體已經初步具備了“智能”,但很明顯的是其“智能”的產生和進步完全得益于自然的篩選和群體中部分個體的變化及死亡。對比人類而言,它們的“智能”還弱到可以忽略。例如人在看到前面有危險,可以通過視覺提前感知,然后避開。但我們當前所假設的簡單生命體還只能通過群體去通過前方區域,然后以部分個體死亡為代價,使得剩余的個體在空間上避開危險區域而得以生存。

實際上,現在的我們都知道,避開危險區域的方法并非只能通過群體中部分個體的死亡這種低效的方式來實現,但簡單的微生物可不知道這些。它們只是按部就班地在環境的篩選下不斷演化,通過大量的復制、差異的積累,以及涌現來產生更加高級的功能[2]。其“智能”水平的提升速度在很長一段時間內都將沒有太大變化,并且這種進化方式也注定會因為在結構愈發復雜的同時差異累積速度相對不斷降低而出現“智能”提升的瓶頸。從生物考古學來看,地球演化史上確實也存在“無聊的十億年”,在漫長的時間里生命的形式都沒有出現太大的變化。其中一種對此的解釋是,僅僅通過個體基因突變和環境篩選的方式,已經很難讓復雜生命體快速積累出更具優勢的特征。

1.3 新的差異積累方式與感知能力的升級:個體智能水平強化

如何讓已經比較復雜的生命再一次提升“智能”水平提升的速度和上限呢?自然界的生命演化給出的其中一個答案是開發新的差異積累方式:將多細胞生命作為整體進行組合來積累差異(即有性生殖),而非從前僅僅通過單個個體的突變。但是,如果個體不具備遠距離的移動能力,那么有性生殖同樣無法實現更大差異的組合效果;即便演化出遠距離移動的運動能力,又非常有可能因為對環境的無法感知而在移動過程中誤入無法適應的環境而死亡。另外,不具備較強感知能力的遠距離移動,也會面臨難以遇上異性生殖對象的問題。

大自然的神奇之處很多時候也在于:在諸多的兩難困境中,生命依然演化出了解決問題的辦法。隨著神經細胞以及神經系統逐漸在演化中出現,并且結合新的差異積累方式,多細胞生物的感知能力和學習能力突飛猛進,上述的兩難問題也迎刃而解,生物演化又進入一個“智能”水平加速提升的階段。令人驚奇的是,這一幕也相當像我們人類在研發人工智能時因人工神經網絡而產生的進步。

1.4 神經系統的成熟:知識的產生

神經系統的強大之處在于,可以不以群體中個體死亡為代價來使得其他個體得到正確結果(例如避免死亡情況下要移動的方向),而是可以通過感知、記憶和學習讓個體得到正確的結果。如果我們把“在一種情境下,應當如何動作,才能得到某種結果?”這樣問題的答案叫作“知識”,那么擁有神經系統的生命已經發展出了學習、存儲、利用“知識”的能力。(此處是泛指的知識,并非局限于文字描述的知識。)

或許此時的神經系統學習到的更像是一種反射機制,用“知識”來描述可能會讓讀者覺得不適應,但實際上這里的“知識”描述的是輸入到輸出中間的處理過程,也類似于人工神經網絡術語中的“模型”,與用文字和語言表示的“知識”在本質上是相同的,即描述輸入與輸出中間的處理過程(當然,文字除此之外也可僅僅為記憶的媒介)。我們猜測,現今人們所擁有的有關默會知識的能力,或許就起源于最初神經系統演化過程中在環境中對知識的學習機制。

1.5 語言與符號系統大規模應用:更高效的知識傳遞與高度社會化

經過數億年的演化(真是漫長的時光),地球上已經有了非常多樣化的物種,高級的動物也都演化出了非常多樣的器官和系統(例如運動系統、神經系統、內分泌系統、循環系統、呼吸系統、消化系統、生殖系統等)。生命體內部運行著多個精妙的系統,同時適應外部環境需要通過個體犧牲來換取群體的學習能力的狀態在大多數情況下已經不再存在了,取而代之的是個體通過感知、學習和理解知識(顯性或者隱性)來躲避危險、面對和處理從未遇到過的問題。這時候高等動物的智能水平已經讓人嘆為觀止了,不僅擁有強大的感知能力、運動能力,還具備對事物的情緒反應、對事物的客觀價值有所分辨的能力,同時其神經系統已經能夠對非常復雜和龐大的知識進行表征。但我們更傾向于此時的情緒反應是源自環境干預以及自身比較簡單的身體激素調節,而非擁有像人類般細膩而豐富的情感;而其價值系統也類似于學習出的知識,不是社會性的價值決定,而是客觀性或者是生理性的價值分辨。

同時,即便其神經系統已經具備強大的表示能力,但不同個體之間的信息交流效率依然是比較低效的。除了屬于生物本能的反應,其余大部分知識和能力依然需要一代代的長時間帶領和教導才能積累和延續,并且起初這種知識傳遞的效率比起現在的人類而言要低很多。想想人類社會中要傳遞的知識有多少,再想想一只老虎在一生中所傳遞的知識就知道了。那人與老虎在這方面的差異是什么造成的呢?是語言。人類在進化的過程中產生了用符號去表示和記錄知識的習慣,進而形成了一整套語言體系,而這些語言承載了人類所積累的知識,越來越多并且越來越豐富。人與人的交流溝通也隨著語言系統的發展而增強,人的社會性也隨之進一步增強。總而言之,人類這一物種逐漸走向了高效知識傳遞、高度社會化、高度復雜化的方向。在“智能”的整體水平上也超越了其他所有的生物。

1.6 價值系統升級:高級群體智能與個體智能協同進化

生命總是在不斷演化,實際上人類所走的這條演化路線也具有很多困難和問題,其中一個重要問題是:在長時的決策要求、復雜的知識體系、復雜的社會關系下,個體通過理性和推理所能考慮的可能性空間將會變得無窮無盡,同時行動動作的唯一性和正確推理結果的唯一性與之具有矛盾。即如果面對問題時要盡可能充分利用個體已有知識得出可靠決策,那么便容易因為已有知識和信息過多而陷入推理過程無法得出結論和行動。而如果不充分利用已有知識,而僅從直覺和情緒反應或者單一的原則來得出結論,那么又會容易在環境變化時,因為沒有利用已有知識靈活改變而做出更多錯誤的選擇。

或許是為了平衡上述兩種矛盾,人類演化出了更為精妙的價值系統。在諸多可能中,人類可以根據自身的價值判斷來決定自己的行為。價值系統比純粹的邏輯推理更有彈性,擁有更大的行為選擇空間。例如塞翁失馬的例子。實際上,塞翁因為可以調整自身的價值判斷,使得他的選擇更多,既可以為之悲傷,也可以為之慶幸,這種機制在處理社會化的問題和自身情緒時是很有用的。一個善于體會和調整價值觀的人,總是能比固守某種觀點的人看到更多的可能性,同時也能比過分思考的人更早做出滿意的行動。人類彈性的價值系統為人類個體在社會中生存提供了支持,使得部分人類個體總能在社會中找到一個領域或方面,長時間地提升自身在這個領域的“智能”水平,同時得益于文字系統不斷將知識代代積累和傳遞。

2 智能理論的發展

按前文所述,人類是獨有的開發了復雜的語言并記錄了大量對世界認知的物種。而人類所能記錄的對世界的認識是從時間、空間規律開始的,這些規律蘊含了各種力量及其關系的存在。通常情況下,事實本身往往不會直接告訴我們什么是正確的什么是錯誤的,沒有明確的概念,量的分析是毫無意義的。然而,人們在處理各種客觀時空矛盾時,常常會不自覺地忽略了主觀價值的關涉問題,從而造成在涉及有人或模擬人參與的系統中或力不從心或南轅北轍,鑒于此,本節將從事實與價值結合的角度重新審視人類關于“智能”理論的發展:即自動化與智能化系統的基本規律。人類的智能不是從“我”開始的,而是從“我們”開始的,即一開始就是“群體智能”,所以是“我們”創造出了“我”的概念,也是人類的群體智能孕育出了更強的個體智能。

2.1 自動化存在的問題

傳統的自動化領域涉及老三論,即控制論、信息論和系統論。

1943年羅森勃呂特和維納的哲學論文《Behaviour, purpose and teleology》[3](行動、目的和目的論)是控制論萌芽的重要標志,奠定了控制論中反饋思想的雛形,該文的中心思想是:控制行為是一個從原因到目的之間的隨機試探和反復調節的曲折過程。控制論通過信息和反饋建立了工程技術與生命科學和社會科學之間的聯系??刂普撝械男畔⑤斎?、處理、輸出、反饋一般是以客觀事實性數據、模型、統計為基礎的,因而在科技、工程領域使用效果較好,而在涉及包含主觀價值的社會、經濟領域使用效果不佳。

1948年10月香農的論文《A Mathematical Theory ofCommunication》[4](通信的數學理論)成為現代信息論研究的開端。在該文中,香農給出了信息熵(以下簡稱為“熵”)的定義,這一定義可以用來推算傳遞經二進制編碼后的原信息所需的信道帶寬,熵度量的是消息中所含的信息量。實際上,信息熵的提出解決了對信息的量化度量問題,而對于(不同發出/接收者)信息質量的好壞還沒有度量。

1932年L·V·貝塔朗菲發表“抗體系統論”[5],提出了系統論的思想。目前,系統論運用完整性、集中性、等級結構、終極性、邏輯同構等概念,研究適用于一切綜合系統或子系統的模式、原則和規律,并力圖對其結構和功能進行數學描述。對于包含人的復雜系統的處理還很不理想。

總之,對于自動化領域的老三論(控制論、信息論和系統論)而言,缺乏價值反饋、價值度量、價值體現已成為其進一步發展的瓶頸和挑戰,為此,我們將嘗試在人機環境系統工程中建立新三論。

2.2 智能化存在的問題

一般而言,傳統的自動化系統的典型特征是具有相對確定性的輸入、處理、輸出和反饋,以保持整個系統的魯棒性、穩定性和可解釋性,而智能化系統的輸入、處理、輸出、反饋各環節相對不確定(但利己),人工智能水平則處于自動化與智能化兩者之間。

當前,智能化研究主要仍以人為本進行符號、連接、行為分析與模擬,取得了不少成績(如阿爾法系列產品),但也出現了許多困難和不足,還遠遠沒有達到人們的期望和要求,究其因,其核心仍試圖以還原論的思想破解智能的機理或應用,還沒有從根本上理解智能產生的機制原理及應用的規律。

與機器智能相較而言,人類的智能向來不是孤立的,而是人物環境交互產生的。真正的智能可以計算,但單純的計算是不能產生智能的,智能的基本邏輯是比較,而不是計算。

智能不但涉及科學、技術、數學等領域,而且涉及人文、藝術、社會等方面,準確地說,智能是復雜事物,包括西方性復雜與東方性復雜。智能里面包含著唯物和唯心,既有客觀事實又有主觀意識,既有機械慣性也有靈活辯證,既有因果必然還有比較自由,既有邏輯推理更有直覺感悟。把智能看成是數據、信息、知識、算法、算力等是危險的,真實的智能不但能夠學習、生產、使用、維護、升級這些事物,而且可以扭曲、異化、詭詐、變易這些概念或機制機理。

智能化不是信息化、數字化、自動化的簡單延伸、擴展,而是一種與后三者大不相同的新型范式,智能不僅要掌握已知的信息/學習已有的知識,更重要的是還要生成有價值的信息、知識及有效地使用協調這些信息和知識,是理性邏輯推理與感性超邏輯判斷的統一。

針對當前智能化研究的上述問題,我們嘗試提出結合東西方思維,從人類具身、離身、反身的態勢感知角度解決智能化建模難題。

2.3 西方還原理性與東方感性系統思想的融合

把智能看成邏輯,把智能看成計算,這兩個錯誤是制約智能理論發展的瓶頸和誤區。

世界是復雜的,復雜性的世界并不都是科學和計算,而是科學與非科學、理性與感性融合的人物環境系統,智能是自然與人工的結合,準確地說,依目前的數理、物理水平,通過編寫計算機程序是不可能實現人類水平的智能的,人工智能是不可能真正理解世界的,必須另辟蹊徑。我們嘗試根據東西方文明的特點及現有計算和認知領域成果,提出計算計模型,針對復雜、多域、動態的環境,研究人機混合下的態勢感知模型,探索人-機-環境對決策的影響;進一步構建基于理性和感性混合驅動的計算計模型,實現人機混合智能決策[6];完成智能領域的理論創新、模型創新、方法創新與平臺創新,為未來智能研究提供方法和理論基礎。愛因斯坦曾這樣描述邏輯與想象(感性)的差異:“Logic will get you from A to B,Imagination will take you everywhere”,其實,人最大的特點就是能根據特定情境把邏輯與想象、具象與抽象進行有目的的彌聚融合。這種靈活彈性的彌散聚合機制往往與任務情境緊密相關。

休謨之問是指休謨1711年在其名著《人性論》里面提出來的一個問題:從“是”(Being)中能否推出“應該”(Should)來,即從客觀事實里能否推出主觀價值[7]。這個問題在西方近代哲學史上占有重要地位,在他之后許多著名哲學家紛紛介入,但終未有效破解。在兩千多年前的東方,孟子在《告子上》一書中就說過:是非之心,智也[8]。智能的任務就是要打開科技與、或、非門的狹隘,比如大與、小與,大或、小或,大非、小非……大是(being)、大應(should)、小是(being)、小應(should)穿透各種非家族相似性的壁壘,用未來的想象(預期)和當前的感受(如同情、共感、同理心、信任等)影響智能領域的走勢。

智能系統中的算計就是人類沒有數學模型的計算,智能計算中的“與或非”邏輯,大家比較熟悉了,就不再贅述;算計中的邏輯不妨稱之為“是非應”,其中,“是”偏同化,“非”側順應,“應”為平衡,當遇到未知問題時,先用“是”,再用“非”,后用“應”。大是大非時,大是不動,先試小非,再試中非,若不行,大非不動,先試小是,再試中是,這些試的過程就是“中”的平衡?!皯本褪遣粩鄧L試、調整、平衡。以上就是計算與算計結合的新邏輯體系,算計邏輯把握價值情感方向,計算邏輯細化事實理性過程。智能走向未來,沒有新邏輯出現或許就會沒有靈魂。

智能的核心問題為“是不是”+“該不該”+“好不好”的混雜組合問題。其中,“是不是”屬于客觀事實性邏輯計算問題,“該不該”屬于主觀價值性判定算計問題,“好不好”屬于主客觀混合性決策計算計問題。當前大家思考智能大都處在做“是不是”(0、1)的邏輯可計算部分,對于主觀價值的可判定性及兩者的混合計算-算計(計算計)還未有好辦法解決。

西方現代物理學有兩大支柱理論。一是愛因斯坦的相對論,它從大尺度上解釋了宇宙自身的膨脹現象,為其提供了理論框架。二是量子力學,它從小尺度上為分子、原子,以及比原子更小的粒子(比如電子和夸克)的存在性提供了理論框架。量子力學是由許多科學家,包括普朗克、海森堡、波爾、薛定諤等人共同提出。但這兩個理論卻有一個共同之處,就是都是通過算計而產生計算體系,還有大家熟知的數學四次危機及其化解也是如此吧。

東方智慧既有數學的成分也有非數學的成分,東方智慧不是單純的智能計算,而是智能化,重點在“化”,即算計。算計是人類帶有動因的理性與感性的混合盤算,是已有邏輯形式與未知邏輯形式的融合籌劃。比如毛主席指揮打仗,在戰略(算計)上從不犯錯,不會在敵人(算計)選擇的時間、敵人選擇的地點,以敵人希望的方式開戰。

元是認知之始的元素。一元為being,多元為should,除了多元之外,還有變元,隨機應變的元。多元認知是如何形成一元認知的?即人們是如何把多種邏輯壓入一次邏輯推理過程中的呢?這是智能領域的研究關鍵,也是未來科幻需要破解的難題!隨之會衍生出這樣一些問題:人們是如何把多種態、勢壓入智能系統中的態、勢、感、知過程中的呢?人們是如何把多種科學事實計算壓入一次智能系統計算計過程中的呢?

在西方科技發展的歷史長河中,第一次數學危機稱為畢達哥拉斯悖論(信奉“萬物皆數”的信條,號稱任何線段長度都可表示為兩個自然數之比,畢達哥拉斯悖論是希帕索斯發現的,他發現了直角邊長為1的等腰直角三角形斜邊長度不是自然數之比);第二次數學危機稱為貝克萊悖論(1734年由愛爾蘭主教貝克萊提出:在牛頓和萊布尼茨求導數過程中,dx 既是0又不是0,這就是貝克萊悖論);第三次數學危機稱為羅素悖論(集合R本身既是R的元素,又不是 R的元素)。

這三次危機的一致性在于“是”與“不是”的悖論,與量子物理的“貓”一樣,與文學的“to be or not to be”相似,與東方思想中的“是非之心”相關,與經濟行為中的“A與非A”異曲同工?!笆恰迸c“不是”即為一元,其相互間的轉化即為變元,其衍生出的“應”即為多元。如A是一元,A轉化為B是變元,A應為B或C或D……為多元。邏輯壓縮、人與隱形系統、計算-算計(計算計)依然成為未來科幻領域的研究重點和難點。計算涉及事實性人機環境系統(事圖)問題,算計則更多涉及價值性人機環境系統(意圖)問題,而事實與價值常常會出現不一致甚至是矛盾,計算計就是各種事實、價值的混合性人機環境系統問題,而且不同粒度的計算計模型是不同的。如果說計算中含有貝葉斯(結論隨新數據的輸入而改變),那么算計就涉及錨定論(結論很難隨著新數據的輸入而改變),智能領域也許就是一個典型的科技與藝術的計算計案例。

算計是人類不借助機器的跨域多源異構系統的復雜“計算”過程。在某種意義或程度上,算計就是觀演一體化、“存算一體化”這兩個“神經形態”過程的交互平衡,觀(存)就是拉大尺度或顆粒的非實時top-down過程,演(算)就是小尺度細顆粒實時bottom-up過程。

從東方角度而言,人機混合智能是觀演同在的技藝術(藝術+技術)形式,它至少包含三層意思。第一層,人機混合必須是(人主)藝術的,但又不是真實藝術的,它是用(機器)技術語言再創造出的智能,它是藝術意念的技術化;第二層,創造出藝術性的目的,是要呈現智能的美;而這個智能的美,就蘊藏著人機智能的第三層意思:人機混合智能是人的藝術與機器技術的混合,它是觀演同在的技藝術。因而,人機混合智能在觀演關系中生成帶有主觀性、想象性的美,以及虛實相生、無中生有的真。

如何把算計嵌入多源異構計算的彌(散)聚(合)中去?如何實現不同顆粒度中(狀)態的積分、(趨)勢的微分、感(覺)的連續、知(覺)的離散呢?計算能夠解決不少“態”的可計算問題,而要真正解決“勢”的可判定問題則需要人類的算計。例如查爾斯·達爾文在用自然選擇闡述他的進化論時,根本就沒用到數學。同樣,當阿爾弗雷德·魏格納首次描述板塊漂移理論時,也只是用語言表述的。當然,索維爾所言“理解人類的局限性,是智慧的開端”不無道理,未來新型人機關系最重要的是重構與合作,即隨態/勢的變化而重構感/知、隨感/知的變化而重構態/勢,二者由單純被動的工具使用變為自主積極的合作關系。

數學本身就是一種虛實相間的元宇宙,點線面體都是非真實存在的虛擬概念,大家卻用它來近似描述物理世界。從數到圖(空間)、力(時間)、能(量)、信息(客觀)、智(能),數學模型與物理世界的關系,如同形式邏輯模型與真實世界事物的關系一樣,是理想符號關系對事實關系的描摹、刻畫,這些“非存在的有”表征主要為三類,一是孫悟空、圣誕老人等想象類(虛擬量),二是爺爺奶奶等逝去先人真實類(物理量),三是藝術處理后的諸葛亮、維特根斯坦等真實想象混合類(加工量)。

自然科學及數學工具本質上是一種主體懸置的態勢感知體系,人文藝術常常是一種主體高度參與的態勢感知體系,博弈智能涉及了這兩方面,由于主體的實時參與,所以更側重人文藝術方面。

彭羅斯從歌德爾不完備定理發展了自己的理論,認為人腦有超出公理和正式系統的能力。他在《皇帝新腦》中提出,大腦有某種不依賴于計算法則的額外功能,這是一種非計算過程,不受計算法則驅動;而算法卻是大部分物理學的基本屬性,計算機必須受計算法則的驅動。對于非計算過程,量子波在某個位置的坍塌,決定了位置的隨機選擇。波函數塌縮的隨機性,不受算法的限制。

人腦與電腦的根本差別,可能是量子力學不確定性和復雜非線性系統的混沌作用共同造成的。人腦包含了非確定性的自然形成的神經網絡系統,具有電腦不具備的“直覺”,正是這種系統的“模糊”處理能力和效率極高的表現。而傳統的圖靈機則是確定性的串行處理系統,雖然也可以模擬這樣的“模糊”處理,但是效率太低下了。而正在研究中的量子計算機和計算機神經網絡系統才真正有希望解決這樣的問題,達到人腦的能力。

彭羅斯認為,客觀還原所代表的既不是隨機,也不是大部分物理所依賴的算法過程,而是非計算的,受時空幾何基本層面的影響,在此之上產生了計算和意識。非存在的有表現為三類,一是孫悟空、圣誕老人等想象類,二是爺爺奶奶等逝去先人真實類,三是藝術加工后的諸葛亮、維特根斯坦等真實想象混合類。

愛因斯坦所說的“時間和空間是人們認知的一種錯覺”,即時間和空間只是人們對于事物發展順序和物體間相互關系的一種抽象概念,在人們從日常經驗總結出的觀念中,時間和空間是絕對的、可度量的,而相對論揭示出時空的相對性和二者間的聯系。我們認為不變的時間和空間都會隨物體的運動、物質能量的分布而變化。

在態勢感知中,態涉及物理、心理、管理等參數狀態(主態、客態),勢是有效態的變化方向,感是接受的各種數據刺激,知是建立起的各種聯系。用態勢的轉化比值“態/勢”確定有效態的大小,有效態變化的速度很重要。態勢感知涉及計算-算計系統。事實態不能產生勢,價值態能夠產生勢。如何快速識別出或嘗試出價值態將變得十分關鍵,價值態有經驗方面的,有情感方面的,有測試方面的,也有對環境認知方面的。

數理的物理域、心理的認知域、管理的信息域、情理的社會域中的時間空間同樣會發生各種變化,我們不妨稱之為基于事實-價值體系的虛擬-現實時空態勢感知維度。共分為現實時空的xyzt+虛擬時空的xyzt+事實時空xzyt+價值時空xyzt,抑或它們之間的各種組合及參照系變換(如虛擬價值時空、現實事實時空、虛擬事實時空、現實價值時空)。

不同維度里的態、勢、感、知不盡相同,所以常常會發生虛擬時空維度里的態對不準現實時空維度的勢(如想象情景與實踐情境不一致),事實時空維度里的態對不準價值時空維度的勢(如物理場景與任務意圖不一致),所以常常出現各種有“態”無“勢”現象。

智能是在人與物、環境的交互中逐步形成的,一方面,我們的認知總是在與這個世界發生著融合;另一方面,被誤用的計算卻也可能會影響我們的認知。1968年圖靈獎獲得者理查德·哈明就曾一語中的地認識到:“計算的目的不在于數據,而在于洞察事物?!边@里的洞察就包含著對未來的預測與算計。人類的洞察機制不是一維的具身認知,還常常涉及二維的離身認知、三維(以上)的反身認知及其混合認知機理。

3 ChatGPT的智能水平探討

眾所周知,ChatGPT是基于GPT-3模型的聊天機器人。GPT-3是OpenAI公司開發的一種自然語言處理模型,具有極強的語言生成能力和上下文感知能力。使用GPT-3模型作為其核心技術的ChatGPT,可以完成智能對話、問答等任務。可是它相比于從前的自然語言對話系統,究竟發生了什么變化?以至于如今在市面上備受歡迎,并且被諸多學者和各界人士給予厚望,認為其能夠改變世界。

3.1 人類知識的模型化

ChatGPT從技術的角度講,其實就是一個具有龐大參數的深度神經網絡模型[9]。但是其強大之處在于實現了將人類記錄在文字中的海量知識通過訓練的方式輸入了它的模型網絡。原本這些文字記錄本身就存在,并且我們可以通過搜索引擎進行高效檢索,那為什么還要對知識進行模型化呢?

因為人類追求的人工智能是通用智能體,而通用智能體就勢必需要面臨它不曾見過的情景,即需要具備一定的泛化能力。但是記憶與檢索的方式無法實現泛化,而神經網絡模型卻可以。所以當我們問ChatGPT它從未見過(即與其訓練數據不同)的問題時,它依然能夠回答得很好,這就得益于其強大的泛化能力。甚至有研究人員經過測試,發現ChatGPT具備了一定的推理能力和認知能力,這些從大量數據訓練中所涌現出的能力著實讓人們吃了一驚[10]。

這些新能力在諸如客服系統、智能搜索引擎、自然語言翻譯、虛擬數字人、智能機器人……方面都會有巨大的應用潛力,毫無疑問或多或少會改變我們的生活。但同時也應該認識到,對比自然智能的演化歷程,ChatGPT大模型的訓練方式決定了它不會像自然智能那樣各方面的能力都平衡且豐富,而是僅僅在對話領域有較好的效果[11]。并且也因為采用數據訓練,而非生物體親身經歷世界那樣,所以它也無法分辨真實和虛假,一切全由數據和隨機因素影響,但人們卻會因為它回答的貌似合理而覺得可靠,這種人機信任的狀態在某種程度上是非常不可靠的。

3.2 ChatGPT與自然智能的演化路徑

在前文中,我們梳理了自然智能的演化過程,那么可以對比ChatGPT的產生與自然智能的演化過程有何不同。首先考察ChatGPT能否自我復制。雖然ChatGPT因為本質是運行在計算機的程序,所以其復制相當的容易,但其復制的過程本身是受到人類控制的,所以無法達成“自我復制”這個條件,也無法達成低級群體智能的演化方式(即通過自我復制過程中差異積累和部分個體死亡的方式提升群體智能水平)。值得一提的是,從ChatGPT的能力來看,其在軟件層面是完全能實現“自我復制”的,因為一個程序的復制說到底就是運行一些代碼進行數據拷貝的事情,這正是計算機和機器程序所擅長的。

智能體的演化需要差異的積累與環境的反饋,而自然智能還需要具備對自然環境感知能力的提升,同時自然智能是先有對自然環境的感知能力,進而才發展出語言和符號、高級的價值系統。然而,ChatGPT一開始就是由人類所產生的文本數據進行訓練的,其存儲于模型的知識并非來自對自然環境的感知。雖然人類很多時候學習課本知識時也是如此,但是人類能夠因為長時間與自然環境進行交互,所以從課本中學習的知識也能夠在與環境交互的過程中“重新”進行學習和調整??偟膩碚f,ChatGPT目前只能與人的文字進行交互,而無法與自然環境進行交互。也就是說,ChatGPT的智能水平高本質上是因為充分吸收了人類語言與符號系統大規模應用的成果,也即吸收了人類的“智能資產”。這對于機器來說,從理論和事實上都是“智能”水平快速提升的最優解。甚至ChatGPT發展出高級的價值系統也不是不可能,但應當也只能停留在文字和語言層面。人類同時具備兩種能力。能力一:從與自然環境的交互中抽象出符號化知識的能力。能力二:從符號化知識中學習到自然環境特征的能力。我們可以認為ChatGPT具備能力二并且相當強大,但它不具備對自然環境的直觀感知,也無法從與自然環境的交互中總結知識,所以當前其更像是“高度智能化的人類知識庫”。

如果類似于ChatGPT的智能體要朝著更通用的方向發展,勢必要突破上述所說的能力一??梢圆聹y,通用人工智能的演化相比于自然智能的演化過程,一個關鍵的不同將會在于:自然智能先演化出能力一,再演化出能力二;而通用人工智能將會先演化出能力二(當前已經實現),再演化出能力一(當前還未實現)。

3.3 不足:缺乏對事實與價值的理解與判斷

ChatGPT是一種基于自然語言處理技術的聊天機器人,它的回答是基于對大量文本數據的學習和訓練得出的。雖然ChatGPT可以生成看似合理的回答,但它缺乏對價值和事實的判斷能力。究其原因,正如上文所說,ChatGPT不具備在與自然環境的交互中抽象出符號化知識的能力。雖然其得益于訓練數據的龐大以及基于人類反饋的調整而能夠表現出一定的判斷力,但在能力一上的缺陷還是會導致缺乏對事實的理解與判斷能力。ChatGPT并沒有真正理解問題或回答中所涉及的概念和知識與對應的實體關系。這是僅僅依靠能力二必定會面臨的局限。因此,在使用ChatGPT時需要謹慎,特別是在涉及重要決策或事實準確性要求較高的情況下,最好還是尋求專業人士或可靠來源的建議。

觀察當前學界和業界熱點,可以發現關于能力二的研究正是熱點,正有非常多的研究點在如火如荼地進行(例如模型性能調優、輕量化部署等),而關于能力一的研究還暫且沒有眉目。我們認為,人工智能系統對事實和價值在理解與判斷上的問題,需要等到能力一相關研究突破才有可能解決。

3.4 軍事應用潛力

ChatGPT的出現對軍事智能技術的發展可能會產生積極影響。由于ChatGPT具有強大的自然語言處理能力,因此可以用于分析和理解大量的軍事情報數據,從而幫助軍方做出更明智的決策。此外,ChatGPT還可以用于開發智能對話系統,使得士兵和指揮官之間的溝通更加高效和準確。但是,也需要注意到ChatGPT存在一些局限性,例如無法分辨真實和虛假信息等問題。因此,在應用時需要謹慎評估其可靠性和適用性。

ChatGPT還可以用于開發虛擬訓練系統,幫助士兵和指揮官進行模擬訓練和實戰演練。這種虛擬訓練系統可以提高軍隊的戰斗力和應對能力,同時也可以減少實際訓練的成本和風險。另外,ChatGPT還可以用于開發智能機器人,用于執行一些危險或重復性工作,從而減輕士兵的負擔,甚至也有可能用于實現能獨立作戰的機器人??傊?,ChatGPT的出現為軍事智能的發展提供了非常多新的思路和可能性。

ChatGPT能為軍事智能帶來新的發展機會是肯定的,因其在諸多方面能媲美人類的水平從而具有很高的下限,但考慮到當前類似的大模型訓練方式還沒有達到其能發揮出能力的上限,所以這類大模型經過軍事相關的專門優化并應用之后能提升多少戰力,以及這種提升能拉開與其他軍事方的實力差距,這些都還是未知的。如果這種人工智能在未來的戰爭中能發揮至關重要的作用,那我們應當謹防技術和應用上的落后,以及謹防此類技術帶來軍事上某方的強權。

3.5 發展風險

通用人工智能的實現如果需要上述兩種能力,那我們已經在其中一種能力上基本達到要求了,但同時也需要思考可能會帶來的風險。只實現了能力二意味著人工智能還只能與人類進行交互而無法獨立地與自然環境進行交互,所以帶來的風險也主要體現為對人的影響(例如對價值觀、隱私、教育等的影響)[12]。同時,當人類想要控制它的時候,還是比較可控的。并且其作為人的幫手時,也有非常多的益處,可以提升人類個體的工作效率和學習效率。所以我們認為,只具備能力二的人工智能系統對人類社會而言風險性還不算太高,而能力一因為交互過程的不可控,面臨的風險將會更大。

自然智能在演化過程中并非一帆風順,而是經歷了非常多的腥風血雨,有藍藻大量繁殖導致大氧化事件而造成大量生物滅絕,有生物之間的弱肉強食,有種群間與種群內的分裂與戰爭……這些過程的發生,都是在生命與自然環境的交互中產生的。我們現在通過歷史已經知道了這些,但在生命與環境的交互過程中,有非常多的事物是人力不可控的,我們無法預料如果機器能夠與環境獨立進行交互,究竟會發生什么。曾經人類所犯的錯誤(例如混亂、戰爭與屠殺)會不會在機器學到能力一時重新再犯一遍呢?人性中的弱點會不會在機器中再次復現呢?我們認為這些情況都是當機器具備能力一時才有可能出現的,但也應當提前思考?;蛟S因為人工智能在演化過程中會先具備能力二,從而能夠從人類歷史中學習,所以不會像人類那樣再犯錯;也可能在具備能力一之后產生人類無法預料的情況。

4 總結

綜上所述,本文對比自然智能的演化過程,對人工智能的發展和ChatGPT的效果進行了全面分析,并提出了當前智能化理論的不足;突出強調了提高人工智能通用性的重要性和人工智能的長遠發展方向。文章還探討了新興的應用領域和對世界的潛在影響。

展望未來,很明顯,人工智能將繼續在我們的生活中扮演越來越重要的角色。隨著技術的進步,我們可以期待看到更復雜的人工智能系統,它們能夠處理復雜的任務,并以更高的準確性做出決策。然而,也有人擔心人工智能的倫理影響,特別是在隱私和安全等領域。因此,研究人員和政策制定者必須共同努力,確保以負責任和道德的方式開發人工智能。

總的來說,盡管仍有許多挑戰需要解決,但人工智能的未來看起來很有希望。隨著對研究和開發的持續投資,我們期待在未來幾年看到這一領域更多令人興奮的突破。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28641

    瀏覽量

    208397
  • 人工智能
    +關注

    關注

    1796

    文章

    47666

    瀏覽量

    240272
  • 聊天機器人
    +關注

    關注

    0

    文章

    343

    瀏覽量

    12368
  • ChatGPT
    +關注

    關注

    29

    文章

    1568

    瀏覽量

    8055

原文標題:從計算到人類知識:ChatGPT與智能演化

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發領域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
    發表于 03-28 23:41

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    ChatGPT“對話”的過程中,人們發現它的“智慧程度”遠超其他的人工智能機器人。除了聊天,ChatGPT被網友們用來寫文案、翻譯文本、為代碼糾錯,甚至用來編寫代碼。 憑借出色的表現
    發表于 03-03 14:28

    ChatGPT系統開發AI人功智能方案

    。ChatGPT是一個由OpenAI開發的人工智能語言模型,可以實現自然語言處理、對話生成等功能。要開發一個類似ChatGPT的人工智能系統
    發表于 05-18 10:16

    AI 人工智能的未來在哪?

    人工智能、AI智能大模型已經孵化;繁衍過程將突飛猛進,ChatGPT已經上線。 世界首富馬斯克認為AI對人類是一種威脅;谷歌前CEO施密特認為AI和機器學習對人類有很大益處。 每個國家
    發表于 06-27 10:48

    利用PLD實現智能演化計算

    演化計算是一種通過模擬的自然界的生物演化過程搜索最優解的方法,主要包括遺傳算法(CA)、演化策略(ES)、演化規劃(EP)等。
    發表于 06-26 17:43 ?24次下載

    變分水平集的圖像分割

    演化過程中需重新初始化的難題。通過對Li模型的分析,提出了一個新的變分水平集的分割模型。該模型通過在能量泛函中加入一個較簡單的內部約束能量,同樣可以實現水平演化過程中的無需重新初始
    發表于 02-28 15:12 ?1次下載

    基于Logit動態的交通方式選擇演化博弈模型

    。以京滬起訖點(corgin- destination,OD)點對間的高鐵、民航行程時耗與票價作為參照基準,將收益函數進行時間均一化轉換,設定兩種高鐵提速情形,并對其價值收益進行對比分析?;跀抵捣抡?b class='flag-5'>探討出行者“空鐵抉擇”的動態演化過程以及提
    發表于 04-15 10:36 ?10次下載
    基于Logit動態的交通方式選擇<b class='flag-5'>演化</b>博弈模型

    ChatGPT智能投顧領域的應用

    ,關于其實現的探討已有不少。對其在具體場景中的應用探討不多,本文將探討ChatGPT智能投顧領域應用,包括其帶來的變革以及潛在問題。
    發表于 02-14 09:51 ?2次下載
    <b class='flag-5'>ChatGPT</b>在<b class='flag-5'>智能</b>投顧領域的應用

    周鴻祎:ChatGPT已達大學生水平 ChatGPT水平夠高嗎?

    周鴻祎:ChatGPT已達大學生水平 ChatGPT水平夠高嗎? 在一次采訪中,360集團創始人周鴻祎表示ChatGPT是真正的人工
    的頭像 發表于 02-20 16:27 ?3875次閱讀

    ChatGPT自然語言處理中的局限性和挑戰

    隨著人工智能技術的不斷發展,自然語言處理已經成為人工智能領域中備受矚目的重要研究方向。ChatGPT作為自然語言處理技術中的一種,已經在
    的頭像 發表于 04-18 16:25 ?1585次閱讀

    ChatGPT是什么?ChatGPT寫代碼的原理你知道嗎

    自己的智能水平,提供更加準確和有用的回答和服務。 ChatGPT寫代碼的原理 ChatGPT是一種基于深度學習模型的自然語言處理技術,其主要
    的頭像 發表于 06-04 17:01 ?3284次閱讀

    ChatGPT智能管家”,智能家居新時代來了?

    ChatGPT是美國人工智能研究實驗室OpenAI新推出的一種人工智能技術驅動的自然語言處理工具,使用了Transformer神經網絡架構,Chat
    的頭像 發表于 06-21 10:03 ?1070次閱讀
    “<b class='flag-5'>ChatGPT</b><b class='flag-5'>智能</b>管家”,<b class='flag-5'>智能</b>家居新時代來了?

    ChatGPT:怎樣打造智能客服體驗的重要工具?

    ChatGPT作為智能對話生成模型,可以幫助打造智能客服體驗的重要工具。以下是一些方法和步驟:1.數據收集和準備:收集和整理與客服相關的數據,包括常見問題、回答示例、客戶對話記錄等。這將用于訓練
    的頭像 發表于 11-01 11:12 ?221次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造<b class='flag-5'>智能</b>客服體驗的重要工具?

    chatGPT和ai有什么區別 ChatGPT的發展過程

    ChatGPT 是一種特定類型的 AI 應用,專注于通過自然語言與用戶進行對話和問答。AI 則是一個更廣泛的概念,包括多種技術和方法,用于模擬人類智能和解決各種問題。
    的頭像 發表于 09-01 16:03 ?1.6w次閱讀

    ChatGPT 與人工智能的未來發展

    ChatGPT是人工智能領域的一個重要里程碑,它代表了自然語言處理(NLP)技術的最新進展。ChatGPT是由人工智能研究實驗室OpenAI
    的頭像 發表于 10-25 16:30 ?617次閱讀
    百家乐论坛白菜| 大发888官方 黄埔网| 定制百家乐官网桌子| 百家乐官网破解的方法| 大发888登不上| 电投百家乐网站| 百家乐澳门路规则| 皇冠网怎么注册| 真人百家乐视频赌博| 香港百家乐官网六合彩| 大发888娱乐大发体育| 伟博百家乐现金网| 网上百家乐官网正规代理| 明升网站| 百家乐麻将牌| 博彩网百家乐中和局| 百家乐官网永利娱乐网| 苍南县| 太阳城| 百家乐开户就送现金| 伯爵百家乐官网娱乐平台| 胶南市| 大发888 m摩卡游戏| 玩百家乐必赢的心法| 24山向中那个向最好| 百家乐官网游戏软件出售| 明升88备用| 全迅网百家乐的玩法技巧和规则 | 威尼斯人娱乐场下载| 百家乐太阳城娱乐城| 大众百家乐官网的玩法技巧和规则| 百家乐官网下注的规律| E世博开户| 威尼斯人娱乐城澳门赌场 | 百家乐官网庄89| 百家乐外挂| 百合百家乐的玩法技巧和规则| 百家乐连跳规律| 鑫鼎百家乐官网的玩法技巧和规则| 百家乐官网视频台球游戏| 鸿胜娱乐城|