本文共1668字
當前的生成式人工智慧(Generative AI)似乎可以理解人們說的話,並對詢問提供非常人性化的答案,還能識別圖像中的事物以及根據命令產生新圖像。但即使像OpenAI o1這類最新型大型語言模型(LLM),也無法從本質上理解某件事是否屬實。它們仍然捏造一些東西,且其做決定的方式大致上仍不透明。
所幸,結合神經AI與符號AI的神經符號人工智慧(neurosymbolic AI)可以克服這些限制。倡導者說,它融合了當前LLM的優勢與符號方法的可解釋性和可靠性,而且可能是未來實現通用人工智慧(AGI)的途徑。
財星雜誌報導,有「優秀老式人工智慧」之稱的符號AI,是一種基於形式邏輯和規則以及人類可讀概念表示的方法,在1950年代開始興起,但從1960年代開始佔據主導地位,直到1990年代走入死胡同。
符號AI協助製造出西洋棋電腦,在IBM的深藍(Deep Blue)超級電腦於1997年擊敗世界西洋棋冠軍卡斯帕洛夫(Garry Kasparov)時達到巔峰。符號AI也是第一部聊天機器人和風行於1980年代「專家系統」的幕後推手。它是一種由上而下的方法,電腦被灌入一組由人類編寫的規則,然後必須學習如何將這些規則應用於特定的範例或情況。
另一方面,神經方法可以訓練類腦神經網絡來識別語言和圖像,並使用統計數據來預測事物。透過由下而上的方式學習,它在訓練時接受大量範例,並從這些範例中的模式推斷出規則。
神經方法在1950年代初試啼聲,在1980年代曾短暫捲土重來,然後經歷漫長的冬天,直到2010年代藉由一系列重大突破再度起飛。約莫也是在此時,這個方法被重新命名為「深度學習」(deep learning),意指所使用的多層神經網絡具有「深度」。
近年來深度學習已被推上神壇,特別是因為它應用在為當前生成式AI提供動力的LLM上。但這類LLM經常編造故事,因為它們無法真正理解概念或進行邏輯推理,甚至連其開發人員也不完全理解它們是如何得出結論的。
這使得生成式AI太不值得許多用戶的信任,尤其是企業和政府。如果AI要進化成某種人類等級或超人類的智慧─也就是俗稱的「通用人工智慧」(AGI)和「人工超級智慧」(ASI)概念,缺乏可靠性可能會是一大阻礙。
市場分析業者顧能公司(Gartner)的生成式AI資源中心主管Pieter den Hamer表示:「還有進步的空間,但本質上這種方法遲早會走進死胡同。」
為解決上述缺陷,神經符號人工智慧(neurosymbolic AI)的想法應運而生,顧名思義,它將神經方法和符號方法結合在一起,以使其相輔相成。
套用諾貝爾經濟學獎得主康納曼(Daniel Kahneman)的名著《快思慢想》(Thinking, Fast and Slow)的理論,人類的思維有兩種系統,系統1是快速、直覺的思維,系統2是慢速、理性的思維,而像LLM這類神經網絡在系統1方面非常擅長,但系統2的思維可能需要符號AI相助。
顧能的Pieter den Hamer表示:「神經符號人工智慧似乎是未來某個時候實現通用人工智慧的必要步驟之一,因為我們需要比現在更好的推理和更可靠的智慧。」
IBM表示,它將神經符號人工智慧視為「實現通用人工智慧的途徑」,並一直在嘗試將其用於為與圖像有關的查詢提供合理的答案。Google今年稍早已演示其新AlphaProof和AlphaGeometry 2系統的實力,它們在解決2024國際數學奧林匹克競賽題目時達銀牌標準,而這些都是神經語言模型與符號演繹引擎攜手合作的成果。
Pieter den Hamer說,對於AI應用受嚴格監管的產業以及「人們不想依賴透明度差或不靠譜AI」的產業來說,神經符號AI帶來了不小希望。神經符號AI公司Unlikely AI的創辦人兼執行長William Tunstall-Pedoe說:「神經符號系統可以達到100%的精確度,這意味著能夠完全相信它們的答案很準確,而且可以完全查核。」William Tunstall-Pedoe是亞馬遜Alexa虛擬助理的主要研發者。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言