Categories 思想教育最新文章

陳鳴諍/人工智能對學習與理解的啟發

(來源:The US Sun

無可否認,人工智能所產生出來的成品有可能與人類的成品並無二致,甚至可能更好。這似乎能驗證,人類的學習模式與解決問題的方式確實是以既定已知的方式運作。然而,在某些方面,人工智能所表現出來的不盡人意,或許還無法達到人類智能的水平。這表示,目前人工智能發展還有許多技術障礙有待突破。排除技術發展上的限制,這也可以說明,我們還未徹底掌握到人類學習的某些模式與原理,我們還未完全掌握「理解」的本質。事實上,人類的「理解」能力遠比一些心理學家所設想的來得複雜。


【文/陳鳴諍】

二〇二三年被稱為人工智能元年,ChatGPT的出現,讓生成式人工智能(Generative Artificial Intelligence)不僅成為一個熱搜詞,而且也代表人工智能正式進入到人類的生活之中。無論是在工作、學習、生活管理等方面,ChatGPT都帶來了極大的便利性。這種便利性帶來了積極的,也帶來了消極的影響。ChatGPT的出現,也在很大程度上改變了整個教育生態與教學現場。

教育的主體是學生,而核心是學習(learning)。但是,我們已經分不清楚,到底是學生正在學習?還是AI機器正在學習?更重要的是,我們甚至分不清學生是否真的理解了其所學的知識內容。

在傳統的說法,學習是一種心智活動,透過增強特定的模式來完成特定的任務或目的,解決問題(problem solving)。無論是我們在學校所學習的知識,或者是在日常生活中習得的技能;無論是嬰兒小孩,還是成人老者,都是透過習得的模式,來應付與解決自己所遭遇到的難題。從學習到解決問題的過程,我們可以判斷一個人是否達到了所謂的「理解(understanding)」。

認知科學家與心理學家對人類的「理解」能力有一套特定的解釋。他們嘗試透過實證研究的方式一窺「理解」的本質,找出人類心智的認知模式與學習的基本原理。同時,電腦科學家藉此嘗試模仿人學的認知與學習模式,建立一套機器的學習模式。我們很難去斷定,無論是從微觀層面到宏觀層面,人類的學習機制是否都已經被掌握得一清二楚了?同時,已知的部份是否能夠嵌入到人工智能的技術發展中?

(來源:Corbis/The Independent

我們可以進行一種跨學科領域的方法論思考,把人類學習(human learning)與機器學習(machine learning)做個類比與反思,一如早期的實證研究裡,心理學家經常將人類與其他動物做比較,以反思人類心智的運作模式。

爾後認知科學的發展,也採取類似的進路研究人類與動物。透過對動物的研究,人們不僅瞭解到人類心智是獨一無二的,也更瞭解到人類的學習與動物之間的異同處。電腦科學家嘗試將這些研究成果運用在人工智能的技術發展上。我們不止可以透人工智能促進自身學習,也能反過來更瞭解人類學習的本質,一如我們在動物研究上所獲得的收獲一樣。

這種跨域的研究確實促進了我們對「學習」與「理解」有更深一層的認識。從微觀的層面而言,學習活動涉及了許多意識無法覺察到的機制,包括生理結構與神經元網路連結層次的運作。從我們的感官開始接收到一個物體的刺激,到最後可以確切地判斷地該物體,整個過程包含了不同神經元網路的連結傳導。這一模型後來發展成人工智能中一項很重要的技術——深度學習(deep learning),讓一台機器能夠學會從龐大的資訊量中做初步的預測、判斷與修正,達到一種自我學習的能力。

儘管機器可以單純地吸收龐大資料而不知疲倦,並從中預測可能的結果。但是,這些龐大的資料是完全未經過任何篩選的,它無可避免地包含許多存疑的內容。《科學人》(Scientific American)的一篇報導就指出,這樣的科學技術引發了不少令人擔憂的後果。

(來源:Getty Images/Forbes

研究人員根據特定條件要求生成式人工智慧(例如:ChatGPT與Alpaca)寫一封推薦信,發現信涵內容會包含有關性別的刻板印象(stereotype)與偏見(bias)的字眼。如果信涵推薦的是一名男性,內容會出現諸如「專家」、「思考者」等詞匯;如果信涵推薦的是一名女性,則內容會出現諸如「美麗」、「優雅」等的詞匯。這樣的內容顯然是承接了人類社會一些既有的偏見。這樣的偏見不僅出現在對性別的描述,同樣也出現在判定一個人的族群、文化背景、社會與經濟地位等等。

換言之,人工智能如同人類一樣,有可能存在著偏見,而且它會複製人類的偏見而不自覺。雖然機器能夠接受大量訓練而不會覺得疲倦,但是如同人類一樣,機器的學習也需要有一個監督與回饋,否則它無法判定給出的結果是否是正確的。這也是為什麼,有些情況下ChatGPT會給出一些謊謬的解答,而且是一般人不會犯的錯誤。

從宏觀的層面而言,學習活動也涉及我們能意識到的內容及其處理方式。例如,在上個世紀,著名心理學家桑戴克(Edward Thorndike,1874—1949)透過一系列的實證研究,最後歸納出學習的三個基本定律:

一、練習律(Law of Exercise):學習行為是透過刺激與反應的聯結方式而形成,聯結的強度會隨著練習的次數而增加;

二、效果律(Law of Effect):只有當效果令人滿意時,相應行為聯結出現的機率才會隨之增加;反之,該行為聯結重覆出現的機率則會遞減;

三、準備律(Law of Readiness):任何學習都必須在身心狀態準備就緒的情況下,才會產生好的學習效果,反之則不然。

(來源:Corbis/National Public Radio

桑戴克的學習定律不僅適用於動物的實證研究,也適用於解釋人類的學習。儘管並不是所有人都認同桑戴克的理論,甚至認為它有不足的地方。如果將這三個定律運用在人類的學習上,基本上是非常符合現實的。當一個人習得某個知識或技能,其過程都離不開這三個基本定律。

桑戴克的理論或許可以用來解釋人與其他動物的學習活動。去反省生成式人工智能的學習方式是否也遵循相同的方式,則又是另一個問題。假設你詢問ChatGPT是如何學習的,它會告訴我們,它是透過處理大量各式各樣的資料,反覆訓練自己預測下一個字或詞的能力,以達致理解。換言之,對ChatGPT而言,所謂的「理解」就是「成功預測」一組文字的排列。

就此而言,機器的學習方式似乎與桑戴克所提出的學習模式有相同的地方,也有不同的地方。智能不是天生的,而是需要後天的培養與訓練。人工智能是一套模仿人類學習與思考方式的內建認知系統(它可以是針對特定學習目標的認知系統,也可以是一般意義下的認知系統),它也需要透過後天的訓練,需要輸入許多資料,不斷獲得回饋,才能很好地完成所給予的任務。

我們可以從機器學習的例子看到類似於人類學習的方式。學習的目的是為了達至理解,只有不斷地練習,並且產生既定的成效時,理解才有可能會發生。換言之,機器的學習也符合桑戴克的練習律與效果律。在練習的效率上,機器的表現確實是比人類好太多,因為機器不受制於生理與心理條件,能夠不分晝夜地在進行訓練,永遠不會感覺疲倦,也不需要休息。

有些心理學家會把「理解」界定為一種初階簡單的活動,相對於分析(analysing)與創造(creating)等高階複雜的心智活動(例如:班傑明·布魯姆Benjamin Bloom),但是這樣的劃分是相當粗糙與混亂的。事實上,一些心理學家與哲學家也指出,「理解」可以是一種遠比我們想像中來得複雜的心智活動。如果理解僅僅是一種初階簡單的心智活動,那麼人工智能必然擁有理解能力。但是,我們從一些例子看到,既使人工智能可以完成分析與創造,我們依然懷疑它是否真的理解了?

(來源:Eric Griffith/PCMag

以ChatGPT為例,它的學習必須依靠大量的文本資料,以預測下一個最有可能出現的詞或句子是什麼。這若不是與現實世界是完全阻隔的,至少也沒有直接關連到現實世界。相反的,人類的學習也是汲取資訊,但會帶有脈絡(context),對照現實世界的狀況。人們對這種脈絡與現實世界的關係有不同的稱呼,有人稱之為文化(culture),亦有人稱之為價值觀(value)。

人類心智特殊的地方在於,他能夠理解他人的心靈狀態,包括情緒、欲望、信念等等,這種解釋人心的能力被稱為「心智理論」(Theory of Mind)。這種能力奠基於複雜的機制,包括行為、表情與肢體語言等的反應。在日常生活中,我們不僅會將這種能力用於理解他人的想法,也會用來詮釋一些動物的心智狀態,儘管這樣的詮釋是有爭議的。毫無疑問的,人類擁有「理解」的能力,但動物是否也具有相同的「理解」能力?動物是否也具備這種心智理論的能力,也是科學家長期關注的主題之一。例如,許多靈長類的動物都被認為擁有心智理論的能力,至少能夠理解同類物種的情緒。

那麼,人工智能是否也擁有相同的心智理論能力,解讀我們的各種心靈狀態?顯然,生成式人工智能是不具有和人類一樣的心智理論能力。它是根據資料數據的分析,來進行預測,而無法直接解讀人類的心理狀態。從這個角度而言,現有的人工智能遠遠還稱不上擁有「理解」的能力。

無可否認,人工智能所產生出來的成品有可能與人類的成品並無二致,甚至可能更好。這似乎能驗證,人類的學習模式與解決問題的方式確實是以既定已知的方式運作。然而,在某些方面,人工智能所表現出來的不盡人意,或許還無法達到人類智能的水平。這表示,目前人工智能發展還有許多技術障礙有待突破。排除技術發展上的限制,這也可以說明,我們還未徹底掌握到人類學習的某些模式與原理,我們還未完全掌握「理解」的本質。事實上,人類的「理解」能力遠比一些心理學家所設想的來得複雜。

本文內容係作者個人觀點,不代表當代評論立場。

喜歡這篇文章請按贊和追踪當代評論臉書專頁,給予我們支持與鼓勵!

回應