180 likes | 242 Views
第二十六章 哲學基礎. 26.1 大哉問 26.2 推論與認知的基礎 26.4 企圖和自覺. 26.1 大哉問. 有時候這些問題讓哲學家和 AI 研究人員在激昂的爭論中各據立場。更常發生的是哲學家彼此之間的爭辯。人工智慧在計算主義的潮流中追尋,甚至沒有絲毫機會可以產生持久的結果 … 該是時候去轉移 AI 研究者的努力──以及支持他們的大量金錢──到計算性方法以外的康莊大道。( Sayre, 1993).
E N D
第二十六章 哲學基礎 26.1 大哉問 26.2 推論與認知的基礎 26.4 企圖和自覺
26.1 大哉問 有時候這些問題讓哲學家和AI研究人員在激昂的爭論中各據立場。更常發生的是哲學家彼此之間的爭辯。人工智慧在計算主義的潮流中追尋,甚至沒有絲毫機會可以產生持久的結果…該是時候去轉移AI研究者的努力──以及支持他們的大量金錢──到計算性方法以外的康莊大道。(Sayre, 1993)
在第26.3節,我們探討的問題是“機器可被製造成像是有智慧一般地行動嗎?”對於機器人能做到這點的主張稱為弱AI(weak AI)立場。反對弱AI的人會持下列三項主張之一: (1)確實存在著電腦不能做的事,無論我們如何規劃並以程式製作。 (2)若干設計智慧型程式的方法在長時間之後都告失敗。 (3)建構適當程式的工作是不可行的。
26.2 推論與認知的基礎 幾乎所有參與AI爭論的團體都有某些關於大腦和心智關係的共同背景。這項共同背景有各種不同的名稱──至少有物理主義、唯物論、生物自然主義──但可簡化成John Searle所說的扼要特徵:“大腦造成心智”。智慧與心智現象是實際神經元系統及相關細胞和支援組織的運作所產生。
信念的一致性理論(correspondence theory)更朝向一項現實的考量發展。根據這項理論,代理人的內部結構可以用來表示一項命題,若下列條件皆成立; 1.當獲得命題真值的感應證據時,建立結構。 2.當獲得命題是謊言的感應證據時,該結構終止存在。 3.在選擇行動時,結構扮演著適當的因果關係角色。
達到智慧行為的可能性 AI最基本的哲學問題之一是“機器能思考嗎?”我們不會直接回答這個問題,因為這個問題沒有明確定義。要知道為什麼,請考量下列的問題; 機器能飛嗎? 機器能游泳嗎?
對複雜的問題而言,辭彙可以用於隱喻,因此當我們說電腦(或引擎,或是經濟)跑得很好,表示它的作用平順,而不是它令人驚嘆地用腳使自己推進。同樣地,當一個人說“我的數據機不動,因為電腦認為它是一個2400鮑的線”可能正是使用了“認為”的隱喻,並繼續讓電腦做字面上的思考和認為。
數學性的異議 部份是因為Turing本身(Turing, 1936)和Gödel(1931)的研究,我們已知若干問題無法用正規系統正確地回答。其中一個例子是停機問題(halting problem):一個執行的程式P最終會停止嗎,或是會永遠不停地執行?Turing的證明方法是,任何試圖解停機問題的演算法H本身也是一個程式Pi,因此H不能正確回答停機問題。Turing承認對任何為Turing測試而設計的特殊機器,質問者可以明確陳述一個停機問題,使得該機器無法正確回答。
出自非正式性的爭論 一項對AI最有影響力並且最持久的批評是由Turing的“出於行為非正式性的爭論”所引起。基本上,這是一項人類行為太過複雜以致於不能用任何簡單規則集合擷取的主張;並且因為電腦所能做的只是遵循一組規則,無法像人類一樣有智慧地產生行為。
26.4 企圖和自覺 很多評鑑程式都是針對Turing測試而設計,提出只看一個機器如何動作是不夠的;還需要知道它內部的精神狀態。這是有效且有用的評論;當然對於嘗試了解任何電腦程式或機械裝置方面,會有助於知道其內部狀態和外在行為。
Turing議論Jefferson會願意將禮貌的習慣擴展到機器上,只要他具有跟行為理性的人相處的經驗,就像在下列對話中,已經成為我們所引用的AI傳統對話的一部份:Turing議論Jefferson會願意將禮貌的習慣擴展到機器上,只要他具有跟行為理性的人相處的經驗,就像在下列對話中,已經成為我們所引用的AI傳統對話的一部份:
w人類:你的十四行詩的第一行寫著“是否我該將你比夏日,”(“Shall I compare thee to a summer’s day,”)寫成“春日”(“a spring day”)不是也可以或更好嗎? w機器:不押韻。 w人類:改成“冬日”(“a winters day”)如何。這就可以押韻了。 w機器:是的,但沒有人想被比成冬日。 w人類:你承認Pickwick先生提醒你耶誕節快到了嗎? w機器:有一點。 w人類:誕耶誕節是冬季的一天,而我認為Pickwick先生不會介意這項比較。 w機器:我認為你不是認真的。談到一個冬日通常表示象徵性的冬日,而不是指像耶誕節這種特定的一天。
中國房間 我們從中國房間的論證開始(Searle, 1980)。觀念是敘述一個假說系統,它顯然在執行一個程式並通過Turing測試,但顯然(根據Searle)不了解它的任何輸入和輸出。結論是執行適當的程式(也就是有正確的輸出)並非一個心智的充分條件。 該系統由一個人組成,他只了解英文,配備著一本以英文寫成的規則手冊,以及很多疊紙張,有些是空白的,有些具有無法辨讀的文字。
現在我們看到真正的關鍵問題。從紙張到記憶的轉移是一個假象,因為兩種形式都只是一個執行中的程式之真實案例。真正Searle的論證具有下列形式:現在我們看到真正的關鍵問題。從紙張到記憶的轉移是一個假象,因為兩種形式都只是一個執行中的程式之真實案例。真正Searle的論證具有下列形式: 1.若干種類的目標物無法理解意識。 2.人類、紙張、以及規則手冊都是這類目標物。 3.若每個目標物的集合都無法理解意識,則任何從這些目標建立的系統都無法理解意識。 4.因此在中國房間內沒有意識的理解。
大腦修復術的實驗 大腦修復術的實驗是由Searle(1980)提出,但大部分與Hans Moravec(1988)的研究相關。它看來像這樣。假設神經心裡學已經發展到可指出輸入輸出行為,而且腦中所有神經元的連結都被完整了解。進一步假設我們能建立顯微電子裝置來模仿這種行為,並且能夠順利地與神經組織相接。
我們關心該主體在手術中和手術後的外在行為和內部經驗。根據該實驗的定義,該主體的外在行為與若是未執行手術的觀察結果必須保持不變。雖然呈現或缺乏自覺不能由第三者簡單地判定,該實驗的主體至少必須能夠記錄所有本身意識經驗的改變。顯然,直覺上對於會發生什麼事有一項直接的衝突。
討論 我們已經看到意識的主體仍有問題。若我們假設不同實驗狀況,則簡單的直覺似乎會造成矛盾的答案。然而明確的是,若有一個經驗上的問題與一個適當程式化的電腦會表現或缺乏意識相關,就會像任何可依據經驗解決的經驗問題。