機器人有權利?一個機器人倫理學的探討

Chang Sui-feng
25 min readDec 18, 2023

--

2023.12.18 張穗風

(本文為2022秋「倫理學」課堂期末報告)

ChatGPT主標誌。
詢問ChatGPT「機器人應該有權利嗎?」(2023.12.18擷取)

前言

在 ‘Right for Robots?’ 一文中,Sagan and Singer (2009) 針對機器人高度發展下可能出現的道德危機做探討。依照該文情境,我們可以將機器人的演變分為三個階段:一、機器人僅為人類發明的擬人產物,尚未出現意識;二、機器人在技術演進的過程中「偶然」出現意識,產生出人類輸入的程式設定外的自主思考能力;三、機器人的自主思考能力超越人類(「奇異點」),開始能夠自行生產更為強大的人工智慧。以下,我將會以這三個階段為前提,去思考機器人的權利問題,並分別從機器人和人類的角度出發,看看怎麼樣的道德可能會是屬於機器人和人類的共同最佳解。

階段一:機器人作為擬人產物

機器人作為一種擬人產物,它的目的在於減輕人類的勞務負擔。以Sagan and Singer舉的例子,我們可以看到在製車、拆彈等較為粗重的工作,乃至於家庭照護等纖細的工作,皆可看到機器人的身影。在此時,由於其尚未出現意識,機器人尚被視為工具看待。在此,我們可以和林宗德(2017)的講座記錄對話。

林宗德的講座內容主要先定義何謂「機器人」 (robots) ,他所給出的機器人技術定義有三項:

1. 會在空間中移動,且知道自己身處何方

2. 有(部分的)自主性,可以感測外部環境,經電腦運算做出反應

3. 不一定具備人的外型

林宗德表示,汽車工廠內協助裝配的機器人即為最常見的例子。接著,他說明「機器人倫理學」 (robot ethics) 的研究內容:(一)為應用倫理學,探討機器人應用產生的倫理問題;(二)機器人應遵從什麼道德規則,來減低人與機器人的互動風險;(三)若機器人近乎於人,是否應給予機器人道德地位。

林宗德所摘述的機器人倫理學的研究內容,基本上即是我想接續 ‘Right for Robots?’ 的倫理學討論。我們繼續看到有關機器人權利的內容,會發現在林宗德的講座摘要中,有人提問「假如賦予機器人社會人格,而進入社會生活,那是否也擁有人權?」林宗德的回應是:

首先,目前的技術離這樣的階段還很遠。機器人並沒有意識,也不在意被如何被對待,只是程式的運作。那所謂的社會人格,也僅僅是我們情感的投射。因此,現階段賦予機器人權利對於機器人似乎並沒有意義。

林宗德的回應符合機器人技術發展的現狀。在該講座中,林宗德討論到電車難題、自動駕駛車的議題,都是討論到「機器人如何判斷」。但我在這篇報告中,目的則是在探討假如機器人未來出現意識,並出現自主思考能力超越人類的境況時,其道德的共同最佳解。因此我們先不在此打住,而持續我們的推論。

我們來看到著名科幻小說家Issac Asimov於1942年所提出的「機器人三大定律」 (Three Laws of Robotics) :[1]

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Asimov在他之後的作品後,考量到機器人為政府服務,服務對象為全體人類的可能性後,在三大定律之外再加入「第零定律」:

0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

以上的道德法則,是基於機器人沒有獨立思考的能力時,由人類設計機器人時時必須確保的前提。我們來分析一下Asimov的四個定律中所潛藏的道德價值觀:人類整體=人類個體>人類命令>機械人個體。透過這個整理,我們可以確認在機器人作為擬人產物的階段時,機器人並不具有超越人或等同人的權利地位,而僅被視為工具看待。

接著,讓我們看到Gunkel (2020) 的文章。[2]作者一開始便表態支持機器人權利,並放上一張他手舉 ”ROBOT RIGHTS NOW” 看板的照片。他列舉了幾位對於機器人權利不以為然的學者的意見,如Noel Sharkey評論為「有點像童話故事」,Joanna Bryson評論為「荒謬的想法,根本是浪費時間」。但作者仍舊認為機器人權利是值得探討且重要的問題。

而後,作者直截了當地提問:「在什麼情況下,機器人、演算法,或是其他具自決能力的系統,可以被視為對自己的決定是有責任的?」若此問題是重要的,則「機器人可以、或應該具有權利嗎?」將不再是浪費時間的問題。作者打算先從定義「權利」為何,並引用了一世紀以前美國法學家Wesley Hohfeld的觀點,認為權利包含四個面向:主張、權力、特權、豁免。[3]

儘管Hohfeld定義了權利,但他並沒有說明誰擁有權利,且為何擁有。在此,作者引入兩個理論:意志理論 (Will Theory) 和利益理論 (Interest Theory) 。意志理論認為權利主體必須具有為自己主張的能力,而利益理論認為不能僅以意志作為鑑定其是否具有權利的指標,需要納入其他方面討論。作者認為重要的不是選擇一個正確的理論,而是了解這兩種理論如何、為何思考權利所伴隨的問題、所可能產生的後果。

作者提醒,不要將機器人權利看作於是等同於人類權利的概念。兩者的混用會使得討論得到的結果產生差異。以動物權為例,在討論動物應享有的權利時,便不會和人類混用。那麼為何在討論機器人權利時,一定要和人類權利類比呢?比如說,當我們在主張機器人具有隱私權時,是否代表我們也賦予機器人選舉權?

在現實世界中,對於機器人是否應具有權利的立場也各佔一方。如歐盟的機器人公民法律委員會 (European Commission’s Resolution on Civil Rules of Robotics) 便認為可以給與一些權利予機器人,也有多於250位科學家、工程師和人工智慧專家於公開信聯署呼籲,不管機器人和AI多麼具有自我決定的能力,都僅為工具罷了。一方開始慢慢將機器人當成被認可的人 (recognized person) ,另一方仍堅持其僅為工具或財產。

作者最後提醒,當我們在討論機器人權利時,它並非僅關乎於「機器人是否擁有權利」,包括我們對於權利的認知也在逐漸變動。作者最後表明,對於機器人是否應擁有權利,它也還沒有明確的解答,但他認為不管如何,我們都並須試圖回答這個問題,原因是思考這些過去沒有思考過的問題,會對於我們人類以及我們的道德、法律系統有深遠的影響。

需要提醒的是,人類對於機器人的同理心並非來自於機器人是否具有意識。比如說,在廣播節目 ”Radiolab”於2011年的一場實驗中,邀請小朋友抓著芭比娃娃、倉鼠以及菲比精靈(一種人型機器人)的腳,使它們保持著頭腳顛倒的姿勢,直到它們表示不舒服。小孩子一直抓住芭比娃娃而沒有鬆手,但面對不斷扭動的倉鼠,和從設定中傳出的哭聲及呼救的菲比精靈,卻很快就放鬆了手(BBC News 2015–08–17)。

在此,我們進行對於機器人權利的小結。從20世紀中葉Asimov的「機器人三大定律」,我們可以看到人類整體=人類個體>人類命令>機械人個體公式的存在。但在Asimov的想法中,機器人仍僅是接受人類程式碼指派而行動的工具,並不具有意識。但Gunkel(2020) 已經開始思考機器人具有權利的可能。在「機器人作為擬人產物」的階段,機器人尚不具有權利,但人類已經開始討論機器人是否應擁有權利了。接著,讓我們開始想像「機器人出現自我意識」的情境。

階段二:機器人出現自我意識

Marko (2019) 在一篇文章的標題中,開宗明義的提問:機器人權利是出於法律的必要性,抑或僅為道德的謬論?作者在內文中首先提及,工業機器人的數量將在2015年至2020年期間翻倍成長,那麼我們身邊這些數量漸增的、具備「自主」、「適應」等特質的學習機器人 (learning machine) ──或稱為工作夥伴──需不需要享有權利呢?

作者起初對於機器人權利的概念也抱持懷疑,認為既然機器人不若人般不具意識,為何需要享有權利,但作者引了Andrew Sherman一篇討論機器人的工人權的文章,引領我們思考一個情境:時間來到2025年,受人工智慧所驅動的機器人和機器於工作時展現事半功倍的效率,在沒有權利保障的情況下。人類工人認為自身的工作機會受到這些機器人威脅,因此經常踢打機器人,除了試圖降低其效率外,也有展現人類的優越感的意圖。現在的問題是:這些機器人是否會對人類產生敵意,甚至認為需要進行報復?[4]

Sherman接著表示,儘管現在機器人並不具法定權利,但隨著機器人受人工智慧驅動使其能夠思考和行動的更像人類,法律標準必須隨之改變。他進一步舉了一些問題:機器人受到職場暴力時如何處理?機器人可以放假或享有健保嗎?若是機器了「發明」了新的技術並投入職場應用,其智慧財產權應歸屬於誰?在此,作者和Gunkel一樣認為某些人的論述將機器人權利和人類權利混為一談,實際上機器人權利未必需要比照人類權利。

作者接著表示,在現實生活中已經出現有關機器人權利的法律論述,如2017年,歐盟的機器人公民法律委員會在Section 56中提倡機器人的責任 (responsibility) 應歸於它的訓練者 (trainer) ,至少就現今發展來說。[5]但,在Section 59(f)中,包含了一些爭議言論:最複雜的自主機器人可以當作具有「電子人」 (electronic persons) 的地位,具有自主做出決定以及獨立地和第三方進行溝通的能力。[6]作者小結,隨著機器人將接觸更多關於人類生死的決策,對於機器人的行動和步行動賦予法律上的責任框架是合理的。

作者接著提及David Gunkel的Robot Rights一書,表示Gunkel同意隨著社會演進而使得機器人進入自然人 (natural persons) 和物 (things) 之間的灰色地帶,但是他同時表示「人」 (person) 的法律定義並非僅限於「人類」 (human beings) 。Gunkel舉例,比如IBM、Amazon、Microsoft等大公司皆具有法人地位,享有自由言論、捍衛自身利益等權利,那麼如果IBM具有法律保障的權利,那麼Watson(IBM的AI)得到法人地位,獲得相應的權利保障,也是可能的。

Gunkel表示,在看待人工科技物的社會位置和地位時,不應以特定事物(如conscious、self-aware)作為指標,而應以如何和人類溝通作為基準。[7]但他也提醒,這並非意味著「萬物道德論」 (moral theory of everything) 。作者評論,此關係模型也許適用於機器人的社會定位,但在考量到具有自決和適應行為的機器人之犯罪時,便顯出其短缺。作者在此展現出其反對Gunkel的觀點的立場。

作者最後表達他的看法,認為關係模型不是最佳解方,而將責任歸屬於機器人訓練者和開發者顯然也不是最佳解(試想,若機器人殺人,難道責任全在訓練者和開發者身上嗎?)作者認為,對於機器人權利的討論還有很長一段路要走,而他認為目前最適切的方法是歐盟報告的Section 56。當機器人「智慧」 (intelligent) 到可以展現自決、適應的特性時,它便應當具有相應的責任。作者最後補充,在機器人演變至聰明到人類無法控制的程度前,Asimov的機器人三大定律可當作建立機器人道德的重要哲學基礎。

我們在此小結,當「機器人出現自我意識」時,是否應具有權利。Marko較為支持歐盟報告的作法,認為不管是將機器人的行為歸咎於開發者與訓練者身上,或是根據機器人和人類的親近程度給予其權利,都不是好的做法,而應當基於機器人是否具有行為責任。基於以上討論,我認為當機器人出現自我意識時,便是其獲得權利的時刻(關於機器人權利的具體內容,並非本報告的主題),無論該機器人和人類親近的程度為何。[8]

階段三:機器人自主思考能力超越人類

事實上,就算到了現今,機器人的發展程度遠不及宰制人類的程度,使得有關機器人倫理的相關法案,仍停留在盡可能不要違背人類生活倫理的階段,如美國白宮於2022年10月提出的「人工智慧權利法案」處理AI的種族歧視問題(中央社 2022–10–04)。我們可能需要透過想像進入「機器人自主思考能力超越人類」的階段。在此,不妨看看1999年上映的《駭客任務》增強我們的臨場感。

在《駭客任務》中,人類社會在和人工智慧經歷一場大戰後,已經幾乎從地球上被根除。人工智慧養殖人類作為能量來源,而人類意識被置於一片猶如夢境的時空中,稱為「母體」 (The Matrix) 。主角Anderson (Leo) 被游擊反對組織領導Morpheus認定是救世主,因此開始組織行動,試圖戳破母體所隱瞞的真相。

在電影中,其中一位游擊反對組織隊員Cypher受不了Morpheus的一舉一動,一心只想回到過去的安逸時光,因此和母體串通,出賣隊友。在這種情境中,人類別說是擁有權利,甚至只是想擁有美好的幻想也成為一種奢求。這種情境已經隱然導出我接下來想提出的論點。

我認為,機器人是應該具有權利的,在擁有意識的前提下。原因是,人類並不能確保能夠妥善管理(或治理)具有意識的機器人或AI,那麼與其承擔有朝一日和機器人及AI全面開戰的風險,不如先給予有意識的機器人權利,從人類釋出善意的舉動,使機器人和AI不至於判定人類為「危害其生存之生物」。至於機器人權利的具體內容,則並非本報告力陳之事。

「機器人有權利」的進一步討論

在建立有意識的機器人應具有權利的基礎後,我們接著嘗試以三種道德論檢視「機器人有權利」這項命題,並加以討論之。

首先從效益論的角度出發。我在此主張,因為機器人有可能發展出超越人類智慧的智能,因此應該在機器人發展出意識之時,賦予其應有之權利,由人類這端先釋出善意,避免人類有朝一日被機器人的智慧判定為「危害存在之生物」。

接著從義務論的觀點來看。從康德的定言令式出發,’I ought never to act except in such a way that I could also will that my maxim should become a universal law.’ 我嘗試進一步提出命題:「具有意識的存在便應當賦予其權利」,無論其是貓、是狗,還是機器人。

而後以德行論的角度來看。若機器人具有意識,則其second nature是可以被培養的,人類作為創造機器人的始祖,應負起教育機器人的責任(如何享有權利和承擔義務)。

我個人認為效益論的理解是最為直觀,也最容易說服社會大眾。如果說效益論帶領我們思考未來的人類與機器人的利害關係,那麼義務論的角度則可以讓我們容心思考有關權利賦予的格準是否應當修正。德行論的角度,則讓我們知道道德是可以被培養和追求的。

我們接著嘗試把這項見解套入Blackburn (2001) 所提出的道德的七個威脅。Blackburn提出「上帝之死」 (The Death of God) 、「相對主義」 (Relativism) 、「利己主義」 (Egoism) 、「演化論」 (Evolutionary Theory) 、「決定論與徒勞」 (Determinism and Futility) 、「不合理的要求」 (Unreasonable Demands) 、「虛假意識」 (False Consciousness) 七個威脅,而我將從中選取和「機器人有權利」這項命題較有關的威脅,而後加以討論。

「當上帝死了,什麼事都被將被允許?」 (Blackburn 2001: 10) 這是第一個威脅的核心叩問。在人文主義興起前,西方世界中世紀舊有的道德觀是唯神是從,但此將導致一個問題:「它(善事)被愛因為其神聖,抑或它神聖因為其被愛?」[9]作者表示,這兩種都不會是被鼓勵的動機。最純粹的動機應該是:我認為這件事是錯的,所以我不做。作者以此解除上帝已死的道德危機。

然,面對法的唯一權威的逝去,將面對到「由誰制定規則」以及「應該遵從哪套規則」的困境 (ibid.: 19) 。作者在回答這個問題時,以一個故事作比喻:一位戰士在戰場上思索,究竟遵要從自己國王的命令,不許埋葬敵人的屍體,還是選擇安葬自己的兄弟,因為他是自己人。最終他選擇了後者。作者由此導出所謂的道德規則,會因為個人的解讀和取捨而有所異。實際上,每個人都有一套自己的道德觀。而在進行「什麼是對的」的道德辯論時,每個人都應該據理力爭,方為所謂道德的對話。

當每個人都有自己的道德觀,是否意味著道德將進入利己主義的困境。作者首先表達:人類是自私的動物 (ibid.: 29) 。比如說一位父親盡責地照護自己的小孩,儘管可能是出於對於小孩疼愛的心以及責任感,但也有可能是礙於公眾壓力,或是擔心被老婆罵。作者而後說明,此代表著每個人的真實利益(real interest)來源不同。當然世界上存在著丈夫照護小孩只是怕被罵,但也有著出於憐憫天性而盡責照護小孩的父親。作者由此解套利己主義的困境。

另一個對於人類道德的建立產生威脅的論點為「演化論」,其意為人類的行為其實是受到基因編碼所控制的 (ibid.: 38) ,比如說「母愛」(mother-love)看似良善,但其實可能只是這種選擇在演化的過程中被選擇,因為其有助於繁衍罷了。這是否象徵著「互惠」 (reciprocal altruism) 也只是演化的結果而已?作者舉了幾個例子來反對演化論,比如說人類的性欲有很多種形式,並非每一種都具有繁衍的功能(如同性戀、自慰等)。還有一點可以反駁演化論的是,人類日常生活中有許多微不足道的日常瑣事(比如說在電影院找不到手機關閉的按鈕、喜歡討論天氣),幾乎找不到足夠正當的理由可以說明「對人類存續有所幫助」。作者最後小結,基因其實在不同的環境會有不同的展現,而環境是由社會型塑的,並非原本就如此的。作者以此解決演化論的威脅。

延續上面生命科學對於人類道德的挑戰,另一個常被提出的說法是:既然基因已經決定人類的一切,那麼規範的制訂是否徒勞? (ibid.: 45) 作者的回應是,人類保有一定程度的反應空間 (input-responsiveness) ,比如說信念、欲望、態度等,皆展現出彈性。作者以語言學習為例,說明語言的學習在嬰幼兒時期是關鍵,當人的年齡大於12歲之後,其所接觸到的語言幾乎無法追上母語使用者的程度。這件事情說明,環境的營造是重要的,絕對並非生命科學的論述所形容地,僅是徒勞。

既然環境的營造和規範的訂定是需要的,那麼下一個問題便是:具體來說如何執行?在此便連結到下一個道德威脅:不合理的要求。有些人會認為,就算訂定規範,但實際上仍是空談 (ibid.: 45) 。以說謊為例,若是直觀的從道德層面出發,多數人會同意不說謊是美德。但現實生活中卻存在著「立意良善的謊言」,比如說白色謊言。若是以康德的角度來看,這類例外的道德是不被允許的。或是想像一個情境:讓全世界的人均富,儘管立意良善且令人動容,但實際上如何可能?作者如此回應:儘管上述的極端要求 (extreme demands) 確實無法達成,但我們仍能設想怎麼樣的道德目標是具體來說可企求的、適度的 (reasonable) 。

那麼提出適度的規範就可以作為道德的終點嗎?作者提出的第七個道德威脅為「虛假意識」,其試圖表達:道德作為一種「制度」(institution),其是種系統讓其真實功能可以被隱藏 (ibid.: 50) ,作者在此將這種被認知為系統的道德以大寫的 ”Ethics” 表示。舉例來說,女性主義者認為他們受到父權體制壓迫,馬克思主義者認為社會存在著階級壓迫。在這類觀點的背後,所隱含的想法是:我們要揭開表象,深入本質。但作者反駁這類的道德觀:道德並非大寫的道德。不同的宗教、國家,有著不同的道德,而我們並無法提出所謂道德的終點。舉例來說,有些運動推崇「自由生活」(free living),但讓我們思考一些著名的自由主義國家,其仍舊有著法律規範來定義誠信、隱私、資源使用等事項,而當這些規範變得不可變動時,反而會迎來一場災難。作者由此導出:道德並非單一的、絕對的,而是多重的、不斷變動的。

在回顧並小結完Blackburn (2001) 所提出的道德的七個威脅後,我們將「機器人有權利」這項命題套入,檢測其是否能通過七個威脅的挑戰。從上帝之死和相對主義的討論中,我們找回人類社會討論道德的必要性。但在本報告的主題中,扮演核心角色的卻非人類,而是機器人,這會不會影響我們討論其道德的正當性呢?若以利己主義的角度來看,有些人賦予機器人權利是出於憐憫之心,也有人賦予機器人權利旨在延續人類社會的存續(如我),但這些僅僅代表著每個人的真實利益不同,並不會使得這些討論是無用的。

在演化論以及決定論的討論中,生物醫學的基因決定論對於道德的社會建構帶來挑戰。這就像是我們在討論機器人權利時,會認為機器人的行為是用程式碼所決定、導出的。從這個角度想,基因之於人類,就如同程式碼之於機器人。那麼是什麼因素讓我們人類得以擺脫基因決定論的陰影?答案便是「意識」。意識使得人們留意日常瑣事,作出許多看似不理性的舉動(比如說知道由炸食物容易致癌仍舊一直吃),且意識會受環境影響、形塑(如學校教育會影響學生的族群認同和語言使用)。意識的影響是後天的、變動的,而意識正象徵人類能動性的具備,此為我支持當機器人生成意識後,應當賦予其權利的原因。

最後,不合理的要求及虛假意識,是否阻擋了「機器人有權利」的去路?我並不認為機器人有權利是不可行的事情,當確立當機器人生成意識後便賦予其權利的共識後,下一步應當便是討論:如何確定機器人生成意識?機器人權利的實質內容為何?人類社會的法律規範如何保障機器人權利?機器人是否自己享有一套法律?這些問題我認為並不是無解的。而以上這些規範是容許變動的,就如同一世紀以前根本無法想像AI的存在,但如今,我們人類不僅需要正視AI強大的演算能力(如近日火紅的Chat GPT軟體),[10]思考如何與其共處,甚至需要開始考量機器人是否能享有權利,這不就應證了道德是多重的、不斷變動的嗎?

結論

我們從Sagan and Singer的 ‘Rights for Robots?’ 短文,衍伸出機器人發展三階段的討論及想像,而後進一步推演出「機器人有權利,當其具有意識」該命題,並將其以三種道德論詮釋,及通過Blackburn所提出的七個威脅。本報告的企圖,在於建立對於機器人倫理學的一個基礎。建立「機器人有權利,當其具有意識」這個基礎後,無論是討論「如何確定機器人生成意識」,或是「機器人權利的實質內容為何」等問題,都能夠在一個共同的起點出發。

參考資料

林宗德,2017,〈【現代社會與科技的倫理問題】人工智慧的挑戰:機器人的倫理議題〉。105學年下學期 國立清華大學科技管理學院 生物倫理與法律研究中心 學術午餐研討會 講座記錄。

中央社,2022–10–04,〈白宮提出人工智慧權利法案 以減少可能應用傷害〉(https://www.cna.com.tw/news/aopl/202210040391.aspx ,擷取日期:2022年12月)

BBC News,2015–08–17,〈機器人應該享受「機器人權」嗎?〉(https://www.bbc.com/ukchina/trad/vert_fut/2015/08/150817_vert_fut_would-you-murder-a-robot ,擷取日期:2022年12月)

Sagan, Agata, and Peter Singer. 12/14/2009. ‘Rights for Robots?’ in Project Syndicate. (https://www.project-syndicate.org/commentary/rights-for-robots?barrier=accesspaylog&utm_term=&utm_campaign=&utm_source=adwords&utm_medium=ppc&hsa_acc=1220154768&hsa_cam=12374283753&hsa_grp=117511853986&hsa_ad=499567080219&hsa_src=g&hsa_tgt=dsa-19959388920&hsa_kw=&hsa_mt=&hsa_net=adwords&hsa_ver=3&gclid=CjwKCAiA76-dBhByEiwAA0_s9ZC2TBslh9N0bSCNEx0wyYcYBOuq_p5xT7C3Tk9SA3-BjEECrg6y8hoCS08QAvD_BwE , accessed date: December 2022)

Marko, Kurt. 1/3/2019. ‘Robot rights — a legal necessity or ethical absurdity?’ in Diginomica.com. (https://diginomica.com/robot-rights-a-legal-necessity-or-ethical-absurdity , accessed date: December 2022)

Gunkel, David. 1/27/2020. ‘2020: The Year of Robot Rights’ in The MIT Press Reader. (https://thereader.mitpress.mit.edu/2020-the-year-of-robot-rights/ , accessed date: December 2022)

Blackburn, Simon. 2001. Being Good: A Short Introduction to Ethic. NY: Oxford University Press.

註解

[1] 參見”Three Laws of Robotics”, Wikipedia, https://en.wikipedia.org/wiki/Three_Laws_of_Robotics

[2] David Gunkel同時也是Robot Rights一書的作者。

[3] 原句:”……So he created a typology that breaks rights down into four related aspects or what he called “incidents”: claims, powers, privileges, and immunities.”

[4] 原句:”……What is new is that it will only be a matter of time before the automated creatures will ‘feel’ this hostility and/or feel the need to retaliate.”

[5] 原句:”……their liability should be proportional to the actual level of instructions given to the robot and of its degree of autonomy, so that the greater a robot’s learning capability or autonomy, and the longer a robot’s training, the greater the responsibility of its trainer should be……notes that at least at the present stage the responsibility must lie with a human and not a robot.”

[6] 原句:” ……the most sophisticated autonomous robots could be established as having the status of electronic persons responsible for making good any damage they may cause……”

[7] 原句:”Gunkel proposes a different way of viewing “the social position and status of technological artifacts” based, not on what something is, i.e. conscious, self-aware, capable of pain or emotions, but on how humans interact with it, a conceptual model called “the relational turn.””

[8] 我認為機器人若出現意識,必定是偶然的結果,原因為當人類試圖灌輸機器人意識時,機器人的行為必定受程式碼主宰,而不會產生自主決定。

[9] 原句:” It is loved because it is holy, not holy because it is loved?”

[10] Chat GPT使用連結:https://openai.com/blog/chatgpt/

詢問ChatGPT「AI可能出現意識嗎?」(2023.12.18擷取)

--

--

Chang Sui-feng

張穗風,美濃山下客家人,國立清華大學人文社會學學士,主修為社會學。研究興趣為能源與環境,期許能帶著社會學專長,佐以地理學視野投入鄉村研究。目前就讀於國立台灣大學地理環境資源學研究所碩士班, 學習人文地理學,同時對自然地理學和地理資訊科學保持興趣。