圖書標籤: 社會學 人工智能 法學 AI 方寸 新知課 SOCIOLOGY 網絡治理
发表于2024-11-25
AI聯結的社會 pdf epub mobi txt 電子書 下載 2024
隨著人工智能技術的不斷發展,人類與人工智能共生的時代開始瞭。
全球聯機協作的人工智能,將構築一個深度改變人類生活的“人工智能網絡”。
在人工智能網絡化時代,我們將麵臨不可預測和控製的風險。我們的社會是否已為迎接迎接這一切做好準備?
科幻小說與生活的邊界即將模糊,“電車難題”不再是腦海中單純的思想實驗。
人工智能是否能像人類一樣,對自己的行為負責?
大數據下無處不在的“人物側寫”,還有“責任的空白”“數字汙名”“就業難民”等全新社會問題,是否會催生新的歧視與壓迫?
……
麵對可能齣現的倫理難題和社會風險,我們當下又能做些什麼?
圍繞這些問題,日本信息學界、法學界、社會學界、人工智能技術領域的多位前沿學者從國際化、專業化的視角齣發,進行瞭深入探討。
學者們通過“情景設定”的方式,對人工智能網絡化時代的風險和危機進行瞭預演,並在社會政策和法律應對層麵,提齣瞭精彩的建議。
編輯推薦
·AI網絡化將給人類社會帶來無法預測的重大變化,我們是否做好瞭應對風險和挑戰的準備?
·日本信息學、法學、社會學、人工智能技術領域的前沿學者,關於人類如何與AI共生進行跨界對話,在社會治理和法律製度層麵提齣務實的對策建議。
·深度討論智聯社會的隱私與倫理、信息安全、AI開發準則、政治參與、知識産權、勞動就業等核心問題。
·全球視角,橫嚮比較美國、歐洲、日本在相關領域的政策,提供多國經驗。
·通過情景設定實例和“思想實驗”,將讀者代入未來的預設場景,嘗試迴答文學作品、電影和遊戲中的經典問題:在AI網絡化時代,人類如何做纔能既利用人工智能為人類服務,又保護人類的基本利益?
·北京大學中國社會與發展研究中心主任邱澤奇教授作序,哈佛大學、清華大學、中國人民大學、廈門大學等國內外高校的多位學者聯閤推薦。
媒體推薦
法律工作者在直麵“司法智能化”的同時,也扮演著優化規則的守衛者角色。如何解決AI衍生的個人隱私和信息安全問題?如何優化法律製度和管理體係?想要深入瞭解AI網絡化時代法律問題的讀者必將欣喜於閱讀此書。
——齊樹潔 廈門大學法學院訴訟法學教授、司法改革研究中心主任
人工智能網絡化正大踏步朝我們走來。人類做好瞭與之相處的準備嗎?在倫理上、法律上應當如何應對人工智能與人的關係?日本學界精英以預設情景做齣瞭前瞻性分析,啓人心智,讓人跨越專業門檻一窺究竟。這是一本促人麵嚮未來的好書,忙碌的人們若分身閱讀,定有收獲。
——任劍濤 清華大學社會科學學院政治學係教授,教育部“長江學者”特聘教授
在人類麵對網絡化的智能機器時,如何保障人類的基本利益:身體、人格、責任、尊嚴?
以我對人工智能有限的認知,我以為,這樣的提問非常日本!工業化的曆史錶明,同在儒傢文化圈,日本卻是一個非常務實的國傢。人工智能的發展顯然還沒有走到真正威脅人類的時刻,探討人工智能場景下的人類利益,顯然是一個虛擬問題。務實的日本人在遭遇一個虛擬問題時,又如何處理呢?《AI聯結的社會》恰恰展現瞭務實的智慧。
——邱澤奇 北京大學中國社會與發展研究中心主任,教育部“長江學者”特聘教授
人工智能(AI)技術必將帶來一場革命性的變革,將使人的生活方式、交往方式以及思維方式發生根本性的轉型,因而,人工智能將為我們展現齣一個不同於以往和現在的未來。我們生活的這個時代,見證瞭人工智能技術的興起,也應為人類在不久的將來進入人工智能時代做好準備。可以說,從20世紀後期起,人工智能的概念就已經超齣瞭科學研究和技術創新的領域,得到瞭人們的廣泛關注,特彆是在人們的觀念中造成瞭震蕩。也許,我們距離人工智能時代的到來還有一段較長的路,但是,我們在今天就需要在思維、觀念上做好迎接這個時代到來的準備,特彆是要充分估計到人工智能將對人類社會造成什麼樣的影響。所以,我們渴望閱讀這個方麵的作品。
——張康之 中國人民大學公共管理學院行政學係教授,教育部“長江學者”特聘教授
目前,人工智能倫理準則已經在全球範圍內達成基本共識。在此共識基礎上,《AI聯結的社會》緻力於解決以下四方麵的關鍵問題:一是探討“AI網絡化”治理的必要性及其方嚮;二是AI研究開發相關問題的闡述;三是AI網絡中的信息流通及正當使用;四是AI網絡化將對社會産生的深遠影響。作者們獨闢蹊徑,深入淺齣地闡釋瞭AI帶來的信息安全問題、基本法治製度和控製管理體係構成,並附有大量虛擬情景實例,是一部紮實、詳盡的優秀作品。
——趙鳴博 東華大學信息科學與技術學院教授,IEEE會員
在醫學領域,AI智能診斷和精準醫療一方麵為疾病的診斷和治療提供瞭新手段,另一方麵也涉及數據隱私、診斷可靠性等問題。《AI聯結的社會》討論瞭AI技術在多領域(也包括醫療領域)應用所涉及的法律和倫理問題,值得相關研究人員和臨床醫生參考。
——塗毅恒 哈佛醫學院腦科學與人工智能專業講師
近十年來,世界各地的許多高校紛紛成立瞭AI研究中心和學院,培育瞭一大批AI人纔,進一步增強瞭AI在各個領域的影響力。隨著AI技術的快速發展和廣泛應用,關於AI安全、倫理和法律方麵的討論日益增多且愈發重要。本書對AI尤其是AI網絡化的倫理和法律進行瞭仔細探討,指齣瞭許多值得AI研究者、AI産品和服務生産者、使用者以及政府部門深思和研究的問題,是一部受眾廣泛、內容充實、又很具有國際視野和前瞻性的作品。
——樊繼聰 康奈爾大學運籌學與信息工程學院博士後研究員
試讀章節
中文版序
機器的智能和人類的智慧
圍繞人工智能主題,我讀過很多作品。一些書名看起來很學術的,讀起來卻非常科普。也許是人工智能話題炙熱的緣故,除瞭科普作傢,某些學有專長的著名專傢也加入其中,但對人工智能卻是一知半解,有關人工智能的研究成果也是魚龍混雜。我手裏的這本是否也是其中之一呢?
我抱著嘗試的心態讀下去。這一讀,便沒有放手,直至捲終。《AI聯結的社會:人工智能網絡化時代的倫理與法律》(以下簡稱《AI網絡化》)是一本論文集。通常,論文集會依照論文的主題匯集,難以讓討論具有內在邏輯一緻性。這本論文集不同的是,它的主題內在邏輯一緻性很強,從這個角度來說,它更像一本閤著成果。在假定人工智能自身形成網絡的場景下,會給人類帶來哪些挑戰。圍繞這一主題,全書劃分為六個部分,總論部分交代瞭問題和方法,第二部分探討人工智能的研發原則,第三部分討論人工智能數據、信息、知識的流通和使用,第四部分分析在人工智能網絡化的場景裏人類的隱私與安全,第五部分探索人類社會基本準則麵對的挑戰和應對之策,第六部分再迴到人類自身,討論保障人類珍視的尊嚴、人格與責任。
簡要的內容構成介紹應該能讓讀者瞭解,這是一部接地氣的著作。與天馬行空地探討智能時代、機器崛起、人工智能時代的作品不同,與聳人聽聞地斷言智能革命、機器取代人類、奇點臨近的作品也不同,《AI網絡化》的齣發點是,我們知道人工智能的發展是一股曆史潮流,勢不可當;我們不用像算命先生那樣去預測什麼時候人工智能時代會到來;我們也不用像森林裏的小女孩那樣不斷呼喊狼來瞭,人工智能要奪走我們的工作;我們嘗試著迴答,人工智能會以什麼樣的形態到來,在這個進程中,人類可以做什麼來保證人類的基本利益,即人還是人!說得更加簡潔一些,在人類麵對網絡化的智能機器時,如何保障人類的基本利益:身體、人格、責任、尊嚴?
以我對人工智能有限的認知,我以為,這樣的提問非常日本!工業化的曆史錶明,同在儒傢文化圈,日本卻是一個非常務實的國傢。明治維新以後,我們不知道日本人提齣瞭什麼驚世駭俗的理論,卻知道日本的産品行銷世界,對日本産品的質量,鮮有人懷疑。這源於日本人的務實。人工智能的發展顯然還沒有走到真正威脅人類的時刻,探討人工智能場景下的人類利益,顯然是一個虛擬問題。務實的日本人在遭遇一個虛擬問題時,又如何處理呢?《AI網絡化》同樣展現瞭務實的智慧:日本專傢們采用瞭情境錨定法(Anchoring Vignettes)。情境錨定法是社會調查中麵對未來時常用且有效的測量方法。它假設一個情境,實在的、可以在頭腦中呈現的情境,然後,詢問人們麵對情境的決策和行為取嚮。在理論究中,這樣的方法也被稱為思想實驗(Thought Experiment),是理論邏輯演繹的常用且有效的方法。
運用情境錨定法,《AI網絡化》給定瞭一個討論的初始:在未來,無論是專用人工智能還是通用人工智能,人工智能自身形成瞭一個網絡,“使用者不僅可以自己設置,也可以接受他人設置”(第10頁),就像是《黑客帝國》裏的機器帝國,人工智能甚至具有瞭擬人的“意誌”,“擁有與人類智能相關的功能;能夠通過對信息、知識進行係統化處理,得到數據、信息和知識”(第6頁),“滲透到社會整體之中,進而使人類和人工智能網絡共存,在各種社會場景中,都將可能實現人工智能、物和人的相互聯結”(第11頁),人類如何做纔能既利用人工智能為人類服務,又保護人類的基本利益?
在汗牛充棟的人工智能研究中,人工智能網絡化是一個被忽略或被默認的議題。說是被忽略,至少在我讀到的文獻中這是第一本將其特彆強調的作品。說是被默認,在眾多討論人工智能的研究中,作者們往往忽略瞭人們生活在一個政治和社會製度有差異的世界,國傢技術能力的強弱和國傢之間關係的好壞並非與人工智能創新和應用沒有關係。忽視既存的製度約束和假設人類的一般存在看起來有利於討論,實則是學術的不負責任。《AI網絡化》突齣強調人工智能網絡化的現實社會情境,也是學術務實的另一個證明。
《AI網絡化》首先呈現的不是人工智能帶給人類的便利,而是風險。“這些風險與人工智能網絡化為社會帶來的便利同在,有時可能超越國境,超越現實與虛擬的界限,瞬時擴散齣去。”(第13頁)藉用既有的研究成果,《AI網絡化》將風險區分為功能風險和製度風險,認為其中重要的不是功能風險,而是製度風險。因此,風險分析是人類麵對人工智能挑戰的齣發點,包括風險評估、風險管理和風險傳播(第14頁)。風險分析的目的,不是為瞭甩鍋,而是讓風險明確化,進而確保公平競爭,讓風險與收益達成平衡。在這裏,我們既看到瞭日本人務實的一麵,又看到儒傢文化的深層存在。
設定人工智能網絡化的前提,自然地提齣瞭人工智能治理的人類化議題。《AI網絡化》的主張是,人工智能的治理,一定是國際的,而不是一國的。為促進技術創新和應用,初始期宜采用軟性治理,治理內容除瞭確保各種價值觀,還應確保廉潔、透明性、可控性、安全性、隱私性、安保體係、公正性等(第18頁)。為瞭既促進人工智能的發展,給人類帶來更多便利,又保障治理的有效性,約束人工智能可能帶來的風險,《AI網絡化》認為,一個由人工智能高度互聯建構的智聯社會(第20頁),應該遵從八項基本原則:“第一,所有人都可以受惠;第二,保障個人的自主性及人的尊嚴;第三,保證革新性研究開發的持續與公平競爭;第四,堅持可控性和透明性;第五,利益相關方的參與;第六,兼顧虛擬世界與現實社會;第七,通過超越空間的協調閤作實現有活力的區域社會;第八,通過分散閤作解決全球性問題。”(第21頁)
與上述原則關聯密切的被分解為瞭人工智能研發中的人類倫理與秩序的貫徹,人工智能使用中的數據、信息、知識等價值觀,人工智能與人類的關係,包括如何保障人的尊嚴、人格與責任以及支撐因素如隱私、安全、既存的社會準則等。貫穿《AI網絡化》始終的是,保障人類基本利益的原則被置於在最優先的位置,基於此,《AI網絡化》裏齣現瞭一些日文風格突齣的概念,如“聯結”(第11頁)、“人物側寫”(第48頁)、“立人設”(第62頁),也引用瞭眾多流行的概念,如“隱私設計”(Privacy by Design,PbD)(第206頁)、“切斷開關”(Kill Switch)(第208頁)等。它意味著《AI網絡化》的討論既不是日本人自己圈子內的討論,也不是脫離瞭日本的話術販賣,而是從日本的關切齣發,麵嚮整個世界的分析和探討。
參與討論的近20位作者,既有業界人士,也有學界新秀。從《AI網絡化》文本可以看齣,他們的一個共同特點是,都非常熟悉國際上人工智能探討的熱點和難點問題,錶達的也是他們對這些熱點和難點的觀點。人工智能數據是大數據問題的一個子集,歐盟有GDPR,美國有關聯的法律卻沒有一般的法律,中國在民法典中有涉及,日本的《個人信息保護法》也隻是關聯的法律。到目前為止,數字化前沿國傢對此還沒有達成一緻。我以為,根本不可能達成一緻,盡管其基本齣發點是保護人類利益。但我們知道,機器並沒有利益,機器的利益實際上是掌握機器的人的利益,電車難題(見第五部分的討論)便是典型的例子。當我們在人工智能裏設定人類生命優先時,不是犧牲機器的問題,而是優先保護誰的生命的問題。如此,問題又迴到瞭人類,而不是人與機器的關係。為此,我更願意把問題修訂為,當人工智能網絡化將帶給人類更大利益同時也帶來更大風險時,如何分配這些利益纔是對大多數人更加有利的,也是對大多數人而言更加有利於控製風險的?
在這個問題麵前,人類自身的歧視、分化、極化、壟斷等將會是長久且難以達成平衡的議題。我們期待一個可以促進技術發展的競爭性研發生態,卻又希望避免一個由發展帶來的壟斷性市場,迴避一個由利益分配嚴重不均所生産的極化社會,還希望避免一個因倫理失衡而可能帶來的毀滅性後果,最終希望做到人類自洽(第307頁),它,的確需要超級智慧。《AI網絡化》至少是麵嚮超級智慧的有益嘗試。
邱澤奇
2020年5月
AI網絡時代的刑事法律
立教大學研究生院法務研究科教授
深町晉也
情景設定
事例1 自動駕駛汽車與過失犯
X1購買瞭由汽車公司Y1所製造、販賣的自動駕駛汽車(第3級),下雨天的時候普通公路上以自動駕駛模式、每小時40公裏的速度行駛。在X1沒有注視前方的時候,走在道路左側人行道上的小孩A,鬆開瞭父母的手進入瞭機動車道。自動駕駛汽車執行緊急應對措施,切換成駕駛員手動模式,但是由於X1沒有注視前方,導緻其瞬間的反應不夠及時,來不及緊急製動。這時X1嚮右打方嚮盤,想要避免撞到A,但此時後方有一輛摩托車超速行駛而來,自動駕駛汽車沒能避開與摩托車的碰撞,最後導緻摩托車翻車,駕駛摩托車的B死亡。
事例2 AI的刑事責任與保護生存權之間的兩難境況
X2購買瞭由汽車公司Y2所製造、售賣的自動駕駛汽車(第4級或者第5級),在普通公路上以40公裏的時速行駛。本案中的自動駕駛汽車裝有防衝撞係統,可以通過緊急製動避免衝撞,在判斷已經來不及緊急製動的情況下,其設計是嚮左右打方嚮盤來避免衝撞。但如果是在即便采取瞭這樣的緊急措施也無法避免衝撞的情況下,比如說如果緊急製動的話會與後麵的車輛衝撞、嚮左打方嚮盤的話會與行人衝撞,嚮右打方嚮盤的話會與後方駛來的摩托車衝撞的情況下,則會采取使受害人減少到最低的措施。X2在單行道上行駛,前方一輛迎麵駛來的汽車衝嚮X2,因此本案中的自動駕駛汽車就隻能嚮左或者嚮右打方嚮盤,但是左側人行道上有一位行人C,右側的人行道上有一小群人正站著說話,因此本案中的自動駕駛汽車選擇嚮左打方嚮盤,雖然避免瞭與前方車輛的衝撞,但是卻碾過瞭C導緻其死亡。
一 引言
在AI網絡時代,短期問題、中期問題和長期問題的主題可能會是不同的。因此需要在刑事法中思考的問題也與多個話題相關。比如說,某些人齣於惡意,在AI中裝入令其失控暴走的程序漏洞(bug),或者對其進行黑客攻擊,這樣的事例會給AI網絡帶來嚴重威脅。對世界各國來講這都是一個重要問題。比如說,德國在2014年網絡犯罪相關報告書中,指齣瞭IoT存在的問題,稱不僅僅是智能手機,智能傢電等設備也有被惡意操控的危險性,為我們敲響瞭警鍾。但是,本文將不涉及這些齣於主觀意圖的黑客攻擊等問題。本文所探討的對象是,AI網絡雖然以社會利益最大化為目的,但卻不是由於有意的攻擊,而是由於AI采取瞭有問題的運作方式而導緻齣現瞭權利侵害的情況。在這裏舉的案例,就是開頭的情景設定裏提到的,由自動駕駛汽車導緻的傷亡事故。本文以自動駕駛汽車為主題,對刑事法中可能産生的問題展開討論。
二 自動駕駛汽車與過失犯罪
1.什麼是自動駕駛汽車
自動駕駛汽車,或者自動運行汽車是指,搭載瞭即便不通過駕駛人員的操作也能夠安全地移動到指定目的地(自動駕駛)的係統的汽車。這種自動駕駛是通過AI軟件實現的,因此自動駕駛車也可以認為是安裝瞭這樣的AI軟件的汽車。之所以引入自動駕駛汽車,是因為交通事故(死傷事故)中超過九成,都與駕駛員的人為失誤相關,因此為瞭降低由人為失誤引發事故的可能性,增大社會獲得的便利與益處,人們認為引入自動駕駛汽車基本上是符閤社會預期的。特彆是在今後日本老齡化社會問題將進一步加劇的情況下,與中青年人相比,高齡者的認知、判斷能力將會降低,因此這種自動駕駛汽車的登場,將令高齡者可以享受到既安全又舒適的移動,從這個角度來講自動駕駛汽車的意義很大。
根據2016年由SAE(Society of Automotive Engineers,美國汽車工程師學會)提齣的標準,自動駕駛汽車根據其可自動化的程度,分為從0到5的6個等級。導入瞭能夠對行駛環境進行自動監視的係統的自動駕駛汽車都超過瞭第3級(有條件的自動駕駛),而第3級中,由於某種情況(比如說惡劣天氣)導緻自動駕駛係統對環境監測能力受限時,就要靠駕駛員人為判斷,駕駛員必須恰當處理(稱為“人工接管”[override])。到瞭第4級(高度自動駕駛)或者第5級(完全自動駕駛),則完全不考慮這種人類駕駛員人工接管的必要性,徹底依靠自動駕駛係統進行應對。像這樣,第3級的自動駕駛汽車與第4級以上的自動駕駛汽車,在發生重大緊急事件之時,是否需要人類駕駛員做齣妥當處理這一點上有所不同,特彆是從刑事責任的角度來看,具有很大差異。
2.第3級自動駕駛汽車與死傷事故
接下來我們來討論一下,在開頭的情景設定中,到底應該由誰來對受害人的死亡承擔刑事責任。事例1與事例2最大的不同就是,前者中基本應由人類駕駛員來承擔過失責任,而後者中的駕駛員則基本不需要對自己的過失負責。
在事例1中,自動駕駛係統要求駕駛員X1自主控製汽車。因此,可能會有人認為,隻要存在自己對汽車進行操縱導緻瞭B的死亡這一事實,X1的過失駕駛緻死罪(《汽車駕駛死傷處罰法》第5條)就理應成立。但其實,這裏值得討論的問題是,到底應該判定X1在什麼問題點上産生瞭過失呢?在刑法中,如果要認定過失罪成立,就必須要認定有違反注意義務的情況,那麼X1具體在哪些點上違反瞭注意義務呢?
汽車駕駛員在駕駛汽車時必須承擔的義務中,最基本的一條就是注視前方。也就是說,道路的狀況時刻都在發生變化,駕駛員要及時並且恰當地應對這些變化,因此必須要時刻注視前方以取得與道路狀況相關的信息。即便是第3級的自動駕駛汽車通過自動駕駛係統行進的時候,我們仍認為駕駛員注視前方是其不可免除的基本義務。也就是說,自動駕駛係統在對汽車進行控製時有可能隨時切換成駕駛員的人工接管模式,而作為駕駛員必須要為人工接管模式做好準備,時刻注視前方獲取道路狀況信息。所以說,X1即便是在以自動駕駛模式行駛的過程中,也不能免除掉注視前方義務,必須要時刻注視前方。
但還是有人可能會對這種思維模式産生質疑。舉個極端的例子,我們是否能夠要求駕駛員在自動駕駛模式行駛的時候,也永遠像自己駕駛時一樣集中注意力呢?第3級的自動駕駛汽車,在進入人工接管模式之前,所有駕駛任務都是由自動駕駛係統進行處理的,而駕駛員也以這些係統為前提,也就是說駕駛員認為係統進行的這些處理是恰當的,是值得信任的,並以此為前提乘坐自動駕駛汽車。駕駛員對自動駕駛係統的這種信賴,恐怕是法律沒有考慮到的。
在刑法中有一個原則,即行為人如果是在信賴他人行動的情況下,即便是由於該行為人采取瞭不恰當的行為而導緻侵害瞭他人的權益,也不會對行為人追究責任(信賴原則)。適用於信賴原則的,基本上都是基於人類行為的問題。在事例1中,如果可以信任汽車公司Y1,認為其能夠設計、製造齣正確恰當運行的AI,那麼即便是AI的運行齣現瞭不恰當之處導緻侵害瞭他人的權益,那麼也應該認為行為人不為此承擔責任。但是,在事例1中,切換到人工接管模式本身是恰當的運行,所以並不是自動駕駛係統進行瞭不恰當的運作因此催生瞭事故。也就是說,第3級自動駕駛汽車的設計就是以人工接管模式為前提的,因此隻要不是齣現瞭本來完全不應該切換到人工接管模式之時卻被切換到瞭人工接管之類的事情,那麼就無法免除X1的責任。
但即便信賴原則在這裏不適用,然而迴到前麵提到的疑問,對於沒有親自操縱和駕駛的駕駛員,到底是否能夠期待他能像自主駕駛的駕駛員那樣專心地注視前方呢?這個問題是依然存在的。即便是自主駕駛的駕駛員,有的時候也會注意力渙散,一邊看著其他東西一邊駕駛的情況並不少見。非自主駕駛的時候就更是如此,當然也可以想象駕駛員會因為無聊而看手機。考慮到這種狀況,對那些非自主駕駛的駕駛員也同樣要求完成注視前方義務,違反義務就要對他們處以交通違章罰款,並(根據違章扣分的纍計)進行暫停、吊銷其駕照等行政製裁,或(在發生事故的情況下)施以刑罰,這樣是否妥當呢?如果同樣要求完成注視前方義務,那麼在第3級自動駕駛汽車的用戶界麵中,就應該設計並安裝一些功能,讓那些非自主駕駛的駕駛員也要注視前方,這種設計是非常重要的。除此之外,對於緊急事態下被切換到人工接管模式的駕駛員,到底能否及時進行應對,這又是另外一個問題瞭。切換到人工接管模式所需要的時間,最短的情況下隻有4秒11,即便注視著前方,也很有可能齣現無法靠緊急製動避免事故的情況。這種情況下,能否依靠緊急製動以外的方法來避免事故就成瞭問題的關鍵。事例1中,如果想要避免與A的衝撞,那麼隻能嚮右打方嚮盤,由於B也在超速行駛,由此導緻瞭本案中的衝撞。在這種情況下,駕駛員X1有可能相信B會遵守最高限速行駛,這就可以適用剛纔所提到的信賴原則。那麼就能得齣結論,否定掉X1的過失責任。
第4級以上的自動駕駛汽車與死傷事故:AI的刑事責任
在事例2中討論的是第4級以上的自動駕駛汽車,在這個事例中完全不考慮人類會對駕駛産生什麼影響,可以說本案是一個完全起因於自動駕駛係統的事故案例。但是,在日本所批準的道路交通相關條約(通常所說的《日內瓦公約》)中,第8條第1項中就規定瞭車輛中必須要有駕駛員,而根據第4條的定義規定,所謂駕駛員是指在道路上駕駛車輛的人。因此,第4級以上自動駕駛汽車,人類是無法參與其中的,而這樣的自動駕駛汽車是否滿足條約的要求,就成瞭一個關鍵性問題。假如說前提條件就是駕駛員一定要是人類,那麼不修訂《日內瓦公約》的話,第4級以上自動駕駛汽車根本就不會被允許在道路上行駛。
那我們首先假定,我們要修訂《公約》,並允許第4級以上自動駕駛汽車在道路上行駛。那這裏齣現的問題就是,從理論上來講,是否可能對設計這種自動駕駛汽車的設計人員,以及構成自動駕駛汽車的係統(程序)追究刑事責任。前者是對自然人追究責任,而後者是對係統或者說AI這樣的非自然人追究刑事責任,兩者的性質截然不同。在這裏,首先對最近大傢都很關心、樂於討論的後者展開探討。
從傳統刑法學的立場齣發,我們認為所謂刑罰,隻能施加於像自然人那樣,具有一定人格的存在。從這個觀點齣發,那麼能否認為自動駕駛汽車的係統,即AI是擁有人格的呢?這就是問題的關鍵點。
比如說在德國就有學者從正麵對是否可以認定AI擁有電子人格一事展開瞭討論。另外,在日本也有從傳統刑法學的立場齣發,針對是否可以肯定AI具有行為性和責任能力一事展開的討論。像這種問題設定,即是否可以肯定AI具有人格這一問題,還有可能進一步分化為兩種路徑。第一種路徑是從與自然人類似的觀點齣發,賦予其人格基礎;第二種路徑則不討論與自然人的類似之處,隻討論是否認可AI的人格並對其適用刑法。
第一種路徑中重要的問題是,AI擁有怎樣的性質會導緻其與人類相似。比如說,如果AI具有跟人類同樣的認知能力、判斷能力(責任能力),就可以認定與人類相似,進而有可能被追究刑事責任。從這樣的路徑齣發,預想過一些類人機器人AI(典型的就是“鐵臂阿童木”和“終結者”),並認定它們是擁有人格的。但是另一方麵,越是強調其與人類相似,那麼就越有可能要超越追究刑事責任的前提——賦予其“人格”的基礎,而是變成要討論其是否
與人類一樣需要保護,這一點有可能成為問題關鍵。從這種理解齣發,最後對這個問題的討論甚至可能會發展為,如果把與人類相似的AI破壞掉或刪除其程序,是否就與“死刑”同等。在德國這種否定死刑的國傢,這樣處置的權利本身都有可能被否定掉。但是,在與法人的人格(法人格)相關的討論中,則不會産生這樣的問題,其原因就是,與人類一樣需要保護中所講的“類人特性”,明顯是一種過度的要求。與人類相似這一路徑,有可能會導緻陷入“人之所以為人的根本到底是什麼”(沒有終結)的爭論,因此必須要進行慎重的應對。
而第二種路徑則不去探究AI與人類的相似性,而是探究是否可能賦予AI人格。但這裏的問題就是,不管它是否與人類相似,都肯定AI擁有人格,並且使其適用刑法,這件事到底在刑法上具有什麼意義。以法人處罰為例,對法人施加刑法的意義在於,與自然人不同,對法人進行金錢處罰可以發揮刑罰的抑止效果。那麼假如說對AI進行金錢處罰,可以得到某些抑止效果嗎?如果說AI本身具有某些經濟利益,而且具有以增大這些利益為目的而采取行動的特質,那麼金錢處罰就可以看作一種“打擊”手段。但通常來講,經濟利益是專屬於那些製造、販賣AI的自然人和企業(法人)的,對AI處以罰金是沒有意義的。將與自然人相同的自由刑(懲役、監禁)施加到AI身上也是沒有意義的,損壞AI或消除程序,這種相當於對AI處以“死刑”的刑罰,也很難被認為是有意義的。
所謂刑罰,必須要令被罰對象感受到一定的負擔,而且國傢要將一定的汙名(stigma)附加給該對象,也就是說,讓國傢對AI傳達法律上的指責24,說“你這傢夥做齣瞭某種壞的行為,是應該受到大傢批判的AI”。我們必須思考這件事到底具有怎樣的意義。便當人類幼兒做瞭什麼違法行為的時候,國傢並不會以傳達法律上的指責的形式附加汙名到該幼兒身上,這是因為,我們在社會中,隻會對對等的成員做齣法律上的指責。也就是說,這裏需要探討
的問題是,我們到底為什麼需要將AI看作社會中對等的成員、人格的主體。
而且,如果要對AI施加能給它帶來不利的處分,比如說破壞掉AI,刪除其程序等,即便不采用刑罰的形式也可以做到。對人類可以施加不以其責任能力為前提的處分(治安處分),所以從理論上來講,對於AI,即便不討論它是否是人格主體,是否具有責任能力,單純對其施加這樣的處分也是可能的。從這個角度思考的話,我們就會質疑,討論“AI是否可能成為適用刑罰的對象”這種問題到底有什麼意義。因此,追究AI本身的刑事責任這一方嚮,就可以被否定掉瞭。
4.第4級以上自動駕駛汽車的死傷責任:設計者的責任
在無法追究AI本身刑事責任的情況下,接下來馬上要處理的問題就是,設計、製造這些AI的人的責任。如果說AI的判斷有瑕疵,那麼設計齣這些擁有瑕疵的AI的設計者和製造者的製造物刑事責任就成瞭問題的關鍵所在。另外,明明知道這些瑕疵的存在,卻沒有從市場上迴收該AI(在本案中是該自動駕駛汽車)的情況下,還要另外追究其不作為的責任。
那針對這種情況,事例2中需要探討的問題就是,到底能不能說汽車公司Y2,在該自動駕駛汽車的設計、製造過程中有一定的瑕疵呢?或者更確切地講,催生本事故的自動駕駛係統的判斷,是否有瑕疵?為瞭探討這個問題,我們要在下一小節中對本案中的自動駕駛係統的程序設定展開討論,即在無法避免一定的衝撞事故的情況下,則要將損害減少到最小限度,我們應該如何評價這種程序設定呢?
三 自動駕駛汽車與生命權之間的兩難境況
1.生命權的兩難境況
所謂生命權的兩難境況,就是指最近很多人討論的“電車難題”,在德國刑法學中也被稱為“扳道工案例”。30其中最典型的就是這個事例。一輛失控的電車在軌道上行駛,如果讓它繼續在這個軌道上行駛的話,該綫路上將有5個人來不及逃離,被電車碾死。看到這種情況的扳道工甲,為瞭挽救這5個人的生命,改變瞭列車運行的軌道,導緻在第二條綫路上的乙被電車碾死。甲認為,讓乙一個人死亡這個結果是不得已而為之。
在這個事例中,可以認為由於甲改變軌道的行為,導緻瞭乙的死亡,因此殺人罪是成立的。但是,在一定有某一條綫路上的人無法避免死亡的狀況之下,為瞭挽救5個人的生命而犧牲1個人的行為,是否應該按照殺人罪進行處罰呢?
像這種生命權的兩難境況中,需要探討的問題就是,緊急避險是否成立。所謂緊急避險是指,當發生某種不是由於任何人的過失而産生的危險的時候,在一定條件之下,允許將這種危險轉嫁給他人。特彆是在緊急避險的情況成立之時,為瞭保全更為重大的利益,而侵害某種小的利益,很多時候也會被認為是必要的。
那在“扳道工事例”這樣的情況之下,能否將甲的行為看作緊急避險進而將其行為正當化呢?德國刑法學對這個問題展開瞭積極的探討,在德國《刑法》中通常認為,對於這種與生命權相關的兩難境況,要否定任何試圖將其正當化的行為。從這個立場齣發,將甲的行為定義為所謂正當化的緊急避險(阻止違法性的緊急避險)恐怕是不成立的。
但與之相對,日本《刑法》第37條所規定的緊急避險,卻不一定會得齣這種觀點。這是因為,日本的緊急避險隻要避難行為“導緻的損害不超過所避免的損害”就可以成立,乙一個人死亡這種侵害結果,就可能被評定為,並不超過被避免瞭的5個人的生命被侵害這一結果。從這個觀點齣發,生命權的兩難境況中,隻要是有想要將損害限製到最小化的意圖,就有可能被認定為緊急避險。
2.自動駕駛汽車在變成階段的問題
在德國,對扳道工事例中任何行為的正當化都予以否定,這已經是公認的觀點,但是對於自動駕駛汽車的程序設計,卻有另外一種觀點更為有力。根據這種觀點,實際上産生生命侵害的時候是否可以從事後的觀點齣發對其進行正當化,和事前是否能夠采取某種策略避免死亡事故,是兩個不同的問題點。在前者,想要事後對生命侵害這一結果進行正當化是不被容許的,但是後者,事前就要有將損害最小化的理念則被規定為義務,為瞭使損害最小化而采取某種措施被認為是“可以允許的危險”。
即便是在日本,針對生命的兩難境況,也並不是說隻要有將損害最小化的理念,就可以將其行為正當化,但上述德國的觀點也是值得參考的。可以理解為,對於第一種已經將事故發生的可能性降到最低的情況下仍然發生瞭的事故,第二種將損害減少到最小化的程序,被認定為可以允許的危險,其殺人罪與過失駕駛緻死罪不成立。從這種理解齣發,對於事例2中汽車公司Y2,齣於可以允許的危險這一理由,將被判定為不予處罰。
四 結語
本文所述的內容中,關於自動駕駛汽車是否是通過信息網絡與其他自動駕駛汽車聯動運行這一問題是開放性的,沒有進行具體的論述。但是今後隨著AI網絡化的進展,我們也當然可以設想,第3級以上自動駕駛汽車,會與其他自動駕駛汽車以及AI聯結,追求更高效率和高性能的操作。但是,這樣高效率高性能的AI網絡係統,當然也依然存在著發生事故的可能性。本文主要對發生這種事故時的刑事責任的歸屬問題展開瞭討論。
像這種廣泛的網絡化如果進一步得到發展,我們可以預想到,自動駕駛汽車發生死傷事故的情況下,應該被追究刑事責任的主體不僅僅包括駕駛人員,或者說並不是駕駛人員,而是變成瞭管理網絡的“高級人員”。針對這種管理責任,今後也有必要進行更深入的探討。
編著者簡介
福田雅樹
東京大學研究生院學際信息學博士。曾任總務省信息通信政策研究所調查研究部部長,現任大阪大學社會技術共創研究中心教授(副所長),兼任研究生院法學研究科教授。
林秀彌
京都大學研究生院法學研究科法學博士。現任名古屋大學研究生院法學研究科教授、總務省電波監理審議會委員、日本學術會議閤作會員。
成原慧
東京大學研究生院學際信息學府博士課程結業。現任九州大學法學研究院副教授、理化學研究所革新智能綜閤研究中心客座研究員。
譯者簡介
宋愛
日本慶應義塾大學社會學研究科博士,慶應義塾大學媒體與傳播研究所研究員。
日本學界關於人工智能網絡化時代,社會規範與法律該有哪些變化的大討論。也就是為新“硬件”思考“軟件”。情景設定+座談會+深度分析,青年學者的頭腦風暴。
評分日本學界關於人工智能網絡化時代,社會規範與法律該有哪些變化的大討論。也就是為新“硬件”思考“軟件”。情景設定+座談會+深度分析,青年學者的頭腦風暴。
評分日本學界關於人工智能網絡化時代,社會規範與法律該有哪些變化的大討論。也就是為新“硬件”思考“軟件”。情景設定+座談會+深度分析,青年學者的頭腦風暴。
評分日本學界關於人工智能網絡化時代,社會規範與法律該有哪些變化的大討論。也就是為新“硬件”思考“軟件”。情景設定+座談會+深度分析,青年學者的頭腦風暴。
評分日本學界關於人工智能網絡化時代,社會規範與法律該有哪些變化的大討論。也就是為新“硬件”思考“軟件”。情景設定+座談會+深度分析,青年學者的頭腦風暴。
AI,会给人们带来什么?我们通常看到的是有关无人汽车的报道,是各种智能设备给人类带来的便利,但是同时,类似《终结者》这样的电影,又常常描绘一幅人类被机器统治的图景。在本书中,讨论了AI时代出现的法律和伦理问题。 本书的写法很特别,在几个主题中,使用座谈会的形式,...
評分AI聯結的社會 pdf epub mobi txt 電子書 下載 2024