【專題投稿】人工智慧與法律研究新訊

論法律人工智慧系統與法治理念的緊張關係

– 初探技術開發的道德許可性

陳弘儒

(國立清華大學通識教育中心)

 

摘要

法律人工智慧系統(Artificially legal intelligent systems; ALIs)之出現對於法治具有一個關鍵影響。此關鍵影響透過功能履行的角度可以被呈現為:判斷權限移轉之兩難。當法律人工智慧系統越來越成熟,法律體系在初次判斷權限之劃定上會面對到如何分配判斷權限的難題。一方面,人在當代法治理念下仍舊是核心概念,因此如何維持個人道德自主性是法律的重要課題,另一方面在功能主義的想法下,當法律人工智慧系統越來越成熟時,我們似乎越來越有理由將任務交給人工智慧系統來做。而這種判斷權限之移轉我認為會與法治價值產生根本的牴觸。簡單來說就是個人道德自主性判斷空間的壓縮,因此我希望本文可以較為清楚地呈現這種緊張關係是如何存在的。但緊張關係的存在並未向我們指出如何解決這個難題,因此在文章後半段我將以作為思想試驗的電車難題作為一個出發點,提出我們可以運用何種方式針對法律人工智慧系統之法律可容許性畫出一個運用之底線。

 

目錄

一、前言……………………………………………………………………………………………………….. 1

二、權限移轉之難題……………………………………………………………………………………… 3

三、法治的理念與概念觀………………………………………………………………………………. 5

四、道德自主性作為法律人工智慧系統的規範底線……………………………………….. 7

五、思想試驗作為檢測法律人工智慧系統的方式…………………………………………… 8

六、學習與機器共存?………………………………………………………………………………….. 9

 

一、前言

自動駕駛車輛(self-driving cars:自駕車)是當前人工智慧技術應用的實現場域。李開復就指出,「我們也許還無法準確預測,全功能、最高等級的自動駕駛汽車,會在什麼樣的時間點,真正走入普通人的生活。但毫無疑問的是,在這次人工智慧的熱潮中,自動駕駛一定是最大的應用場景。」[1] 從SAE International J3016標準的區分來看[2],現在的自駕車技術發展約已要從第三級進入第四級時期,這個技術分級意味著自駕車幾乎可以履行絕多數人類在動態駕駛任務中所需要的功能,例如油門、方向之控制、感測外界環境以及駕駛環境出現緊急狀況時的反應機制等等。而美國也在2016年由National Science and Technology Council Committee on Technology所出版的Preparing for the Future of Artificial Intelligence中,提及自動駕駛車輛或航空器的技術發展與對其進行政策管制的必要性[3]。因此,在這一場人工智慧技術應用的實際場域,法律所要扮演的角色是關鍵。

從自駕車例子中,可以見到法律必須面對人工智慧系統之發展。而法律面對之方式可以有兩種取徑:第一種取徑將人工智慧視為一種技術(technology), 以下的意義它具有中立性:作為技術它既可為好與壞的目的而服務。例如,一個鐵鎚可以用來蓋房子,也可用來殺人。在此意義下,技術具有中立性。由此而延伸的一個管制觀點是,法律需要對於人工智慧系統的「應用」及其「影響」加以管制。第二種取徑不認為技術是中立的,相反的技術之設計往往會具有價值蘊含在其中[4],從這個觀點來看,技術本身是由人所設計的,因此具有一些規範性的價值在其中。

梳理上述兩種對於人工智慧系統的取徑有助於我們分析當前其在法律上的諸多爭議類型。自駕車的例子讓我們見到法律需要將自駕車視為一個技術物,其應用與影響是法律體系必須加以面對的。但是,我們不能僅止於將人工智慧系統視為一種技術物,因為法律也逐漸地運用人工智慧系統而達成其許多任務。如果我們僅將人工智慧系統視為一種技術物,忽視其背後可能涉及到價值與法政哲學課題,會忽視了其系統與既有法律體系可能產生的緊張關係。此外,藉由上述兩種取徑我們可以進一步梳理出法律在面對人工智慧系統的層次問題:

首先、許多人工智慧系統之社會應用的確會產生法律議題,目前最熱門的就是「自駕車」的刑事責任、民法責任與保險議題等等。此類議題的定位將人工智慧系統定位為技術(technology),然後思考既有的法律釋義學理論是否有辦法處理此類技術物對於人類社會的影響。[5]

其次、除了將AIs視為產生法律爭議的「原因」之一外,也可以發現法律體系本身也會運用許多AIs協助其自身履行法律任務。例如法律扶助基金會與東吳大學等合作,針對法律扶助案件之分案系統建立起分案標準與預測系統等等。

第三、我們也發現到法律體系不僅利用AIs「輔助」自身的任務履行,在許多例子之中法律體系甚至也使用AIs替代原本的法律內行動者之判斷,例如台鐵的人臉辨識系統之運用或是桃園市的「交通正義」專案等等。

讓我們將上述第三個層次的人工智慧系統於法律任務之履行的應用稱之為「法律人工智慧系統」(Artificially legal intelligence systems; ALIs)。[6]這種法律人工智慧系統的設計特色在於,它的設計目標就是要履行法律人的特定任務。而要判斷它履行的好與否取決在特定效能指標,這個效能指標通常與法律人相比較。換言之,只要一個法律人工智慧系統在其功能履行上與一般法律人不相上下,我們可以說它已通過效能指標的檢視。至於該系統之功能多寡與任務之複雜程度不是此處的重點,例如一個人工智慧系統可以只要做一件很單純的任務,例如辨識爭點或是書狀產出等等。[7]

上述第三類的法律人工智慧系統是本文所關注的重心。筆者先將結論呈現出來。以取代法律的特定功能履行為主的法律人工智慧系統會與法治(the rule of law)產生緊張關係,這樣的緊張關係來自於當代的法治的核心理念是一種對於個人自主道德判斷的想像,法治要求個人必須行使他的道德判斷能力,藉以衡量法律之內容與其自身理據的關係,換言之個人必須思索法律對其而言到底有多重要,從而判斷自身是否要臣屬於法律之中。然而,法律人工智慧系統的發展可能會摧毀這個奠基在人文主義精神的價值,或者試圖壓縮個人自主道德判斷的空間。從這個角度來看,法治與法律人工智慧系統具有一個內在緊張關係。在初期這種緊張關係不會太明顯,然而隨著法律人工智慧系統的功能履行越來越多樣或是效能越來越好時,這種緊張關係會越來越凸顯出來。這篇文章的基本目的就是針對此種緊張關係給予一個清晰的分析架構。

二、權限移轉之難題

Frank Pasquale在一篇很有趣的文章之中討論到了,法律人工智慧系統之設計(或是法律未來學者)往往將ALIs視為一種可以替代法律人特定任務的創造物。[8]也因此,ALIs所產生的是替代效果(substitute effect),因為它可以替代法律人做出判斷(注意它本身能不能判斷不是重點,而是它可以「做出」判斷)。例如,罰單撤銷書狀的編寫系統(取代了法律人的諮詢)、判決書產生系統(取代了法官的寫作過程)或是量刑系統(取代法官對於刑罰目的之判斷)等等。

Pasquale 本身反對這種以替代為主要設計裡面的法律人工智慧系統之設計,因此相較於AI這個概念,他提出IA(intelligence augmentation)。換言之,ALIs必須是輔助人類做出判斷,而不是取代人類做出判斷。他所提的理由是,這種替代性的法律人工智慧系統會與法治的理念相牴觸

筆者與Pasquale的立場相一致,但是我認為他的分析方式是錯誤的並未看見真正的核心問題。

例如,法律人工智慧系統似乎可以促進法律的穩定性與可預測性,而法治的重要價值之一就是穩定性與可預測性:藉由著法律規範適用於個案的可預測性讓社會成員彼此的行動產生協調結果。[9]例如,當法律規定駕駛車輛應行使於道路之右側,這個規定之存在與執行確保了用路人得以預期他人之行動,並且透過此一預期協調自身的行動反應。因此,Frank Pasquale 的觀點並不完全站得住腳,我們似乎可以堅持一種很薄的法治觀(a thin conception of rule of law),要求法律體系具有高度穩定性與可預測性,如此一來可以跟法律人工智慧系統之發展相容。

根據筆者的初步考察,Pasquale或是很多探討人工智慧基礎法律課題的學者皆忽視了從工程面向而來的基本觀點:功能履行的重要性。人工智慧系統在設計時,基本上就是一個外包(outsourcing)概念。簡單來說,就是將原本人類可以做的事情交給一個人工智慧系統來做[10]。因此,在系統設計上,人工智慧系統具有特定的功能取向(functional approach),它要履行的是原本透過人來履行的任務。關鍵的課題是,當某個對象針對某件事(X)的履行跟我們一樣好的時候,我們似乎有個理由可以將X的履行交給那個對象來做,讓我們將這個稱之為「判斷權限之移轉」命題。

法律上面對的問題倒不是,要將原本屬於我的判斷權限移轉到人工智慧系統上出現問題,因為法律可以針對權限進行初次分配,儘管某個對象做的比我好,他還是不能夠擁有我所擁有的判斷權限。例如法官助理即使寫判決書寫得比法官好,我們也不會認為法官應該要移轉他對於案件之判斷權限給助理。法律上面對的艱難問題是:當我們必須「初次分配」判斷權限給兩個對象時,兩個對象的能力不相上下之時,要將判斷權限分配給A或B都是許可的!我們可以說這是判斷權限的無差別性。而支持此種判斷權限之無差別性的條件在於A與B在特定功能履行的能力上不相上下。

至此,我們發現了法律人工智慧系統所產生的基本問題,我稱為「判斷權限移轉之兩難」。一方面,在正統的法律理論與思維之中,「人」仍舊是行使判斷權限的主體,例如法官聽審、檢察官針對犯罪起訴、律師撰寫訴狀以及檢視證據等等。人是法律上行使判斷權限的主體。另一方面,現今的法律人工智慧系統之設計越來越傾向替我們做決定(make a decision for lawyers)。因此,我們似乎有理由將某件事之判斷交給ALIs來做。在人工智慧系統以功能履行為主要設計想法的發展下,判斷權限可能會越來越從人移轉到人工智慧法律系統身上。然而,即使可以堅持人類擁有最終的審核權限,但是這不意味著判斷權限沒有移轉,相反地這隱含著權限移轉之可能,所以才需要人類審核的機制。

要理解這個判斷權限移轉的過程,必須精確地掌握人工智慧系統的設計想法。「功能履行」的概念,這便是掌握判斷權限移轉的關鍵之處。根據Stuart Russell 以及 Peter Norvig 的Artificial Intelligence- A Modern Approach一書,人工智慧系統基本上就是履行特定功能人造系統,此種人造系統可以針對環境進行偵測(或是感知),然後發現環境所具有的特徵,並且具有回應環境之能力,而當環境改變時系統可以感知環境之改變並且做出相對應之改變。這種核心的人工智慧系統觀念就是功能主義(functionalism),[11]從心靈哲學上來看,功能主義認為某個對象之所以擁有特殊心理狀態並不取決在它的內在結構,而是在於它在某個整體中所具有的角色或是能力。因此,功能論不太在意執行特定功能的對象在構造上是否與人一樣,而是在意這個人造物可以履行何種能力以達成特定功能。

因此,從功能主義的視野中可以見到法律人工智慧系統的核心問題:假設法律的某個功能可以適當地透過人工智慧系統之設計而被履行,那麼我們究竟有何理由拒絕將該功能之履行從原本的人身上移轉到法律人工智慧系統之中?我們甚至可能認為,一旦某個人工智慧系統之功能履行原比人還要好的時候,交給該系統似乎是更好的選擇!例如,人流統計、停車開單、人別辨識、書狀撰寫以及證據判讀等等。

在適當表述出判斷權限移轉之問題之後,接下來我將說明為何法律人工智慧系統會與法治理念產生扞格?

三、法治的理念與概念觀

法治(the rule of law)是當代法律體系一個重要的特性,Joseph Raz稱之為法之自性(The Law’s Own Virtue),而法治也是一個厚的概念(a thick concept)。本文並不是一篇主要研究法治的文章,因此僅以當代在法律理論研究者:Richard Fallon的觀點為出發點,將說明五個法治的基本要素以及四種法治觀。並且試圖從法律人工智慧系統的角度思考其與四種法治觀是否相符合。

Fallon指出,法治有五個基本要素:

  1. 法律規則或原則有能力(capacity)去指引人們的行動。人們必須能夠理解法律的要求是什麼。
  2. 法治具有實效性(efficacy),這意味著各種法律應該要能夠真正地指引人民行動。
  3. 法治具有穩定性要素(stability),如此一來才能歷時性地促進合作(facilitate coordination)與實現計劃。
  4. 法治就是法的至高性。(the Rule of Law is the supremacy of legal authority),在這個意義上法治與人治是相對比的,法律應該要統治官員,也包含了一般公民。
  5. 法治意味著公正司法(impartial justice)的實現,法院應該要採用公平程序等等。

我們可以見到Fallon這五個條件也分別對應到重要的法律功能以及原則。第一個要素是法律指引行動之能力。第二個要素是法的實效性。第三個要素是行動協調的能力。第四個是至高性。第五個則是程序正義的要求。Fallon進一步指出四種法治概念觀,分別為歷史主義式、形式主義式、法律程序學派以及實質理念的法治概念觀。以下簡單說明之:

  1. 歷史主義式理念型(The Hstorical Ideal Type):歷史主義式的法治觀將法治與立法機關所制定之規範聯繫起來,強調規範制定的立法重要性,因此法與政治是不一樣的。
  2. 形式主義(formalism):規則作為法律的基本形式規範人類行動。而在這個觀念下的人性觀是人類是一種理性計畫者以及效益最大化者,藉由著知悉規則的內容安排其行動。
  3. 法律程序學派理念型:這個概念觀主張法治必須要滿足法律規範在建立與適用過程中的公平性、法與合理性的內在聯繫、對於法律權威行使的合理說明(reasoned elaborations)以及保障程序公平性的司法審查等等。
  4. 實質理念型:這個理念型強調法治隱含(imply)著法的可理解性(intelligibility of law)是作為指引人類行動的道德權威而存在的,這意味著當你缺少了合理可辨識的目的時,其實法是缺少可理解性的,因為欠缺這個目的就不具有對於道德指引的宣稱。[12]

在思考法律人工智慧系統是否與法治產生緊張關係時,一個簡易切入點是探討法律人工智慧系統是否與上述四種概念觀相符合。我們可以見到,法律人工智慧系統可能可以與第一種跟第二種法治觀相符,然而第三種與第四種則有明顯的牴觸。理由簡析如下:

第一,歷史主義式的法治觀強調「法律」與「政治」之差異,因此法官之主要任務就是說出由立法者所制定出之法律的意義。因此,立法者所制定之法律規範雖是經由政治過程產出,但本身不是政治物。我們可以設想,如果法律規範本身可以被程式化(computationalized),那麼此類的法律人工智慧系統之應用本身並未「超越原本法律規範之內容」,因此也不容易牴觸歷史主義式的法治觀。當然這裡有個基本問題是:是不是法律規範可以被程式化?或者轉化為程式?

第二,形式主義的法治觀著重法律規範對於人類行動之協調功能,這個協調功能之所以可以產生是因為法律知識用具有可預測性(predictability)。從這個角度來看,法律人工智慧系統(不論是專家系統或是機器學系系統)皆可能可以符合形式主義的法治觀。原因在於,一旦法律人工智慧系統妥善地可以履行特定功能時,由於其運算之本質,因此可以為適用法律規範之人提供相當可預測性。然而,必須要注意的是,通常形式主義的法治觀是以Hayek 為主要理論來源,但是Hayek在其關鍵論述之中,認為「可預測性」必須留給個人做判斷,因此在這個意義下必須將選擇的機會留給個人,如果國家可以精準地預測行動的結果,那麼將摧毀個人選擇之可能性。因此Hayek說:「If we want to create new opportunities open to all, to offer chances of which people can make what use they like, the precise results cannot be foreseen.」這個觀念很重要,我們將會在下文回頭反省這個論點。

第三,法律人工智慧系統與法律程序學派的法治觀是不相容的,原因在於以機器學習為主要演算法設計理念的人工智慧系統長期以來受到「黑箱社會」(the Black Box Society)的批評,認為決策的演算過程不僅是不透明的,也是我們人類所無法理解的。然而,更精確地質疑或許在於「可解釋性」(interpretability)這個課題之上。即便我們可以將類神經網絡攤開來看,但是我們對於如何解釋特定決策之產生過程仍然面對許多問題。但是有人認為,這是人類的知性理解力的限制,與人工智慧系統無關。我認為,這裡必須仔細區分幾種可能性。人類是透過概念之內涵理解這個世界,佔據概念內涵的核心就是意義(meaning)。物理現象或是表徵有其重要性,但是對於人類行動而言意義仍舊占有關鍵的位置。因此解釋(explain)物理現象與理解(understand)行動(或決策)之意義(the meaning of an action)是兩個不同層次的知性活動。除非我們將對於物理現象之說明等同於說明,否則仍需要面對機器學習之決策的意義問題。因此即便類神經網絡可以攤在陽光下(破除黑箱),我們仍面對到如何解釋決策過程的問題。這就涉及到法律程序學派中的 reasonsed elaborations 如何實現的課題。

第四、如果當前的法律人工智慧系統通不過法律程序學派之要求的話,那麼實質理念型的法治觀也具有相當的疑慮。因為,實質理念型意味著將法的可理解性(intelligibility of law)作為核心要素,讓社群成員得以理解「為何麼法律如此規定」藉以協調自身行動。這意味著法律必須要有「目的」,然而從當前的法律人工智慧系統之設計來看,法律的目的僅能在一個很小很小的限度下被運用,也因此我們可以較為肯定的說實質理念型法治觀幾乎是法律人工智慧系統不可能達成之目標[13]

四、道德自主性作為法律人工智慧系統的規範底線

在上述四種法治概念觀之中,筆者已經說明第一與第二種法治觀是可能可以跟法律人工智慧系統相容的。但是,我們仍未處理前述關鍵課題:判斷權限移轉之兩難,要處理這個問題必須思考法治內的人之圖像是什麼這個課題。我們可以發現到上述四種法治觀皆預設了一種道德自主性的個人圖像,認為受法所拘束而行事的個人是基於自身對於法律的理解而將自身臣屬於法律之下。因此,如果我們要法律人工智慧系統的妥適性必須回到此類系統與人的關係是什麼這個基礎問題上。

法治(the Rule of Law)是將社會成員的行動置於法律規則的治理之下,因此對於法律的可理解性(intelligibility)是我們要求社群成員遵守法律的基本條件。簡單來說,依法治理涉及到的是一種對於行動者遵守法律的能力期待,我們希望希望行動者是一個負責的主體、有能力理解與依循法律,以及能夠針對他自身的錯誤給予修正或是回應。簡單地說,法律並不是僅要求社會成員行動與法律一樣(或一致)而已,法律所希望達成的是社會成員理解為何自身要遵守法律。因此,法律的可理解性(intelligibility of law)不是一個形式意義的要件而已,不僅是單純要求國家將法律的內容給公布或是使用人民可理解的文字而表述出來。法律的可理解性所表徵的是,國家將經由民主程序(或集體決策)的一般性規範讓社會成員理解,並且可以讓社會成員理解該規範內容之道德意涵,至於該法律規範之重要性程度高低是由社會成員自主決定與判斷的。換言之,一個負責任的社會成員會在具體的情境之中審視思量法律規範的重要性,並且讓法的重量與自身所考量的理據重量權衡與比較,法律並不決定我們「應該」做什麼,法律是我們衡量如何行動的「理由之一」,個人仍保有決定「作為理由之法律」到底有多重要的判斷權限。

如果上述對於法治觀念的人的圖像說明是正確的,那麼我們可以說法律人工智慧系統之使用具有一個很簡單的規範底線:它不能夠將法律主體的道德自主判斷空間極度壓縮,從而僅讓法律主體將遵守法律是為唯一理由。上述這個分析構成了反對功能主義為主的法律人工智慧系統,因為如果我們不區辨出某些系統是替我們進行道德決策的話,其實我們就潛在地將判斷權限給移轉出去。

五、思想試驗作為檢測法律人工智慧系統的方式

我上述的分析不是完全反對法律人工智慧系統的使用,而是希望指陳出來現今的理性法觀念下,法治具有一種對於個人道德自主性的想像與維護。短期內,我們需要思考此種道德自主性如何可能與法律人工智慧系統產生扞格。上述的結論所指出來的是一個規範基準線(normative baseline),但並未說明這種規範基準線如何畫出來?這一小節要處理的便是這個議題。

思想試驗是一個非常有用的概念工具,讓我們得以畫出法律人工智慧系統應用的規範基準線何在?筆者已在另外一篇剛完成之文章探討思想試驗(Thought Experiment; thereafter TE)的功能與意義,在此我謹簡短地說明思想試驗可以提供的貢獻。在人工智慧的討論中,最著名的思想試驗莫過於電車難題(the trolley problem),然而諸多討論是將「電車難題」視為一個由自駕車所扮演的碰撞倫理課題來探討,並且進一步思索是否自駕車之選擇行動可以作為民事或是刑事責任上的課責主體,此類的討論非常重要。但是,從筆者角度來看,作為思想試驗的電車難題向我們指明了,自駕車在遇到緊急情況中的「選擇本身之道德屬性」(the moral property of the decision itself)是會隨著自駕車對於環境感知系統所偵測到的特徵以及該項特徵如何運算所影響的。這是一個複雜的課題,在此不加以詳述。筆者僅想要指陳一件事:自駕車之碰撞系統「如何設計本身」與自駕車的「決定」的道德屬性具有高度關聯。這是工程設計上不可不慎之處。

回到本文的問題,筆者認為我們可以透過思想試驗的方式檢測到底哪一種法律人工智慧系統之運用會觸及法律主體的道德自主性判斷。Lawrence Solum在Legal Personhood for Artificial IntelligencesArtificial Intelligent Law兩篇文章中各以類似的例子(信託管理與交通管理)進行分析[14]。其結論之一是當法律人工智慧系統之應用越來越可以針對其所處之環境進行偵測、改變規則以及執行規則之效果(例如即時判定與處罰)等,我們會發現到他會漸漸地法律核心價值產生緊張關係。Solum更指出一點,認為我們應該多嘗試思想試驗,將其場景應用在不同的社會事務之中,例如交通管理、罰單撤銷文書撰寫、都市規劃、人口遷徙管制、獄政管理、移民數額之分配等等,漸漸地我們會發現到某些事務之判斷可能是我們不願意移轉出去給法律人工智慧系統做判斷的,即使它可以做得很好。

從Solum所提的角度來看,我希望指出一個核心判斷命題:法律應該重視功能主義,當法律體系在思考某些法律人工智慧系統是否可與既有的法律體系內的價值相容(compatible)時,我們必須問以下幾個關鍵問題:

第一、該項系統之履行功能(performative fucntion)為何?為了達成該項功能之履行,它必須擁有何種能力(capacity)?

第二、該項系統之功能對等物在既有法律體系中是如何運作的?

第三、該項系統之功能履行所涉及到的是否為核心法律價值領域?

上述三個問題僅是一個初步勾勒,我們可以在各個主要問題中分殊畫個多子題,例如諸多相異功能之系統是否可以整合?法律體系對於既有功能之運作是否僅以效率為主要考量?核心法律價值的價值列表是什麼等等。

六、學習與機器共存?

筆者已在本文中初步勾勒出法律人工智慧系統與法治的緊張關係。我們或許必須要認識到上述的建議不是一個可以長久堅持的過程,因為功能主義的特色就是不重視本質要素,因此或許有一天當某個法律人工智慧系統之功能履行越來越好且整合性越來越高時,我們逐漸發現到它即使在物理組成的層面不具有與人相同的物質內容,但是它仍舊可以擁有心智的某種能力展現。我們不需要說,它「有」心智,但我們可能會認為他可以履行某種心智能力。如此一來會逐漸改變我們與法律人工智慧系統的互動關係。屆時,會面對到我們是否需要納入新的價值裡面,重視此種法律人工智慧系統藉由著展演能力而產生的道德判斷或是道德性,這便是另一個更長遠需要面對的課題。

此外我們的確需要有一種新的視野,思考所謂做決定(make a decision)不一定是需要人類智性能力的擁有才可以。Decision意味著區分(distinction)而這正是機器學習在任務取向下的基本目標。我們也不應該迴避機器替我們做決定的這個基礎課題,反而必須正視功能主義下法律究竟可以為做決定所需要的判斷權限畫下何種界線。

[1] 李開復,王詠剛著,人工智慧來了,頁209,遠見出版,2017年。

[2] J3016文件是由SAE International 在2014年所發佈的針對自動駕駛系統之分級所給予的技術性說明與定義,這份文件在2014年發布,2016年第一次修正,而2018年6月是第二次修正。相關文件可以參考,SAE International的網站:https://www.sae.org/standards/content/j3016_201401/  (最後瀏覽日:2018年10月24日)

[3] Executive Office of the President National Science and Technology Council Committee on Technology, Preparing for the Future of Artificial Intelligence issued, p. 17-22, 2016.

[4] Hannah Fry(林志懋譯),打開演算法黑箱,城邦出版,2019年。

[5] 相關文章可以參考,吳從周,「初探AI的民事責任」,收錄於『人工智慧相關法律議題芻議』,頁89-119,元照出版,2019、李榮耕,「初探刑事程序法的人工智慧應用」,『人工智慧相關法律議題芻議』,頁120-152,元照出版,2019年。

[6] [add citation from Hildebrandt’s article]

[7] [Cite Artificial Intelligence- A Modern Approach by Stuart Russell and Peter Norvig]

[8] [ Frank Pasquale, “A Rule of Persons, Not Machine: The Limits of Legal Automation”, SSRN Article]

[9] 法律作為計畫而協調社會行動的觀點不是一個新想法,而近期理論性的討論,請參考,Scott Shapiro, Legality, pp. 132-134, Harvard University Press, 2011.

[10] 當然這個觀念是過於簡單,例如很多人工智慧系統可以做到原本人做不到的事情,但這仍就是一種外包。

[11] [Cite Functionalism at SEP Entry.]

[12] Richard Fallon, “”The Rule of Law” as a Concept in Constitutional Discourse”, Columbia Law Review, Vol. 97, No. 1, pp. 10-24, 1997.

[13] 這部分筆者已經有另外一個初步研究出現,基於篇幅考量在此無法詳加論述。但是,該研究指出,對於目的之掌握與目的解釋之運用是法律人工智慧系統運用之瓶頸,這個瓶頸幾乎無法被克服,原因在於目的的連結與去連結性質。

[14] [Cite Solum’s two articles.]