91无码视频一区|蜜臀福利在线观看|日韩一极黄色视频|色欲人妻少妇Av一区二区|婷婷香蕉视频欧美三级片黄色|一级A片刺激高潮|国产精品污污久久|日韩黄色精品日韩久久综合网|中国一级片电影在线|超碰乱码久久久免费

擬議的歐盟人工智能責任規(guī)則:輕松還是負擔?

商界觀察
2022-11-10

針對人工智能技術的商業(yè)開發(fā)和應用監(jiān)管,科技公司和政府監(jiān)管者正在全球激烈博弈。歐盟的監(jiān)管者就要求科技公司確保其人工智能產(chǎn)品在開發(fā)時就采用一些減輕潛在危害的方法。

監(jiān)管者的責任義務能否通過設定規(guī)則順利實現(xiàn)?奧斯陸和平研究所(PRIO)研究員Samar Abbas Nawaz用一篇文章分析了其間存在的現(xiàn)實挑戰(zhàn)?!痘ヂ?lián)網(wǎng)法律評論》今日摘譯該文核心觀點,供讀者參考。

 

“誰該為人工智能(AI)系統(tǒng)造成的傷害負責?”是人們在使用人工智能系統(tǒng)時的普遍擔憂。歐盟委員會自從2021年提出要對人工智能系統(tǒng)進行監(jiān)管后,目前正在設法解決這個關鍵的責任問題。

 

監(jiān)管人工智能技術的安全使用并不是一件容易的事,但是確保人工智能系統(tǒng)的安全使用對立法者來說是至關重要責任。根據(jù)擬議的兩項指令(directives),歐盟委員會旨在通過強加責任的規(guī)則來保護人工智能的受害者。因此,我們有必要分析這些規(guī)則在多大程度上解決了責任問題,并使受害方更容易就所造成的損害獲得損害賠償。

 

1.歐盟人工智能責任規(guī)則的背景

 

2020 年,歐盟委員會發(fā)布了一份關于人工智能的白皮書,承諾解決與使用人工智能系統(tǒng)相關的各種風險。隨后在 2021 年提出了一項提案——《人工智能法案》(AIA,目前尚未通過)。

 

擬議的法案通過區(qū)分被禁止的高風險的人工智能系統(tǒng),提出“對個人的有害風險降至最低”的重要要求。“被禁止”的人工智能系統(tǒng)包括實時生物特征識別、社會評分或操縱性人工智能系統(tǒng)(第 5 條)。更嚴格的要求適用于高風險人工智能系統(tǒng)。“高風險”人工智能系統(tǒng)受歐盟統(tǒng)一法規(guī)(第6條)的合格評估要求的約束,有更嚴格的要求——這些系統(tǒng)只有在符合規(guī)定的風險管理系統(tǒng)、透明度、人工監(jiān)督、適當?shù)臄?shù)據(jù)質量和有效的網(wǎng)絡安全要求的情況下才能使用。

 

但是,一旦這些風險成為現(xiàn)實并且有人受到傷害,后果如何?如何追究相關責任?為了解決這些問題,歐盟委員會最近提出了兩項指令:即《人工智能責任指令》(AILD)和修訂后的《產(chǎn)品責任指令》(PLD)。當人工智能系統(tǒng)造成傷害時,AILD為證明某人的錯誤鋪平了道路。用法律術語來說,它可以被視為一種“基于過錯的責任”機制。修訂后的 PLD 在損害是由 人工智能系統(tǒng)的缺陷而不是由于某人的過錯造成的情況下很有用。因此,它建立了“無過錯責任”規(guī)則。這一努力背后的想法是增強公眾對人工智能技術的信任,并為參與開發(fā)這些系統(tǒng)的企業(yè)提供法律上的明確性。

 

2.《人工智能責任指令》 (AILD)

 

AILD 的內容主要包含了人工智能系統(tǒng)之于受害者的兩個假設,以及信息披露。

 

在擬議的指令中可以找到兩個假設:一種適用于不遵守注意義務,另一種適用于過錯與輸出之間的聯(lián)系,稱為“因果關系推定”

 

簡單來說,“因果關系推定”假設人工智能系統(tǒng)造成的損害是由于提供者或用戶的過錯造成。如果提供者或用戶(無論案件中的被告是誰)——即使在國家法院下令披露后——仍未提供有關相關系統(tǒng)的信息,則該推定生效?!肮獭痹?AILD 框架的背景下,被定義為制造商或任何以自己的商品名稱將給定的人工智能系統(tǒng)投放市場的機構?!坝脩簟笨梢允窃谄涫跈嘞率褂萌斯ぶ悄芟到y(tǒng)的任何人。

 

然而,被告可以通過舉證來推翻這一因果推定——人工智能系統(tǒng)可訪問信息足以證明是系統(tǒng)的錯誤(如果有的話)。如果供應商違反了相關法律規(guī)定的注意義務,以及AIA有關數(shù)據(jù)質量、透明度、人力監(jiān)督、網(wǎng)絡安全的任何要求,或在發(fā)現(xiàn)故障時未退出給定系統(tǒng),則供應商將承擔責任;另一方面,如果用戶違反使用說明或將系統(tǒng)暴露于不相關的輸入數(shù)據(jù),則用戶將承擔責任。

 

關于如何提供有害的人工智能系統(tǒng)信息,AILD 允許受害者通過國家法院尋求信息披露(第 3 條)。為確保人工智能系統(tǒng)的透明度,擬議中的AIA第13條也有關于信息披露的類似規(guī)定。這些要求之間的主要區(qū)別在于:AIA 要求是針對系統(tǒng)用戶的,而 AILD 要求向任何受 人工智能系統(tǒng)傷害的受害者披露信息。因此,AILD 旨在使索賠人更容易根據(jù)所披露的信息證明過失,從而為所遭受的任何損害尋求賠償。例如,如果民用環(huán)境中的人工智能無人機發(fā)生故障并傷害旁觀者,那么旁觀者可以根據(jù)自然人的過錯要求賠償。AILD將允許索賠人從其供應商或用戶那里尋求有關無人機的信息,以確定故障。

 

3.修訂后的《產(chǎn)品責任指令》 (PLD)

 

《產(chǎn)品責任指令》(PLD)于 1985 年通過,在應用于人工智能系統(tǒng)時存在一些缺陷,因此早就應該對 PLD 進行修訂。此次修訂版的一個重要方面是將軟件納入其應用范圍。這被視為背離了傳統(tǒng)立場,即只有產(chǎn)品的制造商或進口商可以承擔責任,而不是軟件開發(fā)人員。與 AILD 相比,修訂后的 PLD 允許基于產(chǎn)品缺陷而不是基于過錯來追究提供商的責任。因此,如果人工智能驅動的無人機因某些缺陷對任何人造成傷害,則索賠人可以根據(jù)修訂后的 PLD 尋求補救。

 

PLD第 9 條承認兩種推定:缺陷推定,缺陷與損害之間存在因果關系的推定。在以下三種情況下會觸發(fā)“缺陷推定”:

 

供應商未披露系統(tǒng)信息;

 

索賠人證明了系統(tǒng)的明顯故障;

 

索賠人表明供應商違反了安全規(guī)則

 

如果損壞與缺陷“典型一致”,因果關系的假設就會啟動。如果系統(tǒng)的技術復雜性導致難以識別缺陷,則可以同時做出兩種假設。然而,為了能夠依賴這些推定,索賠人仍然必須證明存在缺陷的可能性以及產(chǎn)品造成損害的可能性。但是,供應商可以通過證明不存在這種過度的技術困難來反駁上述假設。

 

 

4.兩部指令面臨的現(xiàn)實挑戰(zhàn):受害人沉重的舉證責任

 

對以上兩個指令——特別是AILD——的批評之一是,盡管提供了相關信息,但仍然很難證明復雜的人工智能系統(tǒng)故障。特別是,一些人工智能系統(tǒng)的行為是自主的,它們的功能很復雜,任何輸出的原因都不容易理解。這一挑戰(zhàn)涉及“黑箱”算法問題,當人工智能系統(tǒng)導致難以理解的特定結果的信息輸入時,就會出現(xiàn)這種問題。在這種情況下,即便能夠提供足夠的系統(tǒng)信息,這對受害者是否真的有好處?

 

盡管提議的 AILD 在引言中提到了自治對于理解系統(tǒng)是一個問題,但該指令幾乎沒有使受害者更容易建立因果關系的假設。根據(jù) AILD,受害方仍將面臨沉重的舉證責任從提供證據(jù)支持索賠的合理性,到確定不符合 AIA 要求,并證明人工智能系統(tǒng)的行為與所遭受的損害之間存在聯(lián)系。

 

證明不符合AIA 中規(guī)定的要求也可能非常困難。例如,要證明用于開發(fā)人工智能系統(tǒng)的數(shù)據(jù)集或給定系統(tǒng)的準確度水平確實不足,可能并不容易。因此,提議的 AILD 充其量是為受害者提供非常有限的程序便利。需要做更多的工作來有效地促進人工智能造成損害進而可獲得的補救機制。

 

處理此問題的一種方法是,修訂后的 PLD 使用基于缺陷的補救措施,無需證明過錯。但是,根據(jù) PLD,只有在發(fā)生實質性損害的情況下才能尋求賠償。這意味著,任何金融機構的信用評分系統(tǒng)都不能因為存在缺陷而受到挑戰(zhàn),因為這些系統(tǒng)可能不會以實質性的方式傷害個人。在這種情況下,受害的人必須通過 AILD 證明過錯才能獲得賠償。歐洲消費者組織 (BEUC) 副主任 Ursula Pachl在談論擬議指令時已經(jīng)表達了這種擔憂——歐盟委員會的做法對開發(fā)商更有利,其中一些人反對在準備這些提案期間對非實質損害承擔嚴格責任。

 

除此障礙外,PLD 還要求索賠人證明由于系統(tǒng)缺陷而造成損害的可能性,以利用缺陷推定。這就提出了一個問題,關于索賠人必須滿足的可能性的參數(shù),特別是當給定系統(tǒng)太復雜而無法理解時。

 

5.結論

 

歐盟委員會提議的AILD,主要是為以人工智能系統(tǒng)的信息來確定責任提供了便利。在某種程度上,這對 人工智能系統(tǒng)的透明性要求提出了硬性要求,該要求也包含在提議的 AIA 中。然而,在這樣做的同時,擬議的責任指令也給索賠人帶來了一些需要克服的棘手障礙——是否必須確定缺陷和因果關系的過錯或假設,以及損害與缺陷或過錯之間的聯(lián)系。

 

歐盟委員會的提案處于最初的立法階段,可能會在最終通過之前進行各種修改。而且,擬議 AIA 的潛在修改也可能仍會改變擬議責任指令的實施,因為這些指令依賴于 AIA 中規(guī)定的定義和要求。

 

確立人工智能責任的立法努力是朝著有效監(jiān)管人工智能的正確方向邁出的重要一步。然而,仍然有必要對人工智能系統(tǒng)所涉及的復雜性保持謹慎,特別是當目標是保護受害者時。

本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。

免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com