AI虛擬區代表會-關於代表會

本會歷史沿革

文章來源:獨立評論(AI機器出事誰負責?相關法律夠不夠?來看歐盟《AI責任指令草案》說什麼)

 

    在科技日新月異的發展下,人工智慧(Artificial intelligence,AI)應用在許多領域,例如自駕車、無人機、社群軟體的演算法分析、投資股票分析、洗錢防制與輔助金融產業遵循法令的法遵科技(Regulatory Technology,RegTech),甚至還可以輔助法院判決與量刑,更別說近期很夯的AI繪圖與ChatGPT等。生活中的大小事,很多都有AI的參與,同時也引發許多倫理、法律爭議。

    值得注意的是,2022年9月,歐盟執委會(European Commission)發布了《AI責任指令草案》(AI Liability Directive),探討AI系統侵害人們權利時,該如何分配法律責任。未來草案通過後,台灣的企業若在歐盟經商,將可能受到規範;而台灣本身相關規範是否足夠?似乎也可參考歐盟狀況。以下本文將簡介前述草案,一起來探究AI責任的法律世界。

    歐盟的《AI責任指令草案》有哪些內容?草案》(AI Liability Directive),還有《產品責任指令修正草案》,把AI系統納入產品責任與消費者保護相關規範中;而更有看頭的,是2021年歐盟執委會提出的《人工智慧法草案》(AI Act)[1] ,此一草案的內容包含了許多定義性規定,依照風險等級對AI做不同層級的管制,並設有罰緩等懲罰性規定,可說是具備整體框架性的管制規範

    總覽前述三者,《人工智慧法草案》屬於前端管制AI與預防損害的規範,而《AI責任指令草案》與《產品責任指令修正草案》則同為後端處理AI損害賠償的法案[2] 。進一步來說,《AI責任指令草案》主要在處理AI非因契約所生的民事責任(non-contractual civil liability),主要是處理AI侵權的問題,諸如自駕車或無人機撞傷路人時如何求償?或者AI技術所帶來的醫療行為,造成病患損傷時如何求償等問題。

    而目前指令的草案僅有9條規定[3]  ,第1、2條為原則性與定義性規範[4] 。較為重要的,是第3條的資訊揭露與第4條的推定因果關係。

    所謂「資訊揭露」,是會員國應確保其國內法院有權力,在必要的範圍內,可以命高風險AI系統的供應商或使用者等人,揭露或保全相關AI損害賠償案件的證據。而案件中的被告,若未能遵守揭露或保全證據的要求時,就會被推定違反注意義務(shall presume the defendant’s non-compliance with a relevant duty of care);不過,草案也規定,前述推定可由被告舉反證推翻

    至於「因果關係的推定」,則指依法在滿足相關要件後,法院應推定被告就AI系統所生的過失(fault)與AI系統的產出(output)有因果關係,換句話說:

  1. 原告應先證明被告的過失,違反歐盟法或會員國國內法所訂的注意義務(或未遵守資訊揭露要求,而推定被告違反注意義務)
  2. 根據案件的情況,可合理認為前述過失已影響(influenced)AI系統的產出或未能產出。
  3. 原告應證明AI系統的產出或未能產出,導致損害發生(gave rise to the damage)。

    所以前述「因果關係的推定」,其實僅用在「過失」(fault)與「AI系統的產出」(output)之間的觀察,至於AI的「產出」(或未能產出)如何導致損害發生,還需原告自行設法證明──如自駕車或無人機的行駛撞到路人產生何種身體損害?銀行帳戶錯被AI凍結,產生了多少財產損害? [5]