法院圖示
::: 首頁 關於本院 大事紀要 「AI相關的智慧財產權與國際法議題」新聞稿
「AI相關的智慧財產權與國際法議題」新聞稿 列印

108.5.17 「AI相關的智慧財產權與國際法議題」新聞稿

有鑑於現今人工智慧領域技術的快速發展,以及後續衍生的法律問題,智慧財產法院於108年5月17日特別邀請國立清華大學科技法律研究所黃居正教授,就「AI相關的智慧財產權與國際法議題」進行專題演講。專題演講主要分為兩個部分,人工智慧相關之智慧財產權問題以及人工智慧相關之國際法議題。

關於人工智慧相關之智慧財產權問題,講座首先指出利用人工智慧協助發明、創作,並不是一件新事物。AI則是因為從協助、輔助創作進而演進到大比例的發明、創作工作,而對既有以自然人或其集合體作為主體的智慧財產法制帶來挑戰。

以專利部分而言,目前沒有國家修改專利法承認AI為獨立之創作主體。如果要承認AI是專利發明之主體,顯然在專利法或審查標準中,就必須明文規定發明中人類貢獻之比例。只有當AI的貢獻比例太大,或人類的貢獻比例不足,才有將AI判定為發明人之可能。當AI的貢獻比例太大,或人類的貢獻比例不足時,若不承認AI為專利之權利主體,將可能使由AI發明之部分因為無發明人而變成公共領域。因AI輔助發明而使關鍵技術落入公共領域,將影響科技研發的動機。

一個實際的問題是,AI有沒有獨立從事發明的可能性?講座認為現在的人工智慧技術,已經能使終端機透過類神經網路,模擬與學習人類大腦的思考模式,包括以程式編寫仿基因組建立染色體區塊,再由演算法決定其與有機物相仿的進化歷程(天演論),透過數據資料庫,終端機又可以進行大規模的隨機經驗測試,以汰除失敗染色體區塊,篩選勝利基因。雖目前的科技實務證明,由AI輔助的設計在渦輪推進器、高速鐵路列車、通訊技術與藥物技術上,大幅度改善了現有技術。但通說仍認為以上客觀條件不足以使AI成為財產權之主體。

以著作權部分而言,目前多數國家的著作權主管機關以及法令,都不承認非人類得為著作權之作者。在成就公共領域的歷史中,AI從來不是文化財產再造循環中的主體。不過當AI能表達出與人類相同甚至在質與量上都超過人類的創造力與創作力時,其界線就很模糊了。例如美聯社利用AI進行新聞報導寫作,律師事務所利用AI進行初階法律意見之撰述,此時AI究竟是作者還只是書寫的輔助工具?講座指出目前文獻上建議模擬集體財產權之規範態樣,以代表人或受讓權利之自然人行使與管理由AI取得之著作財產權,或是模擬著作權之專屬授權模式,淡化AI之著作人格權。

關於人工智慧相關之國際法議題,講座從三個議題討論人工智慧相關之國際法議題,第一個議題是武力不行使原則所受之影響及國際人道法的內容及其適用,第二個是科技中立原則及馬爾頓條款與其擴張解釋,最後則是生命體系法律的復興與延伸適用。

講座指出,目前殺手機器人已在戰爭行為中應用,半自動與全自動無人機於非全面戰爭中大量使用,人類在殺戮環境中會因死亡威脅造成緊張、疲憊、困惑、恐懼或憤怒,這些都是影響交戰行為中是否違反國際人道法的人性特質條件。但是全自動或半自動機器殺手既不會有這些人性特質,也不會因被擊毀而造成情緒壓力,將影響停火甚至對尋求和平之必要性的評估。

1899年第二次海牙公約前言中的「馬爾頓條款(Martens clause)」規定,「即使條約法未明文規定之原則,平民與交戰方仍應受國際法原則之保護與拘束,這些原則包括文明國家間之慣習、人道主義原則與公共良知的支配」,藉由馬爾頓條款之習慣國際法化,也可以使國際人道法隨著進步過快的AI技術而不斷調整解釋內容以適用之。適用馬爾頓條款國際人道法原則嚴格規範AI必須滿足下列原則。(一)區別原則:全自動武器系統難以區別戰場上之戰鬥人員與非戰鬥人員;無法區別的武器就是無差別攻擊性之武器,不得使用。(二)符合比例攻擊原則:依據此原則,造成戰鬥人員不必要之痛苦是被禁止的:使用造成這種無意義損害或加重其痛苦之武器應被禁止。(三)必要性原則:自動系統必須有能力判定何種行為構成自衛,是否因其為機器所以無法主張先制型自衛?為確保軍事行動之現在與未來安全之最小限度破壞力能否實施。最後,講座指出,當AI持續發展至有獨立意識時,則現有之生命體法可作為規範人類與人工智慧新主體間法律關係之模型。

由於黃教授用具體又有趣的方式生動介紹,分享他在人工智慧法律相關領域研究所得的知識與心得,不僅引發與會者極大的興趣,並使與會者從中思考而獲得啟發,獲益良多。