
Sign up to save your podcasts
Or
隨著生成式AI的爆炸性發展,無論是ChatGPT生產的文章、Midjourney畫出的圖像,或是Suno創作的音樂,甚至是GitHub Copilot協助開發的程式碼,都帶出一個根本性問題:這些AI生成的內容,版權究竟歸屬於誰?數位時代創新長黃亮崢James邀請台灣開源法律網絡共同創辦人、Creative Commons Taiwan Chapter計畫主持人林誠夏,深入探討生成式AI內容的版權歸屬與法律挑戰。
林誠夏指出,依照現行著作權法,著作權是保護創意的法律,創意由誰發出、由誰表達,那個人就是作者,才能擁有著作權。由於AI不是人,無法擁有法律上的權利與義務,所以AI本身不能擁有著作權。使用者若能證明自己是「創意的輸入者」,就可以主張著作權。林誠夏特別強調,著作權法的「美學不歧視」原則,意味著創意的「量」不重要,只要有人類創意存在,即便只有1%,也可主張著作權。
判斷AI生成內容是否受著作權保護,關鍵在於人類創意的表達和掌控能力。林誠夏舉例,中國法院曾判決支持使用者的著作權主張,條件是能夠「重現」相同結果,證明使用者確實把AI當作繪筆的工具。人為創意的注入可以在前(如先畫素描,再請AI補充),也可以在後(修正AI生成圖中不合理的部分)。
關於「致敬」與「抄襲」的界線,林誠夏解釋著作權保護的是「表達形式」而非「思想」。「Coding style, painting style, writing style(寫作技法、繪畫技法、程式開發技法)」都不受保護,可以致敬;但直接抄襲文章、重製畫作、重現音樂則可能構成侵權。法律上判斷抄襲的兩個要素是「接觸的因果關係」和「實質近似」。
對於企業使用AI工具的建議,林誠夏提出幾點關鍵考量:
1.企業應定期進行著作權方面的教育訓練,尤其是在AI快速發展的今日。
2.留意資料的機密性問題。使用雲端AI服務時,機密資料上傳後可能無法監控其後續使用。對處理高度機密資料的企業,建議使用可本地部署的開源AI模型。
3.適當標示AI生成內容。許多平台如YouTube、Facebook已要求標註AI生成內容,這有助於避免市場混亂與法律風險。
4.關注AI授權條款的差異。不同AI平台的授權條款有顯著差異,企業應選擇符合需求的服務。部分付費服務提供更多法律保障,如GitHub Copilot的付費版具有重複檢測功能,可降低侵權風險。
關於正在進行的AI訴訟案件,林誠夏分析Getty Images訴Stability AI一案變數較大,因Getty擁有大量以圖搜圖專利;而開源程式設計師對GitHub Copilot的訴訟,原告勝訴可能性較低。無論結果如何,AI發展趨勢不會逆轉,只是可能影響產業重構的時程。
最後,林誠夏建議企業建立AI使用政策,選擇適合的工具和授權,並實施輸入控制和輸出審核。在使用AI工具時,企業應尋求「合法授權資料」作為訓練和生成基礎,同時平衡AI工具的安全護欄與彈性使用需求。
4.3
1212 ratings
隨著生成式AI的爆炸性發展,無論是ChatGPT生產的文章、Midjourney畫出的圖像,或是Suno創作的音樂,甚至是GitHub Copilot協助開發的程式碼,都帶出一個根本性問題:這些AI生成的內容,版權究竟歸屬於誰?數位時代創新長黃亮崢James邀請台灣開源法律網絡共同創辦人、Creative Commons Taiwan Chapter計畫主持人林誠夏,深入探討生成式AI內容的版權歸屬與法律挑戰。
林誠夏指出,依照現行著作權法,著作權是保護創意的法律,創意由誰發出、由誰表達,那個人就是作者,才能擁有著作權。由於AI不是人,無法擁有法律上的權利與義務,所以AI本身不能擁有著作權。使用者若能證明自己是「創意的輸入者」,就可以主張著作權。林誠夏特別強調,著作權法的「美學不歧視」原則,意味著創意的「量」不重要,只要有人類創意存在,即便只有1%,也可主張著作權。
判斷AI生成內容是否受著作權保護,關鍵在於人類創意的表達和掌控能力。林誠夏舉例,中國法院曾判決支持使用者的著作權主張,條件是能夠「重現」相同結果,證明使用者確實把AI當作繪筆的工具。人為創意的注入可以在前(如先畫素描,再請AI補充),也可以在後(修正AI生成圖中不合理的部分)。
關於「致敬」與「抄襲」的界線,林誠夏解釋著作權保護的是「表達形式」而非「思想」。「Coding style, painting style, writing style(寫作技法、繪畫技法、程式開發技法)」都不受保護,可以致敬;但直接抄襲文章、重製畫作、重現音樂則可能構成侵權。法律上判斷抄襲的兩個要素是「接觸的因果關係」和「實質近似」。
對於企業使用AI工具的建議,林誠夏提出幾點關鍵考量:
1.企業應定期進行著作權方面的教育訓練,尤其是在AI快速發展的今日。
2.留意資料的機密性問題。使用雲端AI服務時,機密資料上傳後可能無法監控其後續使用。對處理高度機密資料的企業,建議使用可本地部署的開源AI模型。
3.適當標示AI生成內容。許多平台如YouTube、Facebook已要求標註AI生成內容,這有助於避免市場混亂與法律風險。
4.關注AI授權條款的差異。不同AI平台的授權條款有顯著差異,企業應選擇符合需求的服務。部分付費服務提供更多法律保障,如GitHub Copilot的付費版具有重複檢測功能,可降低侵權風險。
關於正在進行的AI訴訟案件,林誠夏分析Getty Images訴Stability AI一案變數較大,因Getty擁有大量以圖搜圖專利;而開源程式設計師對GitHub Copilot的訴訟,原告勝訴可能性較低。無論結果如何,AI發展趨勢不會逆轉,只是可能影響產業重構的時程。
最後,林誠夏建議企業建立AI使用政策,選擇適合的工具和授權,並實施輸入控制和輸出審核。在使用AI工具時,企業應尋求「合法授權資料」作為訓練和生成基礎,同時平衡AI工具的安全護欄與彈性使用需求。
3 Listeners
179 Listeners
62 Listeners
176 Listeners
29 Listeners
10 Listeners
43 Listeners
31 Listeners
11 Listeners
20 Listeners
3 Listeners
26 Listeners
0 Listeners
10 Listeners
2 Listeners
74 Listeners