お便りはこちらからどうぞ!質問や感想など、なんでもOKです。 (※今なら100%読みます) https://docs.google.com/forms/d/e/1FAIpQLSd7NC1HyKMPPB9cJDZcDWf1X7xJDnWmZxOevLdaYPcjJqg_Jg/viewform
Song title Epoch
Composer RYU ITO
https://ryu110.com/
- Philipp Hacker, Regulating ChatGPT and other Large Generative AI Models
- Google scholarで引用484、おそらく今のところ一番多い
- 事前規制(開発段階からの審査・許可制)と事後規制(社会的に問題が生じた後の罰則・是正措置)のメリット・デメリットについて
- 技術的透明性(モデル解釈可能性)を高める要件や、アルゴリズムの監査(auditing)を義務づける案、あるいは業界自主規制ガイドラインの可能性を検討
- 生成AIの迅速な進化に対して現行法は不十分な面が多いため、法・政策レベルで新たな対応が必要。
- モデル開発者・提供者と、実際のサービスに利用する事業者、さらには利用するエンドユーザーの間で、リスクと責任をどのように分配するかが核心的課題。
- 説明責任や透明性、データ保護、差別・偏見防止などを盛り込んだ規制手法が求められる一方、イノベーションを阻害しない制度設計も重要。
- Kowala, Michalina, Protection of Press Publishers in the Age of Generative AI – In Search of Legal Remedies to Adapt to the Pace of Technology: Protection of Press Publishers in the Age of Generative AI
- 大学のDBで見つけた、引用数は不明
- 現在のEUにおけるAI規制(特に「AI Act」と「Digital Services Act(DSA)」)がLGAIMsの特性に十分対応しておらず、実際のリスク管理よりも形式的な義務に焦点が偏っていると批判しています。特にAI Actは、モデルそのものに対して広範囲なリスク管理を要求しており、これは現実的ではなく、競争を妨げる可能性もあると指摘します。
- 1. 最低限の標準義務(全てのLGAIMに適用)
- データガバナンス、非差別、サイバーセキュリティ、透明性など
- 2. 高リスク用途に特化した義務
- 医療や雇用といった特定の用途に限って、リスク管理義務を課す
- 3. AIバリューチェーン上の協力体制の構築
- 開発者、デプロイヤー、ユーザー間での法的に義務付けられた情報共有と協力を求める
- Artha Dermawan, Text and data mining exceptions in the development of generative AI models: What the EU member states could learn from the Japanese ‘non enjoyment’ purposes?
- 日本に言及がある論文
- TDMは大量のデータから新しい知識やパターンを抽出する手法であり、特に生成AIの開発には不可欠です。しかし著作物を利用するため著作権法との摩擦が起きる可能性があります。EUでは2019年に著作権指令(CDSM Directive)が制定され、TDMのための例外規定が設けられましたが、規制が厳しく、特に以下の課題があります。
- これに対し、日本は2019年に著作権法を改正し、著作物を楽しむ(享受)目的ではない利用(非享受目的)であればTDMを許可する広範な例外規定を導入しました。日本の規定が世界で最も広いTDM例外とされる理由は以下のとおりです。
- 商用・非商用問わず利用可能。
- 著作権者の「オプトアウト」による制限がない。
- 合法的なアクセス権が不要。