2023年8月17日、日本新聞協会など4団体が、生成AI(人工知能)の開発における著作権保護策の検討が不十分であるとして共同声明を発表しました。
この声明は、生成AIの利用が著作権者の権利を侵害するリスクが強く、現行の法律が不十分であるとの懸念を示しています。
参考:日本新聞協会
共同声明の具体的な内容
共同声明では、主に下記の3つの問題点を指摘しています。
- 著作権侵害の恐れ
- 法律の不備
- 文化の発展の阻害
①著作権侵害の恐れ
共同声明では、生成AIによる学習データの収集が著作権者の同意なしに行われることが多く、著作権侵害のリスクが強く懸念されています。
日本の著作権法の解釈が明確でないため、海賊版の学習利用も禁止されていないと指摘されており、権利侵害コンテンツが大量に流通する可能性があるとされています。
②法律の不備
生成AIに関連する現行の著作権法には不備があると共同声明で指摘されています。
特に、著作権者の救済策が不十分であるとの懸念が示されており、その解釈が不明確であるため、権利侵害が大量に発生する恐れがあるとされています。
③文化の発展の阻害
共同声明では、著作権侵害により創作機会が失われる可能性があると指摘されています。
生成AIによる大量のコンテンツ生成が著作権者に還元されず、非倫理的なAIの開発・生成が行われる可能性もあるとされ、文化の発展が阻害される恐れがあるとされています。
まとめ
生成AIの利用が進展する中で、著作権保護策の検討が急務となっています。
共同声明は、現状の法律が不十分であるとの懸念を示し、今後の法改正や具体的な保護策の検討を強く求めています。
この問題は、技術の進化だけでなく、文化や創作活動にも深く関わるため、今後の動向が注目されます。