中国は2025年9月からAI生成コンテンツについてAIで生成したことの明示を義務化する。

画像や動画を自在に生成する人工知能(AI)が進化を遂げる一方、その“創造力”が著作権侵害やフェイク情報の拡散といった新たなリスクを生み出している。こうした背景の下、中国は2025年9月からAI生成コンテンツについてAIで生成したことの明示を義務化する。

「AIが描いたこと」の明記

ChatGPTの最近のアップデートについて取り上げるまでもなく、AIによる画像や動画の生成技術が飛躍的に進化してきた。数語を入力するだけで高精度なビジュアルが瞬時に出力され、ジブリ風の画像生成さえ自由自在だ。創造行為の門戸はかつてなく広く開かれている。

しかし、この進歩は同時に著作権侵害やフェイク情報の拡散といった新たなリスクをもたらしている。特に深刻なのは、AIが生成したコンテンツであることを識別する手段が乏しい不透明性だ。人間の手によるのか、AIによるのかが不明であることは、情報の信頼性を根底から揺るがすことになる。ひいてはディープフェイクや偽ニュースの温床にもなりかねない。

中国の「標識弁法」、世界に先駆け施行へ

このようなリスクに対処すべく、中国政府は9月からAIによる作品に対して「AI生成コンテンツである」旨を明記しなければならないとする制度を施行する。これは、国家インターネット情報弁公室を中心とした4部門の連名で定められた「AI生成合成コンテンツ標識弁法」に基づくものだ。

対象となるコンテンツは画像、映像、音声、文章を含むすべての合成作品で、AIが関与した場合にはその旨を目立つ形で表示しなければならない。特に人物の顔や音声、出来事のねつ造に関わる内容においては、より厳格な表示が求められる。違反行為に対しては、プラットフォーム運営者や投稿者への罰則が視野に入れられている。

制度と自由のはざまで

一方、日本ではデジタル庁が行政機関における生成AIの利活用に関するガイドライン案を提示し、パブリックコメントを経た上で25年中の確定を目指している。経済産業省もまた、生成AIによる知的財産権侵害への対応方針を示すガイドラインを策定した。さらに、個人情報保護法の改正では、AI時代におけるデータ活用のあり方が議論されている。

米国では政権交代によりAI規制の緩和が模索されているが、著作権局は依然として識別技術の整備に取り組んでおり、透明性確保の試みが続いているようだ。

信頼の可視化が求められる時代に

生成AIは今後ますます私たちの社会に深く入り込んでいく。創作、広告、報道、政治、教育など、あらゆる領域において「誰が作ったのか」という前提そのものがAIによって揺るがされている。「これはAIが作りました」という一言が情報の送り手と受け手との相互信頼を築く上で基礎となる。

AIが作ったことを堂々と明かせる社会。その実現に向けて問われているのは、進化を続ける技術をどう活用するかだけではなく、それとどう共生していくかという視点といえそうだ。(提供/邦人Navi)

WACOCA: People, Life, Style.