佳子さまも被害にあった「ディープフェイク」問題(時事通信フォト)
様々な場面で「生成AI(人工知能)」サービスに触れる機会が増えたが、便利な反面、弊害も顕在化してきた。著名人などの写真を悪用した卑劣な画像や動画が流布される事態に発展している。
実在の人物を生成AIで加工した写真や動画がネット上で拡散される「ディープフェイク」問題が深刻化している。
なかでも人物の服を脱がせたり、実際には存在しない性行為の画像や映像を作り出す「性的ディープフェイク」による被害が急増。昨年、全国の警察に寄せられた相談や通報は100件を超えた。
被害は未成年にも及び、今年6月にはこども家庭庁の三原じゅん子・こども政策担当相も「誰でも簡単に被害者にも加害者にもなってしまう」と危機感を表明している。
ITジャーナリストで成蹊大学客員教授の高橋暁子氏が言う。
「ディープフェイクとはAIの深層学習(Deep learning)と偽物(fake)を組み合わせた言葉です。生成AIの技術で偽物とは思えない精度の高い画像や映像が誰でも簡単に作れるようになりました。ネット上には無料で手軽に利用できるツールが何十も溢れています」
「AI脱衣」「写真を裸にする」などと謳うサイトでは、写真をアップロードしてポーズの指定などを入力すると、数秒でヌード写真が作成できるという。被害は世界中で拡大している。
「米セキュリティ企業・セキュリティヒーローによると、23年にネット上で確認された性的ディープフェイク映像は2019年比550%増の9万5820件。被害者が多いのが韓国(53%)、米国(20%)で、日本は3番目に多い10%です」(同前)
社会問題化したことで、各国は対策を強化。英国では2023年に制定された「オンライン安全法」で性的ディープフェイクの共有が禁止された。米国でも30以上の州で、作成や公開が規制されている。
「踏み込んだのが一般女性の被害が広がった韓国です。2024年9月に所持や閲覧でも罪に問われる改正法案、通称『ディープフェイク性犯罪防止法』が可決されました」(同前)
同様の被害が深刻化しながら、日本には直接取り締まる法制度がない。
「2020年には、女性アイドルらの顔写真をアダルト動画に合成しネットに配信した男2人が名誉毀損と著作権法違反の疑いで逮捕され、この問題で国内初の逮捕者となりました。被害者が未成年の場合は児童ポルノ禁止法違反で罪に問える可能性がありますが、被害申告が必要になります」(同前)