こうした画像は、高精度の画像生成AIの登場により、急速に広がっているとみられる。児童ポルノ法では、18歳未満の児童の裸や胸などを露出した画像の作成、公開を禁止している。2020年、CGで作られた児童ポルノを巡る裁判で、最高裁は「実在しない児童を描写した画像は児童ポルノに含まない」との判例を示した。漫画など架空の児童は同法の対象外とされる。
一方、画像生成AIは、実在する児童の写真を基に画像が作れる。そうやって生み出された画像が、児童ポルノに該当するかはあいまいだ。警察庁人身安全・少年課は、AIで作った児童ポルノの摘発事例は把握していないとし、「児童が実在するかが焦点になると考えられるが、新しい技術で、生成方法も複雑なため、個別の画像ごとに検証するしかない」と説明する。
法務省刑事局は「実在の人物を基にしたAI生成画像は、類似の程度によっては児童ポルノ法違反になる可能性がある」との見解を示す。生成方法や実在の人物かを問わず、わいせつ性が高いと判断されれば、わいせつ物頒布罪が適用される可能性もあるという。
AIと性表現の規制に詳しい東洋大の加藤隆之教授(憲法)は、児童ポルノ法の保護対象が「裸にされる」などの実害に遭った児童としている以上、「実在の顔写真を基にAIが作った画像でも、その児童の裸体と同一性が認められない限り同法での摘発はできないだろう」と説明する。
ただ、アイドルの顔と裸の写真を合成した画像のように「AIで生成された画像の顔が、実在の児童と似ていれば重大な人格侵害になる。画像生成AIを念頭に、新たに立法化するべきではないか」と指摘する。
https://news.yahoo.co.jp/articles/42d1e146bd1ffb7828d6ab3e422eadf9c5d45000
引用元: ・【技術】AI作成の女児エロ画像、「規制するために立法化を」の声
実在する幼女少女なら被害者になるが、想像上の人物ならば問題ないわけで
Winny事件同様に恣意的なものを感じるリベラル連中の動向に注意しろ、LGBT同様に奴らの論理をゴリ押ししてくる
特に立憲民主党の塩村文夏の動きに注意
なんでも法で縛ってそれで良い人たちがいるという事はわかった
被害者なき逮捕ってナチスドイツや北朝鮮かよ被害者ないのに逮捕できたら野党の政治家なんて全員刑務所送りじゃん
政争の道具に使われるの見えてる
コンピューター「クスン、そういうのに演算能力を使いたくない・・・」