Internet Watch Foundation (IWF) は、AI ツールの進歩により、AI によって生成された児童性的虐待資料 (CSAM) がインターネット上で蔓延し続ける可能性があることを懸念しています。
こちらもお読みください: AI ディープフェイクにより、米国当局が子供たちを保護することが困難になっている – レポート
安全監視団体は、AI 生成ツールが洗練されるにつれて、本物の画像やビデオと AI が生成した偽のコンテンツとを区別することも難しくなっていると指摘しています。 同団体によると、2024年にAIが生成した写真は、 2023年に初めて見られたものよりも 「現実的」
Internet Watch Foundation は CSAM の増加を認識しています
IWFは、ツールがより使いやすくなり、AI技術の進歩を 変質者が利用することで AIによって生成されたCSAMがインターネット上にさらに広まる可能性がある 安全監視機関は、インターネット上で AI によって生成された CSAM が増加していることをすでに指摘しています。
同組織はすでにCSAMの改ざん事件を指摘しているほか、成人ポルノに関係するものの映像に子供の顔が使用されている事件もあった。 IWFによると、コンテンツの一部には長さ約20秒の動画が含まれていたという。
IWFの最高技術責任者であるダン・セクストン氏は、この技術が急速に成長しているため、AIビデオツールがAI画像生成ツールと同じ傾向をたどれば、さらに多くのAI CSAMが登場する可能性があると明らかにした。
「同じ傾向に従うなら、もっと多くの動画が見られるだろうと暫定的に言っておきます」と彼は語った。
セクストン氏は、将来の AI 動画が「より高品質でリアル」になる可能性も高いと付け加えた。
IWFのアナリストらによると、IWFが闇のフォーラムで小児性愛者らによって審査した動画のほとんどは部分的なディープフェイクだったという。 このケースでは、オンラインで無料で入手できる AI モデルが、既知の CSAM 被害者の画像を含む、既存の CSAM ビデオやアダルト ポルノの画像を操作するために利用されました。
同団体はそのような動画を 9 件発見したが、完全に AI で作成された少数の動画は基本的な品質のものであった。
監視機関はCSAMの製造を犯罪化したいと考えている
IWFは現在、そのようなコンテンツを作成するためのガイドの作成など、そのようなコンテンツの作成を犯罪とする法律の制定を推進している。 また、CSAM の作成を可能にするツールやプラットフォームの開発も犯罪化すべきです。
これは、今年実施された単一のダークウェブ フォーラムの調査で、1 か月間に投稿された 12,000 件の新しい AI 生成画像が明らかになったことが明らかになりました。
IWFによると、これらの画像のうち10枚中9枚は本物であり、本物のCSAMを対象とする英国の同じ法律に基づいて起訴される可能性があるという。
こちらもお読みください: 暗号通貨で児童ポルノを購入したテキサス州男性に判決
昨年、国立行方不明・搾取児童センター(NCMEC)は、 を受け取った 。 場合によっては、 捕食者が以前にアップロードした写真を改変して 、性的に露骨で虐待的なものにしていました。
IWF CEOのスージー・ハーグリーブス氏は、CSAMの拡散を制限するために生成AIツールを管理する必要性を強調した。
「適切な制御がなければ、生成型 AI ツールは、オンラインの捕食者が最も倒錯的で不快な空想を実現するための遊び場を提供してしまいます」とハーグリーブス氏は述べています。
ハーグリーブス氏は、IWFは、商業的な児童性的虐待サイトでCSAMが共有され、販売されるケースが増えていることを確認し始めていると付け加えた。
ガーディアン紙によると、虐待を報告するためのホットラインを運営する別の組織は、AIで作られたCSAMが犯罪者によってオンラインプラットフォームで販売されているのを発見したことを明らかにした。