ホワイトハウスは技術業界に性的虐待AIディープフェイクの市場を閉鎖するよう求める

ジョー・バイデン大統領の政権は、人工知能技術を使用して作成された性的虐待画像の市場を閉鎖するよう、技術業界や金融機関に働きかけています。

新しい生成AIツールによって、誰かの肖像を性的に明示的なAIディープフェイクに変え、それらのリアルな画像をチャットルームやソーシャルメディアで共有することが容易になりました。被害者 — 有名人や子供たち — はそれを止める手段がほとんどありません。

連邦法律が存在しない場合、ホワイトハウスは木曜日に協力を呼びかけ、企業から特定の措置にコミットメントすることで、非同意のAI画像の作成、拡散、および収益化、特に子供の露骨な画像の制御を民間セクターができるかもしれないと官僚は期待しています。

「生成AIが登場すると、最初の本物の害がどこに起こるかという推測を誰もがしていました。そして私たちは答えを持っていると思います」と、バイデン大統領の主席科学顧問であるアラティ・プラバカル、ホワイトハウスの科学技術政策オフィスのディレクターは語りました。

APに語った彼女は、AIツールによって燃料を供給され、主に女性や少女を狙った非同意の画像の「驚くほどの加速」を説明しました。

「もしあなたが10代の少女で、もしあなたがゲイの子どもであるなら、これらは今人々が経験している問題です」と彼女は言いました。「私たちは、生成AIによる加速を見ています。そして最も速いことは、企業が立ち上がり、責任を取ることです。」

木曜日のリリースに先立ちAPと共有された文書は、AI開発者だけでなく、支払いプロセッサー、金融機関、クラウドコンピューティングプロバイダー、検索エンジン、およびモバイルアプリストアに入るものをコントロールするAppleやGoogleのようなゲートキーパーから行動を求めています。

民間セクターは、「画像を基にした性的虐待の収益化を妨げる」ために行動を起こすべきであり、特に未成年者の露骨な画像を広告するサイトへの支払いアクセスを制限すべきであると政府は述べています。

プラバカルは、多くの支払いプラットフォームや金融機関がすでに「虐待的な画像を宣伝している事業をサポートしない」と言っていると述べました。

「しかし時にはそれが執行されないことがあり、時には彼らにはそのサービス規約がないことがあります」と彼女は言いました。「それはもっと厳密に行われるべきことの一例です。」

文書によると、クラウドサービスプロバイダーやモバイルアプリストアは、「個人の同意なしに性的画像を作成または変更することを目的としてマーケットされているウェブサービスやモバイルアプリケーションを抑制する」こともできると述べています。

また、AI生成されたものであるか、インターネットに投稿された実際のヌード写真であるかに関係なく、被害者はより簡単にオンラインプラットフォームにそれらを削除してもらえるべきです。

最も広く知られるポルノグラフィックなディープフェイク画像の被害者はテイラー・スウィフトで、その熱心なファンたちは、歌手ソングライターの虐待的なAI生成画像がソーシャルメディアで流布し始めたときに戦いを挑みました。Microsoftは、一部のスウィフトの画像が同社のAIビジュアルデザインツールにたどり着いた後、セーフガードを強化すると約束しました。

アメリカ合衆国や他の国々の多くの学校が、自分たちの生徒を描いたAI生成のディープフェイクヌードに取り組んでいます。いくつかの場合、仲間の10代の若者がAI操作された画像を作成し、クラスメートと共有していることがわかりました。

昨年夏、バイデン政権は、Amazon、Google、Meta、Microsoftなどの主要なテクノロジー企業に新しいAIシステムにさまざまなセーフガードを設け、それを公開する前に署名を取ることを仲介しました。

その後、バイデン大統領は、AIがどのように発展して企業が公共の安全を危険に晒さずに利益をあげられるかを導くために設計された野心的な大統領令に署名しました。国家安全保障を含めた広範なAI関連問題に焦点を当てていましたが、AI生成された児童虐待画像の新興問題とそれをより効率的に検出するための手段にも言及していました。

しかし、バイデンはまた、政府のAIセーフガードを法律で支持する必要があると述べました。アメリカ合衆国の一部の上院議員は、次の3年間で少なくとも320億ドルを使って人工知能を開発し、それを安全に導き、措置を資金化するために議会に行動を求めるようにしたが、そのようなセーフガードを法律に組み込むことは主に先送りされています。

企業に自主的な取り組みを促すことは、「ここで議会が行動を起こす必要性を変えるものではない」と、ホワイトハウスのジェン・クライン ゼンダーポリシー評議会のディレクターは述べました。

長年の法律は既に、本物であろうとなかろうとも、子供の性的画像を作成および所有することを違法としています。連邦検察官は今月初め、ウィスコンシン州の男性が人気のAI画像生成ツールであるStable Diffusionを使用して、性行為に従事する未成年者のAI生成されたリアルな数千枚の画像を作成したとして、彼に起訴を提起しました。男性の弁護士は、水曜日の初公判後にコメントを控えました。

しかし、このような画像を作成可能にする技術ツールやサービスに対するほとんどの監督はありません。いくつかは、ランダムな商用ウェブサイトにあり、運営者やそれらが基づいている技術についてほとんど情報を明らかにしません。

スタンフォード・インターネット監視所は去年12月、信じられる子供性的虐待画像の数千枚を発見したと発表し、AI画像メーカーであるStable Diffusionなどを訓練するために使用されたオンライン画像とキャプションの巨大なAIデータベースLAIONで見つかりました。

最新バージョンのStable Diffusionを所有するロンドン拠点のStability AIは今週、「先行モデルはリリースを承認しなかった」と述べました。このようなオープンソースのモデルは、技術コンポーネントがインターネットで公にリリースされるため、ボトルに戻すのが難しいです。

プラバカルは、被害を引き起こしているのはオープンソースのAI技術だけではないと述べました。

「これはより広範な問題です。残念ながら、多くの人々が画像生成を目的として使っているカテゴリーの1つです。爆発的な拡大を見ています。しかし、それはオープンソースとプロプライエタリなシステムに簡単に分解されるものではありません」と彼女は語りました。

——

APライタージョシュ・ボークがこの報告に貢献しました。