AI分野の女性:Miriam Vogelは責任あるAIの必要性を強調

AI分野に焦点を当てた女性のアカデミックスとその他の人々に、TechCrunchはAI革命に貢献した傑出した女性に焦点を当てた一連のインタビューを掲載しています。AIブームが続く中、年間を通してこれらの記事を掲載し、よく認識されない重要な仕事に焦点を当てています。他のプロファイルはこちらで読むことができます。

ミリアム・ヴォーゲルはEqualAIのCEOであり、AIにおける無意識の偏見を減らし、責任あるAIガバナンスを促進する非営利団体を立ち上げました。彼女はまた、ジョージタウン大学ロー・センターでテクノロジー法と政策を教えるとともに、最近設立された国家AI諮問委員会の委員長を務めています。この委員会は議会により設立され、ジョー・バイデン大統領とホワイトハウスにAI政策に関する助言を行うよう指示されています。

ヴォーゲルは以前、司法省の副検事総長を務め、検察総長や副検事総長に法的、政策的、運用的なさまざまな問題に関する広範な助言を提供していました。Responsible AI Instituteの取締役およびCenter for Democracy and Technologyのシニアアドバイザーとして、ヴォーゲルは女性や経済、規制、食品安全政策に関するイニシアチブについてホワイトハウスのリーダーシップに助言をしていました。

あなたがAIの分野でキャリアをスタートさせた方法を簡単に教えてください。この分野に魅力を感じたのは何ですか?

私は政府でキャリアを始めたことからAIの分野に進んでいきました。それは11年生の夏、元々元参議院インターンとしてキャリアをスタートさせたことがきっかけでした。その後数年間、議会やホワイトハウスで働き、当時の焦点は人権でした。これは人工知能への非常に一般的なパスではありませんでしたが、振り返ってみれば、完全に理にかなっていると思います。

ロースクールを経て、私のキャリアは知的財産に特化したエンターテイメント弁護士から始まり、行政府での市民権や社会的影響に関する仕事に進んでいきました。私はホワイトハウスでの勤務中、同時期に同給のタスクフォースを率いた特権を持ち、前副検事総長であったサリー・イエーツの下で、連邦法執行機関向けの暗黙の偏見トレーニングの創造と開発を指導しました。

EqualAIを率いるよう要請されたのは、テクノロジーの弁護士としての経験や、バイアスや制度的な害に対処する政策の背景からでした。私はAIが次の人権の新しい分野を表すと気づき、この組織に魅力を感じました。慎重さなしには、コード上の行が何十年もの進歩を無にする可能性があります。

常に革新によって創出される可能性に興奮し続けており、私は今でもAIがますます人々が繁栄する素晴らしい新しい機会を提供できると信じています。しかし、その達成は今この重要な時点で慎重でなければなりません。その時点では、より多くの人々がその創造と発展に意味を持たせることができるようにしなければなりません。

男性中心のテクノロジー業界、そしてそれに続く男性中心のAI分野の課題をどのように乗り越えていますか?

私は、私たちがAIをできるだけ効果的で効率的で有益なものにするために、誰もが役割を果たすべきだと信じています。つまり、AIの開発において女性の声をサポートするためにさらに多くのことを行う必要があります(ちなみに、アメリカでは購入の85%以上を占める女性の利益と安全性が組み込まれるようにすることは賢明なビジネスの選択です)、さらに、十分に参加していないさまざまな年齢、地域、人種、国籍の他の代表者の声も取り入れる必要があります。

ジェンダー平等に向けて取り組む中で、すべての消費者のために機能するAIを開発するために、開発者だけでなくさまざまな立場や視点を考慮する必要があります。

AI分野に入りたい女性にどのようなアドバイスをしますか?

まず、始めるのに遅すぎるということは決してありません。絶対にないです。OpenAIのChatGPT、MicrosoftのCopilot、GoogleのGeminiを試してみることをお勧めします。AIが力を持つようになる経済で成功するためには、皆がAIリテラシーを身につける必要があります。それがワクワクすることです!私たちは全員がプレイする役割を持っています。AIのキャリアを始めるか、AIを使って自分の仕事をサポートするかに関係なく、女性はAIツールを試し、これらのツールが何ができるか、できないかを見て、それらが自分に適しているかどうかを確認し、一般的にAIに明るくなるべきです。

第二に、責任あるAI開発には倫理的なコンピュータサイエンティストだけでなく、女性と男性からさまざまなバックグラウンドの専門家の視点と専門知識が必要です。飛び込んでください!あなたの声と視点が必要です。あなたの関与が極めて重要です。

AIの進化に向き合う際に直面する最も重要な問題は何ですか?

まず、AIリテラシーが必要です。弊社では「AI net-positive」と考えており、AIが経済に前例のない機会を提供し、日常生活を向上させると考えていますが、これらの機会が我々の人口の幅広い層に平等に提供可能であり、有益であることを確認するために、現在の労働力、次世代、祖父母など、すべての人々がAIの恩恵を受けるための知識とスキルを備える必要があります。

第二に、AIシステムを評価するための標準化された尺度と評価基準を開発する必要があります。標準化された評価は、AIシステムに対する信頼を構築し、消費者や規制当局、下流ユーザーがそのシステムと関わり、そのシステムが信頼に値するかどうかを判断するための重要な要素となります。システムがどのような人々を対象として構築されたのか、想定されたユースケースは何かを理解することで、重要な問いが解答されます。

AI利用者が意識すべき問題は何ですか?

人工知能はまさにその通りです:人間によって構築された人工物です。人間の認知を「模倣」し、人間を行動に力づけるために構築されています。私たちは、この技術を使用する際に、私たちの信頼を必要とするシステムに対して適切な量の懐疑心を保ち、尽力する必要があります。AIは人間性を補完することができますが、置き換えることはできません。

AIは主に2つの要素から成り立っていることを明確にしておく必要があります:人間によって作成されたアルゴリズムと人間の会話や対話を反映するデータ。その結果、AIは人間の欠陥を反映し、適応します。バイアスや害がAIライフサイクル全体に影響を及ぼす可能性がありますが、それは人間によって書かれたアルゴリズムや人間の生活のスナップショットであるデータを通じて原因が生じます。ただし、どのようにAIに組み込まれたバイアスやその他の安全性上の懸念を見つける機会が与えられるのでしょう。

最終的に、チームにはさまざまな視点や経験を持つ人々が増えれば増えるほど、バイアスやその他の安全面の懸念をキャッチする可能性が高くなります。

責任あるAIをどのように構築すればよいですか?

私たち全員が信頼に値するAIを構築する責任を負っています。誰かが代わりにやってくれることを期待することはできません。まず、3つの基本的な問いを立てることから始めなければなりません:(1)このAIシステムは誰のために構築されたのか、(2)想定されたユースケースは何か、(3)誰にとってこれが失敗してしまう可能性がありますか?これらの問いを心に留めつつも、必然的に落とし穴があります。これらのリスクを軽減するためには、デザイナーや開発者、展開者がベストプラクティスに従う必要があります。

EqualAIでは、私たちは良い「AIハイジーン」を推進しており、フレームワークを計画し、責任を果たし、テストを標準化し、文書化し、定期的な監査を行うことが含まれています。また、直近には、責任あるAIガバナンスフレームワークの設計と運用化ガイドを公開し、組織で責任あるAIシステムを採用、開発、使用、実施するための価値観、原則、枠組みを具体化する資料を公開しました。この論文は、組織が責任を持ってAIシステムを採用、開発、使用、実装するための内部および公的な取り組みについて、サイズ、セクター、成熟度を問わず、組織にとってリソースとなります。

投資家は責任あるAIをよりよく推進するためにどのようにできますか?

投資家は、AIが安全で効果的かつ責任あるものであることを確認する上で非常に大きな役割を果たしています。投資家は、資金調達を求める企業がAIシステムの潜在的な害や責任を軽減することについて意識を持ち、考えていることを確認できます。たとえば「どのようにAIガバナンスの実践を確立しましたか?」という質問をすることは、よりよい結果を確保するために有意義な第一歩です。

この取り組みは、単なる一般的な利益だけでなく、投資家が投資している企業が悪い見出しで結びついたり、訴訟で負担されたりすることを避ける最善の方法であるだけでなく、良心的で財務的にも利益を得ることができます。信頼は企業の成功のための数少ない譲れないものの1つであり、責任あるAIガバナンスへのコミットメントは公衆の信頼を築き維持する最良の方法です。信頼性のあるしっかりとしたAIは、ビジネスの