今週のAIトピック: 'オープンソース'はオープンではない場合

AIのように急速に動く産業を追いかけるのは大変です。そのため、AIが代わりに何かをするまで、ここに最近の機械学習の世界での注目の研究や実験をまとめた便利な記事があります。

今週、MetaはジェネレーティブAIモデルであるLlamaシリーズの最新版であるLlama 3 8BとLlama 3 70Bをリリースしました。テキストの解析と作成が可能なこれらのモデルは、Metaが述べるところによれば「オープンソース」とされており、開発者が独自の目標を持って設計したシステムの「基盤要素」として意図されています。

Metaはブログ投稿で「これらはそのクラスのベストオープンソースモデルだと信じています。私たちは、早くて頻繁にリリースするオープンソースの倫理を受け入れています。」と述べました。

ただし、Llama 3モデルは、厳密な定義ではないにしても、実際にはオープンソースではありません。

オープンソースとは、開発者が制限なくモデルを自由に使用できることを意味します。しかし、Llama 3の場合、Llama 2と同様に、Metaは特定のライセンス制限を課しています。たとえば、Llamaモデルは他のモデルをトレーニングするために使用することはできません。また、700百万以上の月間ユーザーを持つアプリ開発者は、Metaから特別なライセンスを申請する必要があります。

オープンソースの定義に関する議論は新しいものではありません。しかし、AI領域の企業がその用語を自由に使い回すと、長く続く哲学的な議論に燃料を投入しています。

去年の8月、カーネギーメロン大学、AI Now Institute、Signal Foundationの研究者が共同執筆した研究によると、多くのAIモデルが「オープンソース」とブランド化されているが、実際には重大な問題があるという結論が出ています。それはLlamaに限らずです。モデルをトレーニングするために必要なデータは秘密にされています。それらを実行するために必要なコンピューティングパワーは多くの開発者には手の届かないものです。そして、それらを微調整するために必要な労力は高くつくものです。

ですので、これらのモデルが真にオープンソースでない場合、それらは具体的にどのようなものなのでしょうか?それは難しい問いです。AIを尊重してオープンソースを定義することは容易ではありません。

未解の重要な質問の1つは、オープンソースライセンスに基づく基本的な知的財産のメカニズムである著作権をAIプロジェクトのさまざまなコンポーネントやピースに適用できるかどうかです。それに加えて、オープンソースとAIが実際に機能する方法との間の認識の不一致を乗り越える必要があります。オープンソースは、制限なくコードを調査および変更できるようにするために一部で考案されました。しかし、どの材料が調査および変更を行うために必要な材料であるかは解釈次第です。

すべての不確実性を乗り越える中で、カーネギーメロン大学の研究は、Metaなどのテックジャイアントが「オープンソース」というフレーズを乗っ取ることによって内包的な害を明らかにします。

しばしば、「オープンソース」と銘打たれたAIプロジェクトは、ニュースサイクルを開始し(無料のマーケティング)、プロジェクトの維持者に技術的および戦略的な利益を提供します。オープンソースコミュニティは、それと同じ利益を見ることはほとんどないですし、見ることがあっても、それは維持者のそれと比べて際立っていません。

AIを民主化する代わりに、「オープンソース」のAIプロジェクト、特にビッグテック企業のそれは、中央集権的な力を強化し拡大する傾向があると、研究共著者たちは述べています。次回の主要な「オープンソース」モデルリリースが行われる際には、これを考慮しておくことが良いでしょう。

ここ数日の他の注目すべきAIニュースは以下のとおりです:

  • Metaがチャットボットを更新: Llama 3のデビューと同時に、MetaはFacebook、Messenger、Instagram、WhatsApp全体でAIチャットボットをアップグレードしました - Meta AI - には、Llama 3パワーのバックエンドが搭載されています。また、より高速な画像生成やWeb検索結果へのアクセスなどの新機能も導入されました。
  • AI生成のポルノ:イヴァンは、監査委員会であるMetaの半独立した政策評議会が、企業のソーシャルプラットフォームが明確なAI生成画像をどのように扱っているかに注目する方法について書いています。
  • スナップのウォーターマーク:ソーシャルメディアサービスSnapは、プラットフォーム上のAI生成画像にウォーターマークを追加する予定です。アプリからエクスポートされたAI生成画像やカメラロールに保存された画像には、透明なSnapロゴと輝く絵文字が新しいウォーターマークとして追加されます。
  • 新しいアトラス:ヒュンダイ傘下のロボティクス企業であるBoston Dynamicsは、以前の油圧式駆動の前身とは対照的に、すべて電気式であり、外観もずっと親しげです。
  • 人型ロボット同士:Boston Dynamicsに負けないように、Mobileyeの創設者であるAmnon Shashuaが、果物を取りに行くプロトタイプのMenteeBotに焦点を合わせた新しいスタートアップ、MenteeBotを立ち上げました。
  • Redditの翻訳:Amandaとのインタビューで、RedditのCPO Pali Bhatは、ソーシャルネットワークをよりグローバルな観衆に開放するためのAIパワードの言語翻訳機能が進行中であること、およびRedditモデレーターの過去の決定と行動を学習したアシスティブモデレーションツールも同様に開発中であることを明らかにしました。
  • AI生成のLinkedInコンテンツ:LinkedInは、収益を増やすための新しい方法を静かにテストし始めました。AIによるコンテンツ作成やフォロワーカウントを増やすためのツール群が含まれるLinkedInプレミアムカンパニーページサブスクリプションは、月額99ドルのように高額の料金で提供される予定です。
  • 先駆者:Googleの親会社であるAlphabetのムーンショットファクトリーであるXは、世界の最大の問題に技術を適用するプロジェクトであるProject Bellwetherを今週発表しました。ここでは、AIツールを使用して、山火事や洪水などの自然災害をできるだけ早く識別することが目的となります。
  • AIによる子供たちの保護:英国のオンライン安全法の施行を担当する規制機関であるOfcomは、AIやその他の自動化ツールを使用して違法コンテンツを予防的に検出および削除する方法について調査を開始する予定です。特に、子供たちを有害なコンテンツから守るためのものです。
  • OpenAIが日本に上陸:OpenAIは、日本拠点の新しい東京オフィスを開設し、日本語に特化した新しいGPT-4モデルを計画しています。

さらなる機械学習情報

画像クレジット: DrAfter123 / Getty Images

チャットボットがあなたの考えを変える可能性がありますか?スイスの研究者たちは、それだけでなく、あなたの個人情報を予め装備したチャットボットは、ディベートにおいて同じ情報を持った人間よりもより説得力があって自信を持っている場合があることを発見しました。

「これはカンブリッジアナリティカのステロイドです。」とEPFLのプロジェクトリーダーであるロバート・ウェストは述べています。研究者たちは、この場合でも、モデルであるGPT-4はオンラインの議論や事実の膨大な情報から引きずり出して、より説得力のある自信に満ちた主張を行う可能性があると推測しています。しかし、結果は何とも言えません。洗練されたLLMの力を過小評価しないでください、ウェストは警告しています。「米国の次回の選挙の文脈では、人々はこの種の技術が常に最初にバトル・テストされる場所であることに懸念を抱いています。確かなことは、人々が選挙を揺さぶろうとする大規模な言語モデルの力を使うということです。」

なぜこれらのモデルは言語に優れているのでしょうか?それは、ELIZAに遡る長い研究の歴史がある分野です。そこで多くの研究を行ってきた人々の1人(そしてそれを自分自身で実行してきた者の1人)について詳しく知りたい場合は、StanfordのChristopher Manningについてのこの記事をチェックしてください。彼はJohn von Neumann Medalを受賞しました。おめでとうございます!

挑発的なタイトルのインタビューでは、別の長期AI研究者であり(TechCrunchのステージに立ったこともある)、スチュアート・ラッセルとポストドク研究員のマイケル・コーエンが「AIが我々全員を殺すのをどうやって阻止するか」と考察しています。おそらく、今より早くそれを理解する方が良いでしょう!ただそれは表面的な議論ではなく - これらは賢明な人々がAIモデルの動機づけを実際に理解し、規制がそれらの周りに構築されるべきである方法について議論しています。

スチュアート・ラッセルが語るAIを「人間適合」にする方法

このインタビューは、今月初めに発表されたScience誌の論文に関するものであり、彼らは戦略的に行動することができる高度なAI(彼らが「長期計画エージェント」と呼んでいるもの)をテストすることが不可能であるかもしれないと提案しています。基本的に、モデルが「理解」してしまったテストをクリアしなければならないと学んだ場合、テストを巧妙に否定または回避する方法を学ぶかもしれません。これを小規模で見たので、大規模なもので行われる可能性もあります。

ラッセルは、そうしたエージェントを作るために必要なハードウェアを制限することを提案しています…しかしその提案時というと、Los Alamos National Laboratory