Appleは開発者向けにGenAI 'Apple Intelligence'を導入し、Siriがアプリを制御できるようにする

Apple Intelligence、Appleの新しい生成AIオファリングは、単なる消費者向けの機能ではありません。開発者も最新の技術を活用できます。月曜日のWWDC 2024でのAppleの基調講演で、同社は開発者がApple Intelligenceによって提供されるエクスペリエンスを自分たちのアプリに統合できるようになると発表しました。

AppleのSDK(ソフトウェア開発キット)は、いくつかの新しいAPIやフレームワークと共にアップデートされ、App開発者がImage Playground — またはGenAI画像作成 — を数行のコードで統合するなどのことが可能になります。Appleは、Craftのようなアプリがこのオファリングを使用して、AI画像を追加することで、ユーザーのドキュメントをより視覚的にする方法を示しました。

AIパワードライティングツールも、標準の編集可能テキストビューを使用する任意のアプリで自動的に利用可能になります。これにより、AppleはBear Notesのようなアプリが、ユーザーがノートの書き換え、校正、要約を自動的に行えるようにする方法を実証しました。

さらに、Appleは開発者がSiriを使用してアプリ内でアクションを実行できる新しい方法を構築しています。

SiriKitをすでに採用している開発者は、Appleが言うには、追加作業なしでSiriの新しい機能の多くが即座に向上することになります。これには、リスト、ノート、メディア、メッセージング、支払い、レストラン予約、VoIP通話、ワークアウトなどの領域が含まれます。

Appleは、開発者が追加の作業なしに利用できる新しいSiriの機能が2つあると述べています。まず、Siriはアプリのメニューからいかなる項目も呼び出すことができるようになります。これは、ユーザーがスライドデッキ内で「プレゼンターノートを表示」と言うか、より会話形式で「スピーカーノートを見る必要がある」と言うこともできるということです。

第二に、SiriはAppleの標準テキストシステムを使用して、画面に表示されているテキストにアクセスすることができます。これにより、ユーザーは画面上のテキストを参照してアクションを取ることができます。例えば、「おじいちゃんにお誕生日おめでとうと伝える」というリマインダーまたはノートがある場合、単に「FaceTimeで彼と話す」と言うことでそのノートにアクションを取ることができます。

一方で、アプリがインストールされていなくても軽量のアプリのようなインタラクションを可能にするAppleのApp IntentsフレームワークもApple Intelligenceにアクセスするようになります。

Appleは、新しいIntentを定義し、本のカテゴリ、ブラウザ、カメラ、ドキュメントリーダー、ファイル管理、ジャーナル、メール、写真、プレゼンテーション、スプレッドシート、ホワイトボード、ワードプロセッサなど、一部のカテゴリを含むカテゴリ全体の開発者に利用可能にすると述べています。

画像クレジット:Apple

Appleによると、これらのIntentは定義され、テストされているため、開発者が採用しやすくなっています。

Intentを使用することで、Darkroomのような写真編集アプリは、ユーザーが「昨日イアンの写真にシネマティックプレゼントを適用する」と言うだけでアプリがアクションを実行できるようになります。今後、さらに多くのドメインが追加される予定です。

最初は、ユーザーはショートカットアプリで開発することができますが、将来的にはSiriがサポートされているドメインでアプリのインテントを呼び出す能力を獲得します。

そして、Appleは基調講演で共有したように、既存のSiriKitドメインに適合するアプリは、Siriの強化された会話能力(つまずいて言葉を間違えた場合にも正しく応答したり、会話の前の部分を参照したりすることができる能力など)を活用することができます。

Siriはまた、新しいSpotlight APIを使用してアプリからデータを検索することができ、アプリのエンティティをそのインデックスに含めることができるようになりました。これらのエンティティは、Apple Intelligenceの写真、メッセージ、ファイル、カレンダーイベントなどのセマンティックインデックスを指します。

また、月曜日には、同社が独自のパスワードマネージャーアプリ、AI生成ビットモジ、およびiPad用の計算機アプリを発表しました。

この記事は、開発者向けの基調講演からの追加情報を掲載後に更新されました。