AppleはWWDCで生成AIの「Apple Intelligence」を発表しました。
Apple Intelligence
Apple Intelligenceは、Appleが発表した生成AIの統合環境です。iOS 18とiPadOS 18、macOS Sequoiaに統合されます。大雑把に説明すると、アプリ内での操作、アプリをまたいだ操作、テキスト編集や画像生成のような作業をAIによって実現する機能です。
AppleはAIの活用においては、ユーザーの疑問や悩みを解決する提案を行うというよりかは、ユーザーが何をやっているか、何をしたいかを理解し、AIによってそれを省力化するというのがメインの機能になるようです。
例えば、アプリを問わずテキストフォームが存在した場合、AIによって様々な文体に変更する事ができたり、画像生成機能が統合されiMessageやKeynote、Pagesなどで利用できたりするなどの機能が統合されています。
言葉を理解し、自然に話すという点において、これまでiOSやmacOSに搭載されていたものと異なり、例えば、AIが提案するメールの返信の定型文がよりそのメールに沿った内容になっていたり、長いメールが届いたときはそれを要約する機能も搭載されます。
また、通知やメールの重要度についても推測することで、通知の内容から重要度を推測して、通知の順番を入れ替えたり、集中モード中でも必要に応じて通知を画面に表示させるようなことができるようになります。iOSのメールアプリにカテゴリ機能が搭載されましたが、おそらくこれもAIがベース担っているものと見られます。
そして、画像生成AIも統合されており、iMessageなどでは統合されていますが、Image Playgroudで単体アプリとしても導入されているようです。Image Playgroudでは、アニメーション・イラスト・スケッチの3つの画像のスタイルから選んで、画像を生成できます。
更に、写真アプリではAIを活用した、邪魔な背景物の削除機能などが追加されています。
画像理解の能力も持ち合わせており、画面から調べ物をしたり、保存した免許証の画像から必要な情報を抽出して入力してくれる機能も搭載されています。さらに、画面に住所や電話番号があれば、その情報を抽出して連絡先に追加したりということをSiriに要求することも可能です。
アプリ間の連携も凄まじく、メール・地図・連絡先などを組み合わせて情報を出力するため、メール・リマインダー・地図などの断片的な情報から詳細な経歴を作成したりすることも可能です。
設計
モデルと動作する場所
Apple Intelligenceは、基本的にローカルで推論をすることを念頭に、Apple独自の30億のパラメータを持つ比較的小型のモデルを使用します。Apple Intelligenceがこの独自モデルをローカルで動かせる環境を前提としているため、パワーがあるApple MシリーズチップあるいはA17 Proに限定しています。
なお、この独自モデルは、Applebotというクローラを用いてトレーニングを行ったことも明らかにしています。AppleはApplebotのDataをオプトアウトすることが可能であると述べており、robots.txtやIPアドレスの制限などによって制御することが可能であるとしています。クローラの詳細な機能が公開されているため、詳しくはApplebotについてのページをご覧ください。
Apple Intelligenceは、基本的にローカルで処理することを念頭に置いているようですが、ローカルで処理できない複雑な要求に対しては、Apple Siliconで構成されたAppleのAI処理サーバーを利用した「Private Cloud Compute」を行うことがあります。この時、iPhoneのセキュリティとプライバシー機能をこのPrivate Cloud Computeで用いるサーバーまで拡大し、プライバシーは担保されたまま、より大きなモデルをサーバーで動作させることができるようになり、サーバーと共有する情報は、タスクを実行するために必要な最低限の情報に限られ、サーバーに情報が保存されることもないとしています。
Appleはかなりプライバシーを重視しており、このPrivate Cloud Computeのコードは、独立した専門家によってコードを調査できる様になっている他、暗号化が行われているため、公的な調査を除きiPhone・iPad・Macとサーバーが通信できないようになっています。
ChatGPTの導入
また、AppleはOpenAIと提携して、Apple IntelligenceにGPT-4oをベースとしたChatGPTの機能を利用することを発表しました。ただしこれはあくまでも補助的な機能となり、Siriに指示を出した時、iPhoneのローカルで処理が難しい複雑なリクエストに対して、ChatGPTを用いるということになります。
OpenAIは、Apple Intelligenceから利用する場合の情報を保存しないとしています。
アプリへの導入
Appleはすでに搭載されているSiriKitやApple Intentのような作業効率化や作業のフローを自動化するSDKに統合され、開発者がすでにSiriやショートカットで扱える作業や機能を実装しているのであれば、Apple Intelligenceでも利用することが可能になります。さらに追加でSDKも提供されています。
例えば、ショートカットに対応しているようなアプリ内でのアクションは、Siriにその内容を曖昧にでも話すことによってアクションが実行されたり、対応アプリケーションにおいての画像編集において、編集の内容を伝えるだけで、その内容が適用されるなどの機能が利用可能となっています。
OSの入力機能などに搭載されるものもあることから、作業せずともAIに対応させることも可能です。