私たちは、Apple が AI 競争に参加していることを知っています。同社はGeminiを自社のiPhoneに統合することでGoogleと提携する用意もあるだろう。その一方で、MM1 モデル シリーズなどの独自の人工知能モデルも開発しています。
時間がなくなると、りんごとiOS 18の今後の登場、同社はGoogleに対し、Geminiを自社のiPhoneに統合するよう求める可能性がある。同時に、彼女は自分自身のモデルにも取り組んでいます。人工知能。これは MM1 の場合に当てはまります。研究結果が発表されました。 Apple スタイルの AI の哲学と、そのテクノロジーをブランド製品に統合する可能性について詳しく知るには十分です。
さらに進むには
LLMとは何ですか? ChatGPT、Gemini などのエンジンはどのように動作しますか?
AppleのAIはGoogleのGeminiと競合したい
これは、専門家であるブランドン・マッキンジーによって完全に想定されています。LLMMM1 に関する研究に参加した Apple 社。彼によれば (X経由)、一連のモデルは、モデルのサイズに関係なく、Gemini の最初のバージョンと同じくらい効率的です。同氏は、MM1 の 300 億パラメータ バージョン(最も先進的なバージョン)が他のモデルよりも優れていると説明しています。
マルチモーダル モデル (テキスト、画像、音声など、複数の種類の入力を同時に処理できる) がどのように機能するかを理解するために、研究者はアブレーション、つまり AI システムの特定のコンポーネントを削除して、そのコンポーネントがユーザーに何をもたらすかを理解しました。システム全般。
モデルの構築も学びます。 Apple チームは、パフォーマンスに対する特定の要因の影響を研究する目的で小規模な実験を実施したと報告しています。述べたようにお気に入りの講師、私たちは次のことを学びます。画像解像度やビジュアル エンコーダーの能力などの要素は重要ですが、ビジュアル データをモデルに導入する方法はあまり影響しません。»
Apple が作成したこの AI モデルは何に使用されるのでしょうか?
研究者の結論には「」という事実もあります。MM1 は、強化されたコンテキスト内学習やマルチフレーム推論などの魅力的な特性の恩恵を受け、わずか数クリックで思考連鎖を開始することができます。» MM1 は画像について非常に正確な説明を書くことができ、画像についての質問に答えることができることがわかります。これには、非常に難しい概念も含まれます。捕獲» AIの場合、感情と同様に。
私たちが想像できる用途の中には、代替画像タグの生成があります。このようなシステムが実装されているのは、iPhone画像の説明を自動的に作成できるようになります。視覚障害者がデバイスに表示されている内容を理解するのに十分です。議論したように、iPhone が見たり聞いたりしたものをリアルタイムで書き起こすことも想像できます。コルベン。
Apple が iPhone に AI を統合する計画がどのようなものか正確には不明です。マック。自然にささやきますSiriの完全な見直し、音声アシスタント、方法チャットGPT。ブランドン・マッキンジー氏は、彼のチームはすでに次世代モデルの開発に取り組んでいると語った。