LLM と AI の出現により、Apple は前例のない一連の課題に直面しています。 AIをコンシューマー製品やプロフェッショナル製品に統合する競争は激化しており、Appleはこれらのテクノロジーを採用するだけでなく、ユーザーが期待する高いレベルの標準を維持しながら、それらのテクノロジーを自社の独自で安全なエコシステムに適応させる必要に迫られています。
Apple は現在、次の分野で起こっていることに圧倒されています。人工知能、 とOpenAI、メタ、マイクロソフト、グーグル、ミストラル…しかし、私たちはすでに Apple が何をしようとしているのかを知っています。このアメリカ企業は、次のような人工知能 (AI) ツールを統合したいと考えています。チャットGPTデバイス上で直接。
目的は?ユーザーに重要なイノベーションを提供しながら、生成 AI 分野に追いつきます。最近の文書、「一瞬でLLM」では、メモリ容量が限られたデバイス上でこれらの大規模な言語モデルがどのように機能するかを説明することで、この野心を強調しています。
スマートフォン上で LLM を直接実行する
Apple の野心を理解するには、iPhone 上で LLM を直接実行することが何を意味するのかを理解する必要があります。LLM、のための大規模言語モデルは、人間の言語を理解して生成することに特化した AI の一種です。これまで、これらのモデルには大量のコンピューティング リソースが必要でしたが、通常はクラウドでのみ利用可能でした。 Apple は、メモリ、電力、コンピューティングの制約にもかかわらず、自社のデバイスで効率的に動作するようにこれらのモデルを最適化することで、この状況を変えたいと考えています。
さらに進むには
LLMとは何ですか? ChatGPT、Google Bard などのエンジンはどのように動作しますか?
推論とは、AI モデルがユーザー入力に応答するプロセスを表す専門用語です。 iPhone などのデバイスで推論を最適化すると、ユーザーはクラウドへのインターネットの常時接続に依存せずに、携帯電話から直接、高速でインテリジェントな回答を得ることができるようになります。
さらに進むには
Android 上の Google Bard で Gemini Pro をテストする方法
モバイルデバイス上の AI の未来
このようなインテリジェンスの自律性を望んでいる企業は Apple だけではありません。 Google のような他のテクノロジー大手も、ピクセル8プロなどGemini Nano、AI機能をデバイスに直接組み込むことにも取り組んでいます。Microsoft が Phi-2 を導入、これも小さな言語モデルです。この傾向は、より高速でプライベートな、統合された AI エクスペリエンスを提供するというメーカーの戦略の変化を示しています。
ユーザーにとって、これはデバイスとの対話方法の革命を意味する可能性があります。 iPhone に複雑な質問をして即座に答えが得られること、または、より直観的にニーズを理解し、予測してくれるパーソナル アシスタントがいることを想像してみてください。これにより、Siri、Google アシスタント、または Amazon Alexa が現在提供しているエクスペリエンスは時代遅れになるはずです。Apple のアシスタントである Siri は、より強力で便利なツールになるでしょう。
Apple がこれらの新しい AI 機能を正確にいつリリースするかはまだ不明です。 Apple は表面的には一定の留保を維持していますが、舞台裏では ChatGPT が引き起こした興奮に驚かされているようです。
さらに進むには
次の AI 革命がやってくる: iPhone はその恩恵を受ける
彼らは現在、生成 AI を組み込む方法を積極的に模索しています。幅広い用途で。同時に、Apple の研究努力の強化も明らかです。アルス テクニカ同社が短期間に 2 番目の重要な文書を発行したことが明らかになりました。さらに、によれば、ニューヨークタイムズ, AppleはAIモデルのトレーニングに利用することを目的として、複数のニュース出版社のアーカイブにアクセスする交渉を行っており、最大5000万ドル相当の取引が行われる可能性がある。 Apple は多額の資金を持っているだけでなく、他にも多くの資産を持っています。
アップルの能力
まず、ARM チップ設計における Apple の専門知識は、特に大規模な言語モデルの実行に適した特殊なチップの開発において、否定できない戦略的利点を示しています (LLM)。
エネルギー効率とパフォーマンスで知られる ARM チップは Apple デバイスの心臓部であり、AI テクノロジーのより深く最適化された統合を可能にします。カスタム チップを開発することで、Apple はクエリ処理からメモリ管理、電力消費に至るまで LLM 動作のあらゆる側面を最適化し、複雑な言語処理タスクであってもスムーズで応答性の高いユーザー エクスペリエンスを提供できるようになります。
さらに、Apple は、ソフトウェア アップデートを大規模に展開できるという、もう 1 つの重要な利点を享受しています。 ChatGPT のようなモデルを配布するためにパートナーシップやサードパーティのプラットフォームに依存する OpenAI とは異なり、Apple は潜在的に、自社の LLM を iOS を通じて直接統合し、数億のアクティブ ユーザーに更新できる可能性があります。この迅速かつ普遍的な導入機能と、Apple エコシステムの既存のインフラストラクチャを組み合わせることで、同社は前例のない規模で生成 AI の導入と統合を推進できる独自の立場に立つことができます。
Apple の LLM の課題
しかし、これらの利点にもかかわらず、Apple は大きな課題に直面しています。 Appleは重要なプレーヤーではあるが、他のテクノロジー大手がすでに多額の投資を行っている分野である生成AIの競争では出遅れている。
さらに、データのプライバシーとセキュリティに関する Apple の哲学は、通常、多くの場合クラウドで大量のデータを処理する必要がある LLM の統合に特有の課題を提示します。したがって、Apple は、厳格なプライバシー ポリシーを遵守しながら、リソースに制約のあるデバイス上でローカルに実行できる強力で効率的な LLM を開発するという課題に直面しています。こうした課題に直面して、Apple は諦めつつあります。