モバイルコンポーネントのスペシャリストであるクアルコムは、データセンター、人工知能専用のチップを搭載しています。大胆かつ適切な決定です。その理由は次のとおりです。


4 月 9 日、クアルコムは人工知能に特化したイベントを利用して、Snapdragon 665、730、730Gを発表。これらのミッドレンジのスマートフォン チップには、人工知能処理専用のサブコンポーネントである最新世代の Qualcomm AI Engine が統合されているという共通点があります。したがって、同社によれば、たとえばSnapdragon 665は、この点で後継のSnapdragon 660の2倍の効率があるという。

メッセージはすでに明らかです。人工知能に特化した(控えめな)国際イベントを開催し、新しいチップの発売にこのフレームワークを選択し、CPU や GPU のパフォーマンスよりも AI の機能について多くのことを伝えることで、クアルコムはシグナルを送っています。この有望な分野を包含しているということです。

しかし、新しい Snapdragon の発表は、Qualcomm AI Day 2019 で最も注目すべきものではありません。それは比較的小規模ですらあり、これは、まだ非常に抽象的ではあるものの、他の発表が重要であることを示しています。同社は実際、来年、人工知能アクセラレータカードを発売すると発表しました。データセンター

Qualcomm Cloud AI 100: 人工知能アクセラレーション カード

具体的には、同社は、人工知能作業における推論計算用に特別に設計された「まったく新しいチップ」を組み込んだ、将来のサーバー用拡張カード シリーズである Qualcomm Cloud AI 100 を発表しました。

このような推論アクセラレータは、既存のモデルを実行することによって推論および演繹操作を排他的に実行します。この点で、トレーニング アクセラレータとは対照的です。機械学習 (機械学習)トレーニング データセットから。

しかし、人工知能においては、他の分野に比べて、電子コンポーネントが専門化すればするほど、効率が向上し、より効率的になります。。この場合、Qualcomm Cloud AI 100 チップはまったく新しい ASIC になります (特定用途向け集積回路文字通り、アプリケーションに固有の集積回路)であり、Snapdragon のような既存の SoC の派生品でも、Hexagon のようなそのサブコンポーネントの 1 つの派生品でもありません。ただし、後者と同様に、これまでで最も薄く、したがってエネルギー効率が最も高い 7 nm 製造プロセスの恩恵を受けています。

したがって、クアルコムはピークパフォーマンスがその15倍であると主張していますそしてSnapdragon 855AIで。とりわけ、推論を高速化するためにこれまで使用されてきた製品と比較して、データセンター, クアルコムのチップは、それ自体が CPU の 10 倍のワットあたりのパフォーマンスを提供する GPU や FPGA よりもエネルギー効率が 10 倍高くなります。同社は絶対的な数字ではまだかなりケチだが、目安として 350 TOPS (毎秒 3,500 億オペレーション) を超えるピークパフォーマンスを目指している。

クアルコムは見た目以上に合法的データセンター

クアルコムは、世界への参入を初めて試みました。データセンター2017 年には Centriq と呼ばれる一連の ARM プロセッサが登場しましたが、すぐに失敗に終わりました。これは、主要なサーバー アプリケーションが Intel および AMD の x86 プロセッサ向けに最適化されており、このソフトウェアを ARM アーキテクチャ向けに適応させて再コンパイルする作業が潜在的な顧客の意欲をそぐためです。

しかし、クアルコムはより優れた武装を持っています人工知能の分野で。特に、AI はあらゆる種類のアーキテクチャに適応できる中間ソフトウェア スタックに基づいているためです。この場合、Cloud AI 100シリーズは主要な実行環境に対応します: TensorFlow、Google が推進。 PyTorch、Facebook が推進。 Facebook と Microsoft が推進する ONNX (Open Neural Network Exchange)。したがって、クアルコムのアクセラレータは次のことが可能になります。ほとんどの人工知能を実行する何もせずに存在します。

それ以来、同社はモバイルチップ市場で得た専門知識を参入障壁なく活用できるようになります。リーダーシップ製造プロセス (インテルの 10 nm および Nvidia の 12 nm と比較して 7 nm を熟知)、信号処理の専門知識 (チップに統合された特殊なサブコンポーネント)、およびエネルギー効率の専門知識の点で優れています。

2025年には170億ドルの市場へ

したがってクアルコムはさまざまな人工知能アクセラレータを起動する正当性、高い市場シェアを獲得する可能性も十分にあります。 GeForce 1000 および 2000 シリーズのグラフィックス カードと同じ Pascal および Turing チップをベースにした Tesla カードを販売する Nvidia に対しても、Intel に対しても、2020 年に Xe と呼ばれる新しい種類の専用 GPU を発売する予定です。データセンターとAIに特化しています。いろいろとスタートアップ、最後に、AI 専用の ASIC を提供しますが、クアルコムの生産能力には匹敵しません。

しかし、分析会社Tracticaによると、データセンターにおける人工知能の市場は2018年から2025年の間に10倍に増加すると予想されている。この文脈では、クアルコムが 2025 年に推定 170 億ドル (150 億ユーロ) のパイを獲得したいと考えており、同社もこのゴールドラッシュに参加していることは驚くべきことではありません。その上、クアルコムが推論アクセラレータの発売を選択したのは偶然ではありません。トレーニングアクセラレータよりも簡単ですしかし、さらに多くのことが必要であり、市場はさらに大きくなります。実際、モデルを実行するほどトレーニングはしません。

足に銃弾?

最後に、クアルコムは人工知能を社会に追放することで自らの足を痛めているのではないかと疑問に思う人もいるかもしれない。データセンター、つまり、、同時に、ますます多くのSnapdragonチップに組み込まれているHexagonサブコンポーネントを使用して、AIを端末に統合するキャンペーンを行っています。

まず、多様化することで、クアルコムが成長の原動力を発見。スマートフォン市場では、同社は独自チップを製造しながら、単独で市場の50%を占めるサムスン、アップル、ファーウェイによる覇権の拡大に直面していると言わざるを得ない。クアルコムは残りの50%をメディアテックと共有する。何もないわけではありませんが、見込みを増やしたほうがよいでしょう。

そうなると、最も効率的かつ最も適切な場所で人工知能を実行することが問題になります。

もっとクアルコムは分散インテリジェンスを何よりも支持します、の間で配布されます。データセンター5G によって接続される可能性のあるユーザー デバイス。しかし、クアルコムは現在、リーダーシップ5Gモデム上、今後 5 ~ 10 年間でさらに成長する市場です。そうなると、最も効果的で最も適切な場所で人工知能を実行することが問題になるでしょう。実際、音声認識 AI、画像認識 AI、オートパイロット、チャットボットには、複雑さ、応答性、機密性の点でさまざまな程度の要件があります。

これはアプローチです」クラウドからエッジまでこれについては、すぐに 2 番目の記事を取り上げる予定です。いずれにせよ、クアルコムは、2020年中に予定されている発売に先立ち、2019年後半にCloud AI 100カードの最初のサンプルを提供する予定だ。