アップルの選択が、エヌビディアが独占する人工知能(AI)学習用半導体市場に亀裂を生じさせられるだろうか。
アップルが、iPhoneなど自社電子機器に搭載するAIモデルを学習させるのに、エヌビディアのグラフィック処理装置(GPU)ではなくグーグルが設計したテンソル処理装置(TPU)を選定した。
アップルは29日、「アップル・インテリジェンス・ファンデーション・ランゲージ・モデルズ(AFM)」という題名の47ページに及ぶ論文を公開した。
この論文でアップルは、AFMオンデバイスとAFMサーバーモデルに対し「クラウドTPUで学習させた」と明らかにした。
論文でグーグルを直接取り上げてはいないが、2015年からグーグルが独自に設計してきたAI半導体のTPUを使った点に言及した。
エヌビディアのGPUで学習させなかった点を遠回しに示した。
アップルは論文で「TPUを通じてAFMオンデバイスとAFMサーバー、そして両モデルよりはるかに大きく精巧なモデルを作ることができるだろう」と明らかにした。
TPUはAIモデル学習と推論がいずれも可能なAI半導体。AI半導体は用途によりAIモデル構築と訓練に使われる学習用とすでに学習されたAIモデルをベースに精巧な結果を生成するのに最適化された推論用に分かれる。
AI半導体業界では、現在まで学習用AI半導体分野でエヌビディアのGPUと対抗するライバルはないとみている。
米投資専門メディアのモトリーフールは、「エヌビディアはAI学習用半導体市場の約98%を占めており、競合会社はほとんどシェアを確保できずにいる」と分析した。このため後発組は、推論用AI半導体であるニューラル処理装置(NPU)開発に集中し隙間市場を攻略している。
以上、
NVIDIAのGPUは生成AIを超高速での演算により実現するため、HBM(広帯域メモリ/SKハイニックス製)を組み合わせて、高付加価値化して高価格で出荷しているが、それでも物量が足りない状態。それは、NVIDIAのGPUの超高速演算がデータセンターでもAI対応が進み、さらに処理を超高速化することでデータ処理規模を大きくするためでもある。また、スマホやほかの電子製品に生成AIを搭載する新製品が目白押しになっており、GPUの需要を急拡大していることによる。一巡するまでこうした傾向は続く。
アップルがiPhoneにNVIDIA-GPUを使用しないのは、結果、価格にもあると見られる。
生成AIを動かすのにNVIDIA-GPUが必須となっているが、現在、超高速演算用の半導体が世界で開発されており、日本のプリファードネットワークス社も、自社開発のデータセンターやHPC(高性能コンピューティング)向けに超高速演算を実現したAIアクセラレーター(AI処理専用回路)の生産をサムスン電子に委託、サムスンは2nm世代のプロセス技術や先端パッケージ技術を適用する。パッケージでは自社製(=サムスン製)のHBMをセットすると見られる。