SKハイニックス AIメモリーでサムスンを大きくリード 12段HBM量産成功
SKハイニックスは現存する高帯域幅メモリー(HBM)の最大容量である36GBを具現したHBM3E(第5世代)12段の新製品を世界で初めて量産し始めたと26日明らかにした。
量産製品は年内に顧客会社に供給される予定。
今年3月、HBM3E 8段製品を業界で初めてNVIDIAに納品してから6ヶ月ぶりに、再び圧倒的な技術力を証明している。
SKハイニックスは“2013年に世界で初めてHBM 1世代(HBM1)を発売したのに続き、HBM 5世代まで全世代ラインナップを開発し市場に供給してきた唯一の企業”とし、“高まっているAI企業の目線に合わせた12段新製品も一番先に量産に成功し、AIメモリー市場で独歩的な地位を続けている”と強調した。
SKハイニックスは、HBM3E12段製品がAIメモリーに必須な速度、容量、安定性など、すべての部門で世界最高水準を満たしたと説明している。
今回の製品の動作速度は、現存メモリーの最高速度である9.6Gbpsに高めた。
これは今回の製品44を搭載した単一グラフィック処理装置(GPU)で、META社が開発した巨大言語モデル(LLM)である「Llama3 70B」を駆動する場合、700億の全体パラメータを1秒当たり35回読み取ることができる水準だという。
また、従来の8段製品と同じ厚さで、3GB Dラムチップ12層、容量を50%増やしている。 このため、Dラム単品チップを従来より40%薄くし、TSV技術を活用して垂直に積み上げている。
さらに薄くなったチップをさらに高く積む時に生じる構造的問題も解決した。 自社の核心製造技術「アドバンスドMR-MUF工程」を今回の製品に適用し、全世代より放熱性能を10%高め、強化された反り現象制御を通じて製品の安定性と信頼性を確保している。
SKハイニックスは、NVIDIAのAI半導体を超高速で計算させるAIメモリーをセットにしてきたことにより、発熱問題で揺れるサムスンに大きく水をあけている。
サムスンはAI-SSDで後れを取れば、2~3割の小さなマーケットのAI半導体向けにしか商売ができなくなり、いよいよ危機が増してくる。
LLMとは、大規模言語モデル(Large Language Models、LLM)、非常に巨大なデータセットとディープラーニング技術を用いて構築された言語モデル。
LLMと生成AIは、どちらも人工知能(AI)の一種だが、階層と特化分野において異なる特徴を持つ。生成AIとは、テキスト、画像、音声などのデータを自律的に生成できるAI技術の“総称”。一方、LLMは、自然言語処理に特化した“生成AIの一種”であり、膨大なテキストデータから学習することで、より高度な言語理解を実現したもの。
サムスンのトップは、政治家に利用され、政治の道具にされ、シゴトを見失ったのだろうか。
集中・集中・集中・・・・