サムスン電子が次世代人工知能(AI)サーバー用メモリーモジュール「SOCAMM2」をNVIDIAなど顧客会社に供給し、市場攻略に拍車をかけている。 SOCAMM2は電力効率と帯域幅性能を同時に強化した製品で、次世代AIインフラに最適化されたソリューションと評価される。
サムスン電子は18日、テックブログを通じ、最新のLPDDR5X基盤のサーバー用メモリーモジュール「SOCAMM2」を開発し、顧客会社にサンプルを供給して検証を進めていると明らかにした。 SOCAMM2は従来のサーバー用RDIMMメモリーに比べ、2倍以上の帯域幅と55%以上低い電力消費を具現し、過負荷AIワークロード環境でも性能とエネルギー効率を同時に改善できるように設計された。
AIワークロードが大規模な学習中心からリアルタイム推論と常時サービス運営に拡張され、応答速度と電力効率を全て満足するメモリーソリューションの重要性が高まっている。 SOCAMM2はこのような変化に対応するための低電力・高帯域幅メモリーで、AIデータセンターの運営効率を高めることに焦点を合わせた。 マザーボードを変更しなくても、メモリー交換とアップグレードが可能なのが特徴だ。
サムスン電子は、SOCAMM2の開発過程で、NVIDIAと緊密な技術協力を進めてきた。 NVIDIAはAIおよび高性能コンピューティング(HPC)インフラで性能と電力効率を同時に満足するメモリーソリューションの重要性を強調し、SOCAMM2が自社加速インフラに最適化されるように技術検証を続けている。
市場ではサムスン電子がNVIDIAの2026年のSOCAMM2需要物量の相当部分を確保したと見ている。 LPDDR基盤のメモリー市場で高いシェアを確保したサムスン電子は今回の協力をきっかけに、AIサーバーメモリー市場内での立地をさらに拡大できるものと見られる。
亜洲日報の記事等を無断で複製、公衆送信 、翻案、配布することは禁じられています。
