ネイバー-サムスン電子、AI半導体ソリューション協業…「NVIDIAより最大2倍優秀」

[写真=科学技術情報通信省]
[写真=科学技術情報通信省]

ネイバーとサムスン電子が共同開発した人工知能(AI)半導体が世の中に初めて姿を現した。 「ネイバー-サムスンAI半導体(仮称)」は媒介変数330億つ(33B)の中型超巨大言語モデル(LLM)を単一チップで推論(実行)できるのが強みだ。 エヌビディアAI半導体に比べて優秀な性能と安価な運営費を前面に出し、来年から本格的に関連市場を攻略する計画だ。

19日、業界によると、ネイバークラウドはこの日、科学技術情報通信省が開催した「第4回目のAI半導体最高位戦略対話」に参加し、サムスン電子と共同開発したAI半導体を試演した。

ネイバー-サムスンAI半導体は△4倍以上圧縮したLLM △圧縮したLLMのための低電力ハードウェア △今後の量産に備えた製品設計などが特徴だ。

チームネイバーAIチップ設計を総括するネイバークラウドのイ·ドンス理事は“40人余りの両社AI半導体専門家を投入し、エヌビディアに代わるAI半導体設計に乗り出した”とし、“AIモデル量子化など最適化技術を活用し、LPDDR Dラムを搭載したにもかかわらず、HBM Dラムを搭載したAI半導体より優秀な推論性能を備えた”と説明した。

実際、ネイバー-サムスンAI半導体はオープンソースLLMである「LlaMa」33Bモデルを単一チップで推論できる。 現在、最高性能のAI半導体と評価されるNVIDIA「H100」が2台のチップが必要な点を考慮すれば、導入·運営費面で大きな強みがあるのだ。

ネイバー-サムスンAI半導体がH100を跳び越える運営効率を見せることができた背景には両社専門家が苦心して作ったAIモデル最適化技術がある。 最適化技術を活用してAIモデルとDラムがデータをやり取りする速度を引き上げた。 元々、LPDDR5X Dラムのデータ伝送速度は1秒当たり480ギガバイト(GB)で、1秒当たり約2000GBのデータを伝送できるHBMと比べて大幅に落ちる。 反面、ネイバー-サムスンAI半導体に搭載したLPDDR5X Dラムは最適化技術を活用してHBMに匹敵する秒当たり1920GB速度でAIモデルとデータをやりとりする。

単一チップに搭載したDラム容量も128GBに達する。 80GBを搭載したH100はもちろん、6~10GB Dラムを搭載したスマートフォンと比べても圧倒的に大きい。 このような最適化と豊かなDRAM容量がネイバー-サムスンAI半導体の核心競争力だとイ理事は明らかにした。

ネイバー-サムスンAI半導体は現在、設計効率性を検証する段階で、来年中に半導体設計を最終確定し、チップ量産に着手する見通しだ。 チップの生産はサムスン電子ファウンドリで行われる。 ただ、何ナノメートル(nm)工程で量産するかはまだ確定していない。 サムスン電子ファウンドリの生産余力に合わせて4~5nmのうち、1ヶ所に決まるものと予想される。
<亜洲日報の記事等を無断で複製、公衆送信 、翻案、配布することは禁じられています。>
기사 이미지 확대 보기
경북 포항시 경북 포항시
닫기