2026. 01. 10 (土)

チームネイバー、NVIDIA「B200」4000枚規模のクラスター構築へ…韓国最大規模

[写真=ネイバー]
[写真=ネイバー]

チームネイバーがNVIDIAの次世代GPU「B200(Blackwell)」4000枚規模を基盤に、韓国最大規模のAIコンピューティングクラスター構築を完了したと8日、明らかにした。

今回のインフラ構築で、チームネイバーはグローバルレベルのコンピューティングパワーを確保し、独自のファンデーションモデルの高度化、AI技術をサービスと産業全般に柔軟に適用するための核心基盤を設けた。

チームネイバーは単純装備導入を越え、大規模GPU資源を一つに連結して最適な性能を引き出す「クラスターリング」分野で独歩的な技術力を保有している。

2019年、NVIDIAのスーパーコンピューティングインフラである「SuperPOD」を世界で最も早く商用化したのに続き、超高性能GPUクラスターを直接設計・運営した実証経験を蓄積してきた。

「B200 4Kクラスター」にはこのような経験を土台にした冷却・電力・ネットワーク最適化技術が集約された。 大規模な並列演算と高速通信を前提に設計された今回のクラスターは、グローバルトップ500上位圏のスーパーコンピューターと比較可能な水準のコンピューティング規模を備えたものと評価される。

インフラ性能はAIモデルの開発速度に直結する。 会社側は内部シミュレーションの結果、720億つ
(72B)パラメータ規模のモデル学習時に既存A100基盤の主力インフラ(2048枚)で約18ヶ月がかかった学習期間を今回の「B200 4Kクラスター」では約1.5ヶ月水準に短縮できる効果が確認されたと説明した。 該当数値は内部シミュレーション結果であり、実際の学習課題と設定によって所要期間は変わることがある。

学習効率が12倍以上向上したことにより、チームネイバーはさらに多くの実験と反復学習を通じてモデルの完成度を高め、変化する技術環境により機敏に対応できる開発・運営体系を整えることになったと説明した。 大規模な学習を早く繰り返すことができるインフラが確保され、AIモデル開発全般の速度と柔軟性が一層強化されたという評価だ。

チームネイバーはこのようなインフラを基に、現在進行中の独自ファンデーションモデルの高度化にも拍車をかける計画だ。 テキストを越えてイメージ・ビデオ・音声を同時に処理するOmniモデル学習を大規模に拡張し、性能をグローバル水準に引き上げ、これを多様なサービスと産業現場に段階的に適用するという構想だ。
亜洲日報の記事等を無断で複製、公衆送信 、翻案、配布することは禁じられています。
기사 이미지 확대 보기
경북 포항시 경북 포항시
닫기