Ciscoが「AI推論専用機」と「ターンキー型AIサーバ」を発表
CiscoはGPU負荷の高いAIワークロード向けサーバー「UCS C885A M8」と特定業界向けAIインフラ「AI PODs」を発表した。AIインフラの迅速な構築が可能になるという。
Cisco Systemsは2024年11月28日(現地時間)、NVIDIAと共同開発した「UCS C885A M8」と「AI PODs」を発表した。UCS C885A M8はAIワークロード実行を想定した推論向けの構成とセキュリティを強化しており、AI PODsは特定の業界に特化したユースケースを想定する点が特徴だ。AI PODsにはエンタープライズ向けにAIモデルの管理・運用、開発支援向けのプラットフォーム「NVIDIA AI Enterprise」を搭載する。
AIワークロード向け専用のチューニングで構成、導入から運用までを短縮
シスコのAIサーバ製品群に新たにラインアップされるUCS C885A M8は、負荷の高いAIトレーニングおよび推論ワークロードに対応するため、TensorコアGPU「NVIDIA H100」および「H200」を搭載した「NVIDIA HGXスーパーコンピューティングプラットフォーム」を活用する。各サーバはAIワークロードにおけるネットワーク処理のパフォーマンスを高める「NVIDIA NIC」または「SuperNIC」に加えて、GPUのデータアクセスを高速化し、堅牢なゼロトラストセキュリティを実現する「NVIDIA BlueField-3 DPU」を搭載する。
「Cisco Validated Design」(CVD)を基盤として構築された「AI PODs」は、特定のAIユースケースや業界向けに特化したアプライアンス製品だ。あらかじめサイズや構成を決定するインフラストラクチャーバンドル型で提供されるため、エッジから大規模なクラスターまでの規模を問わずに迅速に導入できる。
AI PODsにはエンタープライズ品質のAI管理に関わるプロセスの運用を支援するNVIDIA AI Enterpriseが含まれているため、成果創出までの時間を短縮でき、運用に当たっては一貫したパフォーマンスの維持やリスク軽減のための環境もすぐに利用できる。
両製品とも「Cisco Intersight」による一元管理が可能だ。設定から日々の業務まで、全てを簡素化し、顧客の負担を軽減する。Cisco UCS C885A M8はすでに受注を開始しており、2024年中には出荷を開始予定だ。Cisco AI PODsは2024年11月より受注を開始する。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
みずほ銀がDCネットワークを刷新、シスコ自らが基本設計を担当
みずほ銀行が自社データセンターネットワークを刷新した。基本設計をネットワーク機器ベンダーが直接担った。Azure AIが業界特化型SLMモデルを拡充 設計・製造や金融、農業など
Microsoftは業界別の小規模言語モデル(SLM)の提供を発表した。バイエルやシーメンスなどの企業が協力し、各業界固有のデータで事前学習させたさまざまなモデルを提供する。NVIDIAのCEOとソフトバンク 孫氏が対談 ソブリンAIの供給の構想を語る
NVIDIAのAIカンファレンス「NVIDIA AI Summit Japan 2024」において、ソフトバンクの孫 正義氏が登壇。CEOのフアン氏との対談の中でAIスーパーコンピューター構築構想や、AI-RAN実用化に向けた構想を語った。「Red Hat OpenShift AI」がNIMに対応 ファインチューニング向け機能も追加
Red Hatが「Red Hat OpenShift AI 2.15」を発表した。データドリフト検出やバイアス検出、LoRA対応、NVIDIA NIM、AMD製GPUサポートなどが含まれる。オンプレミスないしハイブリッドクラウド環境でのAIワークロードの開発、運用に寄与する機能強化だ。