生成AIを自社製品やサービスに取り込みたい企業にとって「生成AIのソフトウェアスタックをどのような形で自社インフラに取り入れるか」は大きな課題だ。Red Hatは「より小さく効率的で目的に合わせたAI」のためのプラットフォームの一般提供を開始する。
この記事は会員限定です。会員登録すると全てご覧いただけます。
2024年9月10日、Red Hatは「Red Hat Enterprise Linux AI」(RHEL AI)の一般提供を開始した。
RHEL AIは2024年5月に発表されていたもので、生成AIモデルの開発、テスト、実行のための基盤モデルプラットフォームだ。オープンソースライセンスで提供される「Granite」と、モデルアライメントツール「InstructLab」を統合したもので、RHELイメージとしてパッケージ化して提供する。
GraniteはMetaの「Llama-2-7B」のオープンリファレンス実装としてIBM Reseachが事前学習を施したものだ。コミュニティおよび商用利用向けにApache-2.0ライセンスで公開されている。
今回のRHEL AI発表に当たり、Red Hatは「今後の10年間で、より小さく効率的で目的に併せて構築されたAIモデルがクラウドネイティブアプリケーションとともにエンタープライズITスタックの多くの部分を占めるようになる」との予測を示した。
この環境を実現するには生成AIへのアクセス性と可用性を高める必要がある。この問題に対してOSSコミュニティと同様のアプローチで課題を解決するとしている。
Red Hatは、RHEL AIを、OEMや主要ハイパースケーラー経由でも提供するとしており、オンプレミスのデータセンターからエッジ、パブリッククラウドの「ほぼ全てのエンタープライズ環境にまで拡大する予定」としている。現在はオンプレミスの他、カスタマーポータルを介して「Amazon Web Services」(AWS)または「IBMクラウド」にサブスクリプション持ち込み(BYOS)方式でアップロードできる。AWSと「Google Cloud」は2024年第4四半期を目処にBYOSを開始する予定。IBMクラウドでは2024年後半にSaaSとして提供する。
Copyright © ITmedia, Inc. All Rights Reserved.