AI および HPC データセンター
フォールトトレラントソリューション
内蔵メモリ
CXL メモリテクノロジーを使用して、従来の計算上の制限を克服し、これまでにないパフォーマンス、スケーラビリティ、および費用対効果を実現します。
メモリウォールは、人工知能のようなメモリを大量に消費するアプリケーションでは特に大きな課題です。このようなアプリケーションでは、大規模モデルのトレーニングには超高速のメモリ帯域幅が必要であり、増加する需要に追いつくことができません。
GPU とメモリ間 (または複数の GPU 間) でデータを移動するのにかかる時間が重大なボトルネックとなり、トレーニング時間が遅くなる可能性があります。
トレーニング済みのモデルを使用して推論を行う場合でも、モデルがメモリからデータにアクセスして予測を行う必要があるため、メモリの壁によってレイテンシが増加する可能性があります。
メモリシステムが推論要求の要求に追いつけない場合、AI システム全体のスループットが低下する可能性があります。
メモリに制約があり、より多くのハードウェアと複雑なインフラストラクチャが必要になるため、AI モデルを拡張して多数のユーザーにサービスを提供することは困難です。
アリババ、シスコ、Dell EMC、Facebook、Google、Hewlett Packard Enterprise、Intel Corporation、Microsoftなどの他の業界リーダーと協力して、オープン業界標準グループを結成し、データセンターアクセラレータやその他の高速拡張のためのオープンエコシステムをサポートしながら、新しい使用モデルの画期的なパフォーマンスを促進する技術仕様を開発しました。
Compute Express Link®(CXL)は、サーバーがメモリとコンピューティングリソースを管理する方法を再定義する、業界のオープンスタンダードプロトコルです。CXL は、CPUとメモリ間の高速で低遅延の接続を可能にすることで、データ処理における従来のボトルネックを解消し、人工知能(AI)、ハイパフォーマンスコンピューティング(HPC)、機械学習(ML)などの新しいアプリケーションでますます使用されるデータ集約型ワークロードのスケーラビリティとパフォーマンスを新たなレベルに引き上げます。
競争上の洞察をより早く必要とし、スピードと正確さが競争上の優位性を高めることを必要とする組織にとって、CXL は画期的なメリットをもたらします。
• より高速なデータ処理:大量のデータセットを最小限の遅延でリアルタイムに分析します。
• インフラ効率の向上: 運用コストを削減しながら、リソースの使用率を最適化します。
• スケーラブルで将来を見据えたソリューション: コストのかかるインフラストラクチャのオーバーホールを行わずに、メモリをシームレスに拡張して変化し続けるデータ需要に対応します。
CXL 標準を実装し、業界標準のDDR5 DIMMもサポートする当社の新しいアドインカード(AIC)ファミリは、高密度DIMM AICのクラスで初めてCXL プロトコルを採用したものです。当社の4-DIMMおよび8-DIMM製品により、サーバーおよびデータセンターの設計者は、使い慣れた導入が容易なフォームファクターに最大4 TBのメモリをすばやく追加できます。
AIC を使用すると、コスト効率の高い 64 GB RDIMM により、サーバは CPU あたり最大 1 TB のメモリを使用できます。また、サプライチェーンの選択肢を増やす機会にもなります。市場の状況によっては、高密度のRDIMMを多数の低密度モジュールに交換することで、システムメモリコストを削減できます。
AI、HPC、MLは、現在のサーバーが対応できる量を超える大量の高速メモリを必要としていますが、従来のDIMMベースのパラレルバスインターフェイスを介してメモリを追加しようとすると、CPUのピン制限により問題が生じています。
業界がよりピン効率の高いCXLベースのソリューションに目を向ける中、当社の4-DIMMおよび8-DIMM AICは高度なCXL コントローラーを使用して構築されており、新しいコンピューティング集約型ワークロードにおけるメモリ帯域幅のボトルネックと容量の制約を排除します。
Penguin Solutions 今すぐお問い合わせください 私たちについてもっと知りたい CXL 製品 また、お客様のデータを活用して、情報を実用的な洞察に迅速に変えるお手伝いをする方法についてもご紹介します。
今すぐお問い合わせいただき、メモリ容量を低コストでスケーリングしながら、メモリ拡張とプール機能を最大限に活用できるように支援する方法の詳細をご覧ください。