AI および HPC データセンター
フォールトトレラントソリューション
内蔵メモリ
データ集約型ワークロードの複雑さと規模が増大し続ける中、データセンター、クラウドサービス、HPC プロバイダー内のコンピューティングリソースのメモリを簡単かつコスト効率よく拡張できます。
処理を追加せずにレイテンシを減らしながらメモリ容量を増やすことは、ゲームチェンジャーです。メモリスケーリングにより、大規模なデータセットのリアルタイム処理を効率化し、複雑なアルゴリズムや高度な分析をより高速に実行できます。
人工知能(AI)や機械学習(ML)、画像処理、インメモリデータベース、リアルタイム分析などの最新のアプリケーションはかつてないほど多くのメモリを消費するため、低レイテンシで高帯域幅のメモリに対する需要に対応するための新しいソリューションが必要です。
何十年もの間、コンピュータシステムは、ホストマザーボードとパラレルバスを使用してCPUに直接接続されたRDIMMメモリモジュールを使用してきました。システムで使用できるモジュールの数を増やすには、CPUにメモリコントローラとピンを追加する必要がありましたが、これはすぐに法外なものになります。
Compute Express Link®(CXL®)は、既存のPCI Express®(PCIe®)インフラストラクチャに基づいて構築された、高帯域幅、低レイテンシのCPUとデバイスの相互接続規格であり、PCIeの物理的および電気的インターフェースを活用しながら転送プロトコルを追加します。
CXL によってメモリ拡張とプールが可能になり、大幅なコスト削減と電力効率の向上を実現しながら容量を拡張できます。
ミリ秒単位が重要な業界では、大容量で高性能な拡張可能なメモリソリューションへの需要がかつてないほど高まっています。
CXL は、現在のシステムアーキテクチャでメモリを拡張するためのより経済的な選択肢であるため、ホストアクセラレータ間の高速かつ低遅延の通信のための業界標準のオープンプロトコルであり、AI やMLなどの新しいアプリケーションでますます使用されるようになっています。
CXL は画期的なソリューションとして登場し、手頃なメモリ拡張、柔軟なスケーリング、パフォーマンスの向上を実現し、メモリリソースをプロセッサから分離することも可能になりました。このテクノロジーは、従来のメモリ制約を排除し、これまでにない効率で大量のデータセットのリアルタイム処理を可能にします。
このアプローチにより、システム全体を交換またはアップグレードすることなく、必要に応じてメモリデバイスを追加または削除できる、より柔軟でスケーラブルなメモリアーキテクチャが可能になります。
切り替えると、メモリプールが有効になり、効率的なメモリ割り当てが可能になります。デバイスを複数の論理デバイス (MLD) としてパーティション分割し、最大16台のホストがメモリのさまざまな部分に同時にアクセスできるようにします。
クライアントは、128 GB DDR5 RDIMM を 8 枚購入する代わりに、8 枚の 64 GB DDR5 RDIMM と 8 枚の DIMMCXL アドインカード(AIC)を組み合わせて使用することで、同等のメモリ容量を実現できます。この構成により、コストが 25% も大幅に削減されます。
長年の経験
GPU の導入と管理
GPU ランタイムの時間
CXL は、低レイテンシーで高速なメモリアクセスを提供し、メモリを大量に消費するワークロードの応答時間を改善します。CXL メモリ拡張により、低コストで大容量化が可能になります。
大量のデータをリアルタイムで取り込んで処理することで、計算分析とシミュレーション処理を高速化し、所要時間を短縮します。CXL の恩恵を受けるユースケースには以下が含まれます。
今すぐお問い合わせいただき、システムメモリコストを削減しながら処理能力を最大化するための統合メモリプーリングと拡張計画について、当社がどのように支援できるかを詳しくご紹介します。