検索結果: 677件
『---』の検索結果
-
NVIDIA L40S
らからご確認くださいNVIDIA L40Sとは? データセンター向けの比類のないAI およびグラフィックスのパフォーマンス NVIDIA L40S GPUは、画期的なマルチワークロードパフォーマンスを提供します。強力なAIコンピューティングに加え、クラス最高のグラフィックスとメディアアクセラレーションを兼ね備えたL40S GPUは、生成AIや大規模言語モデル(LLM)の推論とトレーニング、さらには3Dグラフィックス、レンダリング、ビデオ処理まで、次世代データセンターのワークロードに最適なパワーを提供します。 画像引用:NVIDIA L40Sデータシート|NVIDIA
-
NVIDIA H100
らからご確認くださいNVIDIA H100とは? あらゆるデータ センターにかつてない性能、拡張性、セキュリティを提供し、あらゆるワークロードに対応します。 製品の特長と利点 01 先進のAIトレーニング技術 H100は、第4世代のTensorコアとFP8精度で動作するTransformer Engineを搭載し、前世代と比べて混合エキスパート (MoE) モデルのトレーニング速度を最大9倍に向上させます。第4世代NVLinkによるGPU間の毎秒900ギガバイトの高速通信、NVLINK Switch Systemによるノード全体でのGPU通信の高速化、PCIe Gen
-
ブログ
-
NVIDIA H200
らからご確認くださいNVIDIA H200とは? 生成AIとHPCのためのGPU NVIDIA H200 Tensor コア GPUは、革新的なパフォーマンスとメモリ機能を備え、生成AIおよびHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200は、大容量かつ高速なメモリを提供し、科学コンピューティングによるHPCワークロードの推進と、生成AIや大規模言語モデル(LLM)の高速化を実現します。 製品の特長と利点 01 大容量で高速なメモリによる高いパフォーマンス NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、
-
NVIDIA データセンター GPU 製品一覧
NVIDIA データセンター GPUとは? NVIDIAデータセンターGPUとは、通常のコンピューターよりも大規模で高速なデータ処理を必要とする場所(=データセンター)で使われる、特別な「グラフィックス プロセッシング ユニット (GPU)」のことです。 GPUは本来、映像処理(グラフィックス)を高速に行うための装置ですが、いまではAI(人工知能)やディープラーニング(深層学習)などの高度な演算にも使われるようになりました。データセンター向けGPUは、特に大規模で高度な解析や機械学習に対応できるよう、AIに特化したコアや大容量のVRAMが搭載されています。 NVID
-
キーワード検索
-
アクセラレーテッド コンピューティングとは?仕組みについて解説【トゥモロー・ネット テックブログ】
お問い合わせはこちらアクセラレーテッド コンピューティングとは、特定の計算処理を高速化するために、専用のハードウェア(GPUやFPGAなど)を活用する手法です。 これにより、従来のCPUのみでは処理が困難な大量のデータや複雑な計算を効率的に行うことが可能となります。本記事では、アクセラレーテッド コンピューティングの仕組みやGPUとの関係性について解説します。 アクセラレーテッド コンピューティングとは アクセラレーテッド コンピューティングは、従来のCPUによる処理の限界を補い、高度な計算を可能にする技術として注目されています。ここでは、アクセラレーテッド コンピューティングの基本概念と、従来
-
ユーザーインターフェイス
プラットフォーム基盤直感的な操作と統合管理を実現するユーザーインターフェイス トゥモロー・ネットのユーザーインターフェイスは、ポータルサイト、GUI、ダッシュボード、権限設定など、多様な機能を統合しながら、簡潔かつわかりやすい操作性を提供します。専門知識がなくてもAIシステムをスムーズに利用・管理できるため、企業のデジタルトランスフォーメーションを加速します。 01 ポータルサイト ポータルサイトは、AIサービスを利用するパートナー企業およびクライアント企業向けの統合サイトです。パートナー企業向けには、AIアプリストア、導入支援、技術サポート、販売ツールの提供を行い、クライ
-
インフラストラクチャー
ザーインターフェイス高性能かつ信頼性の高いAIインフラストラクチャー AIの性能を最大限引き出すためには、堅牢で拡張性のあるインフラストラクチャーが不可欠です。トゥモロー・ネットは、サーバー、GPU、ストレージ、ネットワークなどの最適化により、企業のAIワークロードを強力に支えます。 01 サーバー AI基盤におけるサーバーは、AIシステムの中心的な役割を果たします。計算処理を担う高性能なCPU、大容量メモリ、ストレージが組み合わさり、膨大なデータを効率よく処理するAIモデルの学習や推論を支えます。AIワークロードに応じてリソースを柔軟に調整できるため、さまざまな規模のAI
-
プラットフォーム基盤
ザーインターフェイス安全かつ効率的にAIを支えるプラットフォーム基盤 トゥモロー・ネットのプラットフォームは、コンテナ・仮想化技術を中心に構築され、AI開発・運用に必要なセキュリティ、運用/管理機能を包括的に提供します。柔軟なスケーラビリティと堅牢性を兼ね備え、多様なAIアプリケーションを支える土台となります。 01 コンテナ基盤 コンテナ基盤は、Kubernetes や Docker などのオーケストレーション技術を使用して、AI アプリケーションをコンテナ単位で効率的に管理・運用する仕組みです。コンテナは、独立した環境で動作し、AI モデルや関連ソフトウェアを素早くデプ