検索結果: 677件
『---』の検索結果
-
企業のAI戦略・活用を支える GPUインフラ設計_クラウドとオンプレミスの比較から見る最適解
-
NVIDIA HGX B300を徹底解説!Blackwell世代の驚異的な性能と5つの進化【トゥモロー・ネット テックブログ】
お問い合わせはこちら近年、生成AIや大規模言語モデル(LLM)への需要が飛躍的に高まる中、従来の計算インフラではその膨大な演算量や低遅延要求に応えることが困難になっています。 そんな中、NVIDIAが提唱する新たなデータセンター向けプラットフォーム、NVIDIA HGX B300が登場しました。Blackwell世代の最先端GPUと高速インターコネクト、圧倒的なメモリ帯域量を備えたこの基盤は、「AIファクトリー」時代のインフラを刷新する存在として注目されています。 本記事では、まず「NVIDIA HGX B300とは何か、その登場背景とBlackwell世代の位置づけ」を整理し、続いて「5つの進化によ
-
Cloudpaging AI の使い方【トゥモロー・ネット テックブログ】
お問い合わせはこちらCloudpaging AI はどう使う? アプリケーションを Cloudpaging コンテナにパッケージ化することが、これまで以上に簡単になりました。Cloudpaging AI のリリースにより、既成のアプリケーションを数クリックでコンテナ化できます。 Cloudpaging AI でパッケージ化するアプリケーションの選択 「Applications」 に移動し、「アプリケーションを追加Add Application」をクリックします。 Cloudpaging AI を含む複数のオプションが表示されるメニューが表示されます。 Cloudpaging AI
-
Tensorコアとは?AI・ディープラーニングの計算を劇的に高速化するNVIDIA GPU【トゥモロー・ネット テックブログ】
お問い合わせはこちら近年、生成AI、大規模言語モデル(LLM)、高度な画像認識といったディープラーニング技術の発展により、演算量やデータ量が急激に拡大しています。 そんな中、NVIDIAが開発した「Tensorコア」は、AI/HPC(高性能計算)領域の演算処理を飛躍的に高速化するための革新的技術です。従来のGPUの汎用演算ユニットでは限界があった行列演算を、Tensorコアは混合精度を活用して効率的に処理することで、学習時間の短縮や推論処理の高速化、さらには電力効率の改善まで実現しています。 これにより、AIモデルの訓練や実稼働環境が今まで以上に現実的となり、AIインフラの設計や選定において新たな基準
-
『Cohesity Data Cloud』 製品ページ公開【製品情報】
お問合せ先バックアップやアーカイブ、クラウド・オンプレミスに分散するセカンダリデータの管理や保護は、多くの企業の負担となっています。そんな課題に応えるべく、Cohesity Data Cloud の製品情報ページを新たに公開しました。このプラットフォームは、サイバーレジリエンス、データ保護、AI活用を一つの統合基盤で実現し、企業のデータ運用効率と価値創出を強力に支援します。 概要 本製品ページでは、Cohesity Data Cloud がどのような課題を解決し、どのような機能・価値を提供するかをわかりやすく解説しています。セカンダリデータのサイロ化やコスト増大、セキュリティリスクなど、
-
個人情報保護方針
-net.co.jp個人情報保護方針 株式会社トゥモロー・ネット(以下、「当社」といいます)は、信用・信頼・安心を社会と顧客に提供するという考えのもと、AIプラットフォーム事業、クラウドコンピューティング事業、SDI事業を行っています。当社が事業活動を行う上で、個人情報を適切に取り扱うことは社会的責務であると考えています。当社では、この責務を全うするために、以下の取り組みを実施します。 1. 個人情報の取得、利用及び提供について 当社の全ての事業で取り扱う個人情報及び従業員の個人情報について、適切な取得、利用及び提供を行い、特定した利用目的の達成に必要な範囲を超えて個人情報を取り扱うことはあ
-
Cohesity Data Cloud
ス強化を支援します。AIを支える超高速データプラットフォーム Cohesity Data Cloud は、データ保護・セキュリティ・データインサイトを統合した次世代プラットフォームです。単一の管理でオンプレ・クラウドのデータを守り、ゼロトラストとAI基盤によってサイバーレジリエンスとデータ活用を強化します。 こんな課題を解決 セカンダリデータ(バックアップ、アーカイブ、テスト/開発用データなど)におけるお客様の主な課題を解決します。 01 データのサイロ化と管理の複雑化 クラウド、オンプレミスで分散・複雑化したデータを単一の管理コンソールで統合管理し、運用負担を
-
NVIDIA DGX Sparkとは|GB10搭載“手のひらAIサーバー”の性能・メリット・活用企業を徹底解説【トゥモロー・ネット テックブログ】
お問い合わせはこちら生成AIや大規模言語モデル(LLM)の活用が急速に広がる中、企業のAIインフラには、これまで以上に高い性能と拡張性、そして導入・運用のしやすさが求められています。「NVIDIA DGX Spark」は、こうしたニーズに応える “次世代AI開発基盤” として注目を集めています。本記事では、NVIDIA DGX Sparkの概要、特長、導入メリット、そして導入に適した企業像について詳しく解説します。 NVIDIA DGX Sparkとは|GB10 Grace Blackwell搭載の次世代小型AIサーバー NVIDIA DGX SparkはGB10 Grace Blackwell 搭載
-
『Hammerspace Data Platform』 製品ページ公開【製品情報】
お問合せ先分散データの管理が、AIやHPC活用の足かせになっていませんか?Hammerspace Data Platform は、オンプレミスからクラウドまで散在する非構造化データを統合し、高速アクセスと自動運用を実現するSDSです。データの「置き場所」ではなく、「使い方」に集中できる新しいデータ基盤をご紹介します。 概要 本製品ページでは、Hammerspace Data Platform の仕組みや特長をはじめ、分散した非構造化データをどのように統合・自動管理し、高速アクセスを実現するのかをわかりやすく解説しています。グローバルネームスペースやデータオーケストレーションの考え方、構成
-
ローカルLLMとは?クラウドAIとの違い・必要なサーバーのスペックを解説【トゥモロー・ネット テックブログ】
お問い合わせはこちら近年、生成AIや大規模言語モデル(LLM:Large Language Model)が多くの企業で導入され始めています。 その中で、「クラウド上でモデルをブラウザーやAPI経由で利用する方式」と「社内のサーバーや端末でモデルを動かす方式(ローカル方式)」の2つの選択肢が考えられるでしょう。 後者の方式で利用される「ローカルLLM」はクラウドに依存せず、自社環境内でAIを運用できるという観点から、データの外部送信を回避し、応答速度やカスタマイズ性を高められる可能性があります。一方で、初期のハードウェア導入や維持管理の負荷といった課題も見逃せません。 本記事では、ローカルLLMの