NVIDIA AI

NVIDIA NIM で生成 AI を即座にデプロイする

コミュニティによって構築された最新の AI モデルをご覧ください。NVIDIA によって最適化・高速化されており、NVIDIA NIM™ 推論マイクロサービスを使用することであらゆる場所にデプロイできます。

業界をリードするオープン モデルを今すぐ体験する


統合

API を呼び出すだけでアクセラレーテッド AI が使える

使い慣れた API ですぐに稼働。

人気のライブラリとのシームレスな互換性

わずか 3 行のコードで既存のツールやアプリケーションから NVIDIA API を利用できます。

いつも使うツールを使用可能

LangChain や LlamaIndex など、よく使用する大規模言語モデル (LLM) プログラミングフレームワークで作業し、最新の AI モデルをアプリケーションに簡単に統合できます。

NIM Agent Blueprint

インパクトのある生成 AI アプリケーションを構築するために必要なものがすべて揃います。各設計図には、NVIDIA NIM とパートナーのマイクロサービス、サンプルコード、カスタマイズ手順、およびデプロイ用の Helm チャートが含まれます。


どこでも実行可能

NVIDIA NIM で AI 導入を加速する

NVIDIA AI Enterprise に含まれる NVIDIA NIM は、あらゆるクラウドまたはデータ センターに基盤モデルを短期間でデプロイできる、使いやすいマイクロサービスのセットであり、常にデータを守ります。

Accelerate Your AI Deployment With NVIDIA NIM

NIM をデプロイする

お使いのモデルの NIM を 1 回のコマンドでデプロイします。ファインチューンされたモデルで NIM を実行することも簡単です。

推論を実行する

NVIDIA で高速化されたインフラをベースとする最適なランタイム エンジンで NIM を稼働させます。

構築

開発者は数行のコードで自己ホスト型 NIM エンドポイントを統合できます。

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

ローカルで起動するか、Kubernetes でスケールする

コンテナー化された AI マイクロサービスを、単一デバイスからデータ センター規模まで、NVIDIA のアクセラレーテッド インフラストラクチャにシームレスにデプロイします。

安全に、自信を持ってデプロイ

継続的なセキュリティ更新を含む本番環境で使用可能なランタイムを活用し、エンタープライズ グレードのサポートで支えられ安定した API でビジネス アプリケーションを実行します。

コストと炭素排出量を削減

NVIDIA のアクセラレーテッド インフラストラクチャ上で、低遅延と高スループットのために継続的に最適化された AI ランタイムにより、本番環境でのモデル実行の運用コストを削減します。

スループット

NVIDIA NIM は、面倒な設定もなく最適化されたスループットとレイテンシで、トークン生成の最大化、ピーク時の同時ユーザーをサポート、応答性の向上を実現します。

構成: Llama3.1-8B-instruct、1 x H100SXM; 入力 1000 トークン、出力 1000 トークン。同時リクエスト数: 200。NIM ON: FP8。スループット 6,354 トークン/秒、TTFT 0.4 秒、ITL: 31ms。NIM OFF: FP8。スループット 2,265 トークン/秒、TTFT 1.1秒、ITL: 85ms。

カスタマイズ

ドメインに固有のニーズに合わせて NIM マイクロサービスをカスタマイズ

NVIDIA NeMo によるファインチューニング

NVIDIA NeMo™ は、カスタム生成 AI をあらゆる場所で開発するのに役立つエンドツーエンド プラットフォームです。トレーニング、カスタマイズ、検索拡張生成 (RAG)、ガードレール、データキュレーション、モデルのプリトレーニングのためのツールが含まれており、企業は高い費用対効果で、簡単かつ迅速に生成 AI を採用できるようになります。

NVIDIA NIM マイクロサービスのデモをご覧ください

今すぐ始める

無料でプロトタイピングを開始

使いやすく、NVIDIA が管理するサーバーレス API で始めましょう。

  • 完全に高速化された AI インフラにアクセス。
  • 決して自分のデータをモデルのトレーニングに使用させない。
  • 1,000 推論クレジットを使って無料で始める。

ダウンロードとデプロイ

NVIDIA NIM を実行して、最適化された AI モデルをクラウドまたはデータ センターでスケールしましょう。

  • 決して自分のデータを自分の安全領域から出さない。
  • コード変更せずに、クラウドのエンドポイントからセルフホスト API へシームレスに移行。
  • 本番利用のために NVIDIA AI Enterprise ライセンスを使用するか、NVIDIA 開発者プログラムで無料で始める。

NVIDIA AI Foundry でカスタム生成 AI モデルを構築

基盤モデル、エンタープライズ ソフトウェア、アクセラレーテッド コンピューティング、AI の専門知識を利用し、エンタープライズ アプリケーション向けのカスタム モデルを構築、ファインチューニング、展開することができます。

導入事例

イノベーションを起こす

NVIDIA API がどのように各産業のユース ケースを支えているかご覧いただき、厳選されたサンプルを参考にしてお客様の AI 開発をスタートさせてください。

デジタル ヒューマン

ゲーム キャラクターに生命を吹き込み、インタラクティブな仮想アバターを作成することで顧客サービスを強化します。アプケーションにユーザーともっと深くつながる力を与えます。

コンテンツ生成

企業の専門知識と独自の IP に基づき、関連性の高いオーダーメイドの緻密なコンテンツを生成します。

生体分子生成

生体分子生成モデルと GPU の計算能力は、化学空間を効率的に探索し、特定の薬の対象や特性に合わせた多様な低分子化合物セットを迅速に生成します。

エコシステム

企業 AI のさらなる進化と高速化

NVIDIA エコシステムのモデル、ツールキット、ベクトル データベース、フレームワーク、 インフラストラクチャで AI アプリケーションを開発し、
業界をリードするパートナーの仲間入りをしてください。

関連情報

アンロック、アップスキル、アップスケール

NVIDIA LaunchPad

ハンズオン ラボで AI を解き放つ

開発フレームワーク、検索拡張生成 (RAG) ベースのチャットボット、ルート最適化など、ガイド付きのハンズオン ラボを通じてエンドツーエンドの AI ソリューションを体験できます。

NVIDIA 開発者プログラム

AI アプリケーションを高速化

NVIDIA 開発者プログラムを通じて、アプリケーション開発、研究、テスト、技術学習リソース向けの NIM に無料でアクセスできます。

AI Workbench

小さなスタート。大きくスケールアップ

NVIDIA AI Workbench なら、開発者は API 対応のモデルをローカルまたはリモートの GPU 活用コンテナーで柔軟に実行できます。実験からプロトタイピング、実証実験(POC)まで、インタラクティブなプロジェクト ワークフローを可能にします。

最新情報

NVIDIA NIM の最新情報

最新の NVIDIA プレス リリースをご覧ください。NIM と生成 AI が産業、パートナー、顧客に与えている影響などがわかります。

関連資料

技術関連資料を確認して、NVIDIA API を利用したエンタープライズ AI アプリケーションのプロトタイプ制作と構築を開始し、NVIDIA NIM による皆さん自身のインフラストラクチャをスケールしましょう。