NVIDIA ローカル環境で動作するチャットボット「Chat with RTX」を公開 パーソナライズも可能

米NVIDIAは2月13日(現地時間)、AIチャットボット「Chat with RTX」のデモをリリースしました。

Chat with RTXは、NVIDIA GeForce RTXを搭載したWindows PC上で動作します。

参考:NVIDIA

使用できる言語モデル

Chat with RTXで使用できるAIモデルはMistralとLlama 2の2種類となっています。

様々なファイル形式に対応

Chat with RTXはテキスト、PDF、doc/docx、xmlファイルなど多様なファイル形式に対応しています。ユーザーは指定したフォルダにファイルを配置するだけで、数秒でデータセットに追加されます。

「サラがおすすめしていたレストランの名前は何ですか?」と質問すると、データセット内のテキストファイルを参照して、レストランの名前を答えてくれます。

さらに、YouTubeのURLをアプリに指定することで、ビデオの文字起こしを取得し、その内容に基づいた質問が可能になります。

YouTubeのURLをアップロードして「CES 2024でNVIDIAが発表したGPUは?」と質問すると動画の内容から発表したGPUの名前を答えてくれます。

技術デモの基盤

Chat with RTXの技術デモは、TensorRT-LLM RAG開発者リファレンスプロジェクトに基づいており、GitHubから入手可能です。

開発者はこのリファレンスを利用して、TensorRT-LLMによって加速されたRTX向けの独自RAGベースアプリケーションの開発と実行ができます。

システム要件

Chat with RTXは、Windows 11の環境で動作します。また、GeForce RTX 30シリーズや40シリーズをはじめとする高性能なグラフィックカードを搭載したシステムでの利用を想定しており、最低限8GB以上のVRAM、16GB以上のRAM、そして535.11以降のドライバーが必要条件とされています。

出典:NVIDIA

まとめ

NVIDIA GeForce RTXを搭載したWindows PCで動作するAIチャットボット「Chat with RTX」のデモをリリースしました。Chat with RTXは、様々な形式のファイルやYouTubeの動画などを参照してユーザーの質問に答えることができます。

Chat with RTXのリリースにより、AI技術のさらなる活用が期待されます。特に、高速なリアルタイム処理が求められる業務や、複雑なデータセットを扱う研究分野での応用が見込まれています。

Chat with RTXの紹介は、こちらの動画から確認することができます。