テラデータ、生成AIの新機能BYO-LLMの提供を開始し、フルスタックのNVIDIA AIプラットフォームで高速化

2024年12月12日 | ロサンゼルス発

生成AIユースケースを高い柔軟性、セキュリティ、信頼性、ROIで導入可能に

Teradata(NYSE:TDC)は本日、ハイブリッドクラウド・データ分析プラットフォームTeradata Vantageの高度な分析機能ClearScape Analyticsの新機能BYO-LLM(Bring-your-Own LLM)およびGPU分析クラスタによる推論、ファインチューニングの実行環境の提供を開始したことを発表します。これら新機能により、企業は独自に開発した生成AIモデルを容易に本番運用に移行し、きわめて短期のうちにビジネス成果を獲得できるようになります。 

生成AIが単なる構想段階から、実ビジネスに活用する取り組みが本格化するにつれ、よりダイレクトにビジネス価値をもたらす実用的なAI活用が求められてきました。現在、大規模言語モデル(LLM)の技術革新が進み、中小規模のAIモデルが登場したことで、AIプロバイダーは、コスト高や複雑さを伴う超大規模LLMだけでなく、幅広い用途に対応できる汎用性の高いオープンソースLLMの提供を始めています。Teradataが今回発表した新機能BYO-LLM(Bring-your-Own LLM)は、ドメイン固有モデルをはじめとする小規模または中規模のオープンソースLLMをTeradata Vantageに取り込み、活用することを可能にします。これらのモデルは導入が容易で費用対効果が高いことに加え、超並列処理技術を搭載するTeradata Vantageでモデルを実行することで、データ移動にかかるコストを最小限に抑えつつ、セキュリティ、プライバシー、信頼性を最大限に高めます。 

また、TeradataはLLMの複雑さや規模に応じて、GPUとCPUのいずれかを戦略的に選択できる柔軟性を備えています。必要に応じてGPUを使用することで、推論やモデルのファインチューニングなどのタスクをより迅速かつ効果的に実行できます。先日発表したTeradataとNVIDIAの協業により、生成AIアプリケーションの開発と展開のためのNVIDIA AI Enterpriseの構成要素であるNVIDIA NIMを含むNVIDIA AIフルスタック・アクセラレーテッド・コンピューティング・プラットフォームをTeradata Vantageに統合したことで、プロジェクトの規模を問わず、信頼できるAIワークロードがさらに高速化されました。 

BYOLLMによるオープンソースLLMのドメイン特化型生成AIの活用推進
大規模なLLMがすべてのビジネスモデルに適しているわけではありません。また、コストが過大となる可能性もあります。35万以上のモデルを持つHugging FaceのようなオープンソースAIプロバイダーが登場してきたことで、きめ細かいビジネスニーズにも最適化された中小規模LLMのモデルも簡単に活用できるようになりました。Forrester社によると、AI活用を推進している企業のリーダーの46パーセントが、戦略的にオープンソースLLMを活用したいと回答しています。Teradata VantageにBYO-LLMを実装したことで、このようなオープンソースLLMで開発した独自モデルを超並列処理が可能なTeradata Vantageに容易に取り込み、セキュリティ、プライバシー、信頼性の高い環境下、本番データに基づく推論を優れたコスト効率で実行できるようになりました。

中小規模のオープンソースLLMの多くは、細分化された領域に対応しており、例えば次のようなビジネス領域で高い付加価値を創出しています:

  • 業界規制コンプライアンス:銀行業務において、多種多様な規制に対して潜在的な影響のある電子メールを識別し、利用コストの高いGPUインフラの使用頻度を低減します。
  • 医療診断書の分析:医師のカルテの分析と情報抽出を自動化し、機密データを移動させることなく患者ケアを向上させます。
  • 製品の推奨:組み込みLLMと ClearScape AnalyticsのIn-Database分析を組み合わせ、最適なシステムを提案します。
  • 顧客の苦情分析:苦情の種類、感情、内容を分析し、顧客の360°ビューにインサイトを統合して、顧客対応スキルを向上させます。


多くのオープンソースLLMが市場に登場する中、オープンでコネクテッドなエコシステム構築を目指す企業は、Teradata VantageとBYO-LLMを使用してベンダーロックインの少ないモデルに切り替えることで、こうした最新の技術革新にも将来にわたって対応できるようになります。 

GPU分析クラスタによるAIの推論とファインチューニングの高速化
膨大なデータを処理し、高速に演算処理されるよう設計されたNVIDIAアクセラレーテッド・コンピューティングは、推論(学習済みの機械学習、ディープラーニング、言語モデルを使用して、新しいデータに基づいて予測や意思決定を行うこと)に不可欠です。Teradata VantageCloud Lakeは、新たにフルスタックのNVIDIAアクセラレーテッド・コンピューティングをサポートしたことで、大規模または非常に複雑なモデル運用に対しても、極めて高い性能を発揮し、優れた費用対効果を期待できるLLMの推論環境を提供します。

Teradata VantageCloud Lakeはまた、GPUによるモデルのファインチューニングをサポートし、顧客はトレーニング済の言語モデルを各組織のデータセットに合わせてカスタマイズできるようになります。これにより、ゼロから学習プロセスを開始することなく、モデルの精度と効率が向上します。例えば、住宅ローンアドバイザーのチャットボットは、金融言語で応答するトレーニングが必要です。銀行用語でモデルを微調整することで、応答が的確になり、より状況に則したものになります。こうしてモデルの適応性を高めることで、アクセラレーテッド・コンピューティングを活用してモデルを再利用する能力をも向上させることができます。 

Teradataの最高製品責任者 Hillary Ashton は、次のように述べています。「Teradataの顧客は、生成AIの探索から、真にビジネス価値をもたらすAIアプリケーションへの迅速な移行を望んでいます。ClearScape Analyticsの新しいBYO-LLM機能とTeradata VantageCloud LakeのフルスタックNVIDIA AIアクセラレーテッド・コンピューティング・プラットフォームとの統合により、企業は生成AIの潜在能力を、課金負担を抑えつつ、より効果的かつ信頼できる方法で最大限に引き出せるようになります。Teradataを利用することで、AIへの投資を最大限に活用し、現実的で即効性のあるビジネス価値を実現できます」

提供状況
BYO-LLM for Teradata VantageCloud Lakeは、AWSでは既に一般提供を開始しています。2025年上半期にAzureとGoogle Cloudで一般提供される予定です。 また、NVIDIAのAIアクセラレーテッド・コンピューティングを搭載ししたTeradata VantageCloud Lakeは、AWSで推論機能の一般提供を開始しています。今後、2025年上半期にファインチューニングを可能にする予定です。 

Teradataについて

Teradataは、より良い情報が人と企業を成長させると信じています。Teradataが提供する最も包括的なAI向けクラウドデータ分析基盤は、信頼できる統合されたデータと信頼できるAI/MLを提供し、確実な意思決定、迅速なイノベーション、価値あるビジネス成果を実現します。詳しくは、Teradata.jpをご覧ください。