『株式会社ずんだもん技術室AI放送局 podcast 20250918』のカバーアート

株式会社ずんだもん技術室AI放送局 podcast 20250918

株式会社ずんだもん技術室AI放送局 podcast 20250918

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

関連リンク An Introduction to Speculative Decoding for Reducing Latency in AI Inference LLM(大規模言語モデル)が文章を生成する際、現状では「単語や文字の最小単位であるトークンを一つずつ順に生成する」という方法がとられています。この「逐次生成」の仕組みが、AIの応答速度(レイテンシ)を遅くしたり、高性能なGPUの計算能力を十分に活用できなかったりする原因となっていました。 この課題を解決するために登場したのが、「投機的デコーディング(Speculative Decoding)」という技術です。これは、大規模で高精度な「ターゲットモデル(主任科学者)」と、小さくて高速な「ドラフト機構(有能なアシスタント)」が協力して作業を進めるイメージです。アシスタントが次のトークン候補を素早く複数予測し、主任科学者はそれらの候補をまとめて一度に検証します。これにより、従来の「一つずつ生成・検証」のプロセスを大幅に短縮し、一度の処理で複数のトークンを生成できるようになります。結果として、AIの応答速度が向上し、GPUの利用効率も高まります。そして最も重要なのは、生成される文章の品質は、ターゲットモデルが単独で生成した場合と全く同じであることが保証される点です。 投機的デコーディングには主に二つのアプローチがあります。 一つは「ドラフト・ターゲットアプローチ」です。これは、メインとなる大規模なターゲットモデルと、小型で高速なドラフトモデルの二つのAIモデルを使用します。ドラフトモデルが次のトークンの候補を素早く生成し、ターゲットモデルがそれらをまとめて検証します。ターゲットモデルが正しいと判断した候補は採用し、予測が外れた部分についてはターゲットモデル自身が正しいトークンを生成し直すことで、生成物の精度を保ちます。 もう一つは、NVIDIAが推進する「EAGLE(Extrapolation Algorithm for Greater Language-Model Efficiency)」アプローチです。この方法では、別途ドラフトモデルを用意する代わりに、ターゲットモデル自身の内部情報(隠れた特徴量)を利用し、軽量な「EAGLEヘッド」という部品が次のトークン候補を予測します。特に最新の「EAGLE-3」では、ターゲットモデルの複数の層から情報を活用し、「予測の木」のように様々な候補を同時に試し、効率的に検証することで、さらに高速化を図ります。このアプローチの利点は、余分なドラフトモデルを動かす手間が省けることです。 この技術は、LLMの応答速度に劇的な改善をもたらします。従来のLLMが「一言ずつ」文章を生成するのを待つ必要があったのに対し、投機的デコーディングを使うと「まとまった言葉の塊」が一瞬で表示されるようになります。チャットボットのような対話型アプリケーションでは、この応答速度の向上により、よりスムーズで自然な会話体験が得られます。 NVIDIAのTensorRT-Model Optimizer APIのようなツールを使えば、これらの投機的デコーディング技術を既存のLLMに簡単に組み込むことができます。投機的デコーディングは、LLMをより高速かつ効率的に動かすための重要な技術であり、今後のAI開発においてその中心的な役割はますます大きくなるでしょう。 引用元: https://developer.nvidia.com/blog/an-introduction-to-speculative-decoding-for-reducing-latency-in-ai-inference/ Making LLMs more accurate by using all of their layers 大規模言語モデル(LLM)は目覚ましい発展を遂げていますが、時には事実に基づかない情報を自信満々に生成する「ハルシネーション(幻覚)」という問題に直面します。これは、LLMの実用性を大きく損ねる要因です。これまでの対策として、外部データを参照するRAG(Retrieval Augmented Generation)などがありますが、システムが複雑になる上に、完全にハルシネーションを防ぐことは難しいのが現状です。 このような課題に対し、Googleの研究チームは、NeurIPS 2024で「Self Logits Evolution Decoding (SLED)」という新しいデコーディング手法を発表しました。SLEDは、外部の知識ベースや追加のファインチューニング(追加学習)を必要とせず、LLMのハルシネーションを減らし、事実認識精度を向上させることを目指しています。 SLEDの核となる仕組みは、LLMがテキストを...
まだレビューはありません