『LLMs in Production』のカバーアート

LLMs in Production

Engineering AI Applications

プレビューの再生

聴き放題対象外タイトルです。Audible会員登録で、非会員価格の30%OFFで購入できます。

¥2,170で会員登録し購入
無料体験で、20万以上の対象作品が聴き放題に
アプリならオフライン再生可能
プロの声優や俳優の朗読も楽しめる
Audibleでしか聴けない本やポッドキャストも多数
無料体験終了後は月額¥1,500。いつでも退会できます。

LLMs in Production

著者: Christopher Brousseau, Matt Sharp
ナレーター: Christopher Kendrick
¥2,170で会員登録し購入

無料体験終了後は月額¥1,500。いつでも退会できます。

¥3,100 で購入

¥3,100 で購入

注文を確定する
下4桁がのクレジットカードで支払う
ボタンを押すと、Audibleの利用規約およびAmazonのプライバシー規約同意したものとみなされます。支払方法および返品等についてはこちら
キャンセル

このコンテンツについて

Unlock the potential of Generative AI with this Large Language Model production-ready playbook for seamless deployment, optimization, and scaling. This hands-on guide takes you beyond theory, offering expert strategies for integrating LLMs into real-world applications using retrieval-augmented generation (RAG), vector databases, PEFT, LoRA, and scalable inference architectures. Whether you're an ML engineer, data scientist, or MLOps practitioner, you’ll gain the technical know-how to operationalize LLMs efficiently, reduce compute costs, and ensure rock-solid reliability in production.

What You’ll Learn:

  • Master LLM Fundamentals – Understand tokenization, transformer architectures, and the evolution linguistics to the creation of foundation models.
  • RAG & Vector Databases – Augment model capabilities with real-time retrieval and memory-optimized embeddings.
  • Training vs Fine-tuning – Learn how to train your own model as well as cutting edge techniques like Distillation, RLHF, PEFT, LoRA, and QLoRA for cost-effective adaptation.
  • Prompt Engineering – Discover the quickly evolving world of prompt engineering and go beyond simple prompt and pray methods and learn how to implement structured outputs, complex workflows, and LLM agents.
  • Scaling & Cost Optimization – Deploy LLMs into your favorite cloud of choice, on commodity hardware, Kubernetes clusters, and edge devices.
  • Securing AI Workflows – Implement guardrails for hallucination mitigation, adversarial testing, and compliance monitoring.
  • MLOps for LLMs – Learn all about LLMOps, automate model lifecycle management, retraining pipelines, and continuous evaluation.

Hands-on Projects Include:

• Training a custom LLM from scratch – Build and optimize an industry-specific model.

• AI-Powered VSCode Extension – Use LLMs to enhance developer productivity with intelligent code completion.

• Deploying on Edge Devices – Run a lightweight LLM on a Raspberry Pi or Jetson Nano for real-world AI applications.

©2024 Manning Publications (P)2025 Manning Publications
コンピュータサイエンス プログラミング・ソフトウェア開発 プログラミング言語 機械理論・人工知能

LLMs in Productionに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。