
059 - Docker als KI-Infrastruktur
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
In dieser Folge analysieren wir die strategische Neuausrichtung von Docker, das sich von einem reinen Anbieter von Container-Infrastruktur zu einer integrierten, KI-nativen Entwicklungsplattform wandelt.Wir beleuchten die neuen Werkzeuge in Docker Desktop:• Der Docker Model Runner (DMR) vereinfacht die lokale Ausführung von Large Language Models (LLMs) mit Hardwarebeschleunigung drastisch. Modelle werden dabei als standardisierte OCI-Artefakte behandelt, was die gesamte Werkzeugkette der DevOps-Welt für MLOps nutzbar macht.• Docker Compose wurde fundamental erweitert, um KI-Modelle als erstklassige Bestandteile zu behandeln. Entwickler können nun komplette KI-Stacks – bestehend aus LLMs, Vektordatenbanken und Diensten – deklarativ in einer einzigen compose.yaml-Datei beschreiben.• Das Model Context Protocol (MCP) wird integriert, um die Entwicklung intelligenter, werkzeugnutzender "agentischer" Anwendungen zu ermöglichen und ein robustes Framework dafür zu schaffen.Erfahrt, wie Docker damit die Eintrittsbarriere für Millionen von Entwicklern senken und die Entwicklung von KI-Anwendungen auf dieselbe Weise demokratisieren will, wie es die Anwendungscontainerisierung getan hat.