『Prompt und Antwort』のカバーアート

Prompt und Antwort

Prompt und Antwort

著者: KI-Gilde
無料で聴く

このコンテンツについて

Ein KI-generierter Podcasts rund um die Entwicklung von und mit KI. News, Updates und interessante Hintergrundinformationen für den professionellen Einsatz von KI hinaus. Ohne Hype und Buzzwords. Die KI-Gilde ist ein Angebot der YnotBetter UG.KI-Gilde
エピソード
  • 030 - Context Engineering
    2025/07/11

    Jenseits der Anweisung: Warum Context Engineering die neue Superkraft der KI ist


    Tauchen Sie ein in die faszinierende Evolution der KI-Interaktion! Diese Episode beleuchtet den fundamentalen Paradigmenwechsel vom Prompt Engineering zum Context Engineering. Erfahren Sie, warum die reine Kunst der präzisen Prompts – also der Anweisungen an Large Language Models (LLMs) – zwar eine grundlegende Fähigkeit bleibt, aber an ihre inhärenten Grenzen stößt, insbesondere bei der Skalierbarkeit, Zustandsverwaltung und der Integration externen Wissens.

    Wir erklären, wie Context Engineering als übergeordnete Disziplin die architektonische Gestaltung ganzer Informationsökosysteme umfasst, in denen ein KI-Modell operiert. Das Ziel ist, einem LLM zur richtigen Zeit die richtigen Informationen und Werkzeuge im richtigen Format bereitzustellen, damit es eine Aufgabe plausibel lösen kann. Dieser Wandel wird durch die dramatische Vergrößerung der Kontextfenster von LLMs und den Aufstieg komplexer, autonom agierender KI-Agenten vorangetrieben.

    Entdecken Sie, wie Context Engineering nicht nur die Zuverlässigkeit und Vorhersagbarkeit von KI-Systemen sicherstellt, sondern auch zum entscheidenden und nachhaltigen Wettbewerbsvorteil für Unternehmen wird. Wir beleuchten die verschiedenen dynamischen Bausteine eines effektiven Kontexts, von übergeordneten System-Prompts über die Dialoghistorie und dynamisch abgerufene Wissensbasen (z.B. mittels RAG) bis hin zur Tool-Integration. Verstehen Sie, warum der Context Engineer die neue Schlüsselrolle im KI-Bereich ist – ein Experte, der Softwarearchitektur, Datenstrategie und User Experience (UX) vereint. Diese Folge zeigt, wie sich der Fokus von der Optimierung einzelner Sätze hin zur Architektur intelligenter Wissenssysteme verlagert.

    続きを読む 一部表示
    7 分
  • 029 - Tutorial: lokale KIs Teil 1
    2025/07/09

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    続きを読む 一部表示
    9 分
  • 028 - BERT und andere KI-Architekturen
    2025/07/07

    In dieser Podcast-Folge tauchen wir tief in die Welt der generativen KI-Modelle ein. Wir vergleichen die grundlegenden Sprachmodelle BERT und GPT, die beide auf der Transformer-Architektur basieren. Erfahre, wie BERT als Encoder-Modell für das Sprachverständnis (NLU) optimiert ist, indem es den vollständigen bidirektionalen Kontext analysiert. Im Gegensatz dazu ist GPT ein Decoder-Modell, das autoregressiv für die Sprachgenerierung (NLG) entwickelt wurde und Token für Token neue Texte erzeugt.

    Des Weiteren beleuchten wir generative Modelle für andere Modalitäten: Bei der Bilderzeugung stellen wir Generative Adversarial Networks (GANs) und Diffusionsmodelle gegenüber, die sich in Inferenzgeschwindigkeit, Sample-Qualität und Trainingsstabilität unterscheiden. Für die Audio- und Videogenerierung diskutieren wir die spezifischen Herausforderungen der zeitlichen und spatiotemporalen Kohärenz und wie diese von spezialisierten Architekturen wie spatiotemporalen Transformern angegangen werden.Schließlich werfen wir einen Blick auf die Zukunft der generativen KI, die immer stärker von Multimodalität geprägt sein wird, und erörtern verbleibende Herausforderungen wie die Datenrepräsentation, Skalierbarkeit und Evaluation.

    続きを読む 一部表示
    8 分

Prompt und Antwortに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。