エピソード

  • 158 - Modell gegen Prompt Injection
    2026/05/06

    In dieser Folge des KI Gilde Podcasts geht es um die unsichtbare Gefahr von Prompt Injections bei der Automatisierung von KI-Systemen. Wir erklären, wie Angreifer durch sogenannte indirekte Injections versteckte Schadbefehle in scheinbar harmlosen PDFs oder Webseiten platzieren, um die KI zu manipulieren.

    Als Lösung stellen wir das spezialisierte Wächtermodell Wolf-Defender vor. Dieses extrem kompakte Modell ist unter 300 MB groß, lässt sich lokal ohne Latenz ausführen und fungiert als vorgeschaltetes Schutzschild für autonome KI-Agenten und RAG-Systeme. Durch ein großes Kontextfenster von 2048 Token und das Training mit "Hard Negatives" erkennt der Wolf-Defender echte Angriffe zuverlässig selbst tief in Dokumenten, ohne bei harmlosen Nutzeranfragen unnötige Fehlalarme auszulösen. Erfahre, warum blindes Vertrauen in externe Daten nicht mehr ausreicht und wie dieses Modell deine KI-Dienste effektiv absichert.

    続きを読む 一部表示
    8 分
  • 157 - Agenten in Meetings
    2026/05/04

    KI-Gilde Podcast Folge 157: Der Hermes Agent in Google MeetIn dieser Episode analysieren wir das neue Curator-Release (v0.12.0) des Hermes Agenten. Erfahrt, wie die KI dank "Headless Browser Automation" als unsichtbarer Teilnehmer direkt in eure Google Meets einzieht und sich bei wichtigen Themen sogar live zu Wort meldet.Die Highlights der Folge:

      • Technik & Audio: Wie das System Echos durch Duplex-Audio direkt auf Hardwareebene verhindert und wie die KI per Zuruf sofort stoppt.
      • Absolute Datensicherheit: Warum 100 % lokale Verarbeitung auf der eigenen Hardware (Transkription & Sprachmodell) keine sensiblen Firmendaten in die Cloud leckt.
      • Semantisches Gedächtnis: Wie der Agent persönliche Arbeitspräferenzen lernt und automatisiert Tools wie Jira und Slack aus dem Gespräch heraus befüllt.
      • Autonomous Curator: Der neue "unsichtbare Hausmeister", der alle 7 Tage veraltete Befehle aufräumt und das System im Hintergrund optimiert.

    Werden in Zukunft nur noch unsere KIs die Meetings untereinander aushandeln? Hört rein!

    続きを読む 一部表示
    6 分
  • 156 - Agenten verstehen: externe Orchestrierung
    2026/05/01

    KI-Agenten dirigieren: Multica vs. PaperclipIn dieser Folge des KI Gilde Podcasts verlassen wir den Mikrokosmos einzelner KIs und blicken auf die Orchestrierungsebene. Wie steuert man hunderte digitale Arbeiter, ohne im Chaos zu versinken? Wir vergleichen zwei radikal unterschiedliche Philosophien:

      • Multica: Der Ansatz der kontrollierten Zusammenarbeit ("Human in the Loop"). Multica agiert wie ein digitaler Kollege, der sich Aufgaben zieht, in einer sicheren lokalen Umgebung arbeitet und bei dem jeder Schritt zwingend vom Menschen freigegeben werden muss.
      • Paperclip: Das vollautonome, digitale Firmenimperium. Hier arbeiten Dutzende Agenten in strengen Hierarchien komplett ohne menschliches Eingreifen zusammen. Ein Rhythmus aus Schlaf- und Wachphasen (das "Herzschlagparadigma") sowie strikte Programmierregeln verhindern dabei das finanzielle und strukturelle Chaos.

    Die spannende Frage dieser Folge: Sehen wir KI als kontrollierbare Erweiterung unserer Fähigkeiten (Multica) oder als autarkes System, das ganze Wirtschaftskreisläufe neu erfindet (Paperclip)?

    続きを読む 一部表示
    17 分
  • 155 - Claude Live Artefacts
    2026/04/29

    In Folge 155 des KI-Gilde Podcasts zerlegen wir die Technik hinter "Claude Live Artefacts" und diskutieren, ob Claude Desktop zum neuen Betriebssystem wird. Wir vergleichen dabei zwei zentrale Ansätze:

    • Generative UI: Die KI programmiert aus reinen Daten (via MCP) zur Laufzeit eigenständig interaktive Frontends wie Dashboards, die durch striktes Sandboxing und sogenannte "Claude Deception" isoliert und abgesichert werden.
    • Server-Driven UI (SEP 1865): Externe Server liefern fertige, deterministische UI-Elemente, die sicher und ohne Kontextverlust direkt im Chatfenster angezeigt werden, was besonders für große Unternehmen höchste Markentreue und Sicherheit garantiert.

    Hör rein und erfahre, warum diese Entwicklung klassische Betriebssysteme wie Windows oder macOS bald zu reinen Bootloadern degradieren könnte.

    続きを読む 一部表示
    6 分
  • 154 - LLMs automatisiert knacken
    2026/04/27

    Sicherheitsleitplanken bei KIs sind keine harten Grenzen, sondern eine gefährliche Illusion. In dieser Folge zeigen wir, wie Forscher von Palo Alto und Unit 42 mithilfe von genetischen Algorithmen und automatisiertem Prompt-Fuzzing jedes bekannte Large Language Model (LLM) erfolgreich knacken konnten.Wir erklären die Mechanismen dahinter und diskutieren folgende Kernpunkte:

      • Automatisierte Jailbreaks: Wie Angreifer in wenigen Minuten dutzende Sicherheitslücken ausnutzen.
      • Gefahr durch offene Modelle: Warum sich Schutzmechanismen bei lokalen Modellen einfach heraustrainieren lassen.
      • Indirect Prompt Injection: Wie über externe Dokumente (RAG) unsichtbare Befehle in die KI eingeschleust werden können, was OWASP zur Top-Bedrohung für 2025 erklärt hat.
    続きを読む 一部表示
    7 分
  • 153 - Agenten verstehen: Warum Agenten am Multi-Turn scheitern
    2026/04/24

    In Folge 12 von "Agenten verstehen" widmen wir uns lokalen Modellen wie Gemma 4 und Qwen 3.6. Wir klären, warum lokale Agenten trotz gigantischer Kontextfenster bei längeren Dialogen (Multi-Turn) oft völlig den Faden verlieren und wie wir das architektonisch lösen.Die Themen dieser Folge:

      • Der Multi-Turn-Kollaps: Warum Sprachmodelle durch "Aufmerksamkeitsverfall" (Attention Decay) oft schon nach fünf Runden ihre eigenen Regeln vergessen und voreilig halluzinieren, anstatt bei Unklarheiten nachzufragen.
      • Dense vs. MoE: Warum "Mixture of Experts"-Modelle bei längeren Unterhaltungen durch mathematische Routing-Probleme einbrechen und kleinere "Dense"-Modelle oft deutlich stabiler bleiben.
      • Hybride Pipelines: Warum ein Sprachmodell keine kritischen Aktionen mehr allein ausführen darf und wie strikte Code-Schichten (Konsistenz-Gates) das System vor dem Chaos bewahren.
      • Gedächtnis & Tests: Wie "Context Repacking" (kompakte Briefings statt langer Chat-Verläufe) den Kontextverfall stoppt und wie man sein Modell durch zerschnittene Aufgaben ("Sharded Simulation") einem echten Stresstest unterzieht.
    続きを読む 一部表示
    18 分
  • 152 - KI-Modellbezeichnungen
    2026/04/22

    In dieser Folge des KI-Gilde Podcasts entschlüsseln wir die kryptischen Dateinamen lokaler KI-Modelle, die auf den ersten Blick wie zufällige Zeichenketten wirken.Am Beispiel eines komplexen Namens wie "Qwen3.6-35B-A3B-UD-IQ4_NL_XL.gguf" erklären wir die genaue Bauanleitung hinter den Modellen:

      • Parameter und Mixture of Experts: Was der Unterschied zwischen den gesamten 35 Milliarden und den aktiv genutzten 3 Milliarden Parametern ist.
      • Intelligente Komprimierung: Wie nichtlineare Quantisierung funktioniert, um den gigantischen Speicherbedarf (VRAM) massiv zu senken, ohne dass das Modell seine logischen Fähigkeiten verliert.
      • Das GGUF-Format: Warum dieses universelle Dateiformat Hardwaregrenzen austrickst und Abstürze verhindert, indem es bei VRAM-Mangel nahtlos den Hauptprozessor (CPU) und normalen Arbeitsspeicher zur Hilfe nimmt.
    続きを読む 一部表示
    6 分
  • 151 - PromptFoo
    2026/04/20

    In dieser Episode des KI-Gilde Podcasts dreht sich alles um PromptFoo und die systematische Evaluierung von Large Language Models (LLMs). Statt Prompts nur nach Bauchgefühl zu testen, ermöglicht PromptFoo eine automatisierte Matrixevaluierung durch harte Regeln und semantische Prüfungen, bei denen ein anderes Sprachmodell als strenger Schiedsrichter fungiert.Wir beleuchten zudem, wie der „PromptFoo Agent Skill“ autonome Agenten absichert, indem er architektonische Leitplanken setzt und das System mit synthetischen Stresstests auf die Probe stellt. Erfahre außerdem, wie intelligentes Caching in der Pipeline massiv Zeit und Kosten spart und wie das Framework in hochregulierten Bereichen – von simulierten Hackerangriffen (Red Teaming) bis hin zur Vermeidung von Falschinformationen im Gesundheitswesen – für Sicherheit sorgt.Hör rein und erfahre, wie die Prompt-Entwicklung von einer kreativen Kunstform zu einer knallharten und messbaren Ingenieursdisziplin wird!

    続きを読む 一部表示
    6 分