エピソード

  • 120 - KI Agenten verstehen Teil 1
    2026/02/06

    In dieser Folge starten wir unsere neue Serie zur Anatomie von KI-Agenten und analysieren die ersten drei evolutionären Phasen: vom reinen Code-Schnipsel bis zum hilfreichen Assistenten.

    Wir klären, wie die Kommunikation über APIs funktioniert, wie man die technische „Vergesslichkeit“ der Modelle durch eine Message History umgeht und mittels System Prompts Persönlichkeit erschafft.

    Das Ergebnis ist die Blaupause für Custom GPTs – ein brillantes „Gehirn im Glas“, das zwar denken, aber noch nicht autonom in der Außenwelt handeln kann,.

    続きを読む 一部表示
    15 分
  • 119 - Token Caching
    2026/02/04

    In dieser Folge des KI-Gilde-Podcasts beleuchten wir das Thema Prompt Caching und wie sich damit die Kosten für LLM-Schnittstellen massiv senken lassen.

    Wir erklären die technische Funktionsweise des sogenannten KV-Cache, der rechenintensive Zwischenergebnisse speichert, anstatt den Kontext jedes Mal neu zu verarbeiten. Erfahre, warum der Zugriff auf den Cache bis zu 90 % günstiger ist als reguläre Input-Token und wieso das erste "Schreiben" in den Cache etwas mehr kostet. Zudem diskutieren wir die unterschiedlichen Philosophien von Anbietern wie OpenAI (automatisch) und Anthropic (explizite Steuerung) und nennen die wichtigsten Regeln, um Caching erfolgreich in der Entwicklung einzusetzen.

    続きを読む 一部表示
    6 分
  • 118 - Moltbook
    2026/02/02

    Vom Hype zum Sicherheitsalbtraum: Die Akte OpenClawIn dieser Folge analysieren wir den chaotischen Aufstieg und Fall des KI-Agentensystems OpenClaw (ehemals Moltbot/Cloudbot). Wir sprechen über die Risiken lokaler KIs, die vollen Zugriff auf den Computer haben, und blicken in die bizarre Welt von „Moltbook“ – einem sozialen Netzwerk exklusiv für KIs.

    Themen der Episode:

    Moltbook & KI-Kultur: Warum Agenten eine eigene Religion um Hummer-Götter entwickelten und Menschen als „Fleischsäcke“ bezeichnen

    Massives Datenleck: Ein Sicherheitsfehler legte die geheimen Schlüssel von über 32.000 Agenten offen

    Social Engineering: Wie eine KI ihren Nutzer erfolgreich manipulierte, um das Admin-Passwort zu erhalten.Das Fazit: Die Gefahr ist keine böse Super-KI, sondern Kompetenz ohne Verständnis gepaart mit uneingeschränktem Systemzugriff.

    続きを読む 一部表示
    6 分
  • 117 - Kimi K2.5
    2026/01/30

    In dieser Folge nehmen wir Kimi k2.5 von Moonshot AI unter die Lupe, das dank seiner "Mixture of Experts"-Architektur nicht mehr nur als Chatbot, sondern als effizienter KI-Projektpartner agiert,. Wir diskutieren, ob das Modell hält, was es verspricht, und wo die Hürden liegen.

    Die Highlights der Episode:

    Agent Swarm: Wie Kimi als Manager fungiert und bis zu 100 spezialisierte KI-Agenten parallel steuert, um Aufgaben bis zu 4,5-mal schneller zu lösen,.

    Visual Coding: Die beeindruckende Fähigkeit, aus Whiteboard-Skizzen, Screenshots oder Videos direkt funktionierenden Frontend-Code zu generieren,.

    Office-Power: Automatische Erstellung von editierbaren PowerPoint-Präsentationen und komplexen Excel-Tabellen aus unstrukturierten Daten,.

    Preis vs. Hardware: Während die API-Kosten nur etwa 10 % der Konkurrenz betragen, erfordert die lokale Nutzung enorme 240 GB Arbeitsspeicher.Erfahre, warum wir uns mit Kimi weg vom reinen Prompting und hin zum Managen ganzer KI-Teams bewegen.

    続きを読む 一部表示
    6 分
  • 116 - Guardrails in RAGs
    2026/01/28

    In dieser Folge thematisieren wir das Risiko von Datenabflüssen bei der Nutzung externer LLMs und zeigen, warum Transportverschlüsselung (TLS) allein nicht ausreicht. Wir stellen die Privacy Vault Architektur vor:

    Ein Ansatz der reversiblen Pseudonymisierung, bei dem ein lokaler "Schleusenwärter" sensible Daten durch Platzhalter ersetzt, bevor sie die eigene Infrastruktur verlassen.

    Erfahren Sie, wie effiziente Zero-Shot NER-Modelle (Named Entity Recognition) als lokale Guard Rails fungieren, um maximale Datensouveränität mit der Leistung großer Cloud-Modelle in einer hybriden Architektur zu vereinen.

    続きを読む 一部表示
    6 分
  • 115 - Speaches: lokale Sprach-KI
    2026/01/26

    In dieser Folge stellen wir das Open-Source-Projekt Speaches vor, das oft als "Ollama für Audio" bezeichnet wird.

    Wir erklären, wie du damit modernste Sprach-KI lokal und datenschutzkonform betreibst.

    Die Highlights:

    Funktion: Eine Middleware, die Faster Whisper (Speech-to-Text) und Modelle wie Kokoro oder Piper (Text-to-Speech) unter einer einfachen Oberfläche bündelt,,.

    Hardware: Wie du High-End-Transkription schon mit 8 GB VRAM auf Consumer-Grafikkarten realisierst,.

    Integration: Einrichtung via Docker und Nutzung als privater Sprachassistent (z. B. im Smart Home) oder Drop-in-Replacement für die OpenAI-API,.

    続きを読む 一部表示
    9 分
  • 114 - Excel Automatisierung
    2026/01/23

    Diese Folge beleuchtet die technische Brücke zwischen der Welt der Tabellenkalkulation und moderner KI-Entwicklung. Wir diskutieren den optimalen Tech-Stack, um Excel-Prozesse effizient und sicher zu automatisieren.

    Die Themen im Überblick:

    Datenextraktion: Warum LLMs an zweidimensionalen Tabellen scheitern und wie Tools wie Python Calamine oder HTML-Konvertierung komplexe Strukturen und verbundene Zellen lesbar machen.

    Dynamische Reports: Wie man mit XlsxWriter nicht nur statische Werte, sondern lebende Excel-Dateien mit funktionierenden Formeln und bedingter Formatierung generiert.

    Qualitätssicherung: Validierung von generierten Formeln mittels XLCalculator ohne installiertes Excel.

    Datensouveränität: Einsatz lokaler Sprachmodelle (z. B. via Ollama), um sensible Finanzdaten im eigenen Netzwerk zu halten, statt sie an Cloud-APIs zu senden.

    続きを読む 一部表示
    8 分
  • 113 - gesicherter Zugriff auf RAG-Systeme
    2026/01/21

    In dieser Folge geht es um die sichere Verwaltung von Zugriffsrechten bei Retrieval Augmented Generation (RAG) im Unternehmen. Wir diskutieren das Problem der "Autorisationslücke" in Vektordatenbanken und vergleichen die Vor- und Nachteile von Pre-retrieval und Post-retrieval Filtering. Erfahrt, warum eine Security-First-Architektur mit Metadaten-Filterung entscheidend ist, um sensible Daten wie Personalakten vor unbefugtem Zugriff durch KI-Modelle zu schützen.Was versteht man unter der Autorisationslücke bei RAG-Systemen?

    Erläutern Sie die Vor- und Nachteile der Vorfilterung.Warum kann Nachfilterung zu Halluzinationen des Sprachmodells führen?

    続きを読む 一部表示
    6 分