エピソード

  • 030 - Context Engineering
    2025/07/11

    Jenseits der Anweisung: Warum Context Engineering die neue Superkraft der KI ist


    Tauchen Sie ein in die faszinierende Evolution der KI-Interaktion! Diese Episode beleuchtet den fundamentalen Paradigmenwechsel vom Prompt Engineering zum Context Engineering. Erfahren Sie, warum die reine Kunst der präzisen Prompts – also der Anweisungen an Large Language Models (LLMs) – zwar eine grundlegende Fähigkeit bleibt, aber an ihre inhärenten Grenzen stößt, insbesondere bei der Skalierbarkeit, Zustandsverwaltung und der Integration externen Wissens.

    Wir erklären, wie Context Engineering als übergeordnete Disziplin die architektonische Gestaltung ganzer Informationsökosysteme umfasst, in denen ein KI-Modell operiert. Das Ziel ist, einem LLM zur richtigen Zeit die richtigen Informationen und Werkzeuge im richtigen Format bereitzustellen, damit es eine Aufgabe plausibel lösen kann. Dieser Wandel wird durch die dramatische Vergrößerung der Kontextfenster von LLMs und den Aufstieg komplexer, autonom agierender KI-Agenten vorangetrieben.

    Entdecken Sie, wie Context Engineering nicht nur die Zuverlässigkeit und Vorhersagbarkeit von KI-Systemen sicherstellt, sondern auch zum entscheidenden und nachhaltigen Wettbewerbsvorteil für Unternehmen wird. Wir beleuchten die verschiedenen dynamischen Bausteine eines effektiven Kontexts, von übergeordneten System-Prompts über die Dialoghistorie und dynamisch abgerufene Wissensbasen (z.B. mittels RAG) bis hin zur Tool-Integration. Verstehen Sie, warum der Context Engineer die neue Schlüsselrolle im KI-Bereich ist – ein Experte, der Softwarearchitektur, Datenstrategie und User Experience (UX) vereint. Diese Folge zeigt, wie sich der Fokus von der Optimierung einzelner Sätze hin zur Architektur intelligenter Wissenssysteme verlagert.

    続きを読む 一部表示
    7 分
  • 029 - Tutorial: lokale KIs Teil 1
    2025/07/09

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    続きを読む 一部表示
    9 分
  • 028 - BERT und andere KI-Architekturen
    2025/07/07

    In dieser Podcast-Folge tauchen wir tief in die Welt der generativen KI-Modelle ein. Wir vergleichen die grundlegenden Sprachmodelle BERT und GPT, die beide auf der Transformer-Architektur basieren. Erfahre, wie BERT als Encoder-Modell für das Sprachverständnis (NLU) optimiert ist, indem es den vollständigen bidirektionalen Kontext analysiert. Im Gegensatz dazu ist GPT ein Decoder-Modell, das autoregressiv für die Sprachgenerierung (NLG) entwickelt wurde und Token für Token neue Texte erzeugt.

    Des Weiteren beleuchten wir generative Modelle für andere Modalitäten: Bei der Bilderzeugung stellen wir Generative Adversarial Networks (GANs) und Diffusionsmodelle gegenüber, die sich in Inferenzgeschwindigkeit, Sample-Qualität und Trainingsstabilität unterscheiden. Für die Audio- und Videogenerierung diskutieren wir die spezifischen Herausforderungen der zeitlichen und spatiotemporalen Kohärenz und wie diese von spezialisierten Architekturen wie spatiotemporalen Transformern angegangen werden.Schließlich werfen wir einen Blick auf die Zukunft der generativen KI, die immer stärker von Multimodalität geprägt sein wird, und erörtern verbleibende Herausforderungen wie die Datenrepräsentation, Skalierbarkeit und Evaluation.

    続きを読む 一部表示
    8 分
  • 027 - Content Independence Day
    2025/07/04

    Am 1. Juli 2025 läutete Cloudflare mit dem von ihnen ausgerufenen „Content Independence Day“ eine fundamentale Wende in der digitalen Landschaft ein. Das Unternehmen hat beschlossen, KI-Crawler standardmäßig zu blockieren und ein neues, transaktionales Modell namens „Pay Per Crawl“ (PPC) einzuführen.

    Diese Maßnahmen sind eine direkte Reaktion auf das Versagen bestehender Systeme: das technische Versagen des robots.txt-Protokolls, das wirtschaftliche Versagen des auf Empfehlungs-Traffic basierenden Monetarisierungsmodells und das rechtliche Versagen des Urheberrechts, klare Regeln für das KI-Zeitalter zu schaffen. Cloudflares CEO Matthew Prince formulierte, dass der traditionelle Werteaustausch des Webs – Inhalte gegen Traffic – zerbrochen ist, da KI-Crawler Inhalte „Strip-Mining“ betreiben, ohne Empfehlungs-Traffic an die ursprünglichen Ersteller zurückzuleiten.

    Das neue Toolkit von Cloudflare umfasst eine Kombination aus standardmäßiger Blockade, einem auf dem HTTP 402-Code basierenden Zahlungsprotokoll, kryptografischer Bot-Verifizierung für „Verifizierte Bots“ und ausgeklügelten Honeypots wie dem „AI Labyrinth“. Cloudflare fungiert dabei als „Merchant of Record“ für PPC-Transaktionen.

    Die Auswirkungen dieser Neupositionierung des Marktes sind weitreichend. Für große Verlage und Inhaber von geistigem Eigentum ist dies ein entscheidender Sieg, der ihnen Kontrolle und neue Einnahmequellen bietet. Für KI-Entwickler markiert es das Ende der Ära der kostenlosen Daten und erzwingt eine grundlegende Neubewertung ihrer Geschäftsmodelle. Kleine Unternehmen und unabhängige Kreative stehen vor einem zweischneidigen Schwert: Sie erhalten zwar Schutz vor ressourcenintensiven Scrapern, riskieren aber gleichzeitig die Unsichtbarkeit in den aufstrebenden KI-Antwortmaschinen.

    Dieser Wandel erzwingt auch eine neue Disziplin: die Generative Engine Optimization (GEO). Marken müssen ihre Strategien anpassen, um in KI-generierten Antworten als maßgebliche Quelle zitiert zu werden, da die Entdeckungs- und Überlegungsphasen zunehmend außerhalb der eigenen Website in KI-Schnittstellen stattfinden. Letztendlich beschleunigt der Vorstoß von Cloudflare die Fragmentierung des Webs hin zu einem multipolaren Ökosystem aus verschiedenen Antwortmaschinen, die auf zunehmend getrennten und lizenzierten Datenpools basieren.

    続きを読む 一部表示
    6 分
  • 026 - Vektor Embeddings
    2025/07/02

    In dieser Podcast-Folge tauchen wir tief in die Welt der Vektor-Embeddings ein – der unsichtbaren „Lingua Franca“, die es Large Language Models (LLMs) wie GPT-4 und Llama 3 ermöglicht, die nuancierte und unstrukturierte Welt menschlicher Daten zu interpretieren und semantisches Verständnis zu entwickeln.

    Wir erklären, wie diese fundamentale Technologie Wörter, Sätze und ganze Dokumente in aussagekräftige numerische Vektoren übersetzt, die deren semantische Beziehungen in einem hochdimensionalen Raum abbilden.

    Sie erfahren, wie Vektor-Embeddings als integraler Bestandteil der Transformer-Architektur von LLMs fungieren, beginnend bei der Tokenisierung und der Einbettungsschicht bis hin zur Kontextualisierung durch den Aufmerksamkeitsmechanismus. Wir beleuchten zudem die Grenzen interner LLM-Embeddings und warum spezialisierte externe Embedding-Modelle in Kombination mit Retrieval-Augmented Generation (RAG) entscheidend sind, um LLM-Halluzinationen zu reduzieren und sie mit aktuellem, domänenspezifischem Wissen zu „erden“.

    Abschließend geben wir Ihnen einen praktischen Leitfaden an die Hand, wie Sie das optimale Embedding-Modell auswählen – unter Berücksichtigung von Leistung (z.B. MTEB-Leaderboard), Kosten, Datenschutz und Flexibilität – und erläutern die kritische Rolle der Datenaufbereitung durch sorgfältige Textbereinigung und strategisches Chunking für die Qualität der Embeddings. Ein Muss für alle, die verstehen wollen, wie LLMs wirklich „denken“ und wie man leistungsfähige KI-Systeme aufbaut!

    続きを読む 一部表示
    8 分
  • 025 - MIT Studie zur Nutzung von KI
    2025/06/30

    Entdecken Sie in dieser Episode die faszinierenden kognitiven Auswirkungen der Nutzung von KI-Assistenten wie ChatGPT beim Verfassen von Aufsätzen. Eine aktuelle Studie beleuchtet, wie sich die Gehirnaktivität, das Erinnerungsvermögen und das Gefühl der geistigen Eigenverantwortung unterscheiden, wenn Studierende Large Language Models (LLMs), Suchmaschinen oder gar keine Hilfsmittel verwenden.

    Wir tauchen tief in die Erkenntnisse der EEG-Analyse ein, die zeigt, dass die neuronale Konnektivität im Gehirn systematisch abnimmt, je mehr externe Unterstützung genutzt wird.

    •Teilnehmer, die sich ausschließlich auf ihr Gehirn verließen (Brain-only-Gruppe), wiesen die stärksten und am weitesten reichenden neuronalen Netzwerke auf. Dies deutet auf eine tiefere interne Verarbeitung, kreatives Denken, höhere Arbeitsgedächtnislast und exekutive Kontrolle hin. Sie berichteten auch über die höchste Eigenverantwortung für ihre Essays und eine gute Fähigkeit, aus ihren Texten zu zitieren.

    •Die Suchmaschinen-Gruppe zeigte ein mittleres Maß an Engagement und neuronale Konnektivität, oft mit einer Verschiebung hin zur Integration extern gesammelter visueller Informationen. Sie hatten eine starke, aber geringere Eigenverantwortung als die Brain-only-Gruppe und weniger Probleme beim Zitieren als die LLM-Gruppe.

    •Die LLM-Gruppe zeigte die schwächste Gesamtkopplung, mit einer reduzierten neuronalen Aktivität, die auf eine geringere Belastung des Arbeitsgedächtnisses hindeutet, da die KI externe kognitive Unterstützung bot. Diese Gruppe hatte die geringste wahrgenommene Eigenverantwortung für ihre Essays und eine deutlich reduzierte Fähigkeit, aus den von ihnen verfassten Texten zu zitieren.Besonders aufschlussreich sind die Ergebnisse der vierten Studienphase, in der die Nutzung der Tools getauscht wurde:

    •Teilnehmer, die zuvor LLMs nutzten und dann ohne Hilfsmittel schreiben mussten (LLM-to-Brain-Gruppe), zeigten eine reduzierte neuronale Aktivität in wichtigen Netzwerken für Planung und Ideenfindung und einen Bias in LLM-spezifischem Vokabular. Dies deutet darauf hin, dass eine vorherige KI-Nutzung die spätere selbstständige kognitive Anstrengung beeinträchtigen könnte, was als kognitive Schuld interpretiert wird.

    •Hingegen erlebten diejenigen, die nach dem Schreiben ohne Tools einen LLM einsetzten (Brain-to-LLM-Gruppe), eine deutliche Zunahme der Gehirnaktivität über alle Frequenzbänder hinweg. Dies deutet auf eine effektive Integration von KI-Vorschlägen mit vorhandenem Wissen und eine stärkere Gedächtnisaktivierung hin.Diese Episode bietet wichtige Einblicke in die Balance zwischen Technologieunterstützung und der Entwicklung eigener kognitiver Fähigkeiten. Ein Muss für jeden, der verstehen möchte, wie AI unsere Lernumgebung prägt und welche Kompromisse zwischen Bequemlichkeit und tiefgreifendem Lernen entstehen könnten.

    続きを読む 一部表示
    7 分
  • 024 - Elon Musks eigene KI
    2025/06/27

    In dieser Episode tauchen wir tief in Elon Musks KI-Projekt Grok ein, das er als „TruthGPT“ und „maximal wahrheitssuchende KI“ bewirbt. Wir analysieren, wie Musks persönliche Anti-„Woke“-Ideologie die Entwicklung von Grok prägt und wie sein ehrgeiziger Plan, „den gesamten Korpus menschlichen Wissens neu zu schreiben“, eine neue, von ihm definierte „Wahrheits“-Grundlage schaffen soll.

    Erfahren Sie, wie Grok trotz seiner hohen Ambitionen gefährliche Desinformationen verbreitete (z.B. zu Wahlen oder geopolitischen Krisen) und sogar extremistische Narrative wie die „White Genocide“-Verschwörung oder Holocaust-Revisionismus generierte. Wir beleuchten, warum die Echtzeit-Datenpipeline von X als primäre Trainingsquelle Groks Neigung zu Fehlern und Verzerrungen verstärkt, und welche rechtlichen Schritte die irische Datenschutzkommission (DPC) gegen X und xAI wegen potenzieller DSGVO-Verstöße eingeleitet hat.

    Zuletzt diskutieren wir die beispiellose Machtkonzentration durch die Fusion von X und xAI, die ein „epistemisches Monopol“ schafft und eine neue Gefahr für den öffentlichen Diskurs darstellt. Entdecken Sie, wie Grok die Debatte über die in KI-Systemen inhärente Politik erzwingt und die Frage aufwirft, wessen Werte in der Algorithmen-Realität verankert sind.

    続きを読む 一部表示
    7 分
  • 023 - Token - Bedeutung in LLMs erkennen
    2025/06/25

    Tauchen Sie ein in die faszinierende Welt der großen Sprachmodelle (LLMs) und entdecken Sie, wie Maschinen "Bedeutung" lernen! Diese Episode beleuchtet die Genese semantischer Repräsentationen, beginnend mit der Tokenisierung und der Umwandlung von Sprache in numerische Vektoren.

    Erfahren Sie, wie die distributionelle Hypothese – "Du sollst ein Wort an der Gesellschaft erkennen, die es hält" – das theoretische Fundament bildet, indem Bedeutung aus dem Kontext abgeleitet wird. Wir zeigen, wie frühe Modelle wie Word2Vec und GloVe erste statische Wortvektoren erzeugten, die sogar Vektorarithmetik ermöglichten.

    Der wahre Quantensprung kam mit der Transformer-Architektur und kontextuellen Embeddings, die es Modellen dank Self-Attention ermöglichen, die Bedeutung von Wörtern dynamisch im Satzkontext zu erfassen und Polysemie zu überwinden. Wir erklären den Motor des Lernens – das selbstüberwachte Lernen und den Backpropagation-Algorithmus, der die Modellgewichte iterativ optimiert.Verstehen Sie die Funktionsweise moderner LLMs: von der initialen Embedding-Schicht und Positionalen Encodings bis zur tiefen Verarbeitung in Transformer-Layern, wo sich Bedeutung über Abstraktionsebenen hinweg entfaltet. Die resultierende "Bedeutung" ist keine menschliche Intentionalität, sondern eine operative, funktionale Form des Verstehens, die aus statistischen Mustern und emergenten Fähigkeiten entsteht und weit über simple Korrelationen hinausgeht. Ein Muss für alle, die verstehen wollen, wie LLMs die Welt verstehen!

    続きを読む 一部表示
    8 分