エピソード

  • OpenWebUI als selbstgehosteter ChatGPT-Killer: Die smarte UI für deine lokalen LLMs, RAG & AI-Agents | AI Engineering DACH
    2026/05/05

    🚀 In dieser neuen Folge von „AI Engineering DACH“ stellen wir OpenWebUI vor – die wohl schönste und mächtigste Open-Source-Weboberfläche für selbstgehostete KI in 2026.

    OpenWebUI (aktuell v0.9.2) verwandelt Ollama, lokale Modelle oder jede OpenAI-kompatible API in eine echte ChatGPT-Alternative – komplett offline, DSGVO-konform und mit voller Kontrolle. Mit RAG auf deinen eigenen Dokumenten, Voice-Chat, Tool-Calling, Multi-User-Support, Desktop-App und nahtloser Integration zu n8n, Nextcloud und deinen souveränen AI-Workflows.

    Themen der Folge:

    • Warum OpenWebUI die beste Oberfläche für lokale LLMs ist (besser als AnythingLLM oder LibreChat)
    • RAG, Document-Chats & Web-Search direkt in der UI
    • Integration mit n8n: AI-Agents und automatisierte Workflows aus dem Chat heraus steuern
    • Kombi mit Nextcloud: Deine Unternehmensdaten direkt im Assistant nutzen
    • Praktischer Einstieg: Docker-Setup in unter 10 Minuten + Tipps für Hetzner/IONOS
    • Hybrid-Modus: Lokale Modelle + sichere Cloud-Modelle in einem Interface

    Perfekt für AI-Engineers, Entwickler und Tech-Leads in Deutschland, Österreich und der Schweiz, die keine Lust mehr auf ChatGPT-Tracking haben und stattdessen eine professionelle, selbstgehostete KI-Oberfläche wollen.

    📌 Folge #OpenWebUI
    💬 Schreib in die Kommentare: Welches Modell läuft bei dir in OpenWebUI? Nutzt du es schon zusammen mit n8n oder Nextcloud?

    Abonniere den Kanal & aktiviere die Glocke für dein tägliches 10-Minuten-Update zu KI, AI Engineering und digitaler Souveränität in der DACH-Region!

    #OpenWebUI #Ollama #SelfHostedAI #LocalLLM #RAG #AIChat #AIAgents #DSGVO #Datensouveränität #Nextcloud #n8n #AIEngineering #DACH #OpenSource #OllamaUI #LocalAI #KI2026 #SelfHostedChatGPT

    続きを読む 一部表示
    19 分
  • GrapheneOS Hybrid Systems: Die sicherste mobile Plattform für souveräne AI-Engineering Workflows in DACH | AI Engineering DACH
    2026/05/01

    🚀 In dieser neuen Folge von „AI Engineering DACH“ sprechen wir über GrapheneOS und seine Hybrid-System-Ansätze – die perfekte Kombination aus extremer Sicherheit, Privacy und moderner Hardware-Unterstützung für KI-Entwickler und Tech-Leads in Deutschland, Österreich und der Schweiz.

    GrapheneOS ist das hardened Android, das ohne Google-Dienste läuft, Memory Tagging (MTE) im Hybrid-Modus nutzt, Post-Quantum-Kryptografie aktiviert und dir echte digitale Souveränität auf dem Smartphone gibt. Ideal, wenn du sensible AI-Apps, lokale Modelle (Ollama Mobile, Private LLMs), RAG-Pipelines oder Agenten direkt auf dem Gerät betreibst – ohne Tracking, ohne Cloud-Zwang und mit maximaler Hardware-Sicherheit.

    Themen der Folge:

    • Was sind Hybrid Systems in GrapheneOS? (MTE Hybrid Mode, Post-Quantum Crypto & mehr)
    • Warum GrapheneOS die beste Wahl für AI-Engineers ist, die Datensouveränität ernst nehmen
    • Lokale KI auf dem Phone: Ollama, Private Models und sichere Workflows
    • Installation, Sandboxed Google Play (falls nötig) und Integration mit Nextcloud & n8n
    • Vergleich zu Stock-Android & iOS – der Souveränitäts-Vorteil in der DACH-Region

    Perfekt für alle, die ihr Smartphone nicht mehr als Datensauger von Big Tech nutzen wollen, sondern als sicheren, performantem Teil ihrer selbstgehosteten AI-Infrastruktur.

    📌 Folge #GrapheneOS
    💬 Schreib in die Kommentare: Läuft dein Daily Driver schon auf GrapheneOS? Welche AI-App oder Workflow nutzt du mobil?

    Abonniere den Kanal & aktiviere die Glocke für dein tägliches 10-Minuten-Update zu KI, AI Engineering und digitaler Souveränität in der DACH-Region!

    #GrapheneOS #HybridSystems #MobileSecurity #SouveräneKI #AIonMobile #DSGVO #Datensouveränität #Privacy #SelfHostedAI #AIEngineering #DACH #MTE #PostQuantum #AndroidHardening #LocalAI #Ollama #Nextcloud #n8n

    続きを読む 一部表示
    10 分
  • n8n als souveräne AI-Automatisierungs-Plattform: Selbstgehostete AI-Agents & Workflows ohne Big-Tech-Abhängigkeit | AI Engineering DACH
    2026/04/28

    🚀 In dieser neuen Folge von „AI Engineering DACH“ tauchen wir tief in n8n ein – die mächtigste Open-Source-Workflow-Automatisierungs-Plattform, die 2026 zur echten Alternative zu Zapier, Make und Co. für KI-Engineers in Deutschland, Österreich und der Schweiz geworden ist.

    n8n läuft komplett selbstgehostet (Docker, on-prem oder bei Hetzner/IONOS), ist quelloffen und lässt dich echte AI-Agents bauen: mit Memory, Tools, Reasoning, Multi-Model-Support (OpenAI, Claude, Groq, Ollama, IBM watsonx & Co.) und dem neuen AI Workflow Builder, der aus natürlicher Sprache komplette Workflows generiert.

    Themen der Folge:

    • Warum n8n perfekt zu Nextcloud, Ollama und deiner souveränen DSGVO-Infrastruktur passt
    • Praktische Beispiele: AI-gestützte Dokumentenverarbeitung aus Nextcloud, RAG-Pipelines, autonome Agents für Support, Lead-Gen oder interne Prozesse
    • AI Workflow Builder + Agent Builder – vom Prompt zum lauffähigen Workflow in Minuten
    • Self-Hosting vs. Cloud: volle Datensouveränität und Kostenkontrolle
    • Integrationen mit über 500 Tools + custom Code (JS/Python)

    Perfekt für alle AI-Engineers und Tech-Leads, die keine Lust mehr auf teure Cloud-Automatisierungen und Datenabfluss haben und stattdessen ihre eigenen intelligenten Workflows souverän betreiben wollen.

    📌 Folge #n8nAI
    💬 Schreib in die Kommentare: Welchen AI-Workflow möchtest du als nächstes mit n8n bauen? Nutzt du n8n schon zusammen mit Nextcloud?

    Abonniere den Kanal & aktiviere die Glocke für dein tägliches 10-Minuten-Update zu KI, AI Engineering und digitaler Souveränität in der DACH-Region!

    #n8n #AI #KI #n8nAI #SelfHostedAI #AIWorkflow #AIAgents #Automation #DSGVO #Datensouveränität #Nextcloud #Ollama #AIEngineering #DACH #OpenSource #LocalAI #AIOrchestrierung

    続きを読む 一部表示
    18 分
  • Hermes Agent: Der selbstlernende KI-Agent, der mit dir wächst – Open-Source, souverän & besser als OpenClaw | AI Engineering DACH
    2026/04/25

    🚀 In dieser neuen Folge von „AI Engineering DACH“ stellen wir Hermes Agent vor – den aufregendsten selbstverbessernden KI-Agenten von Nous Research, der 2026 die Open-Source-Agenten-Welt aufmischt.

    Hermes ist kein einfacher Chatbot oder Tool-Caller. Er lernt aus jeder Aufgabe, baut sich eigene wiederverwendbare Skills, hat ein persistentes Langzeitgedächtnis über Sessions hinweg und wird mit der Zeit immer besser – ganz ohne dass du ständig prompten oder fine-tunen musst. Komplett selbstgehostet auf einem 5-Euro-VPS, Docker, Hetzner oder IONOS, DSGVO-konform und mit voller Kontrolle.

    Themen der Folge:

    • Warum Hermes Agent der echte Gamechanger gegenüber OpenClaw & Co. ist (Self-Improving Learning Loop)
    • Praktische Integration mit OpenWebUI, n8n, Nextcloud, Coolify und Zammad
    • Lokale Modelle (Ollama, vLLM) + Multi-Model-Support (OpenRouter, Nous, etc.)
    • Setup in unter 15 Minuten: Von 0 auf autonomen Agenten per Telegram, Web oder Terminal
    • Use-Cases für DACH: Automatisierte Support-Tickets, RAG auf Unternehmensdaten, persönliche AI-Assistenten und selbstlernende Workflows

    Perfekt für AI-Engineers, Tech-Leads und Unternehmen in Deutschland, Österreich und der Schweiz, die echte autonome, lernende KI-Agenten souverän und ohne Big-Tech-Abhängigkeit betreiben wollen.

    📌 Folge #HermesAgent
    💬 Schreib in die Kommentare: Welchen Workflow willst du als Erstes mit Hermes automatisieren? Hast du schon einen selbstlernenden Agenten im Einsatz?

    Abonniere den Kanal & aktiviere die Glocke für dein tägliches 10-Minuten-Update zu KI, AI Engineering und digitaler Souveränität in der DACH-Region!

    #HermesAgent #SelfImprovingAI #KIAgent #SelfHostedAI #AutonomousAgent #AIAgents #SouveräneKI #DSGVO #Datensouveränität #NousResearch #OpenWebUI #n8n #Nextcloud #Ollama #AIEngineering #DACH #OpenSource #LocalAI #Hermes2026

    続きを読む 一部表示
    19 分
  • Nextcloud - Die selbstgehostete AI-Lösung, die Big Tech überflüssig macht | AI Engineering DACH
    2026/04/21

    🚀 In dieser Folge von „Hybrid Systems - KI bauen im DACH“ zeigen wir dir, warum Nextcloud Hub 26 Winter plötzlich zur spannendsten selbstgehosteten KI-Plattform für Deutschland, Österreich und die Schweiz geworden ist.

    Der neue Nextcloud Assistant kann jetzt lokale LLMs nutzen, Memories führen, Context Chat auf deinen eigenen Dokumenten machen, KI-generierte Dateien automatisch labeln und sogar Aktionen auslösen – alles on-premise, alles DSGVO-konform und ohne dass deine Daten je das Haus verlassen.

    Themen der Folge:

    • Was ist neu in Nextcloud Hub 26 Winter für KI-Anwender?
    • Nextcloud Assistant vs. ChatGPT & Co. – der souveräne Unterschied
    • Lokale Modelle (Ollama, watsonx etc.) richtig schnell machen
    • Warum das genau jetzt für AI-Engineers in DACH entscheidend ist
    • Praktischer Einstieg: Nextcloud AIO + Assistant in unter 30 Minuten

    Perfekt für alle, die keine Lust mehr auf amerikanische Cloud-Token und Datenabfluss haben und stattdessen eine echte europäische, selbstgehostete KI-Infrastruktur wollen.

    📌 Folge #NextcloudKI
    💬 Schreib in die Kommentare: Nutzt du Nextcloud schon für KI-Projekte?

    Abonniere den Kanal & aktiviere die Glocke für dein tägliches 10-Minuten-Update zu KI, AI Engineering und digitaler Souveränität in der DACH-Region!

    #Nextcloud #KI #AI #SelfHostedAI #DSGVO #Datensouveränität #NextcloudAssistant #AIEngineering #DACH #OpenSource #Hub26 #Ollama #LocalAI

    続きを読む 一部表示
    16 分
  • Wenn KI sich selber verbessert - der Wendepunkt den gerade niemand richtig versteht
    2026/04/14

    Was passiert, wenn KI nicht mehr nur auf Befehle reagiert, sondern sich selbstständig weiterentwickelt?

    In dieser Folge sprechen wir über den vielleicht wichtigsten Wendepunkt in der Geschichte der Künstlichen Intelligenz: den Moment, in dem Systeme beginnen, sich selbst zu verbessern – schneller, smarter und ohne menschliche Kontrolle.

    Wir beleuchten, warum dieser Punkt gerade jetzt näher rückt, welche Technologien (wie Agenten, Recursive Self-Improvement oder fortschrittliche LLM-Architekturen) ihn ermöglichen und welche enormen Chancen, aber auch Risiken damit verbunden sind.

    Ein tiefgehendes, ehrliches Gespräch darüber, warum dieser Wendepunkt von vielen noch unterschätzt wird – und was das für uns als Gesellschaft, Wirtschaft und Individuen bedeuten könnte.

    続きを読む 一部表示
    13 分
  • Wir haben den Stecker gezogen. Weg von Microsoft 365, weg von Cloud-LLMs, weg von fremden Servern. Stattdessen eine komplette, selbst gebaute, quantum-resistente und Zero-Trust-IT auf einem einzigen Hetzner-Server.
    2026/04/10

    Wir haben eine komplette Firmen-IT von Microsoft 365 auf ein 100 % selbst gehostetes, souveränes und Zero-Trust-System umgestellt – auf nur einem Hetzner-Server.

    In dieser ausführlichen Folge erzähle ich, warum wir das gemacht haben, welche Tools wir gewählt haben (Keycloak, Matrix, Ollama, n8n, WireGuard und mehr) und wie wir NIS-2, ISO 27001 und zukünftige Quantencomputer-Bedrohungen gleichzeitig angehen.

    Ihr erfahrt, wie wir WhatsApp & Telegram compliant weiter nutzen, Cloud-LLMs komplett verboten haben, USB-Ports sperren, tägliche 2FA erzwingen und mit lokaler KI Prozesse wie Onboarding, Dateiablage und Plan-Analyse automatisieren.

    Plus: Echte Zahlen zur Kostenersparnis, Lessons Learned und was wir heute anders machen würden.

    Eine praxisnahe Geschichte für alle, die überlegen, ihre IT wieder selbst in die Hand zu nehmen.

    続きを読む 一部表示
    36 分
  • Die verborgenen Fallstricke von KI-Agenten – Was bei OpenClaw & Co. wirklich schiefgeht
    2026/04/08

    KI-Agenten wie OpenClaw klingen auf dem Papier wie die Zukunft der Automatisierung – bis man sie in der echten Unternehmens-IT einsetzt.

    In dieser Folge sprechen wir offen und ehrlich über die realen Fallstricke: Warum viele Agent-Projekte trotz hoher Erwartungen scheitern, welche Sicherheitsrisiken entstehen, wenn Agents Zugriff auf Systeme bekommen, wie Instabilität, Halluzinationen und unvorhersehbares Verhalten den Alltag erschweren und welche versteckten Kosten und Wartungsfallen auf Unternehmen zukommen.

    Wir teilen unsere eigenen praktischen Erfahrungen mit OpenClaw – von Docker-Problemen über LLM-Integrations-Hürden bis hin zu Debugging-Albträumen – und zeigen, welche Alternativen sich in der Praxis oft als robuster erwiesen haben.

    Gleichzeitig geben wir konkrete Tipps, wie man die größten Fallstricke vermeiden oder zumindest stark minimieren kann.

    Ein nüchterner, praxisnaher Blick hinter die KI-Euphorie für alle, die mit autonomen KI-Agenten arbeiten wollen oder bereits damit gestartet sind.

    続きを読む 一部表示
    25 分