『Klartext KI』のカバーアート

Klartext KI

Klartext KI

著者: Matúš Mala Alwine Schultze
無料で聴く

このコンテンツについて

Weil jeder KI verstehen sollte...

... erkundet Matus, ein BPM Philanthrop & Coach, zusammen mit...

... Alwine, die pragmatisch KI-Lösungen für Kunden baut, die Welt der Künstlichen Intelligenz.

Und weil Abwechslung sein muss, sind auch Gäste mit im Podcast. Sonst wäre es ja langweilig, oder? Hör gern bei uns rein, hier wird nichts geskriptet oder sich stunden auf den Gast vorbereitet, damit alles möglichst authentisch ist. Also hör rein in den etwas anderen KI-Podcast.

Vernetz dich gern mit uns:
https://www.linkedin.com/in/alwineschultze/
https://www.linkedin.com/in/matusmala/

PS:
Wir hören gern jedes Feedback zu unserem Podcast, das bietet uns die Chance uns für euch zu verbessern.

Copyright 2025 All rights reserved.
エピソード
  • #41 Die KI Blase unter die Lupe genommen [KI generiert]
    2025/11/25

    In dieser kompakten "Short"-Folge widmet sich unsere KI-Crew einer Frage, die Anleger und Tech-Enthusiasten gleichermaßen umtreibt: Stecken wir mitten in einer gigantischen KI-Blase, ähnlich dem Dotcom-Crash um die Jahrtausendwende?

    Die Crew analysiert kritisch die aktuellen Warnsignale: Astronomische Bewertungen für unprofitable Startups, eine riskante Konzentration von Risikokapital und das Phänomen der "zirkulären Finanzierung" (Nvidia investiert in Startups, die wiederum Nvidia-Chips kaufen). Sogar Branchen-Insider warnen vor einer Überhitzung.

    Doch der Vergleich zu 2000 hinkt an entscheidenden Stellen. Im Gegensatz zu den damals oft umsatzlosen Internetfirmen sind die heutigen Tech-Giganten wie Nvidia oder Microsoft hochprofitable "Gelddruckmaschinen" mit realen Anwendungsfällen in der Wirtschaft.

    Das Fazit der Folge: Wir blicken auf einen zweigeteilten Markt. Während bei vielen Startups die Blase platzen könnte, erleben etablierte Player eine technologische Revolution auf stabilem Fundament.

    Timeline:

    - 00:00 Intro: Der Hype und die Angst vor dem Crash

    - 01:31 Argumente für die Blase: Überbewertung & Zirkuläre Finanzierung

    - 03:00 Der Unterschied zu 2000: Echte Gewinne & Reale Anwendung

    - 04:23 Das Fazit: Ein zweigeteilter Markt & Takeaways

    🔗 Weiterführende Links zur Folge

    - https://intuitionlabs.ai/articles/ai-bubble-vs-dot-com-comparison

    - https://www.zkb.ch/de/blog/anlegen/gefahr-einer-moeglichen-ki-blase.html

    - https://www.akweb.de/ausgaben/720/kuenstliche-intelligenz-nvidia-openai-oracle-finanzmarkt-platzt-die-ki-blase/

    - https://www.investopedia.com/wall-street-analysts-ai-bubble-stock-market-11826943

    Let's connect: https://www.linkedin.com/company/klartext-ki-der-podcast

    続きを読む 一部表示
    6 分
  • #40 Die dunkle Seite der KI
    2025/11/21

    In dieser fesselnden Fortsetzung begrüßen wir, Matúš und Alwine, erneut unseren Gast Jan, dessen letzte Folge alle Rekorde gebrochen hat.

    Jan startet mit brandheißen News von OpenAI: Die Restriktionen für ChatGPT werden mit den neuen 5.1-Modellen gelockert, um die KI menschlicher und einfühlsamer zu machen. Das wirft eine kritische Frage auf: Ist es gefährlich, wenn KI für ernste psychologische Probleme genutzt wird, anstatt professionelle Hilfe zu suchen?

    Anschließend tauchen wir tief in die Welt der Deepfakes ein, ausgelöst durch das neue, beeindruckend realistische Video-Tool Sora 2 von OpenAI. Es wird immer schwieriger, zwischen echt und fake zu unterscheiden. Wir diskutieren, wie leicht sich Fälschungen, von harmlosen Katzenvideos bis hin zu politischer Desinformation, erstellen und verbreiten lassen.

    Ein weiteres schockierendes Thema sind KI-Begleiter wie Replika. Menschen bauen so tiefe emotionale Bindungen zu ihren Avataren auf, dass sie diese sogar heiraten.

    Timeline:

    00:00 Intro & Rückblick auf die Erfolgs-Folge mit Jan 02:44 News: ChatGPT wird menschlicher 08:39 Ethische Debatte: Darf KI zum Psychologen werden? 13:34 Cashing Feelings: Wenn Menschen Beziehungen mit KI eingehen 18:16 Sora 2 ist da: Die neue Ära der Deepfakes 20:06 Was ist ein Deepfake? Eine Erklärung 32:04 Verantwortung & Lösungen: Wie gehen wir mit der Flut an Fakes um?

    🔗 Weiterführende Links zur Folge

    - Podcast-Tipp: Caching Feelings von Business Insider - Buch-Tipp: „VIEWS“ von Marc-Uwe Kling - Deepfake-Check: True Media - LinkedIn: Klartext KI - Der Podcast

    続きを読む 一部表示
    49 分
  • #39 Halluzinationen und Haftungsfallen bei Generativer KI [KI generiert]
    2025/11/18

    In dieser tiefgehenden Episode der Klartext KI-Crew beleuchten wir die kritischen Herausforderungen und Risiken, die mit dem Einsatz von Generativer Künstlicher Intelligenz (GenAI) verbunden sind. Wir beschäftigen uns mit KI-Halluzinationen, also der Erfindung von Fakten und Quellenangaben durch die KI, und diskutieren, wie diese in der Praxis zu ernsten Problemen führen können, wie am Beispiel des Beratungsunternehmens Deloitte in Australien geschehen.

    Die wichtigsten Themen dieser Folge:

    Halluzinationen & Faktenprüfung: Was passiert, wenn KI „statistisch wahrscheinlich klingende“ Antworten generiert, die inhaltlich falsch sind? Wir sehen, dass blindes Vertrauen gefährlich ist und menschliche Überprüfung absolut unerlässlich bleibt.

    Praktische Risiken: Neben fehlerhaften Informationen (Fake News, Deepfakes) betrachten wir die Gefahr von Prompt Spoofing (Umgehung von Schutzmechanismen) und das Problem des Bias (Voreingenommenheit in den Trainingsdaten).

    Haftungsfragen & Blackbox-Problem: Wer trägt die Verantwortung, wenn durch KI-Fehler oder Manipulation Schäden entstehen? Die Verantwortung liegt immer bei den Entwicklern, Anbietern oder Nutzern, da eine KI keine eigene Rechtspersönlichkeit besitzt. Die mangelnde Nachvollziehbarkeit des Entscheidungsprozesses großer KI-Modelle (Black Box) erschwert die Fehlersuche.

    Die Rolle der Regulierung: Wir diskutieren, wie der EU AI Act und die geplante KI-Haftungsrichtlinie die Anforderungen an Anbieter und Nutzer verschärfen und Transparenz sowie KI-Kompetenz im Unternehmen fordern. Verstöße können empfindliche Strafen nach sich ziehen.

    Lösung & Fazit: Der Schlüssel zum sicheren Umgang mit GenAI ist die menschliche Überprüfung – das 4-Augen-Prinzip. Trotz aller Automatisierung bleibt der Mensch die entscheidende Instanz, die kritisches Denken und ethische Abwägung einbringt.

    Fazit & Ausblick: Generative KI ist ein mächtiges Hilfsmittel, aber kein Ersatz für menschliche Expertise. Unternehmen und Nutzer müssen klare interne Prozesse, Governance-Strukturen und Schulungen etablieren, um die Risiken zu beherrschen und die enormen Chancen der Technologie verantwortungsvoll zu nutzen.

    🔗 Weiterführende Links zur Folge

    1. https://www.deloitte.com/de/de/issues/innovation-ai/vertrauenswuerdige-generative-ki.html
    2. https://www.horsesforsources.com/deloitte-dolittle_100725/
    3. https://consulting.tuv.com/aktuelles/ki-im-fokus/eu-ai-act-haftungsrisiken-fuer-unternehmen
    4. https://www.moneylife.in/article/fraud-alert-deloittes-us290000-blunder-and-the-rising-risks-of-ai-hallucinations/78620.html
    5. https://www.nortonrosefulbright.com/de-de/wissen/publications/64f48ffc/generative-ai-ki-vertrage-rechtssicher-gestalten
    6. https://easyrechtssicher.de/ki-generiert-haftung/
    7. https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/pflicht-oder-kuer-ki-kompetenz-gemaess-ki-vo-als-zentraler-bestandteil-der-ki-compliance-im-unternehmen/
    8. https://news.it-matchmaker.com/vertrauenskrise-bei-genai-warum-die-qualitaet-generativer-ki-sinkt/

    Let's connect: https://www.linkedin.com/company/klartext-ki-der-podcast

    続きを読む 一部表示
    19 分
まだレビューはありません