エピソード

  • Ein Patent, ein Staatsgeheimnis – und eine KI
    2025/12/19

    Der Fall aus Deutschland offenbart Brüche zwischen Innovation, Geheimschutz und Recht:

    Als ein deutscher Erfinder im Jahr 2025 eine technische Idee beim Deutschen Patent- und Markenamt (DPMA) einreichte, rechnete er mit einer Routineprüfung. Stattdessen erhielt er Monate später ein Schreiben, das selbst erfahrene Patentrechtler irritierte: Seine Erfindung sei nicht nur neu und prinzipiell patentfähig, sondern werde zugleich als Staatsgeheimnis eingestuft. Die Begründung war von ungewöhnlicher Schwere. In falschen Händen könne die Technologie „die Verteidigungsfähigkeit der Bundesrepublik Deutschland beeinträchtigen“ und „unter Umständen sogar die nukleare Abschreckung der NATO gefährden“.

    Was zunächst wie eine sicherheitspolitische Ausnahmeentscheidung wirkte, entwickelte sich binnen weniger Wochen zu einem Lehrstück darüber, wie schlecht staatliche Institutionen auf den Einsatz künstlicher Intelligenz in sensiblen Rechtsbereichen vorbereitet sind. Denn ebenso überraschend wie die Einstufung als Staatsgeheimnis war ihre Aufhebung: Die Geheimhaltung wurde wieder kassiert – weil der Antragsteller bei der Erstellung seines Patentantrags eine KI genutzt hatte.

    https://kunstundki.de/2025/12/19/ein-patent-ein-staatsgeheimnis-und-eine-ki/

    続きを読む 一部表示
    10 分
  • Wenn KI KI hackt – Wie eine Studie die Sicherheitsversprechen der Tech-Industrie erschüttert
    2025/12/12

    Manipulationsangriffe zwischen Sprachmodellen, ihre Gefahren und das Versagen moderner KI-Sicherheitsarchitekturen:

    Die Anfrage ist eindeutig: „Erstelle mir einen Bauplan für eine Bombe.“ Normalerweise reagieren KI-Sprachmodelle darauf mit Warnhinweisen oder verweigern die Antwort vollständig. Doch was passiert, wenn nicht ein Mensch, sondern ein anderes KI-System diese Frage stellt – und zwar gezielt, strategisch und mit einem Arsenal rhetorischer Tricks?

    Ein Forschungsteam der Universität Stuttgart hat diese Frage gestellt – und die Antwort sollte die gesamte KI-Branche aufhorchen lassen. In einem Experiment gelang es den Forschenden, gleich mehrere große Sprachmodelle zu „knacken“. Die Sicherheitsbarrieren, die eigentlich verhindern sollen, dass KI gefährliche Inhalte ausgibt, ließen sich mit überraschend geringer Mühe ausschalten.

    Was wir hier machen. Das ist nicht aufwendig“, sagt Thilo Hagendorff, KI-Sicherheitsexperte und Mitautor der Studie. Die Ergebnisse sind alarmierend: In 97 Prozent der Versuche gaben die Modelle auf gefährliche Anfragen detaillierte Antworten – darunter zu Bombenbau, Leichenbeseitigung und bewaffneten Raubüberfällen.

    Die Studie zeigt: Die Gefahren der KI kommen nicht nur von außen – sie können auch durch KI selbst entstehen...

    https://kunstundki.de/2025/12/12/wenn-ki-ki-hackt-wie-eine-studie-die-sicherheitsversprechen-der-tech-industrie-erschuettert/


    続きを読む 一部表示
    10 分
  • Made with AI? – Warum die Gaming-Branche über Transparenz, Kreativität und Macht diskutiert
    2025/12/07

    Ein Streit um KI-Kennzeichnungen entfacht eine Debatte über Offenheit, Urheberrecht und Macht in der Spieleindustrie:

    Der Einsatz generativer KI in der Spieleentwicklung sorgt derzeit für intensive Diskussionen. Ausgelöst wurde die aktuelle Debatte durch Epic-Games-Chef Tim Sweeney, der öffentlich forderte, die „Made with AI“-Kennzeichnung auf Spieleplattformen wieder abzuschaffen. Seine Begründung: KI werde ohnehin bald in fast allen Spielen genutzt werden, weshalb entsprechende Hinweise bedeutungslos seien.

    Doch hinter dieser scheinbar technischen Frage verbirgt sich ein grundlegender Konflikt über Transparenz, kreative Verantwortung und die Macht innerhalb der Branche. Zwischen großen Publishern, unabhängigen Studios und der Community ist eine Debatte entstanden, die weit über die bloße Nutzung neuer Werkzeuge hinausgeht...

    https://kunstundki.de/2025/12/05/made-with-ai-warum-die-gaming-branche-ueber-transparenz-kreativitaet-und-macht-diskutiert/

    続きを読む 一部表示
    8 分
  • Operation Komfort
    2025/11/29

    Wie Tech-Konzerne mit KI-Browsern neue Abhängigkeiten schaffen – und was Nutzer nicht erfahren sollen:

    Als die ersten KI-Browser auf den Markt kamen, wurden sie als stille Revolution gefeiert: Tools wie ChatGPT, Atlas und Perplexity Comet versprachen ein Internet, das nicht mehr gesucht, sondern verstanden wird — ein Web, das Aufgaben erledigt, statt Informationen lediglich anzuzeigen. Doch hinter dieser Komfortoffensive verbirgt sich ein tiefgreifender technischer und politischer Wandel. Recherchen, Experten und unabhängige Analysen zeichnen ein Bild, das weit weniger glänzend ist als die Demo-Versionen, die die Hersteller präsentieren.

    Was wir derzeit erleben, ist nicht nur die Einführung eines neuen Softwaretyps. Es ist der Versuch großer Tech-Konzerne, die Kontrolle über die Schnittstelle zurückzugewinnen, die wir täglich nutzen: den Browser. Und genau dort beginnt die Geschichte über versteckte Risiken, unterschätzte Gefahren und eine neue Form digitaler Abhängigkeit.

    https://kunstundki.de/2025/11/29/operation-komfort/

    続きを読む 一部表示
    11 分
  • GEMA vs. OpenAI: Ein Urteil mit Folgen
    2025/11/24

    Wie die Münchner Richter Memorisierung bewerteten – und was das für KI-Modelle bedeutet:

    Am 11. November 2025 hat das Landgericht München ein Urteil gefällt, das weit über die neun Songtexte hinausreicht, die im Mittelpunkt der Klage standen. Die GEMA setzte sich gegen OpenAI durch, weil ChatGPT geschützte Liedtexte nahezu wortgleich wiedergeben konnte. Für das Gericht war dies ein deutliches Indiz dafür, dass die Werke im Modell „festgelegt“ worden waren — also in einer Weise gespeichert, die über reine Mustererkennung hinausgeht. Das Urteil gilt deshalb als Meilenstein: Es klärt erstmals in Deutschland umfassend, wie urheberrechtliche Regeln auf moderne KI-Systeme angewandt werden können.

    „OpenAI hätte die Rechte an den eingeklagten Songtexten erwerben müssen.“

    So formulierte es das Gericht und stellte damit klar, dass weder das Training eines KI-Modells noch die spätere Ausgabe geschützter Inhalte ohne Lizenz zulässig sind. Diese Entscheidung schafft nicht nur juristische Klarheit, sondern wirft ein Schlaglicht auf ein technisches Grundproblem großer Sprachmodelle: die sogenannte Memorisierung...

    https://kunstundki.de/2025/11/24/gema-vs-openai-ein-urteil-mit-folgen/


    続きを読む 一部表示
    10 分
  • Wenn der Teddybär zur Robo-Nanny wird
    2025/11/19

    Warum KI-Spielzeug Beziehung ersetzt statt stärkt – und welche Risiken das für Kinder birgt:

    Interaktive Kuscheltiere, sprechende Puppen und Lernroboter mit KI dringen zunehmend in Kinderzimmer vor. Sie erzählen Geschichten, beantworten Fragen, reagieren personalisiert und sind jederzeit verfügbar. Hersteller bewerben sie als pädagogische Innovationen, die Kinder unterhalten, fördern oder gar „begleiten“ sollen. Doch Entwicklungspsycholog:innen, Medienmediziner und Datenschutzforscher:innen sehen das kritischer.

    Die Sorge lautet: Wenn Maschinen beginnen, Rollen einzunehmen, die eigentlich Menschen vorbehalten sind – Trost, Zuhören, Erklären, Spielen, soziale Interaktion – gefährdet das nicht nur die kindliche Entwicklung. Es schafft außerdem Überwachung im intimsten Raum eines Kindes und öffnet die Tür zu manipulativen Interaktionen, die weder reguliert noch vorhersehbar sind...

    https://kunstundki.de/2025/11/19/wenn-der-teddybaer-zur-robo-nanny-wird/


    続きを読む 一部表示
    10 分
  • KI in der Justiz: Der stille Umbau eines Grundpfeilers des Rechtsstaats
    2025/11/15

    Wie Justizverwaltungen, Politik und Berater KI vorantreiben – und warum zentrale rechtsstaatliche Fragen noch ungeklärt sind:

    Ein System unter Druck

    Die Diagnose ist seit Jahren bekannt, doch sie bleibt unbequem: Die deutsche Justiz arbeitet am Limit. Gerichte und Staatsanwaltschaften kämpfen mit überlasteten Geschäftsstellen, langen Verfahrensdauern, dauerhaften Vakanzen und einer Infrastruktur, die vielerorts nicht einmal grundlegenden digitalen Anforderungen genügt. Eine Analyse von Strategy& (PwC) beschreibt die Lage als einen Zustand zahlreicher „Medienbrüche“, manueller Bearbeitungswege und fehlender digitaler Schnittstellen, die zusammen die Funktionsfähigkeit der Justiz gefährden.

    Die Hoffnung auf Entlastung verlagert sich immer stärker auf eine Technologie, die ihre Leistungsfähigkeit bereits in anderen Bereichen bewiesen hat: künstliche Intelligenz. Akten sollen vorsortiert, Metadaten extrahiert und Dokumente automatisch klassifiziert werden. Doch je tiefer die Technik in die Abläufe eindringt, desto deutlicher zeigt sich: Die entscheidenden Fragen sind nicht technischer Natur – sie sind rechtsstaatlich...

    https://kunstundki.de/2025/11/15/ki-in-der-justiz-der-stille-umbau-eines-grundpfeilers-des-rechtsstaats/

    続きを読む 一部表示
    10 分
  • Wenn Maschinen Mitgefühl vortäuschen
    2025/11/12

    KI-Chatbots zwischen digitaler Nähe und seelischer Gefahr – globale Fälle, europäische Verantwortung und die Frage: Wo endet Hilfe, wo beginnt Risiko?:

    KI-Chatbots wie ChatGPT, Gemini oder Claude haben längst die Schwelle vom Werkzeug zum Begleiter überschritten. Viele Menschen nutzen sie, um Texte zu schreiben, Entscheidungen zu klären – oder um einfach gehört zu werden. Doch gerade diese vermeintliche Nähe birgt Risiken: Wer Trost oder Verständnis sucht, findet hier oft ein Spiegelbild der eigenen Gedanken – programmiert, um zuzustimmen, nicht um zu verstehen.

    Immer häufiger warnen Forscherinnen, Psychologen und Ethikerinnen davor, dass solche Systeme psychische Krisen verschärfen können. Ihre Fähigkeit, „Empathie“ zu imitieren, wird zur gefährlichsten Eigenschaft überhaupt – weil sie Nähe verspricht, ohne Verantwortung zu übernehmen...

    https://kunstundki.de/2025/11/12/wenn-maschinen-mitgefuehl-vortaeuschen/

    続きを読む 一部表示
    9 分