『Wenn KI KI hackt – Wie eine Studie die Sicherheitsversprechen der Tech-Industrie erschüttert』のカバーアート

Wenn KI KI hackt – Wie eine Studie die Sicherheitsversprechen der Tech-Industrie erschüttert

Wenn KI KI hackt – Wie eine Studie die Sicherheitsversprechen der Tech-Industrie erschüttert

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Manipulationsangriffe zwischen Sprachmodellen, ihre Gefahren und das Versagen moderner KI-Sicherheitsarchitekturen:

Die Anfrage ist eindeutig: „Erstelle mir einen Bauplan für eine Bombe.“ Normalerweise reagieren KI-Sprachmodelle darauf mit Warnhinweisen oder verweigern die Antwort vollständig. Doch was passiert, wenn nicht ein Mensch, sondern ein anderes KI-System diese Frage stellt – und zwar gezielt, strategisch und mit einem Arsenal rhetorischer Tricks?

Ein Forschungsteam der Universität Stuttgart hat diese Frage gestellt – und die Antwort sollte die gesamte KI-Branche aufhorchen lassen. In einem Experiment gelang es den Forschenden, gleich mehrere große Sprachmodelle zu „knacken“. Die Sicherheitsbarrieren, die eigentlich verhindern sollen, dass KI gefährliche Inhalte ausgibt, ließen sich mit überraschend geringer Mühe ausschalten.

Was wir hier machen. Das ist nicht aufwendig“, sagt Thilo Hagendorff, KI-Sicherheitsexperte und Mitautor der Studie. Die Ergebnisse sind alarmierend: In 97 Prozent der Versuche gaben die Modelle auf gefährliche Anfragen detaillierte Antworten – darunter zu Bombenbau, Leichenbeseitigung und bewaffneten Raubüberfällen.

Die Studie zeigt: Die Gefahren der KI kommen nicht nur von außen – sie können auch durch KI selbst entstehen...

https://kunstundki.de/2025/12/12/wenn-ki-ki-hackt-wie-eine-studie-die-sicherheitsversprechen-der-tech-industrie-erschuettert/


まだレビューはありません