154 - LLMs automatisiert knacken
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
Sicherheitsleitplanken bei KIs sind keine harten Grenzen, sondern eine gefährliche Illusion. In dieser Folge zeigen wir, wie Forscher von Palo Alto und Unit 42 mithilfe von genetischen Algorithmen und automatisiertem Prompt-Fuzzing jedes bekannte Large Language Model (LLM) erfolgreich knacken konnten.Wir erklären die Mechanismen dahinter und diskutieren folgende Kernpunkte:
- Automatisierte Jailbreaks: Wie Angreifer in wenigen Minuten dutzende Sicherheitslücken ausnutzen.
- Gefahr durch offene Modelle: Warum sich Schutzmechanismen bei lokalen Modellen einfach heraustrainieren lassen.
- Indirect Prompt Injection: Wie über externe Dokumente (RAG) unsichtbare Befehle in die KI eingeschleust werden können, was OWASP zur Top-Bedrohung für 2025 erklärt hat.
adbl_web_anon_alc_button_suppression_c
まだレビューはありません