Datenschutz im KI-Zeitalter – Sprachmodelle unter der Lupe
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
🎙️ Datenschutz bei großen Sprachmodellen: Risiken und Lösungen
Große Sprachmodelle revolutionieren, wie wir mit Maschinen kommunizieren – doch zu welchem Preis?
In dieser Folge werfen wir einen tiefen Blick hinter die glänzende Oberfläche von KI-Systemen und beleuchten die oft unterschätzten Datenschutzrisiken, die mit ihrer Nutzung einhergehen. Basierend auf einer fundierten akademischen Quelle untersuchen wir vier zentrale Schwachstellen:
🔍 Trainingsdaten, Benutzereingaben, generierte Ausgaben und LLM-Agenten.
Wir sprechen darüber, wie persönliche Informationen in Sprachmodelle gelangen – ohne dass es jemand merkt. Wir analysieren bestehende Schutzmechanismen, zeigen Forschungslücken auf und diskutieren, warum klassische Datenschutzkonzepte im Zeitalter der KI oft nicht mehr ausreichen.
💡 Für Entwickler:innen, Entscheider:innen, Datenschutzbeauftragte – und alle, die wissen wollen:
Was passiert wirklich mit unseren Daten, wenn wir mit KI sprechen?