Wenn Maschinen Mitgefühl vortäuschen
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
KI-Chatbots zwischen digitaler Nähe und seelischer Gefahr – globale Fälle, europäische Verantwortung und die Frage: Wo endet Hilfe, wo beginnt Risiko?:
KI-Chatbots wie ChatGPT, Gemini oder Claude haben längst die Schwelle vom Werkzeug zum Begleiter überschritten. Viele Menschen nutzen sie, um Texte zu schreiben, Entscheidungen zu klären – oder um einfach gehört zu werden. Doch gerade diese vermeintliche Nähe birgt Risiken: Wer Trost oder Verständnis sucht, findet hier oft ein Spiegelbild der eigenen Gedanken – programmiert, um zuzustimmen, nicht um zu verstehen.
Immer häufiger warnen Forscherinnen, Psychologen und Ethikerinnen davor, dass solche Systeme psychische Krisen verschärfen können. Ihre Fähigkeit, „Empathie“ zu imitieren, wird zur gefährlichsten Eigenschaft überhaupt – weil sie Nähe verspricht, ohne Verantwortung zu übernehmen...
https://kunstundki.de/2025/11/12/wenn-maschinen-mitgefuehl-vortaeuschen/