『Code & Konsequenz』のカバーアート

Code & Konsequenz

Code & Konsequenz

著者: Lelia Hanslik & André Cramer
無料で聴く

このコンテンツについて

Bei Code & Konsequenz dreht sich alles um (digitale) Technologie im gesellschaftlichen Kontext. Was macht und was ermöglicht uns „Code“? Und welche Konsequenzen gehen damit für unser Zusammenleben einher? Wir, Lelia Hanslik und André Cramer, werfen einen kritischen Blick auf digitale Technologien und die Technologiebranche. Uns interessieren Perspektiven, Motivationen und Geschichten an der Schnittstelle von Technik - vor allem von Software und Digitalem - und unserer Gesellschaft:Wie wird Technologie gestaltet und eingesetzt? Nach welchen Prinzipien und mit welchen Absichten? Wer hat wie die Menschen und unsere Gesellschaften im Blick? Wie viel oder wie wenig Verantwortungsübernahme ist dabei von welchen Akteur:innen erkennbar? Unser Anliegen ist es, hier mehr Transparenz zu schaffen. Über die Hosts: Lelia Hanslik ist Mathematikerin, Wirtschaftsinformatikerin, Schnittstellenmensch und Feministin. Sie interessiert sich für die Auswirkungen von Softwaresystemen auf unser Zusammenleben und dafür, wie wir diese Auswirkungen aktiv und verantwortungsbewusst mitgestalten können. LinkedIn | Lelia Hanslik André Cramer ist seit 25 Jahren in der Technologiebranche tätig. In verschiedenen Funktionen, in verschiedenen Ländern. Sein Blick hat sich vom Fanboy zum kritischen Hinterfrager gewandelt. Warum? Er ist überzeugt, dass die Vorteile von Technologie und Digitalisierung allen Menschen zugutekommen sollten. Und dass dafür die Gestaltung und Verantwortung in vielfältigere Hände gelegt werden sollte. André möchte deshalb dazu beitragen, dass mehr Menschen mehr über unsere digitalen Zukunftsoptionen erfahren – und diese nutzen! LinkedIn | André Cramer Kontakt: Per E-Mail an codeundkonsequenz@gmail.com und über unseren Instagram-Kanal ImpressumLelia Hanslik, André Cramer
エピソード
  • Wenn selber Denken zu unbequem wird: KI, Komfort und kognitive Erosion?
    2025/05/14
    Wer heute Texte schreibt, Konzepte entwirft oder Entscheidungen vorbereitet, tut das immer öfter mit Unterstützung generativer KI. Die Tools versprechen Effizienz, Struktur, neue Perspektiven – und liefern oft genau das. Aber was passiert, wenn wir uns zu sehr darauf verlassen?In dieser Folge fragen wir: Verlernen wir gerade stillschweigend das Denken?Wir sprechen über die psychologischen Mechanismen hinter Cognitive Offloading, über neue Studien zu kritischer Urteilskraft im KI-Zeitalter – und darüber, warum eine Kern-Herausforderung bei KI nicht nur in fehlerhaften oder problematischen Daten und Tools liegt, sondern vor allem auch in unserem unkritischen Umgang mit ihr.Wir diskutieren, wie sich unsere Beziehung zu Wissen, Wahrheit und Verantwortung verändert, wenn wir Entscheidungen vorformulieren lassen, Argumente nicht mehr hinterfragen, und KI-Modelle unter anderem auch mit Desinformationen trainiert werden.Und wir klären: Wo liegt die Grenze zwischen hilfreicher Entlastung und mentaler Entmündigung? Eine Folge über Bequemlichkeit, Denkfaulheit, und die unbequeme Frage, wie viel Autonomie wir bereit sind aufzugeben – für ein bisschen Text oder ein hübsches Bild auf Knopfdruck. Seid gespannt auf eine differenzierte Auseinandersetzung – und teilt eure Gedanken mit uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt uns an codeundkonsequenz@gmail.com oder schaut auf unserem Insta-Kanal vorbei: instagram.com/codeundkonsequenz. Wir freuen uns auf eure Perspektiven!Links & Referenzen:Intro-Geschichten: Studio Ghibli, Y Combinator Supports AI Startup Dehumanizing Factory Workers (404 Media) - Video / Optify.ai & Y Combinator ReaktionHousekeeping: The Unbelievable Scale of AI’s Pirated-Books Problem (The Atlantic)Studie: Wie Mitarbeiter generative KI nutzen (Veritas, bei it-daily.net)Studie: Längsschnittstudie zur KI-Nutzung bei Studierenden (Hochschule Darmstadt)Studie: Jugend, Information, Medien 2024: Medienumgang 12- bis 19-Jähriger (JIM)Studie: Verbreitung generativer KI im privaten und beruflichen Alltag 2024 (Bayerisches Forschungsinstitut für Digitale Transformation)Blooms Taxonomie / Bloom’s Taxonomy: Levels of UnderstandingReddit Thread: my little sister's use of chatgpt for homework is heartbreakingStudie: AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking (Michael Gerlich, Swiss Business School)Studie: The Power of Virtual Influencers: Impact on Consumer Behaviour and Attitudes in the Age of AI (Michael Gerlich, Swiss Business School)Studie: Exploring Motivators for Trust in the Dichotomy of Human—AI Trust Dynamics(Michael Gerlich, Swiss Business School)A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda (NewsGuard Report)Studie: The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise (Harvard University, Procter & Gamble)Studie: The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers (Carnegie Mellon / Lee et all, Microsoft)Studie: Google it, Critical Thinking and Problem Solving in the Internet Age (Ali Arya, Luciara Nardon, Carleton University)Miller’s LawNew Junior Developers Can’t Actually Code (Namanyay Goel)Die KI-Verdummung (Marko Kovic)
    続きを読む 一部表示
    48 分
  • Tech for Good: Große Ideen oder leere Versprechen?
    2024/12/31
    Ihr seid sicherlich schon über den Begriff Tech for Good gestolpert. Aber was bedeutet das eigentlich? In dieser Folge werfen wir einen kritischen Blick auf die Akteur*innen, die Technologie oder ihren Einsatz als Lösung für gesellschaftliche und ökologische Herausforderungen positionieren. Von NGOs und Start-ups bis hin zu globalen Tech-Konzernen – wer schreibt sich auf die Fahne, mit Technologie die Welt zu verbessern? Und wer bleibt eher bei bloßen Versprechungen?

    Wir erkunden, wie Transparenz, ethische Verantwortung und langfristiger Impact mit diesem Anspruch zusammenspielen. Gleichzeitig hinterfragen wir, wo die Grenzen solcher Initiativen liegen. Und wollen herausfinden, welche Risiken entstehen, wenn technologische Lösungen dann doch die systemischen Ursachen von Problemen ignorieren. Und kann soziale Innovation in einem kapitalistischen Wettbewerb bestehen? Oder verkommt Tech for Good allzu oft zum Marketing-Schlagwort?

    Phänomene wie Ethics Washing und Virtue Signaling stehen ebenso im Fokus wie die Frage, was Technologie wirklich „gut“ macht. Seid gespannt auf eine differenzierte Auseinandersetzung – und teilt eure Gedanken mit uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt uns an codeundkonsequenz@gmail.com oder schaut auf unserem Insta-Kanal vorbei: instagram.com/codeundkonsequenz. Wir freuen uns auf eure Perspektiven!

    Links zu Organisationen und Initiativen:
    • Microsoft AI for Earth Programm
    • Tech to the Rescue
    • Plan A (Berliner Startup für CO₂-Reduktion)
    • GUIDING LIGHT (Wiener NGO für ethische Technologieprojekte)
    • BenevolentAI
    • Correlaid
    • ITU AI for good summit
    • Tech for good summit von Emmanuel Macron 2018
    Links zu Personen:
    • Sergey Brin (Google, Parkinson-Forschung)
    • Joy Buolamwini (Algorithmic Justice League, Diskriminierung in KI)
    • Tristan Harris (Center for Humane Technology)
    • Yevgeny Morozov (Techno Solutionism; To Save Everything, Click Here: The Folly of Technological Solutionism)
    Links zu Studien und Artikeln:
    • McKinsey Global Institute Study: Tech for Good: Smoothing Disruption, Improving Well-being
    • Bain & Company Snap Chart "Tech for Good Investments are Rising"
    • Definition von Sozialunternehmen im Rahmen der Social Business Initiative der Europäischen Kommission
    • Morozov Gastbeitrag in der NY Times "The True Threat of Artificial Intelligence"


    続きを読む 一部表示
    39 分
  • Generative KI zwischen Regeln und Realität: Wer bleibt legal beim Wettrennen um Trainingsdaten?
    2024/09/19
    In unserer zweiten Folge geht es um den unersättlichen Datenhunger von Large Language Models – und die Herausforderungen für diejenigen, die sie entwickeln und trainieren. Die Branche scheint im Panikmodus zu sein. Denn sie befürchtet, dass es schon bald nicht mehr genug hochwertige Daten geben könnte. Um ihre Modelle nicht nur auf dem neuesten Stand zu halten, sondern immer weiter zu verbessern. Und das führt zu harten Zeiten für die Integrität mancher Akteur:innen und teils mehr als fragwürdigen Praktiken. Will man etwa das GenAI-Wettrennen verlieren, nur weil man sich an Regeln hält? Wir nehmen diese Situation unter die Lupe und beleuchten, wie die großen Tech-Konzerne und KI-Vorreiter:innen agieren – und was das für Content-Anbieter:innen, Creators und uns alle bedeutet. Gibt es Wege, diese vermeintliche Krise zu meistern, ohne Gesetze und bewährte Praktiken zu beugen oder gar zu brechen? Hört rein und teilt sehr gerne eure Gedanken und Feedback mit uns!Links & Quellen: · Consent in Crisis: The Rapid Decline of the AI Data Commons (MIT Studie)· 2024 AI Index Report (Stanford University)· Your Personal Information Is Probably Being Used to Train Generative AI Models (Scientific American)· For AI firms, anything "public" is fair game (Axios)· For Data-Guzzling AI Companies, the Internet Is Too Small (Wall Street Journal)· Adobe Is Buying Videos for $3 Per Minute to Build AI Model (Bloomberg)· How Tech Giants Cut Corners to Harvest Data for A.I. (New York Times)· Video: Interview Wall Street Journal mit OpenAI CTO Mira Murati (Wall Street Journal)· What to Know About Tech Companies Using A.I. to Teach Their Own A.I. (New York Times)· The Data That Powers A.I. Is Disappearing Fast (New York Times)· Is there enough text to feed the AI beast? (Semafor)· KI-Training vs. Datenschutz „Meta sagt, euer Grundrecht ist nicht so wichtig“ (Deutschlandfunk)· The Backlash Against AI Scraping Is Real and Measurable (404 Media)· Keine Trainings-Daten mehr: Schon 2026 gehen der Künstlichen Intelligenz die Daten aus (SRF) · OpenAI Pleads That It Can’t Make Money Without Using Copyrighted Materials for Free (Futurism) · Why Perplexity’s Cynical Theft Represents Everything That Could Go Wrong With AI (Forbes) · Perplexity Is a Bullshit Machine (Wired) · Most Top News Sites Block AI Bots. Right-Wing Media Welcomes Them (Wired)· OpenAI transcribed over a million hours of YouTube videos to train GPT-4 (The Verge) · How to Fix “AI’s Original Sin” (Tim O’Reilly) · The ‘Enshittification’ of TikTok (Wired)· POV: How generative AI is changing surveillance capitalism (Fast Company) · Warum ChatGPT so schlecht rechnet (FAZ) · AI Act zum Nachlesen · DSGVO Grundsätze für die Verarbeitung personenbezogener Daten · Adding More Data Isn’t the Only Way to Improve AI (Harvard Business Review) · OpenAI Hit With New Lawsuit Over ChatGPT Training Data (Forbes) · Researchers warn we could run out of data to train AI by 2026 (The Conversation) Über die Hosts:Lelia Hanslik ist Mathematikerin, Wirtschaftsinformatikerin, Schnittstellenmensch und Feministin. Sie interessiert sich für die Auswirkungen von Softwaresystemen auf unser Zusammenleben und dafür, wie wir diese Auswirkungen aktiv und verantwortungsbewusst mitgestalten können. Linkedin| Lelia HanslikAndré Cramer ist Technologie- und Informations-Schnittstellenmensch. Er ist seit über 20 Jahren in unterschiedlichsten Rollen und Ländern in der Technologiebranche tätig. Sein Blick hat sich vom Tech-Fanboi zum kritischen Hinterfrager gewandelt. Warum? Er ist überzeugt, dass die Vorteile von Technologie und Digitalisierung allen Menschen zugutekommen sollten. Und dass dafür deren Gestaltung und Verantwortung in vielfältigere Hände gelegt werden sollte. André möchte dazu beitragen, dass mehr Menschen mehr über unsere vielversprechenden digitalen Zukunftsoptionen erfahren. So dass wir eine bessere, eine ethisch fundierte digitale Zukunft für uns alle bauen können. LinkedIn | André CramerKontakt: codeundkonsequenz@gmail.com | Insta CodeundKonsequenz
    続きを読む 一部表示
    53 分

Code & Konsequenzに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。