エピソード

  • Du får, hvad du måler - med Casper Guldager, Director i NewTech, KPMG
    2025/11/03

    Hvordan måler man egentlig, om AI-adoptionen virker?
    Og hvorfor bliver ordet “måling” nærmest et fy-ord i mange organisationer?

    Det kan faktisk gøres ret simpelt. Dan Rose taler med Casper Guldager, Director for NewTech i KPMG, om kunsten at måle det, der faktisk betyder noget. For uden måling - ingen retning. Og uden retning - ingen gevinst.

    De taler om:

    • Hvorfor virksomheder ofte ikke ved, hvad de får ud af deres AI-investeringer
    • Hvordan man måler uden at skabe frygt for “overvågning”
    • Hvad ledelsen skal turde ændre, hvis målingerne skal have effekt
    • Hvorfor de bedste målinger starter simpelt - og bliver skarpere over tid
    • Og hvordan data om brug og adoption kan kobles direkte til strategi og bundlinje

    Har du feedback eller forslag til emner? Skriv til dan.rose@todai.ai



    続きを読む 一部表示
    1 時間 3 分
  • Hvem får mest ud af AI: Eksperter eller begyndere?
    2025/10/27

    Hvem får mest ud af AI - eksperter eller begyndere? Dan Rose går systematisk til spørgsmålet på tværs af studier og praksiserfaringer.

    Pointen er faktisk ikke sort/hvid: Effekten afhænger af opgavetypen, arbejdsprocessen og måden værktøjet bruges på.

    Du kan i afsnittet høre om:

    • Eksperter henter størst gevinst på åbne, komplekse og strategiske opgaver; begyndere løftes mest på små, veldefinerede opgaver med facit.
    • Hvordan eksperter i et domæne naturligt bruger AI-værktøjer bedre. Kreativitet og homogenisering: Hvor AI skaber ensretning, og hvornår det faktisk er en fordel.
    • Studietyper ≠ virkelighed: Hvorfor eksperimenter viser store effekter, mens observationsstudier finder små.
    • Hvorfor du bør differentiere værktøjsfrihed efter erfaring, og bør placere “AI-ankeret” bevidst i processer

    Omtalt blogindlæg om studier og konklusioner: https://todai.ai/hvem-faar-mest-ud-af-ai-brug-eksperter-eller-novicer/

    Har du feedback eller forslag til emner og gæster? Send en mail til dan.rose@todai.ai

    続きを読む 一部表示
    40 分
  • Bedre beslutninger: Den halvdel af AI, vi aldrig snakker om - med Berit Brouer, Director of Models & AI i ZeroNorth
    2025/10/22

    De fleste virksomheder måler på resultater. Få måler på beslutningerne, der skabte dem.

    I denne her episode taler Dan Rose med Berit Brouer, Director of Models & AI hos ZeroNorth, om decision science - kunsten at tage bedre beslutninger.

    De taler om:

    • Hvorfor vi sjældent lærer af vores beslutninger
    • Hvordan virksomheder kan måle kvaliteten af deres beslutninger
    • Hvornår man skal lade algoritmen køre og hvornår man skal tage rattet tilbage
    • Hvordan man designer fleksible planer, der kan tåle virkeligheden

    Har du feedback eller forslag til kommende gæster? Skriv til dan.rose@todai.ai.

    Links på omtaler:

    https://www.youtube.com/watch?v=nceTzlnZ_gk

    https://arxiv.org/pdf/2401.16754

    続きを読む 一部表示
    1 時間 18 分
  • AI til leverpostej eller forankring: Taler organisationer og medarbejdere det samme AI-sprog? Med David Guldager, tech-ekspert
    2025/10/13

    Vi taler forskelligt om AI – afhængigt af, hvor vi er.
    På arbejdet handler det om forankring, implementering og governance.
    Derhjemme handler det om at få hverdagen til at glide.

    I denne episode taler Dan Rose og tech-formidler David Guldager om, hvordan de to sprog og adfærdsmønstre smelter sammen – og hvorfor det forandrer både adoptionen og kulturen omkring AI.

    De taler om:

    • Hvad virksomheder kan lære af forbrugernes brug af AI
    • Risikoen for “shadow AI” og de tavse cyborgs
    • Hvorfor enterprise aldrig kan følge med privatmarkedets tempo
    • Hvordan man får medarbejdere til at eksperimentere med AI – også efter kl. 16

    Har du feedback eller forslag til kommende gæster? Skriv til dan.rose@todai.ai.

    続きを読む 一部表示
    55 分
  • Får vi transparens eller mere kompleksitet med AI? Og er AI en bobbel? - Med Martin Ågerup, Direktør hos Skattebetalerne
    2025/10/06

    AI lover gennemsigtighed – men gør den os i virkeligheden mere magtesløse? Sammen med Martin Ågerup, direktør for Skattebetalerne, undersøger vi, om AI kan skabe reel transparens mellem borgere og stat, eller om kompleksitet og automatiserede afgørelser i stedet svækker retssikkerheden. Vi taler om økonomiens næste fase: Kan AI udløse ekstrem vækst – eller rammer vi organisatoriske og energimæssige flaskehalse? Og hvad sker der, hvis kun de mest kompetente får gevinsten, mens resten hægtes af? Til sidst ser vi på EU’s strategi: statsstøtte, regulering og kampen for digital suverænitet i en verden domineret af amerikanske modeller.

    Vi taler om:

    • Kan AI skabe gennemsigtighed i, hvordan staten bruger vores penge – eller ender vi med sorte bokse og mindre retssikkerhed?
    • Hvorfor uens data og regler spænder ben for åbenhed.
    • Om AI kan udløse et økonomisk tigerspring – eller om vi står på kanten af en boble.
    • Risikoen for et A/B-samfund, hvor kun de mest AI-kompetente vinder.
    • Hvordan EU’s statsstøtte og regulering former Europas digitale selvstændighed.

    Har du feedback eller forslag til kommende gæster? Skriv til dan.rose@todai.ai.

    Links der nævnes i episoden:

    https://borsen.dk/nyheder/opinion/for-at-opna-digital-suveraenitet-skal-europa-la[…]elske-big-tech?b_source=opinion&b_medium=row_0&b_campaign=news_3

    https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode

    https://lilianweng.github.io/posts/2025-05-01-thinking/

    https://www.nber.org/papers/w34255

    続きを読む 一部表示
    1 時間 10 分
  • Nyt studie: AI-forbrug ændrer sig markant - og det bør vores adoption også
    2025/09/29

    Soloafsnit med Dan Rose.

    OpenAI’s nye brugsdata peger på et markant skifte: 73% af ChatGPT-brug er nu privat og 27% arbejde. Det ændrer forudsætningerne for AI-adoption i virksomheder – fra “basiskursus i prompting” til styring af vaner, governance og sikkerhed, når medarbejdere tager deres private praksis med på job.
    Dan går også ned i decision intelligence: hvordan omsætter vi mere (og bedre) viden til bedre beslutninger? Dertil en kritik af Danmarks Statistiks “42% bruger AI” – hvorfor tallet er misvisende – samt en praktisk guide til at spotte AI-washing med udgangspunkt i Canopylab-sagen. Og så er der lytterinput: historisk korrektion og en vigtig diskussion om, hvem der får mest ud af AI – de erfarne eller de nye.

    Du får svar på:

    • Hvordan skiftet til privat AI-brug påvirker governance, “shadow IT” og “shadow skills”.
    • Konkrete greb til adoption: mød medarbejdere i deres eksisterende vaner, tillad flere værktøjer under ansvar, rekruttér på faktisk AI-brug, og opbyg et fælles sprog.
    • Hvorfor “Asking” slår “Doing” som startpunkt – og hvordan du træner beslutningskvalitet frem for blot output.
    • Hvilke tal der bør måles (kvalitet, forankring, værdirealisering) i stedet for “hvor mange bruger AI”.
    • Røde og grønne flag ved leverandører – og tre spørgsmål, der skiller grundteknologi-påstande fra reel værdi.

    Har du feedback eller forslag til kommende gæster? Skriv til dan.rose@todai.ai.

    OpenAI-stuide: https://www.nber.org/system/files/working_papers/w34255/w34255.pdf

    Rapport fra Digitaliseringsstyrelsen: https://digst.dk/media/fv3dwac0/faktaark-virksomhedernes-anvendelse-af-ai-2023-2025.pdf

    Generative AI at Work: https://www.nber.org/papers/w31161

    Jagged Frontier: https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf

    続きを読む 一部表示
    41 分
  • Hvordan AI-opkvalificering sikrer forankring – med Barbara Isaksen, Director & Head of AI Adoption
    2025/09/22

    Et to-timers kursus i AI skaber ingen varig effekt. Det er konklusionen i denne her snak mellem Dan Rose og Barbara Isaksen, Head of AI Adoption i Todai.

    Vi taler om, hvorfor træning i AI aldrig kan stå alene, men altid må kobles til forandringsledelse og kultur. Om mellemledernes afgørende rolle, AI-shame blandt medarbejdere, og hvordan virksomheder kan opbygge interne communities, ambassadørprogrammer og kontinuerlig træning, der faktisk ændrer arbejdsprocesserne.

    Du får konkrete bud på:

    • Hvad der kendetegner god opkvalificering af medarbejdere
    • Hvorfor træning skal være kontinuerlig, specifik og hands-on
    • Hvordan mellemledere kan sikre reel forankring af AI
    • Hvordan friktion der spænder ben for adoption – og hvordan man overvinder dem

    Har du feedback eller forslag til kommende gæster? Skriv til dan.rose@todai.ai.



    続きを読む 一部表示
    1 時間 5 分
  • Få færre AI-fiaskoer med klare succeskriterier og mål - Soloafsnit med Dan Rose
    2025/09/15

    Vi er langt mindre enige om AI-projekters succeskriterier og god kvalitet, end vi går og tror.

    Hvis man ikke har den fundamentale enighed på plads, fejler man med sikkerhed.

    Som eksempel hævder en ny rapport fra MIT, at 95% af generative AI-projekter fejler. Men hvad betyder det egentlig at fejle - og hvordan definerer vi succes?

    I dette soloafsnit stiller Dan Rose ind på sine erfaringer med at implementere AI i praksis, og hvorfor succeskriterier er langt sværere (og vigtigere), end de fleste tror. Du får konkrete råd til, hvordan organisationer kan:

    • Sætte klare og målbare succeskriterier for AI-projekter
    • Bruge beslutningsmodeller til at spare tid og penge
    • Undgå faldgruberne, som gør AI-projekter mere risikable end andre IT-projekter
    • Hvordan du afdækker og håndterer forskellige opfattelser af “What good looks like”

    Afsnittet er første test af et nyt format, hvor Dan tager et aktuelt tema op alene.

    Feedback er meget velkommen – skriv til dan.rose@todai.ai.


    Studier, der nævnes:

    Publiceret version (SAGE/Project Management Journal): https://journals.sagepub.com/doi/full/10.1177/87569728251340590


    Bøger:

    Bent Flyvbjerg & Dan Gardner – How Big Things Get Done

    Daniel Kahneman, Olivier Sibony, Cass R. Sunstein – Noise: A Flaw in Human Judgment

    続きを読む 一部表示
    27 分