エピソード

  • Dalla rivoluzione industriale ad Alan Turing: nascita dell'informatica moderna
    2026/03/08

    Quando nasce davvero l’informatica? E cosa significa “algoritmo”?

    In questo episodio attraversiamo un momento cruciale della storia dell’elaborazione automatica dell’informazione: dall’industrializzazione del calcolo nell’Ottocento fino alla creazione della teoria della calcolabilità di Alan Turing nel Novecento.

    Partiamo dalle prime industrie del calcolo umano — intere stanze di “computer” (persone!) specializzati nell’esecuzione di operazioni matematiche — e arriviamo alle macchine meccaniche di Thomas de Colmar e Charles Babbage. Con l’Analytical Engine emerge per la prima volta l’idea di calcolatore universale, programmabile tramite schede perforate: un’intuizione rivoluzionaria che anticipa l’architettura dei computer moderni.

    Proseguiamo con Alan Turing e la teoria della calcolabilità: cosa significa che un problema è calcolabile? Esistono limiti intrinseci al calcolo? Attraverso la macchina di Turing e il problema dell’arresto scopriamo che non tutte le procedure sono decidibili, non tute portano ad una soluzione.

    Infine, entriamo nel cuore del concetto di algoritmo: dalle definizioni formali legate alla teoria matematica, fino alla visione operativa fatta di sequenza, selezione e iterazione. Vediamo come questi tre costrutti fondamentali siano sufficienti per descrivere qualsiasi procedura computabile, e come i diversi livelli di astrazione — dal diagramma di flusso al linguaggio macchina — modellino il rapporto tra uomo e macchina.

    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    続きを読む 一部表示
    1 時間 31 分
  • Le origini dell’elaborazione automatica dell'informazione
    2026/03/07

    Dalle corde annodate della preistoria ai gettoni mesopotamici, dalla macchina di Anticitera alle calcolatrici meccaniche di Pascal e Leibniz, ripercorriamo la storia dell’automazione del calcolo.

    Un viaggio nell’astrazione: come l’uomo ha imparato a rappresentare il mondo attraverso simboli, meccanismi e macchine sempre più articolate.

    Un episodio che collega codifica digitale, storia della tecnologia e nascita del calcolo automatico.

    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    続きを読む 一部表示
    34 分
  • Codifiche standard: come si codificano testo, numeri e immagini
    2026/03/03

    Come si costruisce concretamente un codice digitale? E come si passa dalla teoria dei bit agli standard che usiamo ogni giorno?

    In questo episodio entriamo nel cuore della codifica digitale applicata: partendo dalla formula della quantità di informazione, vediamo come progettare un codice binario passo dopo passo. Dalle condizioni meteo ai sistemi numerici, impariamo a calcolare quanti bit servono per rappresentare un insieme di messaggi e come associare in modo arbitrario sequenze binarie ai significati.

    Affrontiamo poi le codifiche storiche del testo: dall’ASCII allo Unicode, fino agli standard UTF-8, UTF-16 e UTF-32. Perché oggi UTF-8 è lo standard dominante? Qual è il compromesso tra memoria e velocità di interpretazione? E perché dichiarare correttamente il formato di un file è fondamentale nei sistemi informatici?

    Passiamo quindi alla rappresentazione dei numeri in base binaria, esplorando la notazione posizionale e il legame tra potenze di due e sequenze di bit. Infine, introduciamo la codifica delle immagini: pixel, risoluzione, RGB e compressione. Come si rappresenta un’immagine con i bit? Perché alcune immagini si comprimono facilmente e altre no?

    Un episodio che collega teoria, standard tecnici e applicazioni concrete per capire davvero cosa significa “digitalizzare” un’informazione.


    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    続きを読む 一部表示
    1 時間 24 分
  • Cos’è l’informazione? Dalla codifica analogica alla nozione di bit
    2026/03/02

    Che cos’è davvero l’informazione? E come possiamo misurarla?

    In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.

    Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.

    Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?

    Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.


    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    続きを読む 一部表示
    1 時間 33 分