“Explain It Like I’m AI”: un podcast per capire davvero l’intelligenza artificiale
09/03/2026
Capire l’intelligenza artificiale senza lasciarsi trascinare dall’entusiasmo incontrollato o da timori poco fondati è una sfida che riguarda ormai chiunque utilizzi strumenti digitali.
Da questa esigenza nasce “Explain It Like I’m AI – Decoding AI: Without Panic, Beyond Hype”, il podcast ideato da Virginia Fidenti, Lorenzo Luccioli, Paolo Piccirillo, Luca Rebolino e Gayathri Santhosh, cinque dottorandi dell’International PhD College dell’Università di Bologna. Il progetto è disponibile su Spotify e sulle principali piattaforme di streaming audio e propone un percorso in quattro episodi dedicato a comprendere l’intelligenza artificiale attraverso prospettive diverse: tecnica, semiotica, sociale e scientifica.
Il podcast prende le distanze dalle narrazioni semplificate che spesso accompagnano il dibattito pubblico sull’IA. L’obiettivo dichiarato è quello di offrire un’analisi articolata, capace di chiarire che cosa siano davvero queste tecnologie, quali potenzialità racchiudano e quali interrogativi pongano sul piano culturale e sociale.
Che cosa significa davvero intelligenza artificiale
Il primo episodio affronta una domanda apparentemente semplice ma tutt’altro che scontata: che cosa si intende realmente quando si parla di intelligenza artificiale. A guidare la discussione sono Paolo Torroni e Andrea Galassi, docenti dell’Università di Bologna impegnati nello studio dei sistemi intelligenti.
La conversazione ripercorre alcune tappe fondamentali della storia dell’IA. Vengono ricordati momenti simbolici come la vittoria del computer Deep Blue contro il campione mondiale di scacchi Garry Kasparov e il successo di AlphaGo nel gioco del Go, eventi che hanno segnato l’evoluzione delle capacità computazionali. L’attenzione si sposta poi sulle tecnologie più recenti, in particolare sui large language models, sistemi in grado di elaborare e generare linguaggio naturale.
Durante la puntata vengono anche evidenziati alcuni limiti strutturali di questi strumenti. Tra i temi affrontati emerge il concetto di “stochastic parrots”, espressione utilizzata per descrivere modelli linguistici che rielaborano dati statistici senza possedere una reale comprensione semantica. Si discute inoltre delle cosiddette “allucinazioni” dei modelli, cioè la produzione di informazioni plausibili ma errate, invitando a un uso consapevole dell’intelligenza artificiale nella vita quotidiana.
Linguaggio, creatività e il rapporto tra uomo e macchina
Il secondo episodio amplia lo sguardo verso le implicazioni culturali dell’IA. Ospite della puntata è Claudio Paolucci, professore di Semiotica e Filosofia del linguaggio all’Università di Bologna.
L’analisi mette in discussione una convinzione diffusa: quella secondo cui l’intelligenza artificiale sarebbe semplicemente uno strumento capace di imitare il linguaggio umano. Attraverso una prospettiva semiotica, Paolucci esplora il modo in cui le tecnologie linguistiche operano nella produzione di significato e nelle pratiche comunicative.
La riflessione si concentra anche sul concetto di ibridazione tra uomo e macchina. L’utilizzo sempre più diffuso di sistemi intelligenti nelle attività creative e professionali solleva interrogativi profondi sul concetto di soggettività e sulle modalità attraverso cui attribuiamo valore alla produzione culturale. La presenza dell’IA nei processi creativi non riduce necessariamente il ruolo umano, ma invita a ripensare il rapporto tra tecnologia e immaginazione.
Algoritmi, politica e impatti sociali
Il terzo episodio introduce una prospettiva politica e sociale grazie al contributo di Isabella Consolati, docente all’Università di Torino, e Paola Rudan dell’Università di Bologna, entrambe studiose di Storia del pensiero politico.
La discussione affronta una questione centrale: gli algoritmi non si limitano a descrivere la realtà, ma contribuiscono a strutturarla. Attraverso sistemi di classificazione e previsione, le tecnologie digitali influenzano processi decisionali che riguardano ambiti molto diversi, dal mercato del lavoro alla gestione delle informazioni.
Durante la conversazione emergono temi come il bias algoritmico, la predizione automatizzata e il ruolo delle piattaforme digitali nella costruzione di modelli sociali. Le relatrici riflettono sul rischio che sistemi di decisione automatica possano rafforzare disuguaglianze già presenti nella società, limitando allo stesso tempo la capacità collettiva di immaginare alternative.
L’intelligenza artificiale nella ricerca scientifica
Il quarto episodio sposta l’attenzione verso il mondo della ricerca scientifica. Ospite della puntata è Chiara Stuardi, ricercatrice in radioastronomia presso l’Istituto Nazionale di Astrofisica.
L’intelligenza artificiale viene presentata come uno strumento capace di trasformare profondamente il lavoro scientifico. Tecniche di machine learning permettono di analizzare quantità enormi di dati provenienti da telescopi e osservatori astronomici, rendendo possibile individuare strutture cosmiche e fenomeni che sarebbe impossibile riconoscere con metodi tradizionali.
Durante la puntata vengono discussi anche aspetti più tecnici, come l’utilizzo delle reti neurali convoluzionali nell’analisi delle immagini astronomiche. Allo stesso tempo emerge il problema delle cosiddette “black box”, modelli complessi il cui funzionamento interno risulta difficile da interpretare. Questo solleva interrogativi sul processo di validazione dei risultati scientifici ottenuti attraverso sistemi di intelligenza artificiale.
La serie si chiude con una riflessione aperta sul futuro della ricerca. L’intelligenza artificiale potrebbe diventare uno strumento capace di ampliare l’accesso alla conoscenza e accelerare la scoperta scientifica. Allo stesso tempo, il suo sviluppo pone interrogativi sul ruolo degli scienziati e sulle modalità con cui la comunità scientifica continuerà a produrre sapere.