L’intelligenza artificiale è sempre più al centro del dibattito pubblico, politico ed economico. Non è più solo una questione tecnologica: è diventata una forza trasversale, destinata a incidere profondamente sui modelli di produzione, sulle dinamiche sociali e sui valori stessi che guidano l’azione umana. Eppure, nonostante la retorica diffusa sull’urgenza dell’AI, l’Italia – e l’Europa in generale – sembrano ancora lontane dal dedicare a questa trasformazione l’attenzione e le risorse che merita.
Ne abbiamo parlato con Giuliano Noci, professore ordinario di Strategia e Marketing e Vice Rettore del Politecnico di Milano, nonché membro del Comitato per la strategia nazionale sull’intelligenza artificiale presso la Presidenza del Consiglio dei Ministri. Lo abbiamo incontrato a Brescia, in occasione della tappa lombarda degli Innovation Days 2025 promossi da Il Sole 24 Ore, dove ha offerto uno sguardo lucido e articolato su come l’AI stia cambiando – e cambierà – la nostra quotidianità. Dall’urgenza di maggiori investimenti alle implicazioni etiche, passando per il ruolo del pensiero critico umano in un mondo sempre più automatizzato, Noci propone una riflessione profonda e concreta sul presente e il futuro dell’intelligenza artificiale.
Redazione IO01: Il tema dell’intelligenza artificiale appare ormai totalizzante. Da dove partire per inquadrarlo obiettivamente?
Giuliano Noci: Ci ripetiamo spesso che l’intelligenza artificiale rappresenta una priorità, ma nei fatti gli investimenti principali non vanno in quella direzione. L’intelligenza artificiale, di per sé, non è né buona né cattiva: è uno strumento. E non lo dico solo io – lo dice l’AI Index della Stanford University, che è un punto di riferimento internazionale. Negli Stati Uniti sono stati investiti 100,9 miliardi di dollari in AI; in Italia appena 860 milioni. In Europa, i Paesi che investono di più sono il Regno Unito (4,6 miliardi) e la Svezia (4,8 miliardi). Quindi il primo punto da sottolineare è che non stiamo ancora dando a questo tema l’attenzione che merita.
Redazione IO01: Durante la conferenza ha affermato che «l’intelligenza artificiale sarà come l’aria che respiriamo». Potrebbe approfondire questo concetto?
Giuliano Noci: Sì, in sostanza, l’intelligenza artificiale è un’architettura tecnologica che amplifica e supporta i compiti umani. In questo senso, può essere considerata simile alla nostra mente: entrerà progressivamente in ogni aspetto della nostra vita quotidiana. In realtà, è già presente in molti oggetti di uso comune, come lavatrici, televisori, smartphone, automobili, e così via. Per questo motivo, ritengo che l’AI sarà un fattore di cambiamento profondo e strutturale nella società, tanto dal punto di vista civile quanto da quello culturale e sociale. È una trasformazione pervasiva che ridefinisce ruoli e competenze. Un altro aspetto interessante emerso nel discorso riguarda l’unità del sapere: le conoscenze umane devono sempre essere superiori alla semplice esecuzione meccanica dei compiti. Il vero valore sta nella capacità di individuare i problemi, porre le domande giuste, scegliere cosa analizzare e introdurre un pensiero originale e spontaneo – tutte attività che l’intelligenza artificiale, almeno per ora, non è in grado di svolgere –. Le azioni codificate e ripetitive, tutto sommato, sono semplici da automatizzare e saranno sempre più affidate alla tecnologia, attraverso l’integrazione tra AI e robotica. Ma il ruolo dell’essere umano sarà quello di occuparsi delle attività complesse, non codificabili e creative. E questo richiederà una nuova forma di pensiero critico.
Red: Nel dibattito che ha seguito il suo intervento sono stati fatti anche dei riferimenti ai bias cognitivi correlati all’AI. Lei cosa ne pensa?
GN: È evidente che l’intelligenza artificiale debba essere supervisionata, soprattutto quando si tratta di compiti complessi. È vero che chi sviluppa gli algoritmi può, anche inconsapevolmente, introdurre dei bias cognitivi. Per questo motivo è fondamentale progettare e gestire i sistemi di AI in modo tale da minimizzare questi errori e renderli il più possibile equi e trasparenti.
Red: E per quanto riguarda l’etica dell’intelligenza artificiale?
GN: L’etica è una questione che si pone per ogni attività umana. È essenziale che il codice prodotto rispetti i valori fondamentali della nostra società. Ma, alla fine, l’etica di un sistema artificiale dipende sempre dall’essere umano che lo ha progettato o addestrato. Se un sistema di AI non è etico, è perché chi l’ha sviluppato o gestito ha ignorato, intenzionalmente o meno, certi principi. L’intelligenza artificiale non è autonoma da questo punto di vista: è uno specchio delle nostre scelte.
Redazione IO01