L’intelligenza artificiale non è fatta solo di dati, microchip e codici, ma è anche il risultato delle metafore e dei racconti che usiamo per descriverla. Il modo in cui rappresentiamo questa tecnologia ne determina la comprensione e, di conseguenza, influenza il modo in cui viene progettata, utilizzata e regolamentata. Come analizzato in un contributo per The Conversation, le narrazioni dominanti — che parlano di “assistenti” antropomorfi, cervelli artificiali e robot umanoidi — hanno basi fragili e distorcono le reali capacità e i limiti dei modelli attuali.
Gran parte della confusione deriva dal concetto di tecnologia autonoma, ossia l’idea errata che le macchine possano prendere vita propria e agire indipendentemente dalla società in modo propositivo o distruttivo. Questa narrativa flirta con miti antichi, da Prometeo a Frankenstein, fino a Terminator, alimentando la percezione dell’IA come un’entità aliena o divina al di fuori del nostro controllo. In realtà, come sottolineano molti studiosi, l’IA non è né artificiale né intelligente in senso umano: essa è un sistema profondamente materiale, fatto di risorse naturali, energia, infrastrutture logistiche e, soprattutto, di un enorme volume di lavoro umano necessario per addestrare i modelli. Presentarla come qualcosa di magico o imperscrutabile impedisce un dibattito pubblico informato e sposta l’attenzione dalle responsabilità di chi la progetta e la guida.
Il linguaggio utilizzato dai media e spesso dalle stesse aziende del settore è saturo di antropomorfismo (l’attribuzione di caratteristiche o sentimenti umani a entità non umane). Si discute della presunta “coscienza” delle macchine o della loro capacità di sognare e immaginare, creando un clima di urgenza e inevitabilità. Questa visione culmina nella promessa della AGI (Intelligenza Artificiale Generale, ovvero una ipotetica intelligenza capace di eguagliare o superare l’intelletto umano in ogni campo), un traguardo che aziende come Microsoft e OpenAI presentano come imminente, nonostante manchi un consenso scientifico sulla sua reale fattibilità. Queste aspettative esagerate non sono solo un problema teorico, ma stanno alimentando una vera e propria bolla economica, basata su narrazioni avvincenti ma spesso prive di riscontri tecnici solidi.
Migliorare il racconto sull’IA significa riportare al centro la sua dimensione culturale, sociale e politica. È necessario smettere di vedere la tecnologia come un soggetto autonomo e iniziare a considerarla per ciò che è: uno strumento di interazione tra macchine e persone. In termini pratici, questo significa preferire verbi che riflettano l’attività di calcolo, come elaborare, calcolare o prevedere, evitando termini evocativi come “creare” o “pensare”. Una strategia utile per correggere la percezione comune è sostituire il termine “IA” con espressioni più accurate come elaborazione complessa di informazioni. Solo attraverso un linguaggio preciso e privo di miti sarà possibile affrontare le sfide etiche, dall’impatto sull’occupazione alla regolamentazione, garantendo che lo sviluppo tecnologico serva realmente gli interessi comuni della società.
(Foto di Logan Voss su Unsplash)
Questo articolo è solo un pezzetto
Scrivere ci piace, ma l’attività principale di Avis Legnano è la sensibilizzazione alla donazione di sangue. Per partecipare a questo progetto basta compilare il modulo d’iscrizione.
