AttualitàInformaticaOPINIONI

Sapremo ancora riconoscere ciò che è autentico?

L’Europa lavora a nuove regole per rendere riconoscibili immagini, video, audio e testi generati dall’intelligenza artificiale

di Rosa Buzzi

Guardiamo una foto e la crediamo vera. Ascoltiamo una voce e pensiamo che appartenga davvero a chi la pronuncia. Leggiamo un testo ben costruito e lo attribuiamo, quasi automaticamente, a una persona. È proprio qui che l’intelligenza artificiale cambia il nostro rapporto con il mondo digitale. Non soltanto perché produce contenuti sempre più convincenti, ma perché rende più incerto il confine tra ciò che è autentico e ciò che è stato generato o manipolato.

È su questo punto che si concentra una delle novità europee più interessanti di queste settimane. La Commissione europea ha recentemente pubblicato il secondo draft del codice di pratica sulla marcatura e sull’etichettatura dei contenuti generati dall’intelligenza artificiale, un passaggio preparatorio in vista dell’applicazione delle regole di trasparenza previste dall’AI Act.

In pratica, questa marcatura funzionerà come un segnale riconoscibile, una sorta di bollino o avviso capace di far capire all’utente che quel contenuto è stato generato o manipolato dall’intelligenza artificiale, così da non confonderlo con un prodotto interamente umano o spontaneamente autentico.

Il riferimento normativo è l’articolo 50 dell’AI Act, che prevede obblighi di trasparenza per alcuni sistemi di intelligenza artificiale, compresi quelli capaci di generare o manipolare contenuti in modo da poter sembrare reali. Il punto non è vietare l’uso dell’IA nei testi, nelle immagini, negli audio o nei video. Il punto è evitare che l’artificiale si presenti come naturale senza lasciare traccia, soprattutto quando può trarre in inganno.

Il tema riguarda in modo evidente i deepfake, cioè contenuti audio o video prodotti o alterati artificialmente in modo da apparire autentici. Ma il problema non si ferma lì. Riguarda anche immagini, chatbot, testi e strumenti generativi che entrano sempre più spesso nella vita quotidiana, nel lavoro, nella comunicazione e nell’informazione. È per questo che la trasparenza non può essere considerata un dettaglio tecnico. Diventa, piuttosto, una condizione minima di fiducia pubblica.

Il nodo, in fondo, è culturale prima ancora che tecnologico. Un contenuto generato dall’intelligenza artificiale non è necessariamente falso, e non è detto che sia dannoso. Ma se non sappiamo che origine ha, cambia il nostro modo di leggerlo e di interpretarlo. Viene meno un elemento essenziale di orientamento. E quando questo accade su larga scala, a incrinarsi non è soltanto la qualità dell’informazione, ma anche la sicurezza con cui abitiamo lo spazio pubblico digitale.

Questo il passaggio più importante che abbiamo davanti. Non basta più domandarsi se un contenuto sia interessante, coinvolgente o virale. Dobbiamo tornare a chiederci se sia vero, se sia stato alterato, se dietro quell’immagine o quella voce ci sia una persona reale oppure un sistema artificiale. L’intelligenza artificiale non cambia solo il modo in cui produciamo contenuti. Cambia anche il modo in cui siamo chiamati a leggerli. E la sfida dei prossimi anni sarà proprio questa, imparare a vivere in un ambiente digitale in cui la distinzione tra autentico e sintetico non potrà più essere data per scontata.