Accade nel Mondo

Conservate per sempre le conversazioni con ChatGPT

Condividi

Dalla Data Retention a Minority Report: quando la libertà si sacrifica sull’altare del sospetto

Ci sono libertà che muoiono in silenzio. Altre, invece, si spengono con applausi fragorosi. E la cosa inquietante è che, spesso, a spegnerle siamo noi stessi, convinti di farlo per il nostro bene.

Negli ultimi anni abbiamo assistito a un lento e inesorabile slittamento del concetto di privacy, che da diritto inviolabile si è trasformato in concessione temporanea. In Italia, già da tempo, la data retention — ovvero la conservazione obbligatoria dei dati relativi al traffico telefonico e telematico — è stata estesa ben oltre le soglie previste in altri paesi europei, arrivando fino a sei anni per alcune categorie di dati. Una misura nata, si disse, per combattere terrorismo e criminalità organizzata. Ma oggi, mentre un giudice statunitense chiede la conservazione integrale delle interazioni con ChatGPT, comprese quelle eliminate, la domanda ritorna urgente: fino a dove siamo disposti a cedere la nostra libertà in nome della sicurezza?

Il sospetto come paradigma

Nel film Minority Report di Steven Spielberg, tratto da un racconto visionario di Philip K. Dick, la giustizia si basa sull’intercettazione preventiva del crimine: i Pre-Cog — esseri umani dotati di poteri psichici — anticipano gli omicidi, permettendo alla polizia di arrestare i colpevoli prima che agiscano. Ma chi può davvero dire che un pensiero, un’intenzione, un dato generato oggi, rappresenti con certezza un crimine futuro?

Nel momento in cui uno Stato, o una piattaforma, decide di conservare ogni parola, ogni domanda, ogni simulazione generata da un utente, anche se questi ha deciso di cancellarla, si apre una voragine etica. Siamo ancora individui dotati del diritto all’oblio, o stiamo diventando soggetti archiviati in eterno in una memoria di silicio, consultabile a piacimento da chi detiene il potere investigativo?

L’illusione della trasparenza assoluta

Nel caso americano, la motivazione del giudice è processuale: conservare le interazioni di ChatGPT come prove in un procedimento per violazione di copyright. Ma il principio che si fa strada è più inquietante: la possibilità di accedere, retroattivamente e senza consenso, a contenuti che un utente credeva di aver eliminato. In un mondo digitale che prometteva democrazia e autodeterminazione, si erge oggi una nuova forma di sorveglianza, apparentemente neutra, apparentemente giusta. Ma la giustizia senza limiti diventa controllo, e il controllo senza bilanciamento genera terrore.

Così come nel film si arrestavano i futuri colpevoli per “omicidi che non avevano ancora commesso”, oggi si può prefigurare uno scenario in cui la semplice simulazione di un crimine in una chat IA, un’espressione ambigua, un pensiero distopico, diventino indizi sufficienti per aprire un fascicolo, costruire un profilo, limitare la libertà.

L’identità fragile nel tempo digitale

Da psicologo, vedo con inquietudine la deriva di una cultura che non distingue più tra il sé pensato e il sé agito. Tra ciò che si elabora in uno spazio simbolico — come può essere una conversazione con un’IA — e ciò che si mette in atto nel mondo reale. Non è forse il sostegno psicologico, per certi versi, un luogo in cui si esplorano le ombre senza temere giudizi morali o sanzioni?

Ma se ogni pensiero, ogni simulazione, ogni interazione viene cristallizzata, archiviata, potenzialmente utilizzata contro chi l’ha generata, allora non siamo più in uno spazio psichico: siamo in un’aula giudiziaria preventiva, dove la creatività, il dubbio, persino l’ironia possono essere travisati.

Il sospetto come governance

In un’Italia che ha già allungato i tempi della data retention ben oltre quelli previsti dalla Corte di Giustizia dell’Unione Europea, la notizia dell’ordine statunitense su ChatGPT risuona come un’eco familiare. Cambia la forma, ma non la sostanza. Si costruisce un paradigma in cui l’intercettazione preventiva del crimine diventa prassi, e in cui lo Stato si arroga il diritto di conoscere prima ancora che il cittadino scelga. Un paradigma che non ha bisogno dei Pre-Cog: bastano gli algoritmi.

Ma non si può difendere la democrazia scavalcando i diritti su cui essa stessa si fonda. La tutela della collettività non può essere ottenuta attraverso la negazione dell’individuo. È questa la lezione che la nostra civiltà rischia di dimenticare.

Libertà e rischio

La libertà comporta rischio. L’informazione libera comporta anche errori, fake news, persino pericoli. Ma una società che rinuncia alla libertà per inseguire l’illusione di una sicurezza assoluta, finisce col perdere entrambe. Come scriveva Benjamin Franklin: “Chi è disposto a rinunciare alla libertà per ottenere un po’ di sicurezza temporanea, non merita né l’una né l’altra.”

Oggi, mentre conserviamo chat, analizziamo dati, anticipiamo comportamenti, rischiamo di costruire un mondo in cui tutto è previsto e nulla è compreso. Un mondo in cui il libero arbitrio diventa un fastidio da monitorare, piuttosto che un fondamento da proteggere.

E allora, forse, la vera domanda non è “chi ci proteggerà dal crimine?”, ma: chi ci proteggerà dalla giustizia preventiva?

Egidio Francesco Cipriano

 

Fonti e riferimenti


Condividi

Lascia un commento