Pin It

 

di  Massimo Reina 

C’era una volta l’intelligenza artificiale che prometteva di “migliorare il mondo”.

Era il mantra della Silicon Valley: algoritmi per la conoscenza, per la medicina, per la scienza, per aiutare l’umanità a capire se stessa. Poi, come spesso accade quando l’idealismo incontra il Pentagono, il sogno si è trasformato in contratto. E il contratto in un problema.

Nei giorni scorsi è emersa la notizia che OpenAI ha raggiunto un accordo con il Dipartimento della Difesa degli Stati Uniti per distribuire i suoi modelli di intelligenza artificiale nelle reti classificate del governo americano.

Il risultato? Una piccola fuga di utenti trasformata in esodo digitale: le disinstallazioni di ChatGPT sono aumentate fino al 295% in un solo giorno, un dato che rompe la media abituale del 9%.  Ma il punto non è l’App Store. Il punto è la storia.

Dalla promessa umanitaria al complesso militare-digitale

OpenAI nasceva come laboratorio quasi filantropico: creare un’intelligenza artificiale “a beneficio dell’umanità”. Poi il mercato ha bussato alla porta. E dietro il mercato, come sempre, c’era lo Stato più armato del pianeta. Negli ultimi anni la stessa OpenAI ha progressivamente rimosso i divieti espliciti sull’uso militare dei suoi modelli, aprendo la strada alla collaborazione con il settore della difesa.

La svolta definitiva è arrivata quando la rivale Anthropic ha detto al Pentagono: “No, la nostra AI non sarà usata per sorveglianza di massa o armi autonome”. Risultato? Gli americani hanno semplicemente cambiato fornitore. E così OpenAI ha riempito il vuoto lasciato da Anthropic, firmando un accordo che permette al governo USA di utilizzare i modelli AI nelle sue reti classificate.

Il mercato funziona così: se qualcuno rifiuta il contratto con il complesso militare-industriale, c’è sempre qualcun altro pronto a firmarlo.

Il vero rischio: l’IA nella catena di morte

Non si tratta di paranoia tecnofobica. Negli ultimi anni gli eserciti stanno integrando sempre più AI nella cosiddetta “kill chain”, cioè la catena decisionale che porta all’identificazione e all’eliminazione di un bersaglio.

Tradotto in linguaggio umano: algoritmi che aiutano a scegliere chi colpire. E qui cominciano i problemi. Perché l’intelligenza artificiale non ragiona: calcola. E quando si tratta di guerra, calcolare significa ridurre vite umane a variabili statistiche.

Il rischio è una guerra più veloce, più automatica, più opaca.
Una guerra dove la responsabilità si disperde tra codici, contractor e server.

Sorveglianza: l’altra faccia della medaglia

Il secondo rischio è ancora più inquietante. Diversi osservatori temono che gli accordi con il governo possano aprire la porta a sistemi di sorveglianza automatizzata su larga scala, capaci di analizzare enormi quantità di dati personali.

In pratica: analisi automatica di comunicazioni, profilazione comportamentale, identificazione di sospetti tramite AI. Un sogno per ogni apparato di sicurezza.
Un incubo per ogni democrazia. Perché la tecnologia che analizza una minaccia militare oggi può analizzare il dissenso politico domani.

La nuova corsa agli armamenti

Il problema non riguarda solo gli Stati Uniti. L’intelligenza artificiale è diventata il nuovo terreno della corsa agli armamenti globale, con potenze come USA, Cina e Russia impegnate a sviluppare sistemi sempre più avanzati.

Chi domina l’AI dominerà la geopolitica del XXI secolo. E come in tutte le corse agli armamenti, il rischio non è solo la tecnologia.
È la velocità. Quando tutti corrono, nessuno frena. Il dettaglio più inquietante di tutta questa vicenda non è il contratto.

È il potere.

Il futuro dell’intelligenza artificiale — e forse della guerra — è oggi nelle mani di pochissime aziende private e di pochissimi governi. Non parlamento. Non cittadini.
Non istituzioni democratiche globali.

Ma una ristretta oligarchia di CEO, generali e venture capitalist. E se un giorno un algoritmo dovesse decidere chi è un nemico?
Chi sarà responsabile? Il programmatore? Il generale? Il ministro? O il server?

Il vero scandalo non è che milioni di persone disinstallino un’app. Il vero scandalo è che l’intelligenza artificiale, la tecnologia più potente mai creata dall’uomo, stia entrando silenziosamente nell’apparato militare più potente del mondo.

E tutto questo senza un vero dibattito pubblico globale. Perché alla fine la domanda non è tecnologica. È politica. Chi controllerà l’intelligenza artificiale? O, peggio ancora: chi controllerà chi la controlla?

 

Pin It
Info Autore
Massimo Reina
Author: Massimo Reina
Biografia:
Giornalista, scrittore e Social Media Editor, è stata una delle firme storiche di Multiplayer.it, ma in vent’anni di attività ha anche diretto il settimanale Il Ponte e scritto per diversi siti, quotidiani e periodici di videogiochi, cinema, società, viaggi e politica. Tra questi Microsoft Italia Tecnologia, Game Arena, Spaziogames, PlayStation Magazine, Kijiji, Movieplayer.it, ANSA, Sportitalia, TuttoJuve e Il Fatto Quotidiano. Adesso che ha la barba più bianca, ascolta e racconta storie, qualche volta lo fa con le parole, altre volte con i video. Collabora con il quotidiano siriano Syria News e il sito BianconeraNews, scrive per alcune testate indipendenti come La Voce agli italiani, e fa parte, tra le altre cose, dell'International Federation of Journalist e di Giornalisti Senza Frontiere. Con quest’ultimo editor internazionale è spesso impegnato in scenari di guerra come inviato, ed ha curato negli ultimi 10 anni una serie di reportage sui conflitti in corso in Siria, Libia, Libano, Iraq e Gaza.
I Miei Articoli


Notizie

Visitatori

Today 407

Yesterday 337

Week 407

Month 8122

All 26897

Currently are 41 guests and no members online

Kubik-Rubik Joomla! Extensions