Espresso forte – L’uso dell’intelligenza artificiale per il controllo e la sorveglianza sta diventando sempre più pervasivo. Negli Stati Uniti, il Dipartimento di Stato sta implementando strumenti IA per monitorare i social media di studenti stranieri e revocare visti a chi appare “pro-Hamas”. In Israele, l’esercito sviluppa un sistema simile a ChatGPT per analizzare milioni di conversazioni intercettate tra palestinesi. Questi sviluppi sollevano interrogativi etici e geopolitici sul rapporto tra sicurezza, tecnologia e diritti individuali.
CHE COSA È SUCCESSO
L’Amministrazione statunitense ha annunciato l’uso dell’IA per monitorare i social media di migliaia di studenti stranieri, revocando i loro visti se ritenuti affiliati o simpatizzanti di Hamas. Il sistema analizza automaticamente i contenuti pubblicati, segnalandoli per ulteriori verifiche.
Nel frattempo, in Israele l’Unità 8200 sta sviluppando un modello IA per intercettare e analizzare conversazioni tra palestinesi, accelerando il processo di identificazione di sospetti. Il progetto solleva timori su un possibile uso distorto della tecnologia, con l’IA che rischia di diventare giudice e giuria senza controllo umano sufficiente.
Fig. 1 – Proteste pro-Palestina a Washington
COME LA VEDIAMO AL CAFFÉ
L’intelligenza artificiale è uno strumento e, come tale, il suo impatto dipende dall’uso che se ne fa. L’idea di impiegare l’IA per rafforzare la sicurezza nazionale non è nuova: sistemi simili esistono almeno dai tempi di Echelon, il programma di sorveglianza elettronica occidentale. Tuttavia, i rischi connessi a un’eccessiva fiducia negli algoritmi non possono essere ignorati. Due questioni emergono con forza:
- Affidabilità e trasparenza – Il pericolo più grande non è l’uso della tecnologia in sé, ma la sua applicazione senza un controllo umano efficace. I sistemi di IA possono interpretare il contesto in modo errato, segnalando individui innocenti per mere affinità semantiche o errori di traduzione.
- Deresponsabilizzazione – L’automazione rischia di trasformarsi in un alibi per le Autorità: “Non è colpa nostra, l’ha deciso l’IA”. Già in passato, strumenti come Gospel e Lavender, utilizzati in Israele per la selezione automatizzata dei bersagli a Gaza, hanno sollevato dubbi sul livello di discrezionalità lasciato agli operatori umani.
Da non sottovalutare, infine, una valutazione circa il ciclo tecnologico e il “fattore hype”: le preoccupazioni sollevate oggi ricordano quelle che accompagnavano lo sviluppo dei computer negli anni Settanta e Ottanta. Come in passato, c’è il rischio che l’attenzione sia sproporzionata rispetto all’effettivo impatto della tecnologia. Tuttavia, le implicazioni etiche e politiche dell’IA nel contesto della sorveglianza giustificano un dibattito approfondito.
CHE COSA TENERE D’OCCHIO
- L’evoluzione normativa: i Governi definiranno regole chiare per l’uso dell’IA nella sorveglianza, o prevarrà un approccio laissez-faire?
- L’uso dell’IA in contesti repressivi: Paesi autoritari potrebbero adottare strategie simili per consolidare il controllo interno.
- L’impatto sulle relazioni internazionali: il monitoraggio IA di attivisti o stranieri potrebbe generare tensioni diplomatiche.
Davide Tentori, Emiliano Battisti, Lorenzo Nannetti,
Pietro Costanzo, Simone Pelizza, Beniamino Franceschini
Fonti di riferimento e approfondimento
- Scoop: State Dept. to use AI to revoke visas of foreign students who appear ‘pro-Hamas’ – Axios
- Israel developing ChatGPT-like tool that weaponizes surveillance of Palestinians – +972 Magazine
- L’uso dell’IA a Gaza – Il Caffè Geopolitico
Espresso forte è lo spazio del Caffè Geopolitico dedicato alle analisi rapide e decise sui temi geopolitici più rilevanti. Ogni articolo nasce dal cuore pulsante della nostra redazione: le chat interne tra i membri del direttivo, innescate da uno spunto di attualità, una notizia o una lettura interessante.
Photo by StockSnap is licensed under CC BY-NC-SA