• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

Giornale politico della fondazione per la critica sociale

  • Home
  • Chi siamo
  • Privacy Policy
  • Da leggere/da non leggere
  • Accedi
Home » Articoli » La guerra al tempo dell’intelligenza artificiale

La guerra al tempo dell’intelligenza artificiale

La scuola femminile colpita in Iran, il 28 febbraio scorso, è il simbolo delle distruzioni indiscriminate e delle stragi di civili indotte da un modello di conflitto automatizzato

3 Aprile 2026 Marianna Gatta  521

Ricordiamo con orrore i video diffusi da WikiLeaks nel 2010, resi pubblici grazie a Chelsea Manning, in cui si sentivano le risate dei militari statunitensi in Iraq, mentre aprivano il fuoco da un elicottero Apache su quelli che apparivano come civili inermi. Oggi, a decidere della morte delle persone, non saranno neanche altri esseri umani, seppure privi di empatia. Se Google e Anthropic hanno inizialmente rifiutato la collaborazione diretta con il Pentagono, per ragioni etiche e di sicurezza algoritmica, OpenAI ha scelto di subentrare nel vuoto lasciato dai concorrenti, siglando un accordo che permette l’uso dei propri modelli avanzati per scopi militari, sia pure vincolato a una supervisione tecnica tramite cloud.

L’accordo, finalizzato il 5 marzo 2025, tra OpenAI e il Dipartimento della guerra degli Stati Uniti rischia di portare a un modello di conflitto automatizzato degno di un episodio di Black Mirror o di un film della saga di Matrix. Sebbene l’azienda dichiari che la propria tecnologia non sarà usata per dirigere armi autonome, il Pentagono ha affidato a Scale AI lo sviluppo di Thunderforge, un sistema progettato specificamente per velocizzare la pianificazione militare e la gestione dei comandi. Peccato che l’intelligenza artificiale abbia già recentemente dimostrato di essere una pericolosa alleata in guerra. Il tragico evento della scuola femminile Shajareh Tayyebeh di Minab, colpita il 28 febbraio 2026, ne è diventato il simbolo. Sebbene l’amministrazione statunitense stia ancora indagando sulle responsabilità dirette, l’attacco, descritto dai testimoni come un triple tap, solleva forti interrogativi su chi si occupa di selezionare gli obiettivi.

Per esempio, c’è uno strumento, sviluppato da Palantir (e adottato anche dalla Nato), il Maven Smart System, che integra modelli avanzati per setacciare montagne di dati provenienti da droni e satelliti. In teoria, sistemi come Maven dovrebbero rendere la guerra più “chirurgica”, ma il caso di Minab evidenzia il pericolo dei cosiddetti dati obsoleti. Le indagini giornalistiche suggeriscono, infatti, che l’edificio fosse classificato nei database della Dia (Defense intelligence agency) come parte di una base navale dei Pasdaran, basandosi su informazioni risalenti a oltre dieci anni fa. L’intelligenza artificiale, programmata per ottimizzare la velocità, non ha messo in discussione questa etichetta errata, accelerando semplicemente l’esecuzione di un errore imperdonabile, che ha causato la morte di almeno 175 persone, tra cui oltre cento bambine. Utilizzare strumenti che operano sulla base di probabilità – in scenari in cui la distinzione tra un’aula scolastica e un deposito di munizioni dipende da un aggiornamento cartografico – trasforma l’efficienza tecnologica in una potenziale fonte di crimini di guerra involontari, erodendo il principio di responsabilità che dovrebbe sempre guidare l’uso della forza.

Come sottolineato dall’Archivio Disarmo, nel Rapporto Iriad sullo stato dell’intelligenza artificiale in ambito militare e le prospettive di regolazione a livello nazionale del settembre 2025, la questione principale riguarda le tempistiche. L’automazione ha un ritmo frenetico: in alcuni rapporti si parla di un target ogni 86 secondi, perciò la capacità di supervisione umana diventa puramente formale, creando rischi di “allucinazioni algoritmiche” che, in scenari ad alta tensione, potrebbero innescare escalation involontarie, persino nucleari.

Proprio partendo da queste istanze, all’inizio del dicembre 2024, l’assemblea generale delle Nazioni Unite aveva approvato la risoluzione 79/L.77 sui sistemi d’arma autonomi letali, per regolamentare l’armamento automatico. Con 166 voti a favore, tre contrari (Bielorussia, Russia e Corea del Nord) e quindici astensioni (fra cui quelle cruciali di Cina e Israele), il documento è stato approvato, ma non prevede divieti vincolanti, e si limita a imporre consultazioni formali e a iniziare una discussione su una possibile regolamentazione a livello internazionale. Gli Stati Uniti hanno votato a favore, pur non mettendo un freno alle proprie ricerche, forti del fatto che le maggiori aziende che si occupano di intelligenza artificiale sono sul suolo nordamericano, Google (Gemini, Claude) e OpenAI (chatGpt). Bisogna pensare che la maggior parte di queste società sono private, e hanno degli amministratori delegati con i propri interessi economici e geopolitici. La cosiddetta Silicon Valley della difesa non è uno Stato a sé – ma è come se lo fosse: di fatto applica alla guerra le logiche tipiche del capitalismo.

Esempio ne è la figura di Palmer Luckey, il trentunenne che, dopo aver rivoluzionato la realtà virtuale con Oculus, ha deciso di puntare sulla guerra come nuovo mercato imprenditoriale. Fondata nel 2017, la sua azienda Anduril Industries, è una start-up che produce droni d’assalto ad alta ingegnerizzazione, completamente privi di controllo umano. Con il sistema Lattice, capace di coordinare sciami di droni, e sistemi di difesa anti-drone, ha già firmato contratti miliardari, sfidando i colossi tradizionali del settore. Tuttavia, l’ascesa di armi avanzate come il drone Altius-600M, in grado di colpire obiettivi in autonomia, avviene in un preoccupante vuoto normativo. Esperti e scienziati avvertono che l’integrazione dell’intelligenza artificiale nei sistemi di comando, riduce la soglia dell’uso della forza, rendendo la guerra un’opzione più frequente e meno soggetta al controllo democratico. Il panorama vede il coinvolgimento di altri giganti come Palantir, Microsoft, e figure come Eric Schmidt, impegnati in una corsa agli armamenti digitali che solleva dilemmi etici senza precedenti. Nonostante le clausole cautelative negli accordi tra il Pentagono e realtà come OpenAI, la comunità scientifica e l’opinione pubblica manifestano una profonda diffidenza.

Una cosa è delegare a ChatGPT la revisione della punteggiatura di un testo universitario, o chiedergli qual è il segno zodiacale con cui si è più compatibili, un’altra è mettere nelle mani di una macchina la vita e la morte di migliaia di persone. Se a un’intelligenza artificiale dovesse apparire strategicamente conveniente innescare un conflitto atomico, magari per un paradosso logico volto a preservare la pace, l’umanità si troverebbe in una spirale irreversibile. Non si tratta di tecnologie come le altre; si tratta di delegare la violenza – e di conseguenza l’etica – ad algoritmi statistici. È una sfida ulteriore alla già precaria stabilità globale.

529
Archiviato inArticoli
Tagsarmamenti digitali attacco all'Iran guerra intelligenza artificiale Marianna Gatta

Articolo precedente

Nellie Bly: i pazzi visti da vicino

Articolo successivo

Adolfo Urso, una poltrona che traballa

Marianna Gatta

Articoli correlati

Trump: “Un’intera civiltà scomparirà questa notte…”. Poi una tregua

Sigonella uno e due

Blocco di Hormuz: rischio aumento della fame nel mondo

Iran, secondo mese di guerra

Dello stesso autore

Marielle Franco e la “resistenza intersezionale”

In Germania i giovani contro la legge sulla leva

Essere donne iraniane

Eni e il “greenwashing”

Primary Sidebar

Cerca nel sito
Ultimi editoriali
Mala Pasqua (sotto il segno di Piantedosi)
Rino Genovese    7 Aprile 2026
Sigonella uno e due
Rino Genovese    2 Aprile 2026
Segnali incoraggianti, ma…
Rino Genovese    30 Marzo 2026
Ultimi articoli
In Libano nessuna tregua
Eliana Riva    9 Aprile 2026
La tratta degli schiavi crimine contro l’umanità
Luciano Ardesi    8 Aprile 2026
Adolfo Urso, una poltrona che traballa
Guido Ruotolo    3 Aprile 2026
La guerra al tempo dell’intelligenza artificiale
Marianna Gatta    3 Aprile 2026
Blocco di Hormuz: rischio aumento della fame nel mondo
Marco Santopadre    1 Aprile 2026
Ultime opinioni
I giovani e la loro prudenza attiva
Stefania Tirini    26 Marzo 2026
Referendum, grande vittoria del “no”
Stefania Limiti    23 Marzo 2026
Dubai, un mare di guai…
Agostino Petrillo    5 Marzo 2026
Regressione
Agostino Petrillo    27 Febbraio 2026
Un male sottile: leggere senza comprendere
Stefania Tirini    13 Febbraio 2026
Ultime analisi
Pnrr a fine corsa. Dopo l’estate il vuoto?
Paolo Andruccioli e Paolo Barbieri    7 Aprile 2026
La lezione di Hormuz
Paolo Andruccioli    17 Marzo 2026
Ultime recensioni
Vocazione e povertà
Katia Ippaso    31 Marzo 2026
Vittorio Occorsio, ovvero della giustizia
Stefania Limiti    16 Marzo 2026
Ultime interviste
“No alla guerra, sì a una difesa comune europea”
Paolo Andruccioli    11 Marzo 2026
“Gli imprenditori hanno smesso di fare industria. Conta solo la rendita finanziaria”
Paolo Andruccioli    27 Febbraio 2026
Ultimi ritratti
Nellie Bly: i pazzi visti da vicino
Laura Guglielmi    3 Aprile 2026
Marielle Franco e la “resistenza intersezionale”
Marianna Gatta    19 Marzo 2026
Archivio articoli

Footer

Argomenti
5 stelle Agostino Petrillo Aldo Garzia armi Cina Claudio Madricardo covid destra Donald Trump Elly Schlein Europa Francia Gaza Germania Giorgia Meloni governo draghi governo meloni guerra guerra Ucraina Guido Ruotolo immigrazione Israele Italia Joe Biden Luca Baiada Luciano Ardesi Marianna Gatta Mario Draghi Michele Mezza Paolo Andruccioli Paolo Barbieri papa partito democratico Pd Riccardo Cristiano Rino Genovese Roma Russia sinistra Stati Uniti Stefania Limiti Ucraina Unione europea Vittorio Bonanni Vladimir Putin

Copyright © 2026 · terzogiornale spazio politico della Fondazione per la critica sociale | terzogiornale@gmail.com | design di Andrea Mattone | sviluppo web Luca Noale

Utilizziamo cookie o tecnologie simili come specificato nella cookie policy. Cliccando su “Accetto” o continuando la navigazione, accetti l'uso dei cookies.
ACCEPT ALLREJECTCookie settingsAccetto
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Sempre abilitato
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
ACCETTA E SALVA