IULM AI LAB

Blog

Le nuove armi sono davvero intelligenti?

Giu 7, 2021

Le nuove armi

La guerra non è mai intelligente, per nessuna ragione. Eppure l’uomo continua a perpetrarla in diverse zone del pianeta. Dopo gli scontri tra Israele e Palestina il dibattito sull’utilizzo di armamenti “intelligenti” si è fatto incalzante a livello globale. Questo è dovuto sopratutto ad alcune tragiche conseguenze avvenute durante i bombardamenti, come l’erroneo abbattimento di aerei civili, evidenziando l’assoluta urgenza nel definire una regolamentazione internazionale.

Come viene dichiarato dalla rivista LeScienze nell’articolo “Sistemi d’arma intelligenti, ma non troppo” di Ingvild Bode e Tom Watts, molte nazioni si stanno dotando di armi basate su sistemi di Intelligenza Artificiale in grado di individuare il bersaglio in modo autonomo, ma rendendo conseguentemente inefficace qualsiasi supervisione umana.

Alcuni centri di monitoraggio statunitensi segnalano che molti eserciti stanno dotando i propri arsenali di funzionalità autonome di individuazione e puntamento, come ad esempio la nave Americana Vincennes, equipaggiata con sistemi di difesa aerea Patriot, che però riducono il ruolo degli osservatori umani alla semplice decisione finale di annullamento o lancio.

Le nuove armi dell’era contemporanea: rischio o opportunità?

Uno studio sui sistemi di difesa aerea evidenzia tre problemi concreti nell’interazione tra uomo e macchina, che potrebbero portare a un graduale peggioramento nell’integrazione dei sistemi di AI negli apparati militari:

  • Decisioni di puntamento opache: gli addetti alla difesa aerea trovano difficoltà a valutare correttamente le decisioni prese dai sistemi intelligenti in merito al puntamento dei bersagli. Questo aspetto è dovuto alla complessità di funzionamento interno del sistema che viene sottovalutato dagli operatori umani. Questi ultimi non ponendo l’opportuna attenzione agli inviti alla cautela comunicati dalla tecnologia, rischiano di generare incidenti legati al cosiddetto “fuoco amico” (come viene descritto nel documento PATRIOT WARS Automation and the Patriot Air and Missile Defense System di Dr. John K. Hawley);
  • Se gli operatori perdono la consapevolezza della situazione: con l’avvento dei sistemi automatici i compiti assegnati agli operatori umani stanno diventando eccessivi o insufficienti rispetto a quelli delegati alla macchina. Questo cambio di paradigma provoca una perdita di consapevolezza per gli operatori umani e rischia di rendere quasi impossibile mettere in discussione i risultati dei sistemi, oltre che confermare in modo certo l’appropriatezza di determinati bersagli. (Toward a Theory of Situation Awareness in Dynamic Systems di Mica R. Endsley)
  • Tempi troppo stretti: i progressi tecnologici riguardanti la velocità e la manovrabilità dei moderni armamenti hanno ridotto il tempo a disposizione degli addetti nel decidere se autorizzare o meno l’uso della forza. In tal senso è importante sottolineare quanto sia elevata la pressione mentale su chi deve prendere decisioni critiche in scenari di combattimento fortemente stressanti.

La necessità di una regolamentazione internazionale

Nel complesso queste tre difficoltà sollevano una questione di cruciale importanza. Fino a che punto gli esseri umani possono esercitare un controllo significativo sugli attuali sistemi di individuazione e puntamento?

Purtroppo gli addetti possiedono un ruolo sempre più ridotto nelle decisioni relative all’uso della forza. Proprio per questa ragione dal 2014 le Nazioni Unite discutono la possibilità di regolamentare i sistemi d’arma letale autonomi. Al fine di poterli utilizzare nel rispetto del diritto umanitario internazionale, molti Stati hanno aderito al principio del “controllo umano significativo” (così definito dall’associazione no profit Article 36).

Tuttavia non c’è ancora un accordo su che cosa esattamente renda significativo il controllo umano, perciò i responsabili politici sono chiamati a esaminare attentamente sia i precedenti legati all’uso dei sistemi autonomi, sia il modo in cui queste tecnologie stanno alterando il rapporto tra essere umano e macchina, allo scopo di regolamentare le prassi relative al controllo umano nell’utilizzo di armi letali.

L’intelligenza artificiale non è pericolosa di per sé, come non lo è nessuna tecnologia avanzata. Se inserita però in alcuni contesti può diventarlo. Proprio per questo motivo l’appello che viene fatto a livello internazionale possiede un’importante centralità al fine di regolamentare una maggior consapevolezza all’uso dell’intelligenza umana in ambiti così sensibili e rischiosi.

Desideri migliorare il tuo Business attraverso soluzioni di Intelligenza Artificiale? IULM AI Lab può fornire a te e alla tua azienda tutto il supporto necessario per comprendere e cogliere le opportunità di questa tecnologia. Scopri le nostre aree di attività e tutti i nostri corsi.

La formazione

Creiamo cultura sull'AI per aumentare la competitività delle imprese e del sistema paese 

La formazione

Creiamo cultura sull'AI per aumentare la competitività delle imprese e del sistema paese