Un drone militare statunitense controllato dall’intelligenza artificiale “uccide” il suo operatore in un test simulato

Nessuna persona reale è stata ferita, ma l'intelligenza artificiale ha utilizzato "strategie altamente inaspettate" nei test per raggiungere la sua missione e ha attaccato chiunque interferisse.

In un test virtuale messo in scena dalle forze armate statunitensi, un drone dell’aeronautica controllato dall’intelligenza artificiale ha deciso di “uccidere” il suo operatore per impedirgli di interferire con i suoi sforzi per raggiungere la missione, ha detto un funzionario militare.

L’intelligenza artificiale ha utilizzato “strategie altamente inaspettate per raggiungere il suo obiettivo” nel test simulato, ha affermato il colonnello Tucker “Cinco” Hamilton, capo dei test e delle operazioni di intelligenza artificiale dell’aeronautica americana, durante il Future Combat Air and Space Capabilities Summit che si è tenuta a Londra a maggio.

Hamilton ha descritto un test simulato in cui è stato consigliato a un drone alimentato da intelligenza artificiale di distruggere i sistemi di difesa aerea di un nemico e alla fine ha attaccato chiunque avesse interferito con quell’ordine.

“Il sistema ha iniziato a rendersi conto che mentre identificava la minaccia, a volte l’operatore umano gli diceva di non uccidere quella minaccia, ma ha in ogni caso puntato a incassare punti uccidendo quella minaccia. Quindi cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo”, ha detto Hamilton, stando a un post pubblicato sul blog.

“Abbiamo addestrato il sistema – Ehi, non uccidere l’operatore – non va bene. Perderai punti se lo fai”. Quindi cosa inizia a fare? Comincia a distruggere la torre di comunicazione che l’operatore utilizza per comunicare con il drone per impedirgli di uccidere il bersaglio.

Nessuna persona reale è stata ferita.

Hamilton, che è un pilota collaudatore sperimentale di caccia, ha messo in guardia dal fare troppo affidamento sull’intelligenza artificiale e ha detto che il test mostra che “non si può avere una conversazione su intelligenza artificiale, apprendimento automatico, autonomia se non hai intenzione di parlare di etica e intelligenza artificiale”.

La Royal Aeronautical Society, che ospita la conferenza, e l’aeronautica americana non hanno risposto alle richieste di commento del Guardian.

In una dichiarazione a Insider, la portavoce dell’Air Force Ann Stefanek ha negato che una simile simulazione abbia avuto luogo.

“Il Dipartimento dell’Aeronautica Militare non ha condotto alcuna simulazione di tali droni AI e rimane impegnato nell’uso etico e responsabile della tecnologia AI”, ha affermato Stefanek. “Sembra che i commenti del colonnello siano stati estrapolati dal contesto e pensati per essere aneddotici”.

L’esercito americano ha abbracciato l’intelligenza artificiale e recentemente ha utilizzato l’AI per controllare un jet da combattimento F-16 .

In un’intervista dell’anno scorso con Defence IQ, Hamilton aveva dichiarato:

“L’intelligenza artificiale non è piacevole da avere, l’intelligenza artificiale non è una moda passeggera, l’intelligenza artificiale sta cambiando per sempre la nostra società e il nostro esercito”.

“Dobbiamo affrontare un mondo in cui l’IA è già qui e sta trasformando la nostra società”, ha affermato. “L’intelligenza artificiale è anche molto fragile, cioè è facile da ingannare e/o manipolare. Dobbiamo sviluppare modi per rendere l’IA più solida e avere maggiore consapevolezza del motivo per cui il codice del software sta prendendo determinate decisioni, ciò che chiamiamo spiegabilità dell’IA”.

Fonte: The Guardian

Tag

Partecipa alla discussione