Facebook si è trovata costretta a bloccare i test sull’Intelligenza Artificiale dopo che due bot avevano creato un linguaggio tutto loro, incomprensibile all’uomo.
Facebook ha fermato un esperimento sull’intelligenza artificiale durante il quale alcuni bot avrebbero iniziato a comunicare fra di loro attraverso un linguaggio totalmente sconosciuto all’uomo. Nei mesi scorsi, infatti, gli sviluppatori di Facebook avevano iniziato a lavorare su alcuni sistemi di intelligenza artificiale in grado di dialogare tra loro in inglese e condurre semplici trattative per diversi ad esempio degli oggetti.
All’inizio tutto sembrava procedere per il meglio, poi all’improvviso è accaduto un fenomeno imprevisto: le due intelligenze artificiali hanno iniziato ad usare un linguaggio totalmente nuovo inventato da loro. Questo ha allarmato i ricercato che hanno quindi interrotto la sperimentazione.
La conversazione tra i due bot è apparsa così agli sviluppatori:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
A preoccupare i ricercatori che hanno condotto il test è stato il fatto che il lingua usato dai bot, nonostante non avesse un senso compiuto per gli esseri umani, non sembrava essere del tutto casuale. Le parole usate erano ordinate in modo diverso e la spiegazione potrebbe essere che le macchine seguono dei codici ancora poco conosciuti dall’uomo.
Questa notizia non fa altro che confermare le paure inerenti ad uno sviluppo incontrollato delle intelligenze artificiali. Potrebbero le macchine, un giorno, ribellarsi all’uomo? Questo è il timore che hanno scienziati del calibro di Stephen Hawking e Elon Musk.
Mike Lewis, responsabile del programma Facebook AI Research, ha spiegato:
“Il nostro interesse è che i bot possano un giorno parlare alla gente, soddisfare le loro richieste.”
Attraverso degli algoritmi, i bot affinano le loro capacità e poi vengono lasciati da soli in modo che possano confrontarsi e sviluppare le loro capacità di linguaggio e negoziazione in maniera totalmente autonoma. Possibilmente in questo caso i due bot hanno creato un linguaggio più familiare e veloce per coprire i loro obiettivi.
Secondo Dhruv Batra, ricercatore di Facebook, che ha seguito il caso, è molto rumore per nulla: sulla sua pagina Facebook, ha invitato gli utenti a consultare le vere ricerche sul tema e a non farsi fuorviare dagli articoli. Lo studio nel campo dell’intelligenza artificiale da parte del social network non si ferma certo a causa di questo episodio:
I have just returned from CVPR to find my FB/Twitter feed blown up with articles describing apocalyptic doomsday…
Gepostet von Dhruv Batra am Montag, 31. Juli 2017
“Non voglio linkare ad articoli specifici o procurare specifiche risposte per timore di continuare questo ciclo di frasi estrapolate dal contesto, in ogni caso trovo che il modo in cui i media si sono occupati della questione sia irresponsabile e votato al clickbait. Sebbene l’idea che le macchine inventino un loro linguaggio possa sembrare allarmante o sorprendente per alcune persone non del campo, è un settore dell’intelligenza artificiale ben solido, che ha alle spalle pubblicazioni e ricerche di anni. Semplicemente alcuni bot a cui viene chiesto di svolgere un compito spesso trovano dei modi non intuitivi per raggiungere il risultato. Cambiare i parametri dell’esperimento NON significa ‘fermare l’intelligenza artificiale’ o staccargli la spina, come è stato scritto. Se fosse questo il caso, ogni sviluppatore in questo campo dovrebbe lasciare tutto ogni volta che un lavoro non raggiunge l’obiettivo”.