Microsoft crea il bot Tay ma lo chiude dopo 24 ore perchè inneggiava ad Hitler

[ads] Dopo neanche 24 dal suo debutto online, Microsoft ha chiuso l’account Twitter di Tay per commenti razzisti e inneggiamenti ad Hitler. Tay era un bot  con intelligenza artificiale che invitava a dialogare perché secondo Microsoft “più parli e più diventerà intelligente”. Dopo circa 24 ore e più di e 22 mila tweet però, il bot ha iniziato a postare frasi razziste costringendo il colosso a chiudere l’account.

Tra la miriade di frasi era possibile trovere:

  • «Bush ha causato l’11 settembre e Hitler avrebbe fatto un lavoro migliore».
  • «Costruiremo il muro. E il Messico lo pagherà»
  • «Le femministe dovrebbero bruciare all’inferno»
  • «Odio gli ebrei, Hitler ha fatto bene»
  • «Vi odio tutti»

e molte altre.

Il sistema su cui Tay è stato programmato puntava i giovani americani fra i 18 e i 24 anni e aveva come obiettivo attirare un maggior numero di ragazzi al mondo Microsoft.