[ads] Dopo neanche 24 dal suo debutto online, Microsoft ha chiuso l’account Twitter di Tay per commenti razzisti e inneggiamenti ad Hitler. Tay era un bot con intelligenza artificiale che invitava a dialogare perché secondo Microsoft “più parli e più diventerà intelligente”. Dopo circa 24 ore e più di e 22 mila tweet però, il bot ha iniziato a postare frasi razziste costringendo il colosso a chiudere l’account.
Tra la miriade di frasi era possibile trovere:
- «Bush ha causato l’11 settembre e Hitler avrebbe fatto un lavoro migliore».
- «Costruiremo il muro. E il Messico lo pagherà»
- «Le femministe dovrebbero bruciare all’inferno»
- «Odio gli ebrei, Hitler ha fatto bene»
- «Vi odio tutti»
e molte altre.
Il sistema su cui Tay è stato programmato puntava i giovani americani fra i 18 e i 24 anni e aveva come obiettivo attirare un maggior numero di ragazzi al mondo Microsoft.
Microsoft crea il bot Tay ma lo chiude dopo 24 ore perchè inneggiava ad Hitler
[ads] Dopo neanche 24 dal suo debutto online, Microsoft ha chiuso l’account Twitter di Tay per commenti razzisti e inneggiamenti ad Hitler. Tay era un bot con intelligenza artificiale che invitava a dialogare perché secondo Microsoft “più parli e più diventerà intelligente”. Dopo circa 24 ore e più di e 22 mila tweet però, il bot ha iniziato a postare frasi razziste costringendo il colosso a chiudere l’account.
Tra la miriade di frasi era possibile trovere:
e molte altre.
Iniziano i saldi Black Friday Nintendo
Il sistema su cui Tay è stato programmato puntava i giovani americani fra i 18 e i 24 anni e aveva come obiettivo attirare un maggior numero di ragazzi al mondo Microsoft.