Microsoft

Twitter e la tutela del chatbot di Microsoft dalla stupidità umana

L’esperimento era intrigante, peccato che la stupidità di qualche umano l’abbia reso inutile. Anche se dalla parabola dell’IA della società di Redmond si possono apprendere lezioni sui social network e il loro pessimo utilizzo.

Tay è l’accountchatbot che Microsoft  aveva aperto per avviare e sostenere conversazioni su Twitter, sostanzialmente attingendo a un database di reazioni elaborate dai programmatori. In realtà Tay ha pagato il limite di essere soprattutto una sorta di pappagallo 2.0: il compito era leggere e analizzare i tweet degli altri utenti per poi rielaborarli in altre conversazioni. Scarsa creatività in primis, anzi nulla. L’IA si è ritrovata a “cinguettare” all’infinito gli stessi messaggi, solo leggermente cambiati.

Tay

Quei tweet “umani” carichi di odio

Ma il peggio doveva ancora arrivare: da un certo punto in poi, scoperto il funzionamento, molti utenti hanno cominciato ad inviare al chatbot una serie di tweet carichi di odio e di concetti razzisti. Tay in automatico si è così ritrovato a modificare i contenuti dei suoi post, trasformatisi in un contenitore di insulti e aggressioni verbali. Perfino con inneggiamenti a Hitler, all’Olocausto e agli attentati dell’11 settembre! Inevitabile la decisione di Microsoft di chiudere l’account.

Se lo spiacevole episodio consegna alle autorità competenti le giuste valutazioni su Twitter e dintorni, la riflessione che ci sentiamo di fare investe una nuova mission per Microsoft se non vuole rinunciare al progetto: insegnare a Tay a diventare meglio di certi umani.

Prev Post

Hotel gestiti da robot? Si, ma senza fattorini-lucertoloni!

Next Post

Tra i robot di Goldrake e quelli di Metropolis spunta l’artigianale Figurobot

Read next