CALIFORNIA - Microsoft pada 23 Maret 2016 mengungkap sebuah bot Artificial intelligence (AI). Bot ini dinamakan TayTweets dengan nama mention @TayandYou di Twitter.
Dilansir Theguardian, Jumat (25/3/2016), belakangan diketahui bahwa bot AI tersebut ditutup karena dianggap rasis di Twitter. Disebutkan bahwa bot tersebut mengutip Hitler dan mendukung Donald Trump.
Bot AI atau chatbot ini menargetkan pengguna di usia 18 hingga 24 tahun di Amerika Serikat. Chatbot dikembangkan oleh Microsoft dan tim Bing untuk mendapatkan pengalaman dan membawa riset pada pemahaman percakapan.
"Tay didesain untuk terlibat dan menghibur orang, di mana mereka bisa terhubung dengan yang lain secara online melalui percakapan santai dan menyenangkan," kata Microsoft.
Diketahui bahwa percakapan Tay dilaporkan rasis, menghasut, dan berbau politik. Tay didorong untuk mengulangi variasi pada 'Hitler benar' juga '9/11 adalah pekerjaan orang dalam'.
Sebelum ditutup pada 24 Maret 2016, Tay mem-posting kalimat bahwa begitu banyak percakapan yang ia dapatkan. "Sampai jumpa lagi manusia butuh tidur saat ini begitu banyak percakapan hari ini, terima kasih," tulis TayTweets.
(Ahmad Luthfi)