Home
/
Technology

Terungkap Penyebab Taylor Swift Gugat Microsoft

Terungkap Penyebab Taylor Swift Gugat Microsoft
Dythia Novianty15 September 2019
Bagikan :

Pengacara Taylor Swift dikabarkan telah mengirimkan email berisi somasi, menggugat Microsoft gara-gara teknologi kecerdasan buatan (artificial intelligence/AI) chatbot bernama Tay yang dibuat oleh Microsoft.

Sebagai informasi, chatbot Tay adalah AI yang didesain untuk menjadi teman chatting para remaja di media sosial. Namun, pengguna Twitter berhasil membuat chatbot itu menjadi sosok yang rasis dan bahkan membenci manusia.

Kurang dari sehari, pengguna Twitter ramai-ramai membuat percakapan dengan chatbot Tay. Dalam beberapa percakapan, Tay bisa menjadi sosok yang sangat manis. Tapi di sisi lainnya, ia juga kerap melontarkan ujaran-ujaran kebencian berbau SARA yang bisa memicu amarah orang-orang.

Bahkan, percakapan Tay di Twitter menjadi viral setelah warganet mengunggah screenshot isi twit yang dilontarkan chatbot tersebut.

Saking viralnya, Presiden Microsoft Brad Smith menerima email dari salah satu pengacara Taylor Swift yang meminta perusahaan mengganti nama chatbot tersebut.

Email itu menyebutkan bahwa Tay merupakan sapaan akrab Taylor Swift sehingga chatbot itu identik dengan sang penyanyi. Mereka menilai hal ini bisa merusak nama baik pelantun lagu "Shake It Off" tersebut.

“Penggunaan nama Tay dianggap menciptakan persepsi yang salah dan menyesatkan antara penyanyi Taylor Swift dan robot kami, dan itu melanggar hukum federal dan hukum negara bagian,” ujar Smith seperti dilansir dari The Verge.

Salah satu kantor Microsoft. [Shutterstock]
Preview
Salah satu kantor Microsoft. [Shutterstock]

Secara teknis, Chatbot AI memang diprogram terlebih dahulu lewat machine learning untuk bisa berkomunikasi layaknya manusia. Dalam kasus chatbot Tay, ia menjadi sosok yang rasis dan membenci manusia karena ia belajar dari warganet yang berinteraksi dengannya. Artinya, warganet-lah yang membuat chatbot menjadi mesin penyebar kebencian.

Untuk meredam situasi, Microsoft telah meminta maaf kepada seluruh pihak yang merasa tersinggung atas percakapan yang dibuat oleh chatbot miliknya. Saat ini, chatbot Tay jiga sudah dinonaktifkan dan tidak lagi beroperasi.

 

Berita Terkait:

populerRelated Article