Jum'at, 26 April 2024
Agung Pratnyawan : Minggu, 15 September 2019 | 10:30 WIB

Aktifkan Notifikasimu

Jadilah yang pertama menerima update berita penting dan informasi menarik lainnya.

Hitekno.com - Kabarnya, Pengacara Taylor Swift telah melayangkan somasi kepada Microsoft. Kepana tiba-tiba penyanyi ternama ini menggungat perusahaan teknologi?

Ternyata gara-gara teknologi kecerdasan buatan atau Artificial Intelligence (AI) bernama Tay yang dibuat Microsoft.

Sebagai informasi, chatbot Tay adalah AI yang didesain untuk menjadi teman chatting para remaja di media sosial. Namun, pengguna Twitter berhasil membuat chatbot itu menjadi sosok yang rasis dan bahkan membenci manusia.

Kurang dari sehari, pengguna Twitter ramai-ramai membuat percakapan dengan chatbot Tay. Dalam beberapa percakapan, Tay bisa menjadi sosok yang sangat manis.

Tapi di sisi lainnya, ia juga kerap melontarkan ujaran-ujaran kebencian berbau SARA yang bisa memicu amarah orang-orang.

Bahkan, percakapan Tay di Twitter menjadi viral setelah netizen mengunggah screenshot isi twit yang dilontarkan chatbot tersebut.

Saking viralnya, Presiden Microsoft Brad Smith menerima email dari salah satu pengacara Taylor Swift yang meminta perusahaan mengganti nama chatbot Tay tersebut.

Taylor Swift. (Instagram/@taylorswift)

Email itu menyebutkan bahwa Tay merupakan sapaan akrab Taylor Swift sehingga chatbot itu identik dengan sang penyanyi. Mereka menilai hal ini bisa merusak nama baik pelantun lagu "Shake It Off" tersebut.

"Penggunaan nama Tay dianggap menciptakan persepsi yang salah dan menyesatkan antara penyanyi Taylor Swift dan robot kami, dan itu melanggar hukum federal dan hukum negara bagian," ujar Smith seperti dilansir dari The Verge.

Secara teknis, Chatbot AI memang diprogram terlebih dahulu lewat machine learning untuk bisa berkomunikasi layaknya manusia.

Dalam kasus chatbot Tay, ia menjadi sosok yang rasis dan membenci manusia karena ia belajar dari netizen yang berinteraksi dengannya. Artinya, netizen yang membuat chatbot menjadi mesin penyebar kebencian.

Untuk meredam situasi, Microsoft telah meminta maaf kepada seluruh pihak yang merasa tersinggung atas percakapan yang dibuat oleh chatbot miliknya. Saat ini, chatbot Tay jiga sudah dinonaktifkan dan tidak lagi beroperasi.

Itulah chatbot Tay yang jadi pemicu Taylor Swift ingin menggugat Microsoft. (Suara.com/ Tivan Rahmat).

BACA SELANJUTNYA

Microsoft Rilis Pembaruan Bing Chat Baru, Widget di iOS Kini Sudah Hadir