Postingan MSN AI Sebut Pemain NBA yang Meninggal Tak Terduga 'Tidak Berguna'

Postingan MSN AI Sebut Pemain NBA yang Meninggal Tak Terduga 'Tidak Berguna'

Sebuah artikel yang diterbitkan oleh MSN, portal berita online milik Microsoft, menggambarkan mendiang mantan pemain NBA Brandon Hunter sebagai “tidak berguna” dalam judulnya, sehingga memicu kemarahan di media sosial. Postingan tersebut, yang tampaknya ditulis oleh AI, telah ditarik ke bawah.

Hunter, 42, pingsan saat sesi yoga panas di studio Orlando dan meninggal pada 12 September, menurut beberapa orang laporan. Antara tahun 2003 dan 2005, Hunter memainkan 67 pertandingan gabungan untuk Boston Celtics dan Orlando Magic dan kemudian memiliki karir yang panjang di Yunani dan Italia.

Baca juga: Regulator AS Menyelidiki ChatGPT OpenAI karena Menyebarkan Informasi Palsu

Artikel Microsoft MSN AI Menyebut Pemain NBA yang Meninggal Tak Terduga 'Tidak Berguna'Artikel Microsoft MSN AI Menyebut Pemain NBA yang Meninggal Tak Terduga 'Tidak Berguna'

'AI seharusnya tidak menulis berita kematian'

Dalam judulnya, yang terdistorsi artikel MSN berbunyi: “Brandon Hunter tidak berguna pada usia 42.” Artikel pendek selanjutnya benar-benar omong kosong, memberi tahu pembaca bahwa atlet tersebut “menyerahkan diri” setelah mencapai “kesuksesan penting sebagai penyerang untuk Bobcats” dan “tampil dalam 67 video game.”

Berikut adalah pengenalan postingan MSN, yang dimodelkan setelah a Kisah Olahraga TMZ tentang kematian mantan pemain NBA itu, hanya saja kurang bisa dipahami.

“Mantan pemain NBA Brandon Hunter, yang sebelumnya bermain untuk Boston Celtics dan Orlando Magic, telah meninggal dunia pada usia 42 tahun, seperti yang diumumkan oleh pelatih bola basket putra Ohio Jeff Boals pada hari Selasa.”

Pengguna media sosial dengan cepat mengkritik MSN karena tidak sensitif, ceroboh, dan “memalukan dalam banyak hal,” seperti yang dikatakan salah satu pengguna di X, sebelumnya Twitter, letakkan. Yang lain berteriak, “AI seharusnya tidak menulis berita kematian. Bayar penulis sialanmu, MSN.”

Posting di Reddit, satu individu menulis:

“Bagian yang paling dystopian dari hal ini adalah bahwa AI yang menggantikan kita akan sama bodoh dan bodohnya dengan terjemahan ini – tetapi bagi para ahli keuangan, itu sudah cukup.”

Redditor lainnya mengeluhkan kecerobohan MSN, dan menuduh jaringan tersebut hanya peduli pada “menghasilkan uang.”

“Siapa yang peduli jika kata-kata itu akurat, mereka menghasilkan uang!” pengguna itu menyindir dengan sinis. “Ini akan mematikan internet. Hanya lautan konten buruk yang dirancang untuk mempermainkan algoritme dan tidak membuat manusia bahagia atau terdidik.”

Ini bukan pertama kalinya MSN menerbitkan konten palsu yang dihasilkan AI di portalnya. Pada bulan Agustus, platform tersebut menerbitkan panduan perjalanan aneh yang ditulis oleh AI di Ottawa, Kanada, yang menyarankan wisatawan untuk mengunjungi bank makanan lokal. Artikel itu dihapus karena kritik, Futurisme melaporkan.

Fakta berhalusinasi

Microsoft direktur senior Jeff Jones mengatakan the Verge bahwa “artikel [Ottawa] tidak diterbitkan oleh AI tanpa pengawasan. Dalam hal ini, konten dihasilkan melalui kombinasi teknik algoritmik dengan tinjauan manusia, bukan model bahasa besar atau sistem AI.”

Pada tahun 2020, MSN kabarnya memecat seluruh tim jurnalis manusia yang bertanggung jawab memoderasi konten di platformnya. Menurut beberapa laporan, MSN telah menerbitkan konten yang dianggap konyol dan ceroboh, termasuk cerita tentang “putri duyung”.

Chatbot AI generatif seperti OpenAI ChatGPT atau Bard milik Google sangat cerdas, mampu menghasilkan teks, kode, dan bahkan memecahkan masalah matematika yang rumit. Namun model AI juga demikian cenderung untuk menghasilkan kepalsuan dan kebohongan total, seringkali dengan keyakinan.

Industri teknologi menyebut kebohongan yang penuh keyakinan ini sebagai “halusinasi.” Kelemahan ini telah menjadi fokus utama bagi regulator di seluruh dunia.

Pada bulan Juli, misalnya, Komisi Perdagangan Federal AS (FTC) memulai penyelidikan terhadap OpenAI atas potensi pelanggaran undang-undang perlindungan konsumen terkait ChatGPT, yang dituduh menyebarkan informasi palsu dan melanggar aturan privasi data.

FTC sedang menyelidiki apakah ChatGPT menyebabkan kerugian bagi orang-orang dengan memberikan jawaban yang salah atas pertanyaan mereka. Mereka ingin mengetahui apakah perusahaan tersebut “terlibat dalam praktik privasi atau keamanan data yang tidak adil atau menipu” yang menyebabkan kerugian reputasi pengguna, Washington Post melaporkan.

Stempel Waktu:

Lebih dari Berita Meta