Jak zawartość AI doprowadziła do obniżenia oceny niezawodności CNET

Jak zawartość AI doprowadziła do obniżenia oceny niezawodności CNET

Wikipedia obniżyła ocenę niezawodności CNET po tym, jak publikacja techniczna, działająca od 30 lat, wykorzystywała sztuczną inteligencję do generowania wiadomości, które okazały się plagiatem i zawierały błędy. 

CNET opublikowany ponad 70 artykułów z zakresu porad finansowych napisanych przez sztuczną inteligencję w okresie od listopada 2022 r. do stycznia 2023 r. Artykuły zostały opublikowane pod tytułem „CNET Money Staff”.

Kontrola potwierdziła, że ​​wiele artykułów zawierało błędy rzeczowe, poważne pominięcia i plagiat treści. CNET zatrzymany publikowanie artykułów napisanych przez sztuczną inteligencję po tym, jak wiadomości ukazały się na początku 2023 r., ale według Wikipedii szkody już zostały wyrządzone.

Przeczytaj także: CNET zawiesza sztuczną inteligencję po opublikowaniu serii złych artykułów 

Jak zawartość AI doprowadziła do obniżenia oceny niezawodności CNET PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Obniżanie poziomu CNET opartego na sztucznej inteligencji

„CNET, zwykle uważany za zwykły serwis technologiczny [wiarygodne źródło], zaczął eksperymentalnie wyświetlać artykuły generowane przez sztuczną inteligencję, które są pełne błędów” – powiedział redaktor Wikipedii David Gerard, jak zgłaszane przez futuryzm.

„Jak dotąd eksperyment nie przebiega dobrze, choć nie powinien. Jeszcze żadnego nie znalazłem, ale każdy z artykułów, który znalazł się w artykule w Wikipedii, musi zostać usunięty”.

Gerard mówił, żeby rozpocząć a Spotkanie redaktorów Wikipedii w celu omówienia zawartości sztucznej inteligencji CNET w styczniu 2023 r. Redaktorzy wszechwiedzącego słownika internetowego prowadzą forum Wikipedia Reliable Sources lub Perennial Sources, na którym spotykają się, aby zdecydować, czy danemu źródłu wiadomości można ufać i wykorzystywać je w cytatach.

Na forum znajduje się tabela rankingowa serwisów informacyjnych według ich wiarygodności. Po wielu godzinach dyskusji redaktorzy zgodzili się, że Oparte na sztucznej inteligencji wersja CNET nie była godna zaufania i zdegradowała zawartość witryny do „ogólnie niewiarygodnej”.

„Cofnijmy się o krok i rozważmy, czego tu byliśmy świadkami” – powiedział inny redaktor Wikipedii, występujący pod pseudonimem „Bloodofox”.

„CNET wygenerowało mnóstwo treści za pomocą sztucznej inteligencji, wymieniło niektóre z nich jako napisane przez ludzi (!), stwierdziło, że wszystkie zostały zredagowane i sprawdzone przez ludzi, a następnie, gdy został złapany, wydało kilka „poprawek”, po czym nastąpiły ataki na dziennikarzy którzy o tym donieśli” – dodali.

Źródła wieloletnie Wikipedii strona dzieli oceny niezawodności CNET na trzy okresy: 1. Okres poprzedzający październik 2020 r., kiedy CNET uznawano za „ogólnie niezawodne”; oraz 2. października 2020 r. do października 2022 r., gdzie Wikipedia nie oceniła witryny podążającej za nią $ 500 mln przejęcia przez Red Ventures.

Trzeci okres trwa od listopada 2022 r. do chwili obecnej. W tym okresie Wikipedia obniżyła ocenę CNET do „ogólnie niewiarygodnego” źródła po tym, jak witryna zwróciła się ku sztucznej inteligencji, „aby szybko generować artykuły pełne nieścisłości faktycznych i linków partnerskich”.

Jak treści generowane przez sztuczną inteligencję doprowadziły do ​​obniżenia oceny niezawodności CNET
Tabela oceny niezawodności CNET z Wikipedii.

Google nie widzi problemu w AI

Według raportu Futurism sytuacja CNET zaczęła się pogarszać po przejęciu Red Ventures w 2020 r. Wikipedia podaje, że zmiana właściciela doprowadziła do „pogorszenia standardów redakcyjnych”, ponieważ Red Ventures rzekomo przedłożyła SEO nad jakość. Nie tylko CNET potajemnie eksperymentował ze sztuczną inteligencją w stajni.

Redaktorzy Wikipedii zwrócili także uwagę na inne problemy z niezawodnością dotyczące odrębnych witryn internetowych należących do Red Ventures, w tym Healthline i Bankrate. Według doniesień w witrynach edukacyjnych zamieszczano treści napisane przez sztuczną inteligencję bez ujawniania informacji i ludzkiego nadzoru.

„Red Ventures nie wyraziło się w najmniejszym stopniu przejrzyście w tej kwestii – firmę można w najlepszym razie określić jako oszukańczą” – stwierdził anonimowy redaktor Wikipedii Bloodofox.

W oświadczeniu dotyczącym obniżenia wersji Wikipedii i treści stworzonych przez sztuczną inteligencję CNET stwierdziło, że zapewnia „bezstronne wiadomości i porady dotyczące technologii”.

„Zaufano nam od prawie 30 lat dzięki naszym rygorystycznym standardom redakcyjnym i recenzjom produktów” – powiedział rzecznik Futurism. „Ważne jest, aby wyjaśnić, że CNET nie wykorzystuje aktywnie sztucznej inteligencji do tworzenia nowych treści. Chociaż nie mamy konkretnych planów ponownego uruchomienia, wszelkie przyszłe inicjatywy będą zgodne z naszą publiczną polityką dotyczącą sztucznej inteligencji”.

Decyzja Wikipedii podkreśla utrzymujące się obawy dotyczące wykorzystania sztucznej inteligencji do tworzenia artykułów w branży medialnej. Tymczasem, Google nie ma problemu z materiałem AI, o ile nie jest on używany do gry w algorytm wyszukiwania.

Według Google poradnictwo w przypadku treści generowanych przez sztuczną inteligencję firma twierdzi, że zawsze „wierzyła w moc sztucznej inteligencji, która może zmienić zdolność dostarczania przydatnych informacji”.

Google twierdzi, że jego systemy rankingowe skupiają się na jakości treści, a nie na sposobie ich tworzenia – czy to przez ludzi, czy przez sztuczną inteligencję. Ocenia wiedzę specjalistyczną, doświadczenie, autorytet i wiarygodność.

Firma zauważa jednak, że wykorzystywanie automatyzacji, w tym sztucznej inteligencji, do generowania treści, których głównym celem jest manipulowanie rankingiem w wynikach wyszukiwania, „stanowi naruszenie naszych zasad dotyczących spamu”.

Znak czasu:

Więcej z MetaWiadomości