Meta buduje sztuczną inteligencję w celu sprawdzenia faktów w Wikipedii — wszystkie 6.5 miliona artykułów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Meta buduje sztuczną inteligencję w celu sprawdzenia faktów w Wikipedii — wszystkie 6.5 miliona artykułów

obraz

Większość osób w wieku powyżej 30 lat prawdopodobnie pamięta prowadzenie badań w dobrych, staromodnych encyklopediach. Z półki wyciągasz obszerny tom, sprawdzasz w indeksie interesujący Cię temat, a następnie przechodzisz na odpowiednią stronę i zaczynasz czytać. Nie było to tak proste, jak wpisanie kilku słów w pasku wyszukiwania Google, ale na plus wiedziałeś, że informacje, które znalazłeś na stronach Brytyjski albo Światowa Księga był dokładny i prawdziwy.

Nie jest tak z dzisiejszymi badaniami internetowymi. Przytłaczająca mnogość źródeł była wystarczająco myląca, ale dodajmy do tego mnogość dezinformacji i można się dziwić, że każdy z nas wierzy w słowo, które czytamy w Internecie.

Wikipedia jest tego przykładem. Na początku 2020 r. angielska wersja strony wynosiła średnio około 255 milionów odsłon dziennie, co czyni ją ósmą najczęściej odwiedzaną witryną w Internecie. Od zeszłego miesiąca podniósł się do miejsca numer siedem, a wersja angielska ma obecnie ponad 6.5 milionów artykułów.

Jednak niezależnie od tego, jak duże może być to źródło informacji, jego dokładność pozostawia wiele do życzenia; ten strona o własnej wiarygodności witryny stwierdza: „Encyklopedia internetowa nie uważa się za wiarygodne źródło i zniechęca czytelników do korzystania z niej w środowisku akademickim lub badawczym”.

Meta – dawnego Facebooka – chce to zmienić. W blogu opublikowanych w zeszłym miesiącu, pracownicy firmy opisują, w jaki sposób sztuczna inteligencja może pomóc zwiększyć dokładność Wikipedii.

Chociaż w redagowaniu witryny uczestniczą dziesiątki tysięcy osób, fakty, które dodadzą, niekoniecznie są poprawne; nawet jeśli cytaty są obecne, nie zawsze są one dokładne ani nawet trafne.

Meta opracowuje model uczenia maszynowego, który skanuje te cytaty i porównuje ich treść z artykułami w Wikipedii, aby sprawdzić, czy nie tylko tematy są zgodne, ale konkretne cytowane liczby są dokładne.

To nie tylko kwestia wybrania liczb i upewnienia się, że pasują; Sztuczna inteligencja Meta będzie musiała „zrozumieć” zawartość cytowanych źródeł (chociaż „zrozumienie” jest mylącą nazwą, ponieważ badaczka teorii złożoności Melanie Mitchell powiedziałbym ci, ponieważ sztuczna inteligencja jest wciąż w „wąskiej” fazie, co oznacza, że ​​jest narzędziem do bardzo wyrafinowanego rozpoznawania wzorców, podczas gdy „rozumienie” to słowo używane do ludzkiego poznania, co wciąż jest czymś zupełnie innym).

Model Meta „zrozumie” treść nie przez porównywanie ciągów tekstowych i upewnianie się, że zawierają one te same słowa, ale przez porównanie matematycznych reprezentacji bloków tekstu, co uzyskuje się przy użyciu technik rozumienia języka naturalnego (NLU).

„To, co zrobiliśmy, to zbudowanie indeksu wszystkich tych stron internetowych, dzieląc je na fragmenty i zapewniając dokładną reprezentację każdego fragmentu” – Fabio Petroni, kierownik ds. technologii Fundamental AI Research w Meta, powiedział Trendy cyfrowych. „To nie jest przedstawienie fragmentu słowo po słowie, ale znaczenie fragmentu. Oznacza to, że dwa fragmenty tekstu o podobnych znaczeniach będą reprezentowane w bardzo bliskiej pozycji w powstałej n-wymiarowej przestrzeni, w której przechowywane są wszystkie te fragmenty”.

Sztuczna inteligencja jest szkolona na zestawie czterech milionów cytatów z Wikipedii, a poza wybieraniem błędnych cytatów w witrynie, jej twórcy chcieliby, aby w końcu była w stanie zasugerować dokładne źródła, które zajmą jej miejsce, czerpiąc z ogromnego indeksu danych, które są ciągłe aktualizowanie.

Jedną z ważnych kwestii, która pozostała do rozwiązania, jest praca w systemie oceniania wiarygodności źródeł. Na przykład artykuł z czasopisma naukowego otrzymałby wyższą ocenę niż post na blogu. Ilość treści online jest tak ogromna i zróżnicowana, że ​​można znaleźć „źródła” na poparcie niemal każdego twierdzenia, ale analizując dezinformację z dezinformacji (pierwsze oznacza nieprawidłowe, podczas gdy drugie oznacza celowe oszukiwanie), a recenzowane od nierecenzowanych, sprawdzanie faktów od pospiesznie spoliczkowanych razem, nie jest łatwym zadaniem, ale bardzo ważnym, jeśli chodzi o zaufanie.

Meta udostępniła swój model na zasadach open source, a ci, którzy są ciekawi, mogą zobaczyć próbny narzędzia weryfikacji. W poście na blogu Meta zaznaczono, że firma nie współpracuje z Wikimedia w tym projekcie i że wciąż znajduje się on w fazie badań i nie jest obecnie używany do aktualizowania zawartości Wikipedii.

Jeśli wyobrażasz sobie niezbyt odległą przyszłość, w której wszystko, co czytasz w Wikipedii, jest dokładne i wiarygodne, czy nie sprawiłoby to, że prowadzenie jakichkolwiek badań byłoby zbyt łatwe? Jest coś wartościowego w sprawdzaniu i porównywaniu różnych źródeł, prawda? Przejście od przeglądania ciężkich książek do wpisania kilku słów w wyszukiwarkę i naciśnięcia „Enter” było dużym krokiem naprzód; czy naprawdę chcemy, aby Wikipedia przeniosła się z punktu wyjścia badań do źródła, w którym można uzyskać ostatnie słowo?

W każdym razie zespół badawczy Meta ds. AI będzie nadal pracował nad narzędziem do ulepszania internetowej encyklopedii. „Myślę, że pod koniec dnia kierowała nami ciekawość” Petroni powiedziany. „Chcieliśmy zobaczyć, jakie są ograniczenia tej technologii. Nie byliśmy absolutnie pewni, czy [ta sztuczna inteligencja] może zrobić coś sensownego w tym kontekście. Nikt nigdy nie próbował zrobić czegoś podobnego”.

Kredytowych Image: Gerd Altmann od Pixabay

Znak czasu:

Więcej z Centrum osobliwości