Meta baut eine KI, um Wikipedia auf Fakten zu überprüfen – alle 6.5 Millionen Artikel PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Meta baut eine KI, um Wikipedia auf Fakten zu überprüfen – alle 6.5 Millionen Artikel

Image

Die meisten Menschen über 30 erinnern sich wahrscheinlich daran, mit guten alten Enzyklopädien recherchiert zu haben. Sie würden einen dicken Band aus dem Regal ziehen, den Index nach Ihrem Interessengebiet durchsuchen, dann zur entsprechenden Seite blättern und mit dem Lesen beginnen. Es war nicht so einfach, ein paar Wörter in die Google-Suchleiste einzugeben, aber auf der positiven Seite wussten Sie, dass die Informationen, die Sie auf den Seiten der Briten oder im Weltbuch war genau und wahr.

Nicht so bei der heutigen Internetrecherche. Die überwältigende Vielzahl von Quellen war verwirrend genug, aber fügen Sie die Verbreitung von Fehlinformationen hinzu, und es ist ein Wunder, dass jeder von uns ein Wort glaubt, das wir online lesen.

Wikipedia ist ein typisches Beispiel. Anfang 2020 lag die englische Version der Website im Durchschnitt bei etwa 255 Millionen Seitenaufrufe pro Tag und ist damit die am achtesten besuchte Website im Internet. Seit letztem Monat war es auf Platz vorgerückt Nummer sieben, und die englische Version ist derzeit vorbei 6.5 Millionen Artikel.

Aber so stark frequentiert diese Informationsquelle auch sein mag, ihre Genauigkeit lässt zu wünschen übrig; das Seite über die eigene Zuverlässigkeit der Website heißt es: „Die Online-Enzyklopädie betrachtet sich selbst nicht als zuverlässige Quelle und rät Lesern davon ab, sie in akademischen oder Forschungsumgebungen zu verwenden.“

Meta – vom ehemaligen Facebook – will das ändern. In einem Blog-Post Letzten Monat veröffentlicht, beschreiben die Mitarbeiter des Unternehmens, wie KI dazu beitragen könnte, Wikipedia genauer zu machen.

Obwohl Zehntausende von Menschen an der Bearbeitung der Site teilnehmen, sind die von ihnen hinzugefügten Fakten nicht unbedingt korrekt; Selbst wenn Zitate vorhanden sind, sind sie nicht immer genau oder sogar relevant.

Meta entwickelt ein maschinelles Lernmodell, das diese Zitate scannt und ihren Inhalt mit Wikipedia-Artikeln vergleicht, um zu überprüfen, ob nicht nur die Themen übereinstimmen, sondern auch bestimmte zitierte Zahlen korrekt sind.

Dabei geht es nicht nur darum, Zahlen auszuwählen und sicherzustellen, dass sie übereinstimmen; Die KI von Meta muss den Inhalt der zitierten Quellen „verstehen“ (obwohl „verstehen“ eine falsche Bezeichnung ist, wie die Forscherin für Komplexitätstheorie Melanie Mitchell würde es dir sagen, weil KI noch in der „engen“ Phase ist, also ein Werkzeug für hochentwickelte Mustererkennung ist, während „Verstehen“ ein Wort für menschliche Kognition ist, was noch eine ganz andere Sache ist).

Das Meta-Modell „versteht“ Inhalte nicht, indem es Textzeichenfolgen vergleicht und sicherstellt, dass sie dieselben Wörter enthalten, sondern indem es mathematische Darstellungen von Textblöcken vergleicht, zu denen es mithilfe von NLU-Techniken (Natural Language Understanding) gelangt.

„Wir haben einen Index all dieser Webseiten erstellt, indem wir sie in Passagen aufgeteilt und eine genaue Darstellung für jede Passage bereitgestellt haben“, sagt Fabio Petroni, Tech Lead Manager für Fundamental AI Research bei Meta. sagte Digitale Trends. „Das stellt nicht Wort für Wort den Abschnitt dar, sondern die Bedeutung des Abschnitts. Das bedeutet, dass zwei Textblöcke mit ähnlicher Bedeutung in dem resultierenden n-dimensionalen Raum, in dem all diese Passagen gespeichert sind, an einer sehr nahen Position dargestellt werden.“

Die KI wird mit einer Reihe von vier Millionen Wikipedia-Zitaten trainiert, und neben der Auswahl fehlerhafter Zitate auf der Website möchten ihre Ersteller, dass sie schließlich in der Lage ist, genaue Quellen vorzuschlagen, die ihren Platz einnehmen, und zwar aus einem riesigen Datenindex laufend aktualisiert.

Ein großes Problem, das noch gelöst werden muss, ist die Arbeit in einem Bewertungssystem für die Zuverlässigkeit von Quellen. Ein Artikel aus einer wissenschaftlichen Zeitschrift würde beispielsweise eine bessere Note erhalten als ein Blogbeitrag. Die Menge an Online-Inhalten ist so groß und vielfältig, dass Sie „Quellen“ finden können, die nahezu jede Behauptung stützen, aber die Fehlinformationen von den Desinformationen (erstere bedeutet falsch, während letztere absichtlich täuschen) und den Peer-Reviews unterscheiden von Nicht-Peer-Review, Faktengeprüft von Hastig-Zusammengeklatscht, ist keine leichte Aufgabe – aber eine sehr wichtige, wenn es um Vertrauen geht.

Meta hat sein Modell als Open Source veröffentlicht, und diejenigen, die neugierig sind, können a Demo des Verifizierungstools. In Metas Blogbeitrag wurde darauf hingewiesen, dass das Unternehmen bei diesem Projekt nicht mit Wikimedia zusammenarbeitet und dass es sich noch in der Forschungsphase befindet und derzeit nicht zur Aktualisierung von Inhalten auf Wikipedia verwendet wird.

Wenn Sie sich eine nicht allzu ferne Zukunft vorstellen, in der alles, was Sie auf Wikipedia lesen, genau und zuverlässig ist, würde das jede Art von Recherche nicht ein bisschen zu einfach machen? Es ist doch etwas Wertvolles, verschiedene Quellen selbst zu prüfen und zu vergleichen, oder? Es war ein großer Schritt, vom Blättern in schweren Büchern zum Eingeben einiger Wörter in eine Suchmaschine und zum Drücken der Eingabetaste überzugehen; Wollen wir wirklich, dass Wikipedia sich von einem Ausgangspunkt für die Forschung zu einer Quelle entwickelt, die das letzte Wort bekommt?

In jedem Fall wird das KI-Forschungsteam von Meta weiter an einem Tool zur Verbesserung der Online-Enzyklopädie arbeiten. „Ich glaube, am Ende des Tages waren wir von Neugier getrieben“, sagte Petroni sagte. „Wir wollten sehen, wo die Grenzen dieser Technologie liegen. Wir waren uns absolut nicht sicher, ob [diese KI] in diesem Zusammenhang etwas Sinnvolles bewirken könnte. Niemand hatte jemals versucht, etwas Ähnliches zu tun.“

Bild-Kredit: Gerd Altmann für Pixabay

Zeitstempel:

Mehr von Singularity Hub