Anthropic hat einen demokratischen KI-Chatbot entwickelt, indem er Benutzer für seine Werte stimmen ließ

Anthropic hat einen demokratischen KI-Chatbot entwickelt, indem er Benutzer für seine Werte stimmen ließ

In einer möglicherweise ersten Studie dieser Art hat das auf künstliche Intelligenz (KI) spezialisierte Unternehmen Anthropic ein großes Sprachmodell (LLM) entwickelt, das auf die Werturteile seiner Benutzergemeinschaft abgestimmt ist.

Viele öffentlich zugängliche LLMs wurden mit Leitplanken – verschlüsselten Anweisungen, die bestimmtes Verhalten vorschreiben – entwickelt, um unerwünschte Ausgaben zu begrenzen. Claude von Anthropic und ChatGPT von OpenAI geben Benutzern beispielsweise normalerweise eine vorgefertigte Sicherheitsantwort auf Ausgabeanfragen im Zusammenhang mit gewalttätigen oder kontroversen Themen.

Wie jedoch unzählige Experten betont haben, können Leitplanken und andere Interventionstechniken dazu dienen, Benutzern ihre Entscheidungsfreiheit zu entziehen. Was als akzeptabel gilt, ist nicht immer nützlich, und was als nützlich angesehen wird, ist nicht immer akzeptabel. Und Definitionen für Moral oder wertebasierte Urteile können je nach Kultur, Bevölkerung und Zeitabschnitt variieren.

Related: Großbritannien wird auf dem geplanten November-Gipfel potenzielle KI-Bedrohungen ins Visier nehmen

Eine mögliche Lösung hierfür besteht darin, Benutzern die Möglichkeit zu geben, die Werteausrichtung für KI-Modelle vorzugeben. Anthropics „Collective Constitutional AI“-Experiment ist ein Versuch, diese „chaotische Herausforderung“ anzugehen.

Anthropic befragte in Zusammenarbeit mit Polis und dem Collective Intelligence Project 1,000 Benutzer aus verschiedenen Bevölkerungsgruppen und bat sie, per Umfrage eine Reihe von Fragen zu beantworten.

Anthropic hat einen demokratischen KI-Chatbot entwickelt, indem er Benutzer für seine Werte PlatoBlockchain Data Intelligence abstimmen ließ. Vertikale Suche. Ai.
Quelle, Anthropisch

Die Herausforderung besteht darin, den Benutzern die Möglichkeit zu geben, zu bestimmen, was angemessen ist, ohne sie unangemessenen Ergebnissen auszusetzen. Dazu gehörte das Einholen von Benutzerwerten und die anschließende Umsetzung dieser Ideen in ein bereits trainiertes Modell.

Anthropic verwendet dazu eine Methode namens „Constitutional AI“. Direkt seine Bemühungen, LLMs auf Sicherheit und Nützlichkeit abzustimmen. Im Wesentlichen geht es dabei darum, dem Modell eine Liste von Regeln zu geben, an die es sich halten muss, und es dann darin zu trainieren, diese Regeln während des gesamten Prozesses umzusetzen, ähnlich wie eine Verfassung in vielen Ländern als Kerndokument für die Regierungsführung dient.

Im Collective Constitutional AI-Experiment versuchte Anthropic, gruppenbasiertes Feedback in die Verfassung des Modells zu integrieren. Die Ergebnisse, gemäß Einem Blogbeitrag von Anthropic zufolge scheint es ein wissenschaftlicher Erfolg gewesen zu sein, da es weitere Herausforderungen auf dem Weg zum Ziel beleuchtete, den Benutzern eines LLM-Produkts die Möglichkeit zu geben, ihre kollektiven Werte zu bestimmen.

Eine der Schwierigkeiten, die das Team überwinden musste, bestand darin, eine neuartige Methode für den Benchmarking-Prozess zu entwickeln. Da dieses Experiment das erste seiner Art zu sein scheint und auf der Constitutional AI-Methodik von Anthropic basiert, gibt es keinen etablierten Test zum Vergleich von Basismodellen mit Modellen, die mit Crowdsourcing-Werten abgestimmt sind.

Letztendlich sieht es so aus, als ob das Modell, das Daten aus Benutzerumfrage-Feedback implementierte, das Basismodell im Bereich der verzerrten Ergebnisse „leicht“ übertraf.

Laut Blogbeitrag:

„Mehr als das resultierende Modell sind wir von dem Prozess begeistert. Wir glauben, dass dies einer der ersten Fälle sein könnte, in denen Mitglieder der Öffentlichkeit als Gruppe absichtlich das Verhalten eines großen Sprachmodells gesteuert haben. Wir hoffen, dass Gemeinschaften auf der ganzen Welt auf Techniken wie dieser aufbauen, um kultur- und kontextspezifische Modelle zu trainieren, die ihren Bedürfnissen entsprechen.“

Zeitstempel:

Mehr von Cointelegraph