Wie DARPA die Grundlagen der KI überdenken will, um Vertrauen einzubeziehen

Wie DARPA die Grundlagen der KI überdenken will, um Vertrauen einzubeziehen

Wie DARPA die Grundlagen der KI überdenken möchte, um Vertrauen in PlatoBlockchain Data Intelligence einzubeziehen. Vertikale Suche. Ai.

Kommentar Würden Sie Ihr Leben einer künstlichen Intelligenz anvertrauen?

Der aktuelle Stand der KI ist beeindruckend, aber sie als an der Grenze zur allgemeinen Intelligenz zu sehen, ist eine Übertreibung. Wenn Sie in den Griff bekommen wollen, wie gut der KI-Boom läuft, beantworten Sie einfach diese Frage: Vertrauen Sie KI?

Googles Bard und Microsofts ChatGPT-betriebene große Bing-Sprachmodelle beide gemacht blöde Fehler während ihrer Einführungspräsentationen, die mit einer schnellen Websuche hätten vermieden werden können. LLMs wurden ebenfalls entdeckt Tatsachen falsch verstehen und das Verdrängen falscher Zitate.

Es ist eine Sache, wenn diese KIs nur dafür verantwortlich sind, sagen wir, Bing- oder Bard-Benutzer zu unterhalten, sagt uns Matt Turek von DARPA, stellvertretender Direktor des Information Innovation Office. Es ist eine ganz andere Sache, wenn Menschenleben auf dem Spiel stehen, weshalb Tureks Agentur eine Initiative namens AI Forward gestartet hat, um zu versuchen, die Frage zu beantworten, was es genau bedeutet, ein KI-System aufzubauen, dem wir vertrauen können.

Vertrauen ist …?

In einem Interview mit Das Register, Turek sagte, er denke gerne an den Aufbau einer vertrauenswürdigen KI mit einer Bauingenieur-Metapher, die auch viel Vertrauen in die Technologie beinhaltet: Brücken bauen.

„Wir bauen Brücken nicht mehr durch Versuch und Irrtum“, sagt Turek. „Wir verstehen die grundlegende Physik, die grundlegenden Materialwissenschaften und die Systemtechnik, um zu sagen, dass ich in der Lage sein muss, diese Entfernung zu überbrücken und diese Art von Gewicht zu tragen“, fügt er hinzu.

Ausgestattet mit diesem Wissen, sagt Turek, war der Ingenieursektor in der Lage, Standards zu entwickeln, die das Bauen von Brücken unkompliziert und vorhersehbar machen, aber das haben wir derzeit mit KI nicht. Tatsächlich sind wir an einem noch schlimmeren Ort, als einfach keine Standards zu haben: Die KI-Modelle, die wir bauen, überraschen uns manchmal, und das ist schlecht, sagt Turek. 

„Wir verstehen die Modelle nicht vollständig. Wir verstehen nicht, was sie gut machen, wir verstehen die Eckfälle, die Fehlermodi nicht … was dazu führen könnte, dass Dinge mit einer Geschwindigkeit und einem Ausmaß schief gehen, wie wir es noch nie zuvor gesehen haben.“ 

Reg Die Leser müssen sich keine apokalyptischen Szenarien ausmalen, in denen eine künstliche allgemeine Intelligenz (AGI) beginnt, Menschen zu töten und Krieg zu führen, um Tureks Argument zu vermitteln. „Wir brauchen AGI nicht, wenn etwas grundlegend schief geht“, sagt Turek. Er zitiert Flash-Marktcrashs, wie den Rückgang des britischen Pfunds im Jahr 2016, die darauf zurückgeführt werden schlechte algorithmische Entscheidungsfindung, als ein Beispiel. 

Dann gibt es Software wie Teslas Autopilot, angeblich eine KI, die entwickelt wurde, um ein Auto zu fahren, mit dem angeblich eine Verbindung hergestellt wurde 70 Prozent von Unfällen mit automatisierten Fahrerassistenzsystemen. Wenn solche Unfälle passieren, macht Tesla nicht die KI verantwortlich, sagt Turek, es sagt, dass die Fahrer für das verantwortlich sind, was der Autopilot tut. 

Nach dieser Argumentation ist es fair zu sagen, dass selbst Tesla seiner eigenen KI nicht vertraut. 

Wie DARPA KI voranbringen will … Vorwärts

„Die Geschwindigkeit, mit der große Softwaresysteme arbeiten können, kann die menschliche Aufsicht vor Herausforderungen stellen“, sagt Turek, weshalb DARPA seine neueste KI-Initiative, AI Forward, ins Leben gerufen hat. früher in diesem Jahr.

In einer presentation Im Februar erklärte Tureks Chefin Dr. Kathleen Fisher, was DARPA mit AI Forward erreichen will, nämlich den Aufbau einer Verständnisbasis für die KI-Entwicklung, ähnlich dem, was Ingenieure mit ihren eigenen Standards entwickelt haben.

Fisher erklärte in ihrer Präsentation, dass DARPA KI-Vertrauen als integrativ ansieht und dass jede KI, der es wert ist, Vertrauen zu schenken, in der Lage sein sollte, drei Dinge zu tun:

  • Kompetent agieren, was wir definitiv noch nicht herausgefunden,
  • Angemessene Interaktion mit Menschen, einschließlich der Kommunikation, warum es tut, was es tut (siehe den vorherigen Punkt, wie gut das läuft),
  • Ethisch und moralisch zu handeln, wozu laut Fisher gehört, dass man feststellen kann, ob Anweisungen ethisch vertretbar sind oder nicht, und entsprechend zu reagieren. 

Zu artikulieren, was eine vertrauenswürdige KI ausmacht, ist eine Sache. Dahin zu kommen ist etwas mehr Arbeit. Zu diesem Zweck sagte DARPA, dass sie plant, ihre Energie, Zeit und ihr Geld darin zu investieren drei Bereiche: Aufbau grundlegender Theorien, Artikulation geeigneter KI-Engineering-Praktiken und Entwicklung von Standards für Teaming und Interaktionen zwischen Mensch und KI. 

AI Forward, das Turek weniger als Programm, sondern eher als Community-Outreach-Initiative bezeichnet, startet mit zwei Sommerworkshops im Juni und Ende Juli, um Menschen aus dem öffentlichen und privaten Sektor zusammenzubringen, um diese drei KI-Investitionen zu konkretisieren Bereiche. 

DARPA, sagt Turek, hat die einzigartige Fähigkeit, „eine breite Palette von Forschern aus mehreren Gemeinschaften [zusammenzubringen], einen ganzheitlichen Blick auf das Problem zu werfen, … überzeugende Wege nach vorne zu identifizieren und dann Investitionen zu tätigen, von denen DARPA glaubt, dass sie führen könnten hin zu transformativen Technologien.“

Für alle, die hoffen, ihren Hut in den Ring zu werfen, um an den ersten beiden AI Forward-Workshops teilzunehmen – sorry – sie sind bereits ausgebucht. Konkrete Angaben zu den Teilnehmern machte Turek nicht, er sagte lediglich, dass mehrere hundert Teilnehmer mit „verschiedenen technischen Hintergründen [und] Perspektiven“ erwartet würden.

Wie sieht eine vertrauenswürdige Verteidigungs-KI aus?

Wenn es DARPA gelingt, sein Modell des KI-Vertrauens zu konkretisieren, wie genau würde es diese Technologie einsetzen? 

Cybersicherheitsanwendungen sind offensichtlich, sagt Turek, da man sich darauf verlassen könnte, dass eine vertrauenswürdige KI die richtigen Entscheidungen in einem Umfang und in einer Geschwindigkeit trifft, in der Menschen nicht handeln könnten. Auf der Seite der großen Sprachmodelle gibt es eine KI, der man vertrauen kann, dass sie vertrauliche Informationen richtig verarbeitet oder Berichte auf genaue Weise verarbeitet und zusammenfasst, „wenn wir diese Halluzinationen entfernen können“, fügt Turek hinzu.

Und dann ist da noch das Schlachtfeld. Weit davon entfernt, nur ein Werkzeug zu sein, das Schaden anrichtet, könnte KI durch Forschungsinitiativen wie z. B. lebensrettende Anwendungen erhalten In The Moment, ein Forschungsprojekt, das Turek leitet, um schnelle Entscheidungen in schwierigen Situationen zu unterstützen. 

Das Ziel von In The Moment ist es, „Schlüsselattribute zu identifizieren, die der vertrauenswürdigen menschlichen Entscheidungsfindung in dynamischen Umgebungen zugrunde liegen, und diese Attribute rechnerisch darzustellen“, wie DARPA es auf der Projektseite beschreibt. 

„[In The Moment] ist wirklich ein grundlegendes Forschungsprogramm darüber, wie man Vertrauen modelliert und quantifiziert und wie man jene Attribute aufbaut, die zu Vertrauen und zu Systemen führen“, sagt Turek.

Mit diesen Fähigkeiten ausgestattete KI könnte verwendet werden, um medizinische Triage-Entscheidungen auf dem Schlachtfeld oder in Katastrophenszenarien zu treffen.

Die DARPA möchte, dass diesen Sommer auf beide AI Forward-Meetings White Papers folgen, aber von da an geht es darum, die Definitionsphase zu überwinden und sich der Umsetzung zu nähern, was definitiv eine Weile dauern könnte. 

„Es wird Investitionen von DARPA geben, die aus den Treffen hervorgehen“, sagt uns Turek. „Die Anzahl oder Größe dieser Investitionen wird davon abhängen, was wir hören“, fügt er hinzu. ®

Zeitstempel:

Mehr von Das Register