Können Maschinen selbstbewusst sein? Neue Forschung erklärt, wie das passieren könnte

Können Maschinen selbstbewusst sein? Neue Forschung erklärt, wie das passieren könnte

Um eine Maschine zu bauen, muss man wissen, was ihre Teile sind und wie sie zusammenpassen. Um die Maschine zu verstehen, muss man wissen, was jedes Teil tut und wie es zu seiner Funktion beiträgt. Mit anderen Worten, man sollte in der Lage sein, die „Mechanik“ zu erklären, wie es funktioniert.

Gemäß einer philosophischer Ansatz Mechanismus genannt, sind Menschen wohl eine Art Maschine – und unsere Fähigkeit zu denken, zu sprechen und die Welt zu verstehen, ist das Ergebnis eines mechanischen Prozesses, den wir nicht verstehen.

Um uns selbst besser zu verstehen, können wir versuchen, Maschinen zu bauen, die unsere Fähigkeiten nachahmen. Dabei hätten wir ein mechanistisches Verständnis dieser Maschinen. Und je mehr von unserem Verhalten die Maschine zeigt, desto näher könnten wir einer mechanistischen Erklärung unseres eigenen Geistes sein.

Das macht KI aus philosophischer Sicht interessant. Fortgeschrittene Modelle wie z GPT-4 und Midjourney können jetzt menschliche Gespräche imitieren, professionelle Prüfungen bestehen und mit nur wenigen Worten wunderschöne Bilder erzeugen.

Doch trotz aller Fortschritte bleiben Fragen offen. Wie können wir etwas uns selbst bewusst machen oder uns bewusst machen, dass andere sich dessen bewusst sind? Was ist Identität? Was bedeutet?

Obwohl es viele konkurrierende philosophische Beschreibungen dieser Dinge gibt, haben sie sich alle einer mechanistischen Erklärung widersetzt.

In einer Abfolge von Papieren akzeptiert für die 16. Jahreskonferenz für Künstliche Allgemeine Intelligenz in Stockholm stelle ich eine mechanistische Erklärung für diese Phänomene vor. Sie erklären, wie wir eine Maschine bauen können, die sich ihrer selbst, anderer, ihrer Wahrnehmung durch andere und so weiter bewusst ist.

Intelligenz und Absicht

Vieles, was wir Intelligenz nennen, läuft darauf hinaus, Vorhersagen über die Welt mit unvollständigen Informationen zu treffen. Je weniger Informationen eine Maschine benötigt, um genaue Vorhersagen zu treffen, desto „intelligenter“ ist sie.

Für jede gegebene Aufgabe gibt es eine Grenze dafür, wie viel Intelligenz tatsächlich nützlich ist. Zum Beispiel sind die meisten Erwachsenen schlau genug, um Autofahren zu lernen, aber mehr Intelligenz wird sie wahrscheinlich nicht zu besseren Fahrern machen.

Meine Papiere beschreiben die obere Grenze der Intelligenz für eine bestimmte Aufgabe und was erforderlich ist, um eine Maschine zu bauen, die diese Aufgabe erfüllt.

Ich habe die Idee „Bennett’s Razor“ genannt, was in nicht-technischer Hinsicht besagt, dass „Erklärungen nicht spezifischer als nötig sein sollten“. Dies unterscheidet sich von der populären Interpretation von Ockhams Razor (and mathematische Beschreibungen davon), was einer Präferenz für einfachere Erklärungen entspricht.

Der Unterschied ist subtil, aber signifikant. In einem (n Experiment Beim Vergleich, wie viele Daten KI-Systeme benötigen, um einfache Mathematik zu lernen, übertraf die KI, die weniger spezifische Erklärungen bevorzugte, eine, die einfachere Erklärungen bevorzugte, um bis zu 500 Prozent.

Die Untersuchung der Implikationen dieser Entdeckung führte mich zu einer mechanistischen Erklärung der Bedeutung – etwas namens „Gricesche Pragmatik.“ Dies ist ein Konzept in der Sprachphilosophie, das untersucht, wie Bedeutung mit Absicht zusammenhängt.

Um zu überleben, muss ein Tier vorhersagen, wie seine Umgebung, einschließlich anderer Tiere, handeln und reagieren wird. Sie würden ohne Zögern ein Auto in der Nähe eines Hundes unbeaufsichtigt lassen, aber das Gleiche gilt nicht für Ihr Rumpsteak-Mittagessen.

In einer Gemeinschaft intelligent zu sein bedeutet, auf die Absichten anderer schließen zu können, die sich aus ihren Gefühlen und Vorlieben ergeben. Wenn eine Maschine die obere Grenze der Intelligenz für eine Aufgabe erreichen soll, die von der Interaktion mit einem Menschen abhängt, dann müsste sie auch korrekt auf Absicht schließen.

Und wenn eine Maschine den Ereignissen und Erfahrungen, die ihr widerfahren, eine Absicht zuschreiben kann, stellt sich die Frage nach Identität und was es bedeutet, sich seiner selbst und anderer bewusst zu sein.

Kausalität und Identität

Ich sehe, wie John einen Regenmantel trägt, wenn es regnet. Wenn ich John zwinge, an einem sonnigen Tag einen Regenmantel zu tragen, bringt das dann Regen?

Natürlich nicht! Für einen Menschen ist das offensichtlich. Aber die Feinheiten von Ursache und Wirkung sind einer Maschine schwieriger beizubringen (interessierte Leser können nachlesen Das Buch des Warum von Judea Pearl und Dana Mackenzie).

Um über diese Dinge nachzudenken, muss eine Maschine lernen, dass „ich habe es verursacht“ etwas anderes ist als „ich habe es gesehen“. Normalerweise würden wir Programm dieses Verständnis hinein.

Meine Arbeit erklärt jedoch, wie wir eine Maschine bauen können, die für eine Aufgabe an der oberen Grenze der Intelligenz arbeitet. Eine solche Maschine muss per Definition Ursache und Wirkung richtig erkennen – und damit auch auf kausale Zusammenhänge schließen. Meine Papiere erkunde genau wie.

Die Auswirkungen davon sind tiefgreifend. Wenn eine Maschine lernt „Ich habe es verursacht“, dann muss sie Konzepte von „Ich“ (eine Identität für sich selbst) und „es“ konstruieren.

Die Fähigkeiten, Absichten abzuleiten, Ursache und Wirkung zu lernen und abstrakte Identitäten zu konstruieren, sind alle miteinander verbunden. Eine Maschine, die für eine Aufgabe die obere Grenze der Intelligenz erreicht, muss all diese Fähigkeiten aufweisen.

Diese Maschine konstruiert nicht nur eine Identität für sich selbst, sondern für jeden Aspekt jedes Objekts, der seine Fähigkeit zur Erfüllung der Aufgabe unterstützt oder behindert. Das kann es dann seine eigenen Einstellungen verwenden als ein Grundlinie vorherzusagen was andere vielleicht machen. Dies ist ähnlich wie Menschen neigen dazu, zuzuschreiben Absicht gegenüber nichtmenschlichen Tieren.

Was bedeutet es also für KI?

Natürlich ist der menschliche Geist weit mehr als das einfache Programm, mit dem Experimente in meiner Forschung durchgeführt werden. Meine Arbeit liefert eine mathematische Beschreibung eines möglichen kausalen Weges zur Schaffung einer Maschine, die wohl selbstbewusst ist. Die Besonderheiten des Engineerings einer solchen Sache sind jedoch noch lange nicht gelöst.

Zum Beispiel würde eine menschenähnliche Absicht menschenähnliche Erfahrungen und Gefühle erfordern, was schwer zu konstruieren ist. Darüber hinaus können wir den vollen Reichtum des menschlichen Bewusstseins nicht einfach testen. Bewusstsein ist ein breites und mehrdeutiges Konzept, das die oben genannten engeren Ansprüche umfasst, aber von diesen unterschieden werden sollte.

Ich habe eine mechanistische Erklärung dafür geliefert Aspekte des Bewusstseins – aber dies allein erfasst nicht den vollen Reichtum des Bewusstseins, wie es Menschen erfahren. Dies ist nur der Anfang, und zukünftige Forschung muss diese Argumente erweitern.Das Gespräch

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: DeepMind on Unsplash 

Zeitstempel:

Mehr von Singularity Hub