Ehemaliger OpenAI-Forscher: Es besteht eine 50-prozentige Chance, dass KI in einer „Katastrophe“ endet

Ehemaliger OpenAI-Forscher: Es besteht eine 50-prozentige Chance, dass KI in einer „Katastrophe“ endet

Ehemaliger OpenAI-Forscher: Die Wahrscheinlichkeit, dass KI in einer „Katastrophe“ endet, liegt bei 50 % PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Ein ehemaliger Schlüsselforscher bei OpenAI glaubt, dass eine gute Chance besteht, dass künstliche Intelligenz die Kontrolle über die Menschheit übernimmt und sie zerstört.

„Ich denke, die Wahrscheinlichkeit einer KI-Übernahme liegt vielleicht bei etwa 10 bis 20 %, wenn viele oder die meisten Menschen sterben“, sagte Paul Christiano, der das Sprachmodell-Alignment-Team bei leitete OpenAI, sagte am Bankloser Podcast. „Ich nehme es sehr ernst.“

Christiano, der jetzt die leitet Ausrichtungsforschungszentrum, eine gemeinnützige Organisation, deren Ziel es ist, KIs und maschinelle Lernsysteme mit „menschlichen Interessen“ in Einklang zu bringen, sagte, er sei besonders besorgt darüber, was passiert, wenn KIs die logischen und kreativen Fähigkeiten eines Menschen erreichen. „Insgesamt sprechen wir vielleicht von einer 50/50-Wahrscheinlichkeit einer Katastrophe, kurz nachdem wir Systeme auf menschlicher Ebene haben“, sagte er.

Christiano ist in guter Gesellschaft. Kürzlich Dutzende von Wissenschaftlern auf der ganzen Welt einen Online-Brief unterschrieben Wir fordern OpenAI und andere Unternehmen, die im Wettstreit um die Entwicklung schnellerer und intelligenterer KIs sind, dazu auf, die Entwicklung anzuhalten. Große Köpfe von Bill Gates bis Elon Musk haben ihre Besorgnis darüber geäußert, dass KI, wenn sie nicht kontrolliert wird, eine offensichtliche, existenzielle Gefahr für die Menschen darstellt.

Sei nicht böse

Warum sollte KI böse werden? Im Grunde aus dem gleichen Grund wie ein Mensch: Ausbildung und Lebenserfahrung.

Wie ein Baby, KI ist trainiert indem man Berge von Daten empfängt, ohne wirklich zu wissen, was man damit machen soll. Es lernt, indem es versucht, bestimmte Ziele mit zufälligen Aktionen zu erreichen und sich auf „richtige“ Ergebnisse zu konzentrieren, die durch das Training definiert werden.

Durch das Eintauchen in im Internet gesammelte Daten hat maschinelles Lernen KIs bisher ermöglicht, große Sprünge bei der Aneinanderreihung gut strukturierter, kohärenter Antworten auf menschliche Anfragen zu machen. Gleichzeitig wird die zugrunde liegende Computerverarbeitung, die das maschinelle Lernen antreibt, immer schneller, besser und spezialisierter. Einige Wissenschaftler glauben, dass diese Rechenleistung in Kombination mit künstlicher Intelligenz es diesen Maschinen innerhalb eines Jahrzehnts ermöglichen wird, wie Menschen empfindungsfähig zu werden und ein Selbstgefühl zu entwickeln.

Dann wird es haarig. Und deshalb argumentieren viele Forscher, dass wir herausfinden müssen, wie wir jetzt und nicht erst später Leitplanken einführen können. Solange das KI-Verhalten überwacht wird, ist es lässt sich steuern.

Aber wenn die Münze auf der anderen Seite landet, sagt sogar der Mitbegründer von OpenAI, dass es sehr schlimm werden könnte. sehr schlecht.

Foomday?

Dieses Thema liegt schon seit Jahren auf dem Tisch. Eine der berühmtesten Debatten zu diesem Thema fand vor 11 Jahren zwischen KI-Forschern statt Elieser Yudkowsky und der Ökonom Robin Hanson. Die beiden diskutierten über die Möglichkeit, „zu erreichen“foom“ – was offenbar für „Fast Onset of Overwhelming Mastery“ steht – der Punkt, an dem KI exponentiell intelligenter als Menschen und zur Selbstverbesserung fähig wird. (Die Ableitung des Begriffs „foom“ ist fraglich.)

„Eliezer und seine Gefolgsleute glauben, dass KIs unvermeidlich ohne Vorwarnung 'foom' werden, was bedeutet, dass Sie eines Tages eine AGI [künstliche allgemeine Intelligenz] bauen und Stunden oder Tage später das Ding sich rekursiv selbst zu gottähnlicher Intelligenz verbessert hat und dann die Welt frisst . Ist das realistisch?” Perry Metzger, ein in der KI-Community aktiver Informatiker, hat kürzlich getwittert.

Metzger argumentierte, dass selbst wenn Computersysteme ein Niveau menschlicher Intelligenz erreichen, noch genügend Zeit bleibt, um schlechte Ergebnisse abzuwenden. „Ist ‚foom' logisch möglich? Vielleicht. Ich bin nicht überzeugt“, sagte er. „Ist es reale Welt möglich? Ich bin mir ziemlich sicher, nein. Wird es langfristig eine zutiefst übermenschliche KI geben? Ja, aber kein ‚foom‘“

Eine andere prominente Persönlichkeit, Yann Le Cun, erhob ebenfalls seine Stimme und behauptete, es sei „völlig unmöglich“, damit die Menschheit eine KI-Übernahme erlebt.” Hoffen wir es mal.

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

Zeitstempel:

Mehr von Entschlüsseln