ChatGPT: Dinge sicherer machen (Simon Thompson)

ChatGPT: Dinge sicherer machen (Simon Thompson)

ChatGPT: Dinge sicherer machen (Simon Thompson) PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

In Teil eins dieses Blogs Ich habe die neue und leistungsstarke Technologie ChatGPT untersucht. In diesem zweiten und letzten Teil untersuche ich, welche Best Practices erforderlich sind, um die Verwendung so sicher und geschützt wie möglich zu gestalten.

Es ist ziemlich klar, dass wir ChatGPT nicht wieder in die Flasche stecken werden. Die Techniken, mit denen es erstellt wurde, sind bekannt, und obwohl der erforderliche Rechenaufwand jetzt heroisch erscheint, wird es in relativ naher Zukunft viel breiter zugänglich sein. Auch wenn sich die Rechenpreise in naher Zukunft nicht radikal nach unten verschieben, steht die Art von Rechenleistung, die zur Erstellung von GPT3.5 erforderlich ist, bereits vielen staatlichen Akteuren und einer Vielzahl von nichtstaatlichen Akteuren zur Verfügung.

Google hat „Bard“ basierend auf seiner LAMDA-Technologie angekündigt, die so überzeugend ist, dass ein interner Ingenieur davon überzeugt war, dass sie eine Seele hat, und Deepmind hat einen Chatbot namens „Sparrow“ entwickelt, von dem „einige behaupten“, dass er ChatGPT technisch überlegen ist.

Die großen Gefahren dürften nicht von ausgeklügelten Superkonzernen wie Alphabet ausgehen. Kleinere Unternehmen mit der Einstellung „schnell handeln und kaputt gehen“ sind mit ihren Anwendungsideen wahrscheinlich kreativ und abenteuerlustig. Aber mit dieser Art von System sind sehr reale Schäden für sehr reale Menschen möglich, und diese können von kleinen, nicht fachkundigen Teams einfach und schnell implementiert werden.

Fünf Top-Tipps, um ChatGPT sicherer zu machen

Auch wenn es viele Wege zum „Nein“ und nur einen zum „Ja“ gibt, wird es dennoch viele Bewerbungen geben, die als vernünftig qualifiziert werden. Aber das wird sie nicht sicher machen. Um Vertrauen in eine ChatGPT-basierte Anwendung zu haben, wird auch vorgeschlagen, dass die folgenden Schritte implementiert werden.

  1. Es sollte keine Täuschung darüber geben, womit Benutzer interagieren. Sie können keine informierte Einwilligung erteilen, wenn Sie nicht informiert sind. Saleema Amershi et al. [1] haben hervorragende Richtlinien für die Interaktion von KI-Systemen veröffentlicht. Wichtig ist, dass diese eine Struktur für die Berücksichtigung von Interaktionen während des gesamten Lebenszyklus einer Benutzerinteraktion bieten. Die Richtlinien behandeln, wie dem Benutzer klar gemacht werden kann, womit er interagiert, und wie er darüber informiert wird, was von ihm erwartet wird. Die Anleitung von Amershi erstreckt sich über die gesamte Interaktion und bewältigt Ausfälle und Überstunden, während das System zum „Business as usual“ wird.
  2. Benutzer sollten die Möglichkeit haben, nicht mit dem System zu interagieren. Eine echte Option – zum Beispiel ein alternativer Kontaktkanal.
  3. Jedem Antrag sollte eine Folgenabschätzung beigefügt werden. Stellen Sie es so auf die Website, wie Sie es mit einer robots.txt-Datei tun würden, oder wie Sie Ihrem Quellcode eine Lizenz hinzufügen würden. Der kanadische AIA-Prozess bietet ein Modell für solche Dinge, aber einige grundlegende Fragen sind ein guter Anfang. Wem schadet es, wenn es wie vorgesehen funktioniert? Wer wird verletzt, wenn der Chatbot schief geht? Kann jemand sagen, ob der Chatbot schief läuft, und kann er ihn stoppen und die Situation beheben, wenn dies der Fall ist?
  4. Wenn Ihr System negative Auswirkungen auf andere haben könnte, sollte überwacht und protokolliert werden, was das System tut und wie es sich verhält. Diese sollten so gepflegt werden, dass bei Bedarf eine forensische Untersuchung des Verhaltens des Systems möglich ist.
  5. Wenn Sie nicht persönlich und direkt für das System verantwortlich sind, sollte ein klar dokumentierter Governance-Prozess entwickelt und gepflegt werden. Ein Teil davon sollte beschreiben, wie Benutzer um Hilfe rufen und sich über das System beschweren können. Es sollte auch beschreiben, wie die Prozesse zum Umgang mit Beschwerden und Beschwerden von Benutzern aussehen sollten.

Potenzial für großen Wert in vielen Anwendungsfällen

Mit den richtigen Kontrollen und Prozessen werden neue große Sprachmodelle wie ChatGPT in vielen Anwendungsfällen einen großen Mehrwert bieten, auch wenn die wesentlichen Kontrollen und Überprüfungen vorhanden sind, um sicherzustellen, dass Benutzer und Endbenutzer vor Missverständnissen geschützt sind.

  1. Amershi, Salema. "Richtlinien für die Mensch-KI-Interaktion." CHI-Konferenz zu menschlichen Faktoren in Computersystemen. CHI, 2019. 1–13.

Zeitstempel:

Mehr von Fintextra