„Ich wurde gefeuert“, sagt ein Ingenieur, der behauptete, der Google-Chatbot sei ein empfindungsfähiger PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Ich wurde gefeuert, sagt ein Techniker, der behauptete, der Google-Chatbot sei empfindungsfähig

In Kürze Berichten zufolge hat Google Blake Lemoine entlassen, den Ingenieur, der beurlaubt wurde, nachdem er darauf bestanden hatte, dass der LaMDA-Chatbot des Webgiganten empfindungsfähig sei.

Lemoine geriet nicht in Schwierigkeiten, weil er seine umstrittene, Augenbrauen hochziehende Meinung zu dem Modell vertreten hatte. Stattdessen wurde er für die Verletzung der Vertraulichkeitsrichtlinien von Google bestraft. Er Berichten zufolge lud einen Anwalt ein, um potenzielle gesetzliche Rechte für LaMDA zu prüfen, und sprach mit einem Repräsentanten des Repräsentantenhauses, der behauptete, Google sei unethisch.

Ein Google-Sprecher sagte Im Newsletter von Big Technology hat er beschlossen, seine Anstellung zu kündigen, da Lemoine weiterhin gegen „Beschäftigungs- und Datensicherheitsrichtlinien“ verstößt und Geschäftsgeheimnisse gefährdet.

„Wenn ein Mitarbeiter Bedenken hinsichtlich unserer Arbeit äußert, wie es Blake getan hat, überprüfen wir sie ausführlich. Wir fanden Blakes Behauptung, LaMDA sei empfindungsfähig, völlig unbegründet und arbeiteten viele Monate mit ihm daran, dies zu klären. Diese Diskussionen waren Teil der offenen Kultur, die uns hilft, verantwortungsbewusst zu innovieren“, sagte der Sprecher.

„Deshalb ist es bedauerlich, dass Blake sich trotz langwieriger Auseinandersetzung mit diesem Thema immer noch entschieden hat, beharrlich gegen klare Beschäftigungs- und Datensicherheitsrichtlinien zu verstoßen, zu denen auch die Notwendigkeit gehört, Produktinformationen zu schützen. Wir werden unsere sorgfältige Entwicklung von Sprachmodellen fortsetzen und wünschen Blake alles Gute.“

Viele Experten bei Google sowie in Wissenschaft und Industrie haben Zweifel daran geäußert, ob LaMDA oder ein anderer bestehender KI-Chatbot empfindungsfähig ist. Sprachmodelle lernen mathematische Beziehungen zwischen Wörtern und sind gut darin, die menschliche Sprache nachzuahmen, ohne ein wirkliches Verständnis zu haben. Keiner von ihnen ist wirklich intelligent, geschweige denn bewusst.

Warum Entwickler keinen Open-Source-KI-Code ausführen können

Welchen Sinn hat es, den Code für maschinelle Lernmodelle freizugeben, wenn Entwickler nicht über die erforderlichen Ressourcen verfügen, um ihn auszuführen?

KI-Software ist notorisch schwer zu entwickeln und selbst auszuprobieren, selbst wenn es sich um Open Source handelt. Teile der Quelle werden ausgelassen, oder die zum Trainieren des Modells erforderlichen Datensätze sind nicht verfügbar. Manchmal sind diese Teile zugänglich, aber Entwickler haben nicht die Rechenleistung, um solch große Systeme einzusetzen.

Nimm Metas Öffnen Sie den vortrainierten Transformer, zum Beispiel. Die größte Version des Sprachmodells enthält 175 Milliarden Parameter. Obwohl der Werbegigant seinen Code veröffentlicht hat, werden nicht viele genug Chips zur Hand haben, um das Modell von Grund auf zu trainieren und zu verwenden, sagte Matt Asay, der das Partnermarketing bei MongoDB leitet, bekannt in persönlicher Eigenschaft.

„Der Schlüssel liegt darin, Forschern ausreichend Zugang zu bieten, damit sie die Erfolge und Misserfolge der Funktionsweise eines bestimmten KI-Modells reproduzieren können … Als Unternehmen und Einzelpersonen sollte es unser Ziel sein, den Zugang zu Software so zu öffnen, dass unsere Kunden und Dritte davon profitieren. Parteientwickler dazu auffordert, den Zugang und das Verständnis zu fördern, anstatt zu versuchen, ein jahrzehntealtes Konzept von Open Source auf die Cloud umzurüsten“, argumentierte er.

Dall-E von OpenAI geht in den Beta-Modus

OpenAIs kommerzielles Text-zu-Bild-Generierungsmodell DALL·E 2 wird für eine Million weitere Menschen geöffnet, die sich auf die Warteliste gesetzt haben.

Der Zugriff war zuvor auf ausgewählte Künstler, Forscher und Entwickler beschränkt, da OpenAI sein System vor der vollständigen kommerziellen Veröffentlichung testen wollte. Die Leute haben das Tool verwendet, um alle möglichen Bilder zu erstellen, um Internet-Memes, Comics oder digitale Kunst zu erstellen. 

Benutzer erhalten 50 kostenlose Credits im ersten Monat der Nutzung und 15 kostenlose Credits jeden Monat danach. Jeder Credit kann verwendet werden, um eine originale Dall-E-Prompt-Generierung zu generieren, und sie erhalten vier Bilder als Ausgabe statt der vorherigen sechs. Beim Bearbeiten vorhandener Textaufforderungen werden drei Bilder zurückgegeben. Wenn sie mehr generieren möchten, müssen sie 15 US-Dollar bezahlen, um weitere 115 Credits für zusätzliche 460 Bilder zu erhalten. 

Sie können auch alle Bilder, die sie mit dem Modell erstellen, kommerzialisieren, was bedeutet, dass die Urheber das Recht haben, ihre Bilder für Waren und dergleichen zu verkaufen und zu drucken. „Wir sind gespannt, was die Leute mit DALL·E erschaffen und freuen uns auf das Feedback der Benutzer während dieser Beta-Phase“, so das Forschungslabor sagte diese Woche. 

Mit Gesichtserkennung an Kindern herumschnüffeln

Mit dem umstrittenen kommerziellen Online-Gesichtserkennungsdienst PimEyes kann nach „potentiell expliziten“ Bildern von Kindern gesucht werden.

PimEyes ermöglicht es jedem, ein Foto hochzuladen, es sucht nach möglichen Übereinstimmungen und gibt Bilder und die entsprechenden URLs zurück. Der Dienst wird als Tool zum Schutz der Privatsphäre vermarktet, bei dem Benutzer sehen können, wo Bilder von sich selbst im Internet veröffentlicht wurden, und sagte, er habe dazu beigetragen, Probleme wie Rachepornos zu bekämpfen.

Aber es gibt auch eine dunkle Seite. Jeder kann die Website nutzen, um nach Fotos von beliebigen Personen zu suchen, sogar von Kindern. Ein Untersuchung von The Intercept stellte fest, dass es einfach war, Fotos von Jugendlichen zu finden, und einige dieser Bilder wurden sogar als „potenziell explizit“ gekennzeichnet. In dem Experiment wurden gefälschte KI-generierte Bilder von Kindern verwendet, und PimEyes gab immer noch Übereinstimmungen zurück, was darauf hindeutet, dass seine Software wahrscheinlich nicht sehr genau ist.

„Die Tatsache, dass PimEyes keine Sicherheitsvorkehrungen für Kinder getroffen hat und sich anscheinend nicht sicher ist, wie Sicherheitsvorkehrungen für Kinder getroffen werden sollen, unterstreicht nur die Risiken dieser Art von Gesichtserkennungsdiensten“, sagt Jeramie Scott, Direktorin des Surveillance Oversight Project bei Electronic Privacy Information Center, wurde zitiert. „Die Teilnahme an der Öffentlichkeit, ob online oder offline, sollte nicht bedeuten, dass Sie sich in die Privatsphäre eindringenden Diensten wie PimEyes aussetzen.“

KI-gestützte Schreibwerkzeuge helfen unabhängigen Autoren, mehr Bücher zu veröffentlichen

Die Erstellung von Inhalten ist oft ein schwieriges Geschäft. Sie müssen sich häufig frisches Material einfallen lassen, um das Publikum zu halten und zu vergrößern.

Eine unabhängige Romanautorin, die ihre Arbeit auf Amazons Kindle-Plattform unter dem Pseudonym Leanne Leeds veröffentlicht, beschrieb die Möglichkeiten und Grenzen der Verwendung eines GPT-3-basierten Textgenerierungstools als Schreibpartner.

Durch das Einspeisen von Sätzen in eine Software namens Sudowrite können Autoren wie Leeds automatisch generierte Textpassagen zurückerhalten; es wirkt wie eine intelligentere automatische Vervollständigung. Leeds sagte The Verge hatte ihre Produktivität um über 20 Prozent gesteigert, als sie damit ihre Prosa erstellte. Sie bearbeitet die Ausgaben der Software und fügt die Absätze in ihre Bücher ein. Sudowrite hilft ihr, Bücher schneller zu schreiben, um das Interesse der Leser zu wecken. 

Aber Schriftsteller sind hin- und hergerissen über den Einsatz von KI. Einige glauben, dass es der Kreativität und Magie der Literatur widerspricht, während andere ihr Potenzial für das Geschichtenerzählen sehen. Sollen Autoren offenlegen, dass ihre Bücher mit Hilfe von Algorithmen geschrieben wurden? Und was noch wichtiger ist, ist dieses automatisch generierte Gekritzel gut?

Im Moment sind Maschinen nicht gut genug und müssen bearbeitet werden, um zu verhindern, dass Erzählungen und Handlungsstränge aus den Fugen geraten. Leeds glaubt, dass Tools wie Sudowrite eines Tages gut genug sein werden, um allgemeine Fiktion zu schreiben. „Ich glaube, das ist die eigentliche Gefahr, dass man das kann und dann ist nichts mehr originell. Alles ist nur eine Kopie von etwas anderem“, sagte sie. „Das Problem ist, das gefällt den Lesern.“ ®

Zeitstempel:

Mehr von Das Register