Wenn KI-Chatbots empfindungsfähig sind, können sie auch Eichhörnchen sein PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Wenn KI-Chatbots empfindungsfähig sind, können sie auch Eichhörnchen sein

In Kürze Nein, KI-Chatbots sind nicht empfindungsfähig.

Sobald die Story über einen Google-Ingenieur, der auf ein seiner Meinung nach empfindungsfähiges Sprachmodell aufmerksam gemacht hatte, ging viral, mehrere Veröffentlichungen meldeten sich, um zu sagen, dass er falsch liegt.

Das Debatten. darauf, ob das Unternehmen LaMDA-Chatbot Ob jemand bei Bewusstsein ist oder eine Seele hat oder nicht, ist nicht sehr gut, nur weil es zu einfach ist, die Seite auszuschalten, die das glaubt. Wie die meisten großen Sprachmodelle verfügt LaMDA über Milliarden von Parametern und wurde anhand von Texten aus dem Internet trainiert. Das Modell lernt die Beziehungen zwischen Wörtern und welche Wörter mit größerer Wahrscheinlichkeit nebeneinander auftauchen.

Es scheint intelligent genug zu sein und kann manchmal Fragen richtig beantworten. Aber es weiß nichts darüber, was es sagt, und hat kein wirkliches Verständnis von Sprache oder irgendetwas wirklich. Sprachmodelle verhalten sich zufällig. Fragen Sie es, ob es Gefühle hat, und es könnte ja oder sagen nicht. Fragen Sie, ob es eine ist Eichhörnchen, und es könnte auch Ja oder Nein sagen. Ist es möglich, dass KI-Chatbots tatsächlich Eichhörnchen sind?

FTC schlägt Alarm wegen der Verwendung von KI zur Moderation von Inhalten

KI verändert das Internet. Realistisch wirkende Fotos werden in Profilen von falschen Accounts in sozialen Medien verwendet, pornografische Deepfake-Videos von Frauen kursieren, von Algorithmen generierte Bilder und Texte werden online gestellt.

Experten haben gewarnt, dass diese Funktionen das Risiko von Betrug, Bots, Fehlinformationen, Belästigung und Manipulation erhöhen können. Plattformen setzen zunehmend auf KI-Algorithmen, um schädliche Inhalte automatisch zu erkennen und zu entfernen.

Jetzt warnt die FTC, dass diese Methoden die Probleme verschlimmern könnten. „Unser Bericht betont, dass niemand KI als Lösung für die Verbreitung schädlicher Online-Inhalte betrachten sollte“, sagte Samuel Levine, Direktor des Verbraucherschutzbüros der FTC, sagte in einer Erklärung.

Leider kann die Technologie „von Natur aus ungenau, voreingenommen und diskriminierend“ sein. „Die Bekämpfung von Online-Schäden erfordert eine breite gesellschaftliche Anstrengung, nicht einen übermäßig optimistischen Glauben, dass neue Technologien – die sowohl hilfreich als auch gefährlich sein können – diese Probleme von uns nehmen werden“, sagte Levine.

Spotify schnappt sich Deepfake-Voice-Startup

Der Audio-Streaming-Gigant Spotify hat Sonantic übernommen, einen in London ansässigen Newcomer, der sich auf die Entwicklung von KI-Software konzentriert, die in der Lage ist, vollständig erfundene Stimmen zu erzeugen.

Die Technologie von Sonantic wurde für Spiele und in Hollywood-Filmen verwendet und half dabei, dem Schauspieler Val Kilmer eine Stimme zu geben Top Gun: Außenseiter. Kilmer spielte Iceman in dem Actionfilm; Seine Zeilen wurden von einer Maschine geäußert, weil er nach dem Kampf gegen Kehlkopfkrebs Sprachschwierigkeiten hatte.

Jetzt scheint die gleiche Technologie auch bei Spotify Einzug zu halten. Die naheliegende Anwendung wäre die Verwendung der KI-Stimmen zum Lesen von Hörbüchern. Immerhin Spotify erworben Findaway, eine Hörbuchplattform, letztes Jahr im November. Es wird interessant sein zu sehen, ob die Zuhörer in der Lage sein werden, den Klang ihrer maschinellen Erzähler anzupassen. Vielleicht gibt es für das Vorlesen von Kinderbüchern andere Stimmen als für Horrorgeschichten.

„Wir freuen uns sehr über das Potenzial, die KI-Sprachtechnologie von Sonantic auf die Spotify-Plattform zu bringen und neue Erfahrungen für unsere Benutzer zu schaffen“, sagt Ziad Sultan, Vice President of Personalisierung bei Spotify. sagte in einer Stellungnahme. „Diese Integration wird es uns ermöglichen, Benutzer auf eine neue und noch personalisiertere Weise anzusprechen“, deutete er an.

TSA testet KI-Software zum automatischen Scannen von Gepäck

Die US-Verkehrssicherheitsbehörde wird testen, ob Computer-Vision-Software automatisch Gepäck überprüfen kann, um nach Gegenständen zu suchen, die seltsam aussehen oder auf Flügen nicht erlaubt sind.

Der Versuch findet in einem Labor statt und ist noch nicht bereit für echte Flughäfen. Die Software arbeitet mit der bereits vorhandenen 3D-Computertomographie (CT)-Bildgebung, mit der TSA-Beamte derzeit an Sicherheitskontrollen durch die Taschen von Personen spähen. Wenn Agenten etwas Verdächtiges sehen, nehmen sie das Gepäck zur Seite und durchsuchen es.

KI-Algorithmen können einen Teil dieses Prozesses automatisieren; Sie können Objekte identifizieren und Instanzen kennzeichnen, in denen sie bestimmte Elemente entdecken.

„Da TSA und andere Sicherheitsbehörden CT einführen, stellt diese Anwendung von KI einen potenziell transformativen Sprung in der Luftsicherheit dar, der Flugreisen sicherer und konsistenter macht und es den hochqualifizierten Beamten der TSA ermöglicht, sich auf Gepäckstücke zu konzentrieren, die das größte Risiko darstellen.“ sagte Alexis Long, Produktdirektor bei Pangiam, dem Technologieunternehmen, das mit der Verwaltung zusammenarbeitet.

„Unser Ziel ist es, KI- und Computer-Vision-Technologien einzusetzen, um die Sicherheit zu verbessern, indem wir der TSA und Sicherheitsbeamten leistungsstarke Tools zur Verfügung stellen, um verbotene Gegenstände zu erkennen, die eine Bedrohung für die Flugsicherheit darstellen können. Dies ist ein bedeutender Schritt hin zur Festlegung eines neuen Sicherheitsstandards mit weltweiten Auswirkungen.“ ®

Zeitstempel:

Mehr von Das Register