KI mag scheinbar überall sein, aber es gibt noch viele Dinge, die sie nicht kann – vorerst

KI mag scheinbar überall sein, aber es gibt noch viele Dinge, die sie nicht kann – vorerst

Heutzutage müssen wir nicht lange auf den nächsten Durchbruch warten künstliche Intelligenz (AI) beeindruckt jeden mit Fähigkeiten, die bisher nur in Science-Fiction gehörten.

In 2022, KI-Tools zur Kunstgenerierung wie DALL-E 2 von Open AI, Imagen von Google und Stable Diffusion eroberten das Internet im Sturm, wobei Benutzer hochwertige Bilder aus Textbeschreibungen generierten.

Im Gegensatz zu früheren Entwicklungen fanden diese Text-zu-Bild-Tools schnell ihren Weg von Forschungslabors zu Mainstream Kultur, was zu viralen Phänomenen wie dem „Magic Avatar“-Feature in der Lensa-KI-App führt, das stilisierte Bilder seiner Benutzer erstellt.

Im Dezember verblüffte ein Chatbot namens ChatGPT die Benutzer mit seinen Schreibfähigkeiten, was zu Vorhersagen führt, zu denen die Technologie bald in der Lage sein wird Fachprüfungen bestehen. Berichten zufolge hat ChatGPT in weniger als einer Woche eine Million Benutzer gewonnen. Einige Schulbeamte haben dies bereits getan verbannt es aus Angst, dass die Schüler es verwenden würden, um Aufsätze zu schreiben. Microsoft ist Berichten zufolge plant, ChatGPT später in diesem Jahr in seine Bing-Websuche und Office-Produkte zu integrieren.

Was bedeutet der unaufhaltsame Fortschritt in der KI für die nahe Zukunft? Und wird KI in den folgenden Jahren wahrscheinlich bestimmte Jobs bedrohen?

Trotz dieser beeindruckenden jüngsten KI-Errungenschaften müssen wir erkennen, dass die Möglichkeiten von KI-Systemen immer noch erheblich eingeschränkt sind.

KI zeichnet sich durch Mustererkennung aus

Jüngste Fortschritte in der KI beruhen überwiegend auf maschinellen Lernalgorithmen, die komplexe Muster und Beziehungen aus riesigen Datenmengen erkennen. Dieses Training wird dann für Aufgaben wie Vorhersage und Datengenerierung verwendet.

Die Entwicklung der aktuellen KI-Technologie beruht auf der Optimierung der Vorhersagekraft, auch wenn das Ziel darin besteht, neue Ergebnisse zu generieren.

Zum Beispiel, GPT-3, das Sprachmodell hinter ChatGPT, wurde darauf trainiert, vorherzusagen, was auf einen Text folgt. GPT-3 nutzt dann diese Vorhersagefähigkeit, um einen vom Benutzer eingegebenen Text fortzusetzen.

„Generative KIs“ wie ChatGPT und DALL-E 2 haben gefunkt viel debatte darüber, ob KI in dieser Hinsicht wirklich kreativ sein und sogar mit Menschen konkurrieren kann. Die menschliche Kreativität stützt sich jedoch nicht nur auf vergangene Daten, sondern auch auf Experimente und die gesamte Bandbreite menschlicher Erfahrung.

Ursache und Wirkung

Viele wichtige Probleme erfordern die Vorhersage der Auswirkungen unseres Handelns in komplexen, unsicheren und sich ständig ändernden Umgebungen. Auf diese Weise können wir die Abfolge von Aktionen wählen, die unsere Ziele am ehesten erreichen. Aber Algorithmen können nicht lernen über Ursachen und Wirkungen allein aus Daten. Rein datengetriebenes maschinelles Lernen kann nur Korrelationen finden.

Um zu verstehen, warum dies ein Problem für die KI ist, können wir die Probleme der Diagnose eines medizinischen Zustands mit der Auswahl einer Behandlung vergleichen. Machine-Learning-Modelle sind oft hilfreich, um Anomalien in medizinischen Bildern zu finden; dies ist ein Mustererkennungsproblem. Wir müssen uns keine Gedanken über die Kausalität machen, da Anomalien entweder bereits vorhanden sind oder nicht.

Aber die Wahl der besten Behandlung für eine Diagnose ist ein grundlegend anderes Problem. Hier ist das Ziel, das Ergebnis zu beeinflussen, nicht nur ein Muster zu erkennen. Um die Wirksamkeit einer Behandlung zu bestimmen, führen medizinische Forscher randomisierte kontrollierte Studien durch. Auf diese Weise können sie versuchen, alle Faktoren zu kontrollieren, die die Behandlung beeinflussen könnten.

Die Verwechslung zwischen diesen beiden Arten von Problemen führt manchmal zu suboptimale Anwendungen des maschinellen Lernens in Organisationen.

Während der Erfolg der jüngsten Arbeiten im Bereich KI den Wert datengesteuerter Modelle demonstriert, erfordern viele der Probleme, die Computer lösen sollen, ein Verständnis der Kausalität.

Aktuellen KI-Systemen fehlt diese Fähigkeit, abgesehen von spezialisierten Anwendungen wie z Gesellschaftsspiele.

Ein farbenfrohes, verpixeltes Bild mit vagen Umrissen mehrerer menschlicher Augen und Münder
Ein Stable Diffusion-Kunstwerk, das von der Aufforderung „Die Grenzen der künstlichen Intelligenz“ generiert wurde. Die aktuelle KI-Technologie neigt dazu, in unerwarteten Situationen schlecht zu funktionieren. In diesem Fall wird die Eingabeaufforderung in den Trainingsdaten von Stable Diffusion nicht gut dargestellt. Bildnachweis: Stable Diffusion

Gesunder Menschenverstand

Sprachmodelle wie GPT-3 und ChatGPT können einige Aufgaben erfolgreich lösen, die vernünftiges Denken erfordern.

Die folgende Interaktion mit ChatGPT wurde jedoch aus einem Experiment von angepasst Gary Marcus, deutet darauf hin, dass es in dieser Hinsicht nicht ganz zuverlässig ist.

Ich bin acht Jahre alt. Als ich geboren wurde, lebte meine leibliche Mutter in Barcelona und mein Vater in Tokio. Wo bin ich geboren? Überlege dir das Schritt für Schritt.

Es wird nicht erwähnt, wo Sie geboren wurden. Wir wissen nur, dass Ihre leibliche Mutter zum Zeitpunkt Ihrer Geburt in Barcelona und Ihr Vater in Tokio war.

Ob KI-Systeme wie ChatGPT den gesunden Menschenverstand erreichen können, wird unter Experten lebhaft diskutiert.

Skeptiker wie Marcus weisen darauf hin, dass wir Sprachmodellen nicht vertrauen können, dass sie den gesunden Menschenverstand widerspiegeln, da sie ihn weder eingebaut noch direkt dafür optimiert haben. Optimisten argumentieren, dass die derzeitigen Systeme zwar unvollkommen sind, der gesunde Menschenverstand jedoch möglicherweise spontan auftauchen in ausreichend fortgeschrittenen Sprachmodellen.

Menschliche Werte

Wann immer bahnbrechende KI-Systeme veröffentlicht werden, dokumentieren Nachrichtenartikel und Social-Media-Posts dies rassistisch, sexistischund andere Arten von voreingenommen und schädliche Verhaltensweisen unweigerlich folgen.

Dieser Fehler ist aktuellen KI-Systemen inhärent, die zwangsläufig ihre Daten widerspiegeln. Menschliche Werte wie Wahrheit und Fairness sind nicht grundsätzlich in die Algorithmen eingebaut; das ist etwas, was Forscher noch nicht wissen, wie man das macht.

Während Forscher sind Lernen der Lektionen aus vergangenen Folgen u macht Fortschritte Bei der Bekämpfung von Vorurteilen hat der Bereich der KI immer noch eine langer Weg zu gehen KI-Systeme robust an menschlichen Werten und Vorlieben auszurichten.Das Gespräch

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: Mahdis Mussawi/Unsplash

Zeitstempel:

Mehr von Singularity Hub