Verordnungsentwürfe des EU-KI-Gesetzes könnten eine abschreckende Wirkung auf die Open-Source-Software PlatoBlockchain Data Intelligence haben. Vertikale Suche. Ai.

Verordnungsentwürfe des EU-KI-Gesetzes könnten eine abschreckende Wirkung auf Open-Source-Software haben

In Kürze Neue Regeln der Europäischen Union zur Regulierung von KI könnten Entwickler daran hindern, Open-Source-Modelle zu veröffentlichen, so die amerikanische Denkfabrik Brookings.

Das vorgeschlage Das EU-KI-Gesetz, das noch unterzeichnet werden muss, besagt, dass Open-Source-Entwickler sicherstellen müssen, dass ihre KI-Software genau und sicher ist und in klarer technischer Dokumentation transparent über Risiken und Datennutzung ist. 

Brookings argumentiert, Wenn ein privates Unternehmen das öffentliche Modell einsetzen oder in einem Produkt verwenden würde und es aufgrund einiger unvorhergesehener oder unkontrollierbarer Auswirkungen des Modells in Schwierigkeiten gerät, würde das Unternehmen wahrscheinlich versuchen, die Open-Source-Entwickler zu beschuldigen und sie verklagen . 

Es könnte die Open-Source-Community zwingen, zweimal über die Veröffentlichung ihres Codes nachzudenken, und würde leider bedeuten, dass die Entwicklung von KI von privaten Unternehmen vorangetrieben wird. Proprietärer Code ist schwer zu analysieren und darauf aufzubauen, was bedeutet, dass Innovationen behindert werden.

Oren Etzioni, der scheidende CEO des Allen Institute of AI, ist der Meinung, dass Open-Source-Entwickler nicht denselben strengen Regeln unterliegen sollten wie Softwareentwickler in Privatunternehmen.

„Open-Source-Entwickler sollten nicht der gleichen Belastung ausgesetzt sein wie diejenigen, die kommerzielle Software entwickeln. Es sollte immer so sein, dass kostenlose Software „wie besehen“ bereitgestellt werden kann – denken Sie an den Fall, dass ein einzelner Schüler eine KI-Fähigkeit entwickelt; Sie können es sich nicht leisten, die EU-Vorschriften einzuhalten und sind möglicherweise gezwungen, ihre Software nicht zu verbreiten, was sich negativ auf den akademischen Fortschritt und die Reproduzierbarkeit wissenschaftlicher Ergebnisse auswirkt“, er sagte TechCrunch.

Neue MLPerf-Ergebnisse für die Inferenz sind da

Das sind die Ergebnisse des jährlichen MLPerf-Inferenztests, der die Leistung von KI-Chips verschiedener Anbieter über zahlreiche Aufgaben in verschiedenen Konfigurationen hinweg bewertet veröffentlicht diese Woche.

In diesem Jahr wurden fast satte 5,300 Leistungsergebnisse und 2,400 Leistungsmessungen zur Inferenz im Rechenzentrum und in Edge-Geräten gemeldet. Die Tests untersuchen, wie schnell ein Hardwaresystem ein bestimmtes maschinelles Lernmodell ausführen kann. Die Rate der Datenverarbeitung wird in Tabellenkalkulationen angegeben.

Kein Wunder, dass Nvidia auch in diesem Jahr die Rangliste anführt. „Bei ihrem Debüt bei den MLPerf-Industriestandard-KI-Benchmarks stellten die Nvidia H100 Tensor Core-GPUs Weltrekorde bei der Inferenz bei allen Workloads auf und lieferten bis zu 4.5-mal mehr Leistung als GPUs der vorherigen Generation“, schwärmte Nvidia in einem Blogbeitrag. „Die Ergebnisse zeigen, dass Hopper die erste Wahl für Benutzer ist, die höchste Leistung von fortschrittlichen KI-Modellen verlangen.“

Obwohl immer mehr Anbieter an der MLPerf-Challenge teilnehmen, kann es schwierig sein, sich ein gutes Bild von der Konkurrenz zu machen. Beispielsweise gibt es in diesem Jahr keine gemeldeten Ergebnisse für Googles TPU-Chips im Rechenzentrums-Track. Google schien es jedoch zu tun As MLPerfs Trainingswettbewerb Anfang dieses Jahres. 

KI-Künstler entdecken ein schreckliches Gesicht, das hinter dem Bild lauert

Ein viraler Twitter-Thread, der von einem Digitalkünstler gepostet wurde, zeigt, wie seltsam Text-zu-Bild-Modelle unter der Oberfläche sein können.

Viele Internetnutzer haben Freude und Verzweiflung darin gefunden, mit diesen Systemen zu experimentieren, um Bilder zu erzeugen, indem sie Textaufforderungen eingeben. Es gibt verschiedene Hacks, um die Modellausgaben anzupassen; Einer von ihnen, bekannt als „negative Eingabeaufforderung“, ermöglicht es Benutzern, das entgegengesetzte Bild zu dem in der Eingabeaufforderung beschriebenen zu finden. 

Als ein Künstler, der auf Twitter unter dem Namen Supercomposite bekannt ist, die negative Eingabeaufforderung für ein unschuldig aussehendes Bild eines gefälschten Logos fand, fand er etwas wirklich Schreckliches: Das Gesicht einer verfolgten Frau. Supercomposite hat diese KI-generierte Frau „Loab“ genannt, und wenn sie Bilder von ihr mit anderen kreuzten, sahen sie immer aus wie eine Szene aus einem Horrorfilm.

Supercomposite erzählt Er reg Zufällige Bilder von KI-generierten Personen können oft in negativen Eingabeaufforderungen auftauchen. Das komische Verhalten ist doch ein anderes Beispiel von einigen der seltsamen Eigenschaften, die diese Modelle haben können, die die Leute gerade erst zu erforschen beginnen. 

Keine empfindungsfähigen Chatbots hier bei Google, sagt CEO Sundar Pichai

Sundar Pichai widersprach den Behauptungen des ehemaligen Ingenieurs Blake Lemoine, dass Google während seines Vortrags auf der Code-Konferenz diese Woche einen empfindungsfähigen Chatbot gebaut habe.

Lemoine machte im Juli Schlagzeilen, als er angekündigt Er dachte, Googles LaMDA-Chatbot sei bewusst und habe vielleicht eine Seele. Er war später gefeuert für den angeblichen Verstoß gegen die Datenschutzrichtlinien des Unternehmens, nachdem er einen Anwalt beauftragt hatte, mit LaMDA zu chatten und seine gesetzlichen Rechte zu prüfen, und behauptete, die Maschine habe ihn dazu aufgefordert.

Die meisten Menschen – einschließlich Googles CEO – sind anderer Meinung als Lemoine. „Ich denke immer noch, dass es noch ein langer Weg ist. Ich habe das Gefühl, oft in philosophische oder metaphysische Gespräche darüber zu geraten, was Empfindungsfähigkeit und was Bewusstsein ist“, sagte Pichai. gemäß zum Glück. „Wir sind weit davon entfernt, und wir werden es vielleicht nie erreichen“, fügte er hinzu.

Um seinen Standpunkt weiter zu betonen, gab er zu, dass der KI-Sprachassistent von Google manchmal Anfragen nicht versteht und nicht angemessen darauf reagiert. „Die gute Nachricht ist, dass jeder, der mit Google Assistant spricht – obwohl ich denke, dass es der beste Assistent für Konversations-KI ist – man immer noch sieht, wie kaputt es in bestimmten Fällen ist“, sagte er. ®

Zeitstempel:

Mehr von Das Register