CCC antwortet auf die Informationsanfrage der NTIA zu KI-Modellen der Dual Use Foundation mit weithin verfügbaren Modellgewichten » CCC-Blog

CCC antwortet auf die Informationsanfrage der NTIA zu KI-Modellen der Dual Use Foundation mit weithin verfügbaren Modellgewichten » CCC-Blog

Letzte Woche antwortete der CCC auf die Anfragen der National Telecommunications and Information Administration Informationsanfrage zu Modellen der Dual Use Foundation für künstliche Intelligenz mit weit verbreiteten Modellgewichten. Daniel Lopresti (CCC-Vorsitzender und Lehigh University) und David Danks (CCC-Exekutivkomitee und University of California, San Diego) vom CCC haben zusammen mit mehreren anderen Mitgliedern der Computer-Community beim Verfassen dieser Antwort mitgeholfen. Markus Buehler (Massachusetts Institute of Technology) und Duncan Watson-Parris (University of California, San Diego), die beide dieses Jahr auf dem vom CCC gesponserten AAAS-Panel sprachen, mit dem Titel: Generative KI in der Wissenschaft: Versprechen und FallstrickeBeide trugen zur RFI-Antwort bei, zusammen mit Casey Fiesler (University of Colorado, Boulder), der an den CCCs teilnahm Zukunft der Forschung zu sozialen Technologien Workshop im November.

In ihrer Antwort konzentrierten sich die Autoren auf einige spezifische Fragen aus dem RFI. In einer davon ging es darum, wie die Risiken, die mit der breiten Verfügbarkeit von Modellgewichten verbunden sind, im Vergleich zu denen sind, die mit nicht öffentlichen Modellgewichten verbunden sind. Die Autoren antworteten, dass die meisten mit generativen Modellen verbundenen Risiken durch die breite Verfügbarkeit von Modellgewichten nur minimal verschärft werden. Die meisten Risiken im Zusammenhang mit generativen Modellen sind diesen Modellen inhärent, da sie in der Lage sind, auf der Grundlage von Benutzereingaben schnell enorme Mengen glaubwürdiger Inhalte zu generieren, und weil sie nahezu unbegrenzte Anwendungsbereiche haben. Die Veröffentlichung der Modellgewichte hat keinen Einfluss auf die Funktionalität generativer Modelle. Daher gibt es derzeit kaum Hinweise darauf, dass die breite Verfügbarkeit der Gewichte ein erhebliches zusätzliches Risiko darstellt, das über das hinausgeht, was bereits mit proprietären oder geschlossenen Systemen möglich ist. Ein Risiko, das möglicherweise noch größer werden könnte, wenn Gewichte für proprietäre Modelle allgemein verfügbar gemacht werden, ist die Möglichkeit, dass Trainingsdaten offengelegt werden. Es ist unwahrscheinlich, dass Modellgewichte rückentwickelt werden könnten, um Trainingsdaten offenzulegen, aber es wurde nicht gezeigt, dass dies mathematisch unmöglich ist. In unserer Antwort haben wir jedoch betont, dass die größten Risiken unserer Meinung nach darin bestehen, Gewichtungen repräsentativer Basismodelle nicht offen zugänglich zu machen, da generative Modelle voraussichtlich weiterhin stark von der breiten Öffentlichkeit genutzt werden. Wenn Forschern und interessierten Community-Mitgliedern der Zugang zu einigen Modellgewichten für proprietäre Modelle verweigert wird, wird die Gesellschaft daran gehindert, ein besseres Verständnis dafür zu erlangen, wie diese Modelle funktionieren und wie integrativere und zugänglichere Modelle entworfen werden können.

Die Fortsetzung der Praxis der Veröffentlichung geschlossener Modelle wird weiterhin zu einem Mangel an Diversität in der Technologie führen und die Durchführung bestimmter Arten von Forschung verhindern, wie z. B. Voreingenommenheitsprüfungen dieser Modelle, zu deren Durchführung große Technologieunternehmen keinen Anreiz haben. Die Ausbildung der zukünftigen Arbeitskräfte ist ein weiterer unglaublich wichtiger Aspekt. Die Vereinigten Staaten können nicht hoffen, ihre Führungsrolle im Bereich der generativen KI zu behaupten, ohne die künftige Generation von Entwicklern in der Graduierten- und Postgraduiertenausbildung in solchen Modellen auszubilden. Es ist wichtig, dass Schüler diese Modelle während ihrer Ausbildung erkunden können, um ihre grundlegende Funktionalität zu verstehen und zu lernen, wie sie ethische Überlegungen in die Entwicklung neuer Modelle einbeziehen können. Wenn man nur großen Technologieunternehmen erlaubt, über die Werkzeuge zur Ausbildung der nächsten Generation zu verfügen, könnte dies auch zu isoliertem Denken führen, und diese Organisationen übersehen möglicherweise eine ganzheitliche Ausbildung, die der Zugang zu diesen Modellen bieten kann, zugunsten eines effizienteren Rahmens für Lernen nach Bedarf. In unserer Antwort betonten wir auch, wie wichtig es ist, eine Kultur der Offenheit rund um die Entwicklung dieser Modelle zu etablieren, und betonten, dass die Etablierung einer solchen Kultur genauso wichtig sein kann wie die Regulierung dieser Technologien. Wenn von Technologieunternehmen erwartet wird, dass sie generative Modelle auf transparente Weise erstellen, wird die künftige Regulierung viel einfacher durchzuführen sein.

Abschließend betonte das CCC die Notwendigkeit zusätzlicher Forschung zu grundlegenden Modellen und verwies auf den derzeitigen Wissensmangel in der Öffentlichkeit darüber, wie diese Modelle tatsächlich funktionieren und zu den Ergebnissen gelangen, die sie liefern. In unserer Antwort haben wir eine Reihe unbeantworteter Forschungsfragen aufgelistet, mit deren Beantwortung Forscher, Wissenschaftler und Experten für soziale Fragen beginnen werden, vorausgesetzt, sie erhalten den offenen Zugang, den sie benötigen, zu den großen Stiftungsmodellen, die die Industrie jetzt nutzt . Unser anhaltender Erfolg als Gesellschaft hängt davon ab.

Lesen Sie hier die vollständige CCC-Antwort.

Zeitstempel:

Mehr von CCC-Blog