Holly Elmore mène une protestation contre la sécurité de l'Open Source

Holly Elmore mène une protestation contre la sécurité de l'Open Source

Holly Elmore mène une protestation contre la sécurité open source PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Dans un geste audacieux contre la récente position de Meta sur l'intelligence artificielle (IA) open source, Holly Elmore, une défenseure de la sécurité de l'IA, a dirigé une manifestation devant la base de Meta à San Francisco.

Le cœur du différend réside dans les dangers potentiels de la libération libre de puissants poids de modèles d’IA, qui, selon Elmore et ses partisans, pourraient conduire à des risques de « prolifération irréversible ».

Meta a remué les eaux technologiques plus tôt cette année en libération le poids de sa famille de modèles LLaMA aux chercheurs en IA, une décision qui s'écarte considérablement des politiques des autres géants de la technologie. Ces poids, essentiels au fonctionnement du modèle, peuvent être manipulés et modifiés une fois entre les mains d'experts, ce qui soulève des inquiétudes quant à une mauvaise utilisation. En effet, il n'a pas fallu longtemps pour que ces poids soient fuite en ligne, intensifiant les critiques à l'égard de l'approche open source de Meta.

Les risques de lâcher des poids

Elmore, autrefois associée au groupe de réflexion Rethink Priorities, a exprimé ses inquiétudes :

"La libération des poids est une politique dangereuse car les modèles peuvent être modifiés par n'importe qui et ne peuvent pas être rappelés."

Elle a souligné la menace croissante à mesure que les modèles deviennent plus avancés et plus puissants. Lorsque les pondérations des modèles sont librement disponibles, elles peuvent potentiellement être utilisées à des fins malveillantes, allant de la construction de programmes de phishing à la planification. cyber-attaques. Une fois les poids en main, prévient Elmore, il est très facile de contourner les garde-corps de sécurité.

Peter S. Park du MIT fait écho à ces sentiments. Il met en garde contre les dangers si l’approche open source actuelle est transférée à une IA plus avancée, qui pourrait fonctionner avec une plus grande autonomie, permettant ainsi une utilisation abusive à une échelle plus large et plus nocive.

Un contre-argument : la défense de l’open source

Stella Biderman d’EleutherAI offre cependant une perspective différente. Biderman remet en question l’hypothèse immédiate selon laquelle la publication des pondérations du modèle est directement corrélée à une éventuelle mauvaise utilisation. Elle estime que le terme « prolifération » associé aux armes de destruction massive est trompeur dans le contexte de l’IA. Faisant valoir que les éléments de base nécessaires à la construction de grands modèles linguistiques sont déjà dévoilés, Biderman estime que le secret n’est peut-être pas la panacée en cas d’abus potentiel.

Elle ajoute qu’exhorter les entreprises à maintenir le secret autour de leurs modèles pourrait avoir « de graves conséquences en aval sur la transparence, la sensibilisation du public et la science ». Une telle politique pourrait, par inadvertance, nuire davantage aux chercheurs indépendants et aux passionnés qu’elle ne protégerait contre les menaces potentielles.

Naviguer dans les eaux open source de l’IA

Le terme 'open-source» dans le domaine de l’IA est confus. Comme le souligne Stefano Maffulli de l'Open Source Initiative (OSI), diverses organisations ont récupéré le terme, conduisant à une compréhension ambiguë de ce qu'il signifie réellement dans l'IA. Pour qu'un logiciel soit véritablement open source, tous ses composants, du code source aux données de formation, doivent être accessibles au public et réutilisables.

L’avenir de l’IA open source est encore en train de se façonner, l’OSI essayant activement d’en définir les paramètres. Maffulli reste catégorique sur l’importance d’une approche ouverte, soulignant que l’IA ne peut être « digne de confiance, responsable et responsable » que si elle s’aligne sur les principes de l’open source.

Même si le débat sur l'IA open source est loin d'être réglé, une chose est claire : les progrès rapides de la technologie exigent un équilibre judicieux entre accessibilité et sécurité. Alors que des entreprises comme Meta progressent dans leurs politiques, la communauté technologique et le public continueront de se débattre avec les défis et les implications de l’IA open source.

Horodatage:

Plus de MétaActualités