OpenAI, Microsoft et GitHub font l'objet d'un procès concernant Copilot PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

OpenAI, Microsoft et GitHub frappés d'un procès contre Copilot

En bref OpenAI, Microsoft et GitHub ont été nommés dans un recours collectif affirmant que son logiciel de génération de code AI Copilot viole les lois sur le droit d'auteur.

L'avocat et développeur Matthew Butterick a annoncé le mois dernier qu'il s'était associé au cabinet d'avocats Joseph Saveri pour enquêter Copilote. Ils voulaient savoir si et comment le logiciel enfreignait les droits légaux des codeurs en grattant et en émettant leur travail sans attribution appropriée sous les licences open source actuelles.

Maintenant, l'entreprise a déposé un recours collectif devant le tribunal de district de Californie du Nord à San Francisco. « Nous contestons la légalité de Copilote GitHub" Butterick a affirmé Valérie Plante.

"C'est la première étape de ce qui sera un long voyage. À notre connaissance, il s'agit du premier cas de recours collectif aux États-Unis contestant la formation et la sortie des systèmes d'IA. Ce ne sera pas le dernier. Les systèmes d'IA ne sont pas exemptés de la loi. Ceux qui créent et exploitent ces systèmes doivent rester responsables », a-t-il poursuivi dans un communiqué.

« Si des entreprises comme Microsoft, GitHub et OpenAI choisissent de ne pas respecter la loi, elles ne doivent pas s'attendre à ce que nous, le public, restions immobiles. L'IA doit être juste et éthique pour tout le monde. Si ce n'est pas le cas, alors il ne pourra jamais atteindre ses objectifs tant vantés d'élever l'humanité. Cela deviendra simplement un autre moyen pour quelques privilégiés de profiter du travail du plus grand nombre.

Le Software Freedom Conservancy, qui a déclaré qu'il ne commenterait pas les réclamations légales dans l'affaire, a affirmé Valérie Plante. du mouvement : "Nous notons que cette action est un recours collectif", ajoutant : "Étant donné que presque toutes les lignes de FOSS jamais écrites sont probablement dans l'ensemble de formation Copilot, il est fort probable que presque tous ceux qui liront ce message se retrouveront à faire partie du groupe lorsque le tribunal certifie le groupe. En tant que tel, chacun d'entre vous, peut-être dans un avenir lointain ou peut-être très bientôt, devra prendre une décision quant à son adhésion ou non à cette action. Nous aussi, au SFC, prenons cette décision en ce moment.

L'Ecosse va arracher les caméras de surveillance AI chinoises

Le conseil municipal d'Édimbourg s'est engagé à mettre au rebut les caméras de vidéosurveillance achetées à HikVision, une société accusée de surveiller les musulmans ouïghours en Chine à l'aide de la reconnaissance faciale.

On a demandé aux responsables si et quand ils prévoyaient de retirer l'équipement de HikVision lors d'une réunion du conseil et ils ont confirmé : "Après l'achèvement du projet de mise à niveau de la vidéosurveillance du domaine public, il n'y aura plus de caméras HikVision présentes sur le réseau du domaine public", a déclaré un représentant, selon à Edimbourg en direct.

Le conseil de la ville d'Édimbourg a estimé qu'il y aurait plus de 1,300 2023 caméras dans les bâtiments du conseil, mais ne connaissait pas le nombre total d'unités HikVision installées. Ces systèmes seraient remplacés par des « équipements conformes » d'ici février XNUMX dans les espaces publics ; on ne sait pas quand les caméras des bâtiments municipaux seront toutes remplacées.  

Des politiciens britanniques ont exhorté le gouvernement à interdire les caméras de vidéosurveillance HikVision après que le groupe militant pour la protection de la vie privée Big Brother Watch a lancé une campagne affirmant que la technologie pourrait introduire des failles de sécurité et était liée à des violations des droits humains des musulmans ouïghours. Aux États-Unis, HikVision a été placé sur le liste d'entités empêcher les entreprises américaines d'importer des produits de l'entreprise sans autorisation explicite.

OpenAI lance un nouveau programme d'investissement dans l'IA ; DALL-E est disponible en tant qu'API

Converge, le premier programme lancé du OpenAI Startup Fund, versera 1 million de dollars et partagera ses ressources et son expertise pour soutenir dix entreprises en démarrage.

Les travailleurs auront la chance de participer à un programme de cinq semaines et auront accès aux derniers modèles d'OpenAI avant qu'ils ne soient rendus publics. Les ingénieurs, dirigeants et chercheurs intéressés peuvent vous inscrire rejoindre Converge avant le 25 novembre.

Cette décision est gagnant-gagnant pour OpenAI. Les startups pourraient devenir des clients à l'avenir, en utilisant les API de l'entreprise pour créer des produits. S'ils ne le font pas, cependant, et continuent à se développer et à réussir, OpenAI en bénéficiera également financièrement.

OpenAI aussi libéré son modèle texte-image DALL-E en tant qu'API, cette semaine. L'API Images permettra aux développeurs d'intégrer DALL-E dans leurs applications. L'API est toujours en mode bêta, et ils seront limités à générer jusqu'à 25 images toutes les cinq minutes dans un premier temps. 

Vous pouvez jouer avec Imagen de Google, en quelque sorte

Google publie son modèle d'IA texte-image, Imagen, dans une application mobile permettant aux utilisateurs de générer uniquement des images de fausses villes et de monstres.

Imagen sera déployé sur son application AI Test Kitchen, mais la version installée sera très limitée. Les personnes qui espèrent jouer avec l'outil n'auront que la capacité de créer des images créées par l'IA à l'aide de deux modèles nommés City Dreamer et Wobble.

Vous pouvez choisir parmi différentes options de mots-clés pour décrire un objet à générer par Imagen. Par exemple, le modèle Wobble vous permettra de choisir le matériau à partir duquel vous voulez que votre monstre ressemble, comme de l'argile, du feutre, du massepain ou du caoutchouc, The Verge signalée pour la première.

L'application AI Kitchen sert de portail à Google pour tester certains de ses modèles d'IA afin d'obtenir les commentaires du public. L'entreprise est tristement célèbre Chatbot LaMDA est également disponible sur l'application sous une forme limitée. Les modèles d'IA générative peuvent être imprévisibles et peuvent être guidés pour générer du contenu toxique ou offensant. En plafonnant les capacités d'Imagen, le modèle texte-image de Google sera moins susceptible d'être inapproprié.

Josh Woodward, directeur principal de la gestion des produits chez Google, a donné un exemple de la façon dont une invite pour l'emplacement de Tulsa, Oklahoma pourrait offenser. "Il y a eu une série d'émeutes raciales à Tulsa dans les années 20", a-t-il déclaré. "Et si quelqu'un met 'Tulsa', le modèle pourrait même ne pas y faire référence et vous pouvez imaginer cela avec des endroits du monde entier." ®

Horodatage:

Plus de Le registre