Meta a fait l'objet de huit poursuites, affirmant que les médias sociaux nuisent aux enfants PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Meta claqué avec huit poursuites judiciaires affirmant que les médias sociaux blessent les enfants

En bref La société mère de Facebook et Instagram, Meta, a été frappée par non pas une, ni deux, mais huit poursuites différentes, accusant son algorithme de médias sociaux de causer un préjudice réel aux jeunes utilisateurs à travers les États-Unis. 

Les plaintes déposées la semaine dernière affirment que les plateformes de médias sociaux de Meta ont été conçues pour créer une dépendance dangereuse, poussant les enfants et les adolescents à visionner des contenus qui augmentent le risque de troubles de l’alimentation, de suicide, de dépression et de troubles du sommeil. 

« L'utilisation des médias sociaux par les jeunes doit être considérée comme un contributeur majeur à la crise de santé mentale à laquelle nous sommes confrontés dans le pays. » a affirmé Valérie Plante. Andy Birchfield, avocat représentant le cabinet d'avocats Beasley Allen, responsable des dossiers, dans un communiqué.

« Ces applications auraient pu être conçues pour minimiser tout préjudice potentiel, mais au lieu de cela, la décision a été prise de rendre agressivement dépendants les adolescents au nom des profits des entreprises. Il est temps pour cette entreprise de reconnaître les préoccupations croissantes concernant l’impact des médias sociaux sur la santé mentale et le bien-être de cette partie la plus vulnérable de notre société et de modifier les algorithmes et les objectifs commerciaux qui ont causé tant de dégâts.

Les poursuites ont été déposées devant les tribunaux fédéraux du Texas, du Tennessee, du Colorado, du Delaware, de la Floride, de la Géorgie, de l'Illinois et du Missouri. selon à Bloomberg. 

Dans quelle mesure les véhicules autonomes sont-ils réellement sûrs ?

La sécurité des logiciels de voiture autonome comme l’Autopilot de Tesla est difficile à évaluer, étant donné que peu de données sont rendues publiques et que les mesures utilisées pour de telles évaluations sont trompeuses. 

Les entreprises développant des véhicules autonomes déclarent généralement le nombre de kilomètres parcourus grâce à la technologie de conduite autonome avant que des conducteurs humains ne doivent prendre le relais pour éviter des erreurs ou des accidents. Les données, par exemple, montrent que moins d’accidents se produisent lorsque le mode Autopilot de Tesla est activé. Mais cela ne signifie pas nécessairement que c’est plus sûr, affirment les experts. 

Le pilote automatique est plus susceptible d’être réglé pour la conduite sur autoroute, où les conditions sont moins complexes à gérer pour un logiciel que pour se déplacer dans une ville animée. Tesla et d’autres constructeurs automobiles ne partagent pas les données relatives à la conduite sur des routes spécifiques pour une meilleure comparaison. 

"Nous savons que les voitures utilisant le pilote automatique s'écrasent moins souvent que lorsque le pilote automatique n'est pas utilisé", a déclaré Noah Goodall, chercheur au Virginia Transportation Research Council. dit le New York Times. "Mais sont-ils conduits de la même manière, sur les mêmes routes, à la même heure de la journée, par les mêmes conducteurs ?."

L'année dernière, la National Highway Traffic Safety Administration a ordonné aux entreprises de signaler les accidents graves impliquant des voitures autonomes dans les 24 heures suivant l'accident. Mais aucune information n'a encore été rendue publique.

Un nouveau venu dans l'IA accusé d'utiliser sournoisement le travail humain derrière une technologie autonome

Nate, une startup évaluée à plus de 300 millions de dollars qui prétend utiliser l'IA pour remplir automatiquement les informations de paiement des acheteurs sur les sites Web de vente au détail, paie en fait les employés pour saisir manuellement les données pour 1 $.

Acheter des choses sur Internet peut être fastidieux. Vous devez saisir votre nom, votre adresse et les détails de votre carte de crédit si un site Web n’a pas enregistré les informations. Nate a été conçu pour aider les internautes à éviter d'avoir à faire cela à chaque fois qu'ils visitent une boutique en ligne. Décrit comme une application d'IA, Nate a affirmé qu'elle utilisait des méthodes automatisées pour remplir les données personnelles après qu'un consommateur ait passé une commande.

Mais le logiciel a été délicat à développer, compte tenu des différentes combinaisons de boutons sur lesquels les algorithmes doivent appuyer et des précautions en place sur les sites Web pour arrêter les robots et les scalpers. Pour essayer d'attirer plus de consommateurs vers l'application, Nate a proposé aux gens 50 $ à dépenser en ligne dans des magasins comme Best Buy et Walmart. Mais le nouveau venu a eu du mal à faire fonctionner sa technologie pour les remplir correctement. 

La meilleure façon de le faire ? Faites semblant. Au lieu de cela, Nate s’est tourné vers l’embauche de travailleurs aux Philippines pour saisir manuellement les informations privées des consommateurs ; les commandes étaient parfois terminées des heures après avoir été passées, selon aux informations. Entre 60 et 100 pour cent des commandes étaient traitées manuellement, affirme-t-on. Un porte-parole du nouveau venu a déclaré que le rapport était « incorrect et que les affirmations remettant en question notre technologie exclusive sont totalement sans fondement ».

La DARPA veut que l'IA soit plus fiable

La DARPA, la branche de recherche militaire américaine, a lancé un nouveau programme visant à financer le développement d'algorithmes hybrides d'IA neuro-symbolique, dans l'espoir que cette technologie mènera à des systèmes plus fiables.

L’apprentissage profond moderne est souvent qualifié de « boîte noire », son fonctionnement interne est opaque et les experts ne comprennent souvent pas comment les réseaux neuronaux arrivent à un résultat à partir d’une entrée spécifique. Le manque de transparence signifie que les résultats sont difficiles à interpréter, ce qui rend leur déploiement risqué dans certains scénarios. Certains pensent que l’intégration de techniques de raisonnement symbolique plus traditionnelles et plus anciennes pourrait rendre les modèles plus fiables. 

« Motiver de nouvelles réflexions et approches dans cet espace contribuera à garantir que les systèmes autonomes fonctionneront en toute sécurité et fonctionneront comme prévu » a affirmé Valérie Plante. Sandeep Neema, responsable du nouveau programme Assured Neuro Symbolic Learning and Reasoning de la DARPA. « Cela fera partie intégrante de la confiance, qui est la clé de l’adoption réussie de l’autonomie par le ministère de la Défense. »

L’initiative financera la recherche sur des architectures hybrides qui sont un mélange de systèmes symboliques et d’IA moderne. La DARPA s'intéresse particulièrement aux applications pertinentes pour l'armée, comme un modèle capable de détecter si des entités sont amies, adverses ou neutres, par exemple, ainsi que de détecter des zones dangereuses ou sûres au combat. ®

Horodatage:

Plus de Le registre