Meta fue criticada con ocho demandas que afirman que las redes sociales perjudican a los niños PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Meta criticado con ocho demandas que afirman que las redes sociales dañan a los niños

En breve La empresa matriz de Facebook e Instagram, Meta, se vio afectada no por una, ni por dos, sino por ocho demandas diferentes que acusaban a su algoritmo de redes sociales de causar un daño real a los usuarios jóvenes en los EE. UU. 

Las denuncias presentadas durante la última semana afirman que las plataformas de redes sociales de Meta han sido diseñadas para ser peligrosamente adictivas, lo que lleva a niños y adolescentes a ver contenido que aumenta el riesgo de trastornos alimentarios, suicidio, depresión y trastornos del sueño. 

“El uso de las redes sociales entre los jóvenes debe verse como un importante contribuyente a la crisis de salud mental que enfrentamos en el país”. dijo Andy Birchfield, abogado que representa al bufete de abogados Beasley Allen, que dirige los casos, en un comunicado.

“Estas aplicaciones podrían haber sido diseñadas para minimizar cualquier daño potencial, pero en lugar de eso, se tomó la decisión de adictos agresivamente a los adolescentes en nombre de las ganancias corporativas. Es hora de que esta empresa reconozca las crecientes preocupaciones sobre el impacto de las redes sociales en la salud mental y el bienestar de esta parte más vulnerable de nuestra sociedad y altere los algoritmos y los objetivos comerciales que han causado tanto daño”.

Las demandas se han presentado en tribunales federales de Texas, Tennessee, Colorado, Delaware, Florida, Georgia, Illinois y Missouri. conforme a Bloomberg. 

¿Qué tan seguros son realmente los vehículos autónomos?

La seguridad del software para vehículos autónomos como el Autopilot de Tesla es difícil de evaluar, considerando que hay pocos datos públicos y las métricas utilizadas para tales evaluaciones son engañosas. 

Las empresas que desarrollan vehículos autónomos generalmente informan la cantidad de millas recorridas por la tecnología de conducción autónoma antes de que los conductores humanos tengan que hacerse cargo para evitar errores o accidentes. Los datos, por ejemplo, muestran que ocurren menos accidentes cuando se activa el modo de piloto automático de Tesla. Pero no significa necesariamente que sea más seguro, argumentan los expertos. 

Es más probable que el piloto automático esté ajustado para conducir en la carretera, donde las condiciones son menos complejas para que el software las maneje que para moverse por una ciudad concurrida. Tesla y otras empresas automotrices no comparten datos para conducir por carreteras específicas para una mejor comparación. 

"Sabemos que los autos que usan Autopilot chocan con menos frecuencia que cuando no se usa Autopilot", Noah Goodall, investigador del Virginia Transportation Research Council, les dijo a los New York Times. “¿Pero están siendo conducidos de la misma manera, en las mismas carreteras, a la misma hora del día, por los mismos conductores?”.

El año pasado, la Administración Nacional de Seguridad del Tráfico en las Carreteras ordenó a las empresas que informen los accidentes graves que involucren automóviles autónomos dentro de las 24 horas posteriores al accidente. Pero aún no se ha hecho pública ninguna información.

Advenedizo de IA acusado de utilizar furtivamente mano de obra humana detrás de tecnología autónoma

Nate, una empresa emergente valorada en más de $300 millones que afirma usar inteligencia artificial para completar automáticamente la información de pago de los compradores en sitios web minoristas, en realidad paga a los trabajadores para que ingresen manualmente los datos por $1.

Comprar cosas en Internet puede ser tedioso. Debe escribir su nombre, dirección, detalles de la tarjeta de crédito si un sitio web no ha guardado la información. Nate se creó para ayudar a los internautas a evitar tener que hacer esto cada vez que visitaban una tienda en línea. Nate, descrita como una aplicación de IA, afirmó que utilizaba métodos automatizados para completar datos personales después de que un consumidor hiciera un pedido.

Pero el software fue complicado de desarrollar, teniendo en cuenta las diversas combinaciones de botones que los algoritmos deben presionar y las precauciones establecidas en los sitios web para detener a los bots y revendedores. Para tratar de atraer a más consumidores a la aplicación, Nate ofreció a la gente $50 para gastar en línea en tiendas como Best Buy y Walmart. Pero el advenedizo luchó para que su tecnología funcionara para cumplirlos adecuadamente. 

¿La mejor manera de hacerlo? Fíngelo. En cambio, Nate recurrió a la contratación de trabajadores en Filipinas para ingresar manualmente la información privada del consumidor; los pedidos a veces se completaban horas después de haber sido colocados, conforme a La Información. Se alegó que entre el 60 y el 100 por ciento de los pedidos se procesaban manualmente. Un portavoz del advenedizo dijo que el informe era "incorrecto y que las afirmaciones que cuestionan nuestra tecnología patentada son completamente infundadas".

DARPA quiere que la IA sea más confiable

El brazo de investigación militar de EE. UU., DARPA, lanzó un nuevo programa para financiar el desarrollo de algoritmos híbridos de inteligencia artificial neurosimbólica con la esperanza de que la tecnología conduzca a sistemas más confiables.

El aprendizaje profundo moderno a menudo se conoce como una "caja negra", su funcionamiento interno es opaco y los expertos a menudo no entienden cómo las redes neuronales llegan a una salida dada una entrada específica. La falta de transparencia significa que los resultados son difíciles de interpretar, lo que hace que su implementación sea riesgosa en algunos escenarios. Algunos creen que la incorporación de técnicas de razonamiento simbólico anticuadas más tradicionales podría hacer que los modelos sean más confiables. 

"Motivar nuevos pensamientos y enfoques en este espacio ayudará a garantizar que los sistemas autónomos funcionen de manera segura y funcionen según lo previsto". dijo Sandeep Neema, gerente de programa del nuevo programa Assured Neuro Symbolic Learning and Reasoning de DARPA. “Esto será parte integral de la confianza, que es clave para la adopción exitosa de la autonomía por parte del Departamento de Defensa”.

La iniciativa financiará la investigación de arquitecturas híbridas que son una mezcla de sistemas simbólicos e IA moderna. DARPA está particularmente interesada en aplicaciones que son relevantes para las fuerzas armadas, como un modelo que podría detectar si las entidades son amigas, antagónicas o neutrales, por ejemplo, así como detectar áreas peligrosas o seguras en combate. ®

Sello de tiempo:

Mas de El registro