Meta bateu com oito ações judiciais alegando que a mídia social prejudica as crianças PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Meta é criticada com oito processos alegando que mídias sociais prejudicam crianças

em breve A Meta, empresa controladora do Facebook e do Instagram, foi atingida não por uma, nem por duas, mas por oito ações judiciais diferentes acusando seu algoritmo de mídia social de causar danos reais a usuários jovens nos Estados Unidos. 

As reclamações apresentadas na semana passada afirmam que as plataformas de mídia social da Meta foram projetadas para serem perigosamente viciantes, levando crianças e adolescentes a visualizar conteúdo que aumenta o risco de distúrbios alimentares, suicídio, depressão e distúrbios do sono. 

“O uso das redes sociais entre os jovens deve ser visto como um dos principais contribuintes para a crise de saúde mental que enfrentamos no país”, dito Andy Birchfield, advogado que representa o escritório de advocacia Beasley Allen, liderando os casos, em comunicado.

“Essas aplicações poderiam ter sido projetadas para minimizar qualquer dano potencial, mas em vez disso, foi tomada a decisão de viciar agressivamente os adolescentes em nome dos lucros corporativos. É hora de esta empresa reconhecer as preocupações crescentes em torno do impacto das mídias sociais na saúde mental e no bem-estar desta parcela mais vulnerável da nossa sociedade e alterar os algoritmos e objetivos de negócios que causaram tantos danos.”

As ações foram movidas em tribunais federais no Texas, Tennessee, Colorado, Delaware, Flórida, Geórgia, Illinois e Missouri, segundo para a Bloomberg. 

Quão seguros são realmente os veículos autônomos?

A segurança do software de condução autónoma, como o piloto automático da Tesla, é difícil de avaliar, considerando que há poucos dados tornados públicos e as métricas utilizadas para tais avaliações são enganosas. 

As empresas que desenvolvem veículos autónomos normalmente reportam o número de quilómetros percorridos pela tecnologia de condução autónoma antes de os condutores humanos terem de assumir o controlo para evitar erros ou acidentes. Os dados, por exemplo, mostram que ocorrem menos acidentes quando o modo Autopilot do Tesla está ativado. Mas isso não significa necessariamente que seja mais seguro, argumentam os especialistas. 

É mais provável que o piloto automático seja ajustado para dirigir em rodovias, onde as condições são menos complexas para o software lidar do que para se locomover em uma cidade movimentada. A Tesla e outras empresas automobilísticas não compartilham dados sobre condução em estradas específicas para melhor comparação. 

“Sabemos que os carros que usam o piloto automático batem com menos frequência do que quando o piloto automático não é usado”, disse Noah Goodall, pesquisador do Virginia Transportation Research Council. disse O jornal New York Times. “Mas eles estão sendo conduzidos da mesma maneira, nas mesmas estradas, na mesma hora do dia, pelos mesmos motoristas?”

A Administração Nacional de Segurança no Trânsito Rodoviário ordenou que as empresas relatassem acidentes graves envolvendo carros autônomos dentro de 24 horas após a ocorrência do acidente, no ano passado. Mas nenhuma informação foi divulgada ainda.

Iniciante em IA acusado de usar sorrateiramente trabalho humano por trás de tecnologia autônoma

Nate, uma startup avaliada em mais de US$ 300 milhões que afirma usar IA para preencher automaticamente as informações de pagamento dos compradores em sites de varejo, na verdade paga aos trabalhadores para inserir manualmente os dados por US$ 1.

Comprar coisas na internet pode ser entediante. Você deve digitar seu nome, endereço e detalhes do cartão de crédito se um site não tiver salvo as informações. O Nate foi criado para ajudar os internautas a evitar ter que fazer isso toda vez que visitam uma loja online. Descrito como um aplicativo de IA, Nate afirmou que usava métodos automatizados para preencher dados pessoais depois que um consumidor fazia um pedido.

Mas o software foi difícil de desenvolver, considerando as diversas combinações de botões que os algoritmos precisam pressionar e as precauções adotadas nos sites para impedir bots e cambistas. Para tentar atrair mais consumidores para o aplicativo, Nate ofereceu às pessoas US$ 50 para gastar online em lojas como Best Buy e Walmart. Mas a novata lutou para que sua tecnologia funcionasse para atendê-los adequadamente. 

A melhor maneira de fazer isso? Falsificá-lo. Em vez disso, Nate recorreu à contratação de trabalhadores nas Filipinas para inserir manualmente as informações privadas dos consumidores; os pedidos às vezes eram concluídos horas depois de terem sido feitos, segundo para a informação. Cerca de 60 a 100 por cento dos pedidos foram processados ​​manualmente, alegou-se. Um porta-voz da novata disse que o relatório estava “incorreto e as alegações que questionam nossa tecnologia proprietária são completamente infundadas”.

DARPA quer que a IA seja mais confiável

O braço de pesquisa militar dos EUA, DARPA, lançou um novo programa para financiar o desenvolvimento de algoritmos híbridos de IA neuro-simbólicos, na esperança de que a tecnologia leve a sistemas mais confiáveis.

A aprendizagem profunda moderna é muitas vezes referida como uma “caixa preta”, o seu funcionamento interno é opaco e os especialistas muitas vezes não compreendem como as redes neurais chegam a um resultado, dada uma entrada específica. A falta de transparência significa que os resultados são difíceis de interpretar, tornando arriscada a sua implantação em alguns cenários. Alguns acreditam que a incorporação de técnicas de raciocínio simbólico mais tradicionais e antiquadas poderia tornar os modelos mais confiáveis. 

“Motivar novos pensamentos e abordagens neste espaço ajudará a garantir que os sistemas autônomos operem com segurança e tenham o desempenho pretendido”, dito Sandeep Neema, gerente do novo programa Assured Neuro Symbolic Learning and Reasoning da DARPA. “Isso será parte integrante da confiança, que é fundamental para a adoção bem-sucedida da autonomia pelo Departamento de Defesa.”

A iniciativa financiará pesquisas sobre arquiteturas híbridas que são uma mistura de sistemas simbólicos e IA moderna. A DARPA está particularmente interessada em aplicações que sejam relevantes para os militares, como um modelo que possa detectar se entidades são amigas, adversárias ou neutras, por exemplo, bem como detectar áreas perigosas ou seguras em combate. ®

Carimbo de hora:

Mais de O registro