Líderes tecnológicos destacam os riscos da IA ​​e a urgência de uma regulamentação robusta da IA

Líderes tecnológicos destacam os riscos da IA ​​e a urgência de uma regulamentação robusta da IA

Líderes tecnológicos destacam os riscos da IA ​​e a urgência de uma regulamentação robusta da IA
O crescimento e os avanços da IA ​​foram exponenciais nos últimos anos. Relatórios estatísticos que até 2024, o mercado global de IA gerará uma receita impressionante de cerca de US$ 3000 bilhões, em comparação com US$ 126 bilhões em 2015. No entanto, os líderes de tecnologia agora estão nos alertando sobre os vários riscos da IA.
Especialmente, a recente onda de IA generativa modelos como o ChatGPT introduziram novos recursos em vários setores sensíveis a dados, como saúde, educação, financiar, etc. Esses desenvolvimentos apoiados por IA são vulneráveis ​​devido a muitas deficiências de IA que agentes mal-intencionados podem expor.
Vamos discutir o que os especialistas em IA estão dizendo sobre os desenvolvimentos recentes e destacar os riscos potenciais da IA. Também abordaremos brevemente como esses riscos podem ser gerenciados.

Líderes de tecnologia e suas preocupações relacionadas aos riscos da IA

Geoffrey Hinton

Geoffrey Hinton – um famoso líder de tecnologia de IA (e padrinho deste campo), que recentemente saiu do Google, tem expressou suas preocupações sobre o rápido desenvolvimento da IA ​​e seus perigos potenciais. Hinton acredita que os chatbots de IA podem se tornar “bastante assustadores” se superarem a inteligência humana.
Hinton disse:
“No momento, o que estamos vendo é que coisas como o GPT-4 ofusca uma pessoa na quantidade de conhecimento geral que ela possui e a ofusca de longe. Em termos de raciocínio, não é tão bom, mas já faz um raciocínio simples. E, dada a taxa de progresso, esperamos que as coisas melhorem rapidamente. Então, precisamos nos preocupar com isso.”
Além disso, ele acredita que “maus atores” podem usar IA para “coisas ruins”, como permitir que os robôs tenham seus subobjetivos. Apesar de suas preocupações, Hinton acredita que a IA pode trazer benefícios de curto prazo, mas também devemos investir pesadamente em segurança e controle da IA.

Elon Musk

O envolvimento de Elon Musk com IA começou com seu investimento inicial em DeepMind em 2010, para co-fundador OpenAI e incorporando IA nos veículos autônomos da Tesla.
Embora esteja entusiasmado com a IA, ele frequentemente levanta preocupações sobre os riscos da IA. Musk diz que poderosos sistemas de IA podem ser mais perigosos para a civilização do que armas nucleares. Em uma entrevista em Fox News em abril de 2023, ele disse:
“A IA é mais perigosa do que, digamos, projeto de aeronave mal administrado ou manutenção de produção ou produção de carro ruim. No sentido de que tem o potencial – no entanto, pouco se pode considerar essa probabilidade – mas não é trivial e tem o potencial de destruição da civilização.”
Além disso, Musk apóia as regulamentações governamentais sobre IA para garantir a segurança contra riscos potenciais, embora “não seja tão divertido”.

Faça uma pausa em experimentos gigantes de IA: uma carta aberta apoiada por milhares de especialistas em IA

O Future of Life Institute publicou uma carta aberta em 22 de março de 2023. A carta pede uma suspensão temporária de seis meses em Desenvolvimento de sistemas de IA mais avançado do que GPT-4. Os autores expressam suas preocupações sobre o ritmo com que os sistemas de IA estão sendo desenvolvidos, apresentando graves desafios socioeconômicos.
Além disso, a carta afirma que os desenvolvedores de IA devem trabalhar com os formuladores de políticas para documentar os sistemas de governança de IA. Em junho de 2023, a carta foi assinada por mais de 31,000 desenvolvedores, especialistas e líderes de tecnologia de IA. Signatários notáveis ​​incluem Elon Musk, Steve Wozniak (cofundador da Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (vencedor do Prêmio Turing) e muitos mais.

Contra-argumentos para interromper o desenvolvimento da IA

Dois proeminentes líderes de IA, Andrew Ng e Yann LeCun, se opuseram à proibição de seis meses no desenvolvimento de sistemas avançados de IA e consideraram a pausa uma má ideia.
Ng diz que, embora a IA tenha alguns riscos, como preconceito, concentração de poder etc., o valor criado pela IA em áreas como educação, saúde e treinamento responsivo é tremendo.
Yann LeCun diz que a pesquisa e o desenvolvimento não devem ser interrompidos, embora os produtos de IA que cheguem ao usuário final possam ser regulamentados.

Quais são os perigos potenciais e riscos imediatos da IA?

1. Deslocamento de trabalho

Especialistas em IA acreditam que sistemas inteligentes de IA podem substituir tarefas cognitivas e criativas. O banco de investimentos Goldman Sachs estima que cerca de 300 milhões de empregos será automatizado por IA generativa.
Portanto, deve haver regulamentos sobre o desenvolvimento da IA ​​para que ela não cause uma recessão econômica severa. Deve haver programas educacionais para aprimorar e requalificar os funcionários para lidar com esse desafio.

2. Sistemas de IA enviesados

Vieses prevalente entre os seres humanos sobre gênero, raça ou cor pode inadvertidamente permear os dados usados ​​para treinar sistemas de IA, tornando os sistemas de IA tendenciosos.
Por exemplo, no contexto de recrutamento de empregos, um sistema de IA tendencioso pode descartar currículos de indivíduos de origens étnicas específicas, criando discriminação no mercado de trabalho. Em aplicação da lei, o policiamento preditivo tendencioso pode visar desproporcionalmente bairros específicos ou grupos demográficos.
Portanto, é essencial ter uma estratégia de dados abrangente que aborde os riscos da IA, principalmente o viés. Os sistemas de IA devem ser frequentemente avaliados e auditados para mantê-los justos.

3. Aplicações de IA críticas para a segurança

Veículos autônomos, diagnóstico e tratamento médico, sistemas de aviação, controle de usinas nucleares, etc., são exemplos de aplicações de IA críticas para a segurança. Esses sistemas de IA devem ser desenvolvidos com cautela, pois mesmo pequenos erros podem ter consequências graves para a vida humana ou para o meio ambiente.
Por exemplo, o mau funcionamento do software AI chamado Sistema de Aumento de Características de Manobra (MCAS) é atribuído em parte à queda dos dois Boeing 737 MAX, primeiro em outubro de 2018 e depois em março de 2019. Infelizmente, os dois acidentes mataram 346 pessoas.

Como podemos superar os riscos dos sistemas de IA? – Desenvolvimento responsável de IA e conformidade regulatória

IA responsável (RAI) significa desenvolver e implantar sistemas de IA justos, responsáveis, transparentes e seguros que garantam a privacidade e sigam os regulamentos legais e as normas sociais. A implementação de RAI pode ser complexa devido ao amplo e rápido desenvolvimento dos sistemas de IA.
No entanto, grandes empresas de tecnologia desenvolveram estruturas RAI, como:
  1. IA responsável da Microsoft
  2. Princípios de IA do Google
  3. IA confiável da IBM
Laboratórios de IA em todo o mundo podem se inspirar nesses princípios ou desenvolver suas próprias estruturas de IA responsáveis ​​para criar sistemas de IA confiáveis.

Conformidade Regulatória de IA

Como os dados são um componente integral dos sistemas de IA, as organizações e laboratórios baseados em IA devem cumprir os seguintes regulamentos para garantir a segurança, privacidade e segurança dos dados.
  1. GDPR (Regulamento Geral de Proteção de Dados) – um quadro de proteção de dados pela UE.
  2. CCPA (Lei de Privacidade do Consumidor da Califórnia) – um estatuto do estado da Califórnia para direitos de privacidade e proteção do consumidor.
  3. HIPAA (Lei de Portabilidade e Responsabilidade de Seguros de Saúde) – uma legislação dos EUA que protege os dados médicos dos pacientes.
  4. Lei de IA da UE e Diretrizes de ética para uma IA confiável – um regulamento de IA da Comissão Europeia.
Existem várias leis regionais e locais promulgadas por diferentes países para proteger seus cidadãos. As organizações que não conseguem garantir a conformidade regulatória em relação aos dados podem resultar em penalidades severas. Por exemplo, o GDPR estabeleceu uma multa de 20 milhões de euros ou 4% do lucro anual por infrações graves, como processamento ilegal de dados, consentimento de dados não comprovado, violação dos direitos dos titulares de dados ou transferência não protegida de dados para uma entidade internacional.

Desenvolvimento e regulamentação de IA - presente e futuro

A cada mês que passa, os avanços da IA ​​atingem alturas sem precedentes. Mas os regulamentos de IA e as estruturas de governança que acompanham estão atrasados. Eles precisam ser mais robustos e específicos.
Líderes de tecnologia e desenvolvedores de IA têm alertado sobre os riscos da IA ​​se não for adequadamente regulamentada. A pesquisa e o desenvolvimento em IA podem agregar ainda mais valor em muitos setores, mas está claro que uma regulamentação cuidadosa agora é imperativa.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Fonte: https://www.unite.ai

Líderes tecnológicos destacando os riscos da IA ​​e a urgência de uma regulamentação robusta de IA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Carimbo de hora:

Mais de Notícias Fintech