A UE deve adotar a primeira legislação mundial sobre IA que proibirá o reconhecimento facial em locais públicos

A UE deve adotar a primeira legislação mundial sobre IA que proibirá o reconhecimento facial em locais públicos

A UE deve adotar a primeira legislação de IA do mundo que proibirá o reconhecimento facial em locais públicos PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A União Europeia (UE) está liderando a corrida para regulamentar a inteligência artificial (IA). Ao pôr termo a três dias de negociações, o Conselho Europeu e o Parlamento Europeu chegaram hoje cedo a um acordo provisório sobre o que deverá se tornar a primeira regulamentação abrangente de IA do mundo.

Carme Artigas, Secretária de Estado espanhola para a digitalização e IA, classificou o acordo como uma “conquista histórica” num comunicados à CMVM. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre encorajar a inovação e adopção segura e confiável da IA ​​em toda a UE e proteger os “direitos fundamentais” dos cidadãos.

O projecto de lei - o Lei de Inteligência Artificial— foi proposto pela primeira vez pela Comissão Europeia em abril de 2021. O parlamento e os estados membros da UE votarão para aprovar o projeto de legislação no próximo ano, mas as regras não entrarão em vigor até 2025.

Uma abordagem baseada no risco para regular a IA

A Lei da IA ​​foi concebida utilizando uma abordagem baseada no risco, em que quanto maior o risco que um sistema de IA representa, mais rigorosas são as regras. Para conseguir isso, o regulamento classificará as IAs para identificar aquelas que representam “alto risco”.

As IAs consideradas não ameaçadoras e de baixo risco estarão sujeitas a “obrigações de transparência muito leves”. Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para permitir que os utilizadores tomem decisões informadas.

Para IAs de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:

Supervisão Humana: A lei exige uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes de sistemas de IA de alto risco. Isso significa ter humanos informados, monitorando e supervisionando ativamente a operação do sistema de IA. O seu papel inclui garantir que o sistema funciona conforme pretendido, identificando e abordando potenciais danos ou consequências não intencionais e, em última análise, responsabilizando-se pelas suas decisões e ações.

Transparência e explicabilidade: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é crucial para construir confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre os algoritmos subjacentes, dados de treinamento e possíveis tendências que podem influenciar os resultados do sistema.

Gestão de dados: A Lei de IA enfatiza práticas responsáveis ​​de dados, com o objetivo de prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados ​​para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos. Os princípios de minimização de dados são cruciais, recolhendo apenas a informação necessária ao funcionamento do sistema e minimizando o risco de utilização indevida ou violações. Além disso, os indivíduos devem ter direitos claros de acesso, retificação e apagamento dos seus dados utilizados em sistemas de IA, capacitando-os para controlar as suas informações e garantir a sua utilização ética.

Gerenciamento de riscos: A identificação e mitigação proativas de riscos se tornarão um requisito fundamental para IAs de alto risco. Os desenvolvedores devem implementar estruturas robustas de gestão de riscos que avaliem sistematicamente possíveis danos, vulnerabilidades e consequências não intencionais de seus sistemas.

Carimbo de hora:

Mais de CryptoSlate