A Comissão Europeia apresentou na quarta-feira regras destinadas a tornar mais fácil para os europeus processar empresas por danos causados por tecnologias de IA que dão errado.
A proposta de diretiva de responsabilidade de IA visa fazer algumas coisas. Um objetivo principal é atualizar as leis de responsabilidade do produto para que elas cubram efetivamente os sistemas de aprendizado de máquina e reduzam o ônus da prova para um requerente de indenização.
Isso deve tornar mais fácil para as pessoas reivindicarem indenização, desde que possam provar que o dano foi causado e que é provável que um modelo treinado seja o culpado. Isso significa que alguém pode, por exemplo, reivindicar uma compensação se acreditar que foi discriminado por um software de recrutamento com inteligência artificial. A diretiva abre a porta para pedidos de indenização após erros de privacidade e danos causados por falta de segurança no contexto de um sistema de IA que deu errado.
Outro objetivo principal é dar às pessoas o direito de exigir das organizações detalhes sobre o uso de inteligência artificial para ajudar em pedidos de indenização. Dito isso, as empresas podem fornecer provas de que nenhum dano foi causado por uma IA e podem argumentar contra a divulgação de informações confidenciais, como segredos comerciais.
A diretiva também deve fornecer às empresas uma compreensão clara e garantia de quais são as regras em torno da responsabilidade da IA, para que elas saibam no que estão se metendo ao implantar essa tecnologia, o que esperar de um reclamante e como responder. Isso deve dar aos desenvolvedores e fabricantes alguma estabilidade e encorajar – em vez de desencorajar – a implantação de sistemas de aprendizado de máquina, ou assim se espera.
Por fim, nos disseram, a diretiva harmonizará as regras na Europa sobre responsabilidade da IA. E sim, é meio vagamente definido no momento, já que ainda foi apoiado na legislação real.
“Queremos que as tecnologias de IA prosperem na UE”, Věra Jourová, vice-presidente de valores e transparência, insistiram em um comunicado.
“Para que isso aconteça, as pessoas precisam confiar nas inovações digitais. Com a proposta de hoje sobre a responsabilidade civil da IA, damos aos clientes ferramentas para reparação em caso de danos causados pela IA para que tenham o mesmo nível de proteção das tecnologias tradicionais e garantimos segurança jurídica para o nosso mercado interno.”
A Diretiva de Responsabilidade de IA se aplicaria a todos os tipos de danos cobertos pelas leis nacionais e apoiaria reclamações contra qualquer pessoa que “influencie o sistema de IA que causou o dano”, segundo a um FAQ da comissão.
“Ao considerar o enorme potencial das novas tecnologias, devemos sempre garantir a segurança dos consumidores”, disse o Comissário de Justiça Didier Reynders.
“Os padrões adequados de proteção para os cidadãos da UE são a base da confiança do consumidor e, portanto, da inovação bem-sucedida. Novas tecnologias como drones ou serviços de entrega operados por IA só funcionam quando os consumidores se sentem seguros e protegidos. Hoje, propomos regras de responsabilidade modernas que farão exatamente isso. Tornamos nossa estrutura legal adequada às realidades da transformação digital.”
A Diretiva de Responsabilidade da IA é apenas uma proposta por enquanto e precisa ser debatida, editada e aprovada pelo Parlamento Europeu e pelo Conselho da União Europeia antes de se tornar lei. ®
- AI
- arte ai
- gerador de arte ai
- ai robô
- inteligência artificial
- certificação de inteligência artificial
- inteligência artificial em bancos
- robô de inteligência artificial
- robôs de inteligência artificial
- software de inteligência artificial
- blockchain
- conferência blockchain ai
- Coingenius
- inteligência artificial conversacional
- conferência de criptografia ai
- dall's
- deep learning
- google ai
- aprendizado de máquina
- platão
- platão ai
- Inteligência de Dados Platão
- Jogo de Platão
- PlatãoData
- jogo de platô
- escala ai
- sintaxe
- O registro
- zefirnet