Organização sem fins lucrativos cria site para rastrear acidentes crescentes de IA

Organização sem fins lucrativos cria site para rastrear acidentes crescentes de IA

Organização sem fins lucrativos cria site para rastrear acidentes crescentes de IA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Interview Falso imagens de Donald Trump apoiado por eleitores negros inventados, alunos do ensino médio criando deepfakes pornográficos de suas colegas de classe e o chatbot Gemini do Google falta para gerar fotos de pessoas brancas com precisão.

Estes são alguns dos últimos desastres listados no Banco de dados de incidentes de IA – um site que monitora todas as diferentes maneiras pelas quais a tecnologia dá errado.

Lançado inicialmente como um projeto sob os auspícios da Partnership On AI, um grupo que tenta garantir que a IA beneficie a sociedade, o AI Incident Database é agora uma organização sem fins lucrativos financiada pelo Underwriters Laboratories – o maior e mais antigo (fundado em 1894) independente. laboratório de testes nos Estados Unidos. Ela testa todos os tipos de produtos – de móveis a mouses de computador – e seu site catalogou mais de 600 incidentes exclusivos relacionados à automação e IA até o momento.

“Há uma enorme assimetria de informação entre os fabricantes de sistemas de IA e os consumidores públicos – e isso não é justo”, argumentou Patrick Hall, professor assistente da Escola de Negócios da Universidade George Washington, que atualmente atua no Conselho de Administração do AI Incident Database. . Ele disse O registro: “Precisamos de mais transparência e sentimos que é nosso trabalho apenas compartilhar essas informações.”

O banco de dados de incidentes de IA segue o modelo do Programa CVE criado pela organização sem fins lucrativos MITRE, Ou o Administração Nacional de Segurança de Transporte Rodoviário site relatando vulnerabilidades de segurança cibernética e acidentes de veículos divulgados publicamente. “Sempre que ocorre um acidente de avião, um acidente de trem ou um grande incidente de segurança cibernética, tornou-se uma prática comum ao longo de décadas registrar o que aconteceu para que possamos tentar entender o que deu errado e depois não repeti-lo.”

O site é atualmente gerenciado por cerca de dez pessoas, além de alguns voluntários e prestadores de serviços que analisam e publicam online incidentes relacionados à IA. Heather Frase, pesquisadora sênior da Georgetown's Centro de Segurança e Tecnologia Emergente focado em avaliação de IA e diretor de banco de dados de incidentes de IA, afirmou que o site é o único que se concentra nos impactos do mundo real dos riscos e danos da IA ​​– não apenas vulnerabilidades e bugs em software.

A organização atualmente coleta incidentes da cobertura da mídia e analisa problemas relatados por pessoas no Twitter. O banco de dados de incidentes de IA registrou 250 incidentes únicos antes do lançamento do ChatGPT em novembro de 2022 e agora lista mais de 600 incidentes únicos.

A monitorização de problemas com a IA ao longo do tempo revela tendências interessantes e pode permitir que as pessoas compreendam os danos reais e atuais da tecnologia.

O Hall da Universidade George Washington revelou que cerca de metade dos relatórios no banco de dados estão relacionados à IA generativa. Algumas delas são “coisas engraçadas e bobas”, como produtos duvidosos vendido na Amazon com o título: “Não consigo atender a essa solicitação” – um sinal claro de que o vendedor usou um grande modelo de linguagem para escrever descrições – ou outros casos de spam gerado por IA. Mas alguns são “realmente deprimentes e sérios” – como um robotáxi Cruise atropelando e arrastando uma mulher sob as rodas num acidente em São Francisco.

“A IA é principalmente um oeste selvagem neste momento, e a atitude é ir rápido e quebrar as coisas”, lamentou. Não está claro como a tecnologia está moldando a sociedade, e a equipe espera que o banco de dados de incidentes de IA possa fornecer insights sobre as formas como está sendo mal utilizado e destacar consequências não intencionais – na esperança de que os desenvolvedores e formuladores de políticas estejam mais bem informados para que possam melhorar seus modelos ou regulamentar os riscos mais prementes.

“Há muito entusiasmo por aí. As pessoas falam sobre risco existencial. Tenho certeza de que a IA pode representar riscos muito graves para a civilização humana, mas está claro para mim que alguns desses riscos mais reais do mundo – como muitos ferimentos associados a carros autônomos ou, você sabe, perpetuar preconceitos por meio de algoritmos usados no financiamento ao consumo ou no emprego. Isso é o que vemos.”

“Eu sei que estamos sentindo muita falta, né? Nem tudo está sendo noticiado ou captado pela mídia. Muitas vezes as pessoas podem nem perceber que o dano que estão sofrendo vem de uma IA”, observou Frase. “Espero que os danos físicos aumentem muito. Estamos vendo [principalmente] danos psicológicos e outros danos intangíveis acontecendo em grandes modelos de linguagem – mas assim que tivermos a robótica generativa, acho que os danos físicos aumentarão muito.”

Frase está mais preocupado com as formas como a IA pode minar os direitos humanos e as liberdades civis. Ela acredita que a recolha de incidentes de IA mostrará se as políticas tornaram a tecnologia mais segura ao longo do tempo.

“Você tem que medir as coisas para consertar as coisas”, acrescentou Hall.

A organização está sempre em busca de voluntários e atualmente está focada em capturar mais incidentes e aumentar a conscientização. Frase enfatizou que os membros do grupo não são luditas da IA: “Provavelmente estamos parecendo bastante anti-IA, mas não somos. Na verdade, queremos usá-lo. Queremos apenas as coisas boas.”

Hall concordou. “Para manter a tecnologia avançando, alguém só precisa fazer o trabalho para torná-la mais segura”, disse ele. ®

Carimbo de hora:

Mais de O registro