Como a DARPA quer repensar os fundamentos da IA ​​para incluir a confiança

Como a DARPA quer repensar os fundamentos da IA ​​para incluir a confiança

Como a DARPA deseja repensar os fundamentos da IA ​​para incluir a confiança PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Comentário Você confiaria sua vida a uma inteligência artificial?

O estado atual da IA ​​é impressionante, mas vê-la como quase inteligente é um exagero. Se você quiser saber como está indo o boom da IA, responda a esta pergunta: você confia na IA?

Bard do Google e modelos de linguagem grandes do Bing com tecnologia ChatGPT da Microsoft ambos moldadas erros estúpidos durante suas apresentações de lançamento que poderiam ter sido evitados com uma rápida pesquisa na web. LLMs também foram vistos entendendo os fatos errados e empurrando citações incorretas.

Uma coisa é quando essas IAs são responsáveis ​​apenas por, digamos, entreter os usuários do Bing ou do Bard, diz Matt Turek, da DARPA, vice-diretor do Escritório de Inovação da Informação. Outra coisa é quando vidas estão em risco, e é por isso que a agência de Turek lançou uma iniciativa chamada AI Forward para tentar responder à pergunta sobre o que exatamente significa construir um sistema de IA em que possamos confiar.

Confiança é...?

Em uma entrevista com O registro, Turek disse que gosta de pensar em construir IA confiável com uma metáfora de engenharia civil que também envolve colocar muita confiança na tecnologia: construir pontes.

“Não construímos mais pontes por tentativa e erro”, diz Turek. “Entendemos a física fundamental, a ciência fundamental dos materiais, a engenharia de sistemas para dizer: preciso ser capaz de cobrir essa distância e carregar esse tipo de peso”, acrescenta.

Armado com esse conhecimento, diz Turek, o setor de engenharia foi capaz de desenvolver padrões que tornam a construção de pontes direta e previsível, mas não temos isso com IA no momento. Na verdade, estamos em uma posição ainda pior do que simplesmente não ter padrões: os modelos de IA que estamos construindo às vezes nos surpreendem, e isso é ruim, diz Turek. 

“Não entendemos totalmente os modelos. Não entendemos o que eles fazem bem, não entendemos os casos extremos, os modos de falha… o que isso pode levar a que as coisas dêem errado em uma velocidade e uma escala que nunca vimos antes.” 

Reg os leitores não precisam imaginar cenários apocalípticos nos quais uma inteligência artificial geral (AGI) começa a matar humanos e travar uma guerra para transmitir o ponto de vista de Turek. “Não precisamos de AGI para que as coisas saiam significativamente erradas”, diz Turek. Ele cita falhas repentinas no mercado, como a queda da libra esterlina em 2016, atribuída a tomada de decisão algorítmica ruim, como um exemplo. 

Depois, há software como o piloto automático da Tesla, ostensivamente uma IA projetada para dirigir um carro que foi supostamente conectado a 70% de acidentes envolvendo tecnologia automatizada de assistência ao motorista. Quando tais acidentes acontecem, a Tesla não culpa a IA, Turek nos diz, ela diz que os motoristas são responsáveis ​​pelo que o piloto automático faz. 

Por essa linha de raciocínio, é justo dizer que nem a Tesla confia em sua própria IA. 

Como a DARPA quer mover a IA … para frente

“A velocidade com que os sistemas de software em larga escala podem operar pode criar desafios para a supervisão humana”, diz Turek, e é por isso que a DARPA lançou sua mais recente iniciativa de IA, AI Forward, no início deste ano.

Em um artigo do apresentação de negócios em fevereiro, a chefe de Turek, Dra. Kathleen Fisher, explicou o que a DARPA deseja realizar com o AI Forward, ou seja, construir essa base de entendimento para o desenvolvimento de IA semelhante ao que os engenheiros desenvolveram com seus próprios conjuntos de padrões.

Fisher explicou em sua apresentação que a DARPA vê a confiança da IA ​​como sendo integrativa e que qualquer IA em que vale a pena confiar deve ser capaz de fazer três coisas:

  • Operando com competência, o que definitivamente ainda não descobri,
  • Interagir apropriadamente com humanos, incluindo comunicar por que ele faz o que faz (veja o ponto anterior para saber como está indo),
  • Comportar-se de forma ética e moral, o que Fisher diz incluiria ser capaz de determinar se as instruções são éticas ou não e reagir de acordo. 

Articular o que define a IA confiável é uma coisa. Chegar lá é um pouco mais trabalhoso. Para tanto, a DARPA disse que planeja investir sua energia, tempo e dinheiro em três áreas: Construindo teorias fundamentais, articulando práticas adequadas de engenharia de IA e desenvolvendo padrões para equipes e interações humano-IA. 

O AI Forward, que Turek descreve menos como um programa e mais como uma iniciativa de alcance comunitário, está começando com um par de workshops de verão em junho e no final de julho para reunir pessoas dos setores público e privado para ajudar a concretizar esses três investimentos em IA. áreas. 

A DARPA, diz Turek, tem uma capacidade única de “reunir [reunir] uma ampla gama de pesquisadores em várias comunidades, dar uma olhada holística no problema, identificar … caminhos convincentes a seguir e, em seguida, acompanhar isso com investimentos que a DARPA considera que poderia levar em direção a tecnologias transformacionais”.

Para quem espera jogar o chapéu no ringue para participar dos dois primeiros workshops do AI Forward - desculpe - eles já estão cheios. Turek não revelou detalhes sobre quem estaria lá, apenas disse que várias centenas de participantes são esperados com “uma diversidade de formações técnicas [e] perspectivas”.

Como é a IA de defesa confiável?

Se e quando a DARPA conseguir desenvolver seu modelo de confiança em IA, como exatamente usaria essa tecnologia? 

Os aplicativos de segurança cibernética são óbvios, diz Turek, pois uma IA confiável pode ser usada para tomar as decisões corretas em uma escala e velocidade que os humanos não poderiam agir. Do lado do modelo de linguagem grande, há uma IA de construção que pode ser confiável para lidar adequadamente com informações classificadas ou digerir e resumir relatórios de maneira precisa “se pudermos remover essas alucinações”, acrescenta Turek.

E depois há o campo de batalha. Longe de ser apenas uma ferramenta usada para prejudicar, a IA pode ser transformada em aplicativos que salvam vidas por meio de iniciativas de pesquisa como No momento, um projeto de pesquisa que Turek lidera para apoiar a tomada de decisões rápidas em situações difíceis. 

O objetivo do In The Moment é identificar “atributos-chave subjacentes à tomada de decisão humana confiável em configurações dinâmicas e representar computacionalmente esses atributos”, como a DARPA descreve na página do projeto. 

“[In The Moment] é realmente um programa de pesquisa fundamental sobre como você modela e quantifica a confiança e como você constrói esses atributos que levam à confiança e aos sistemas”, diz Turek.

A IA armada com esses recursos pode ser usada para tomar decisões de triagem médica no campo de batalha ou em cenários de desastre.

A DARPA deseja que os white papers sigam as duas reuniões do AI Forward neste verão, mas a partir daí é uma questão de passar do estágio de definição e ir para a atualização, o que definitivamente pode demorar um pouco. 

“Haverá investimentos da DARPA que sairão das reuniões”, Turek nos diz. “O número ou o tamanho desses investimentos vai depender do que ouvirmos”, acrescenta. ®

Carimbo de hora:

Mais de O registro