Capacidades de segurança cibernética das forças armadas dos EUA para obter impulso OpenAI

Capacidades de segurança cibernética das forças armadas dos EUA para obter impulso OpenAI

As capacidades de segurança cibernética das forças armadas dos EUA para obter OpenAI impulsionam PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A OpenAI está desenvolvendo capacidades de segurança cibernética baseadas em IA para os militares dos EUA e acelerando seu trabalho de segurança eleitoral, disseram os executivos do laboratório ao Fórum Econômico Mundial (WEF) em Davos esta semana.

A mudança pública em relação ao trabalho com as forças armadas ocorre dias depois de uma em alterar A linguagem política da OpenAI, que anteriormente proibia a utilização dos seus modelos generativos de IA para aplicações “militares e de guerra”, bem como “a geração de malware”, com a sua tecnologia. Essas restrições agora desapareceram das letras miúdas do fabricante do ChatGPT. Dito isto, o superlaboratório enfatizou que a sua tecnologia ainda não deve ser usada para violência, destruição ou espionagem de comunicações.

“Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações, ou para ferir outras pessoas ou destruir propriedades”, disse um porta-voz da OpenAI. O registro hoje mesmo.

“Existem, no entanto, casos de uso de segurança nacional que se alinham com a nossa missão.

“Já estamos trabalhando com a DARPA para estimular a criação de novas ferramentas de segurança cibernética para proteger software de código aberto do qual dependem a infraestrutura crítica e a indústria. Não ficou claro se estes casos de utilização benéficos teriam sido permitidos no âmbito “militar” nas nossas políticas anteriores. Portanto, o objetivo da nossa atualização de política é fornecer clareza e a capacidade de realizar essas discussões.” 

Na terça-feira, durante uma entrevista na festa do WEF para os líderes do mundo, a vice-presidente de assuntos globais da OpenAI, Anna Makanju, disse que sua parceria com o Pentágono inclui o desenvolvimento de software de segurança cibernética de código aberto. A OpenAI também está iniciando negociações com o governo dos EUA sobre como sua tecnologia pode ajudar a prevenir suicídios de veteranos, disse ela.

“Como anteriormente tínhamos o que era essencialmente uma proibição geral das forças armadas, muitas pessoas pensaram que isso proibiria muitos desses casos de uso, que as pessoas consideram estar muito alinhados com o que queremos ver no mundo”, disse Makanju. 

No entanto, apesar de remover “militar e de guerra” juntamente com outros “usos não permitidos” do ChatGPT, Makanju disse que a OpenAI mantém a proibição de usar seus modelos para desenvolver armas para ferir pessoas. 

Também durante a mesma entrevista, o CEO da OpenAI, Sam Altman, disse que o negócio está tomando medidas para garantir que suas ferramentas generativas de IA não sejam usadas para espalhar desinformação relacionada às eleições. 

Também segue um procedimento semelhante impulso da Microsoft, o maior investidor da OpenAI, que, em novembro, anunciou uma estratégia de proteção eleitoral em cinco etapas para “os Estados Unidos e outros países onde eleições críticas ocorrerão em 2024”. 

“Há muita coisa em jogo nesta eleição”, disse Altman na terça-feira.

Isto acontece um dia depois do ex-presidente dos EUA, Donald Trump grande vitória na convenção política de Iowa na segunda-feira.

E todos esses tópicos — IA, segurança cibernética e desinformação — desempenham papéis proeminentes na agenda como líderes mundiais se reúnem esta semana em Davos.

De acordo com o WEF's Relatório Global de Riscos 2024, publicado na semana passada, “desinformação e desinformação” é o principal risco global a curto prazo, com a “insegurança cibernética” a ocupar o quarto lugar.

A ascensão da IA ​​generativa agrava esses desafios, com 56% dos executivos pesquisados ​​no WEF Reunião Anual de Segurança Cibernética em novembro de 2023 dizendo IA generativa dará aos atacantes vantagens sobre os defensores nos próximos dois anos.

“Uma preocupação particular envolve o uso de tecnologias de IA para aumentar as capacidades de guerra cibernética, e por um bom motivo”, disse Bernard Montel, diretor técnico da Tenable para EMEA. O registro

“Embora a IA tenha feito avanços tecnológicos astronômicos nos últimos 12 a 24 meses, permitir que um dispositivo autônomo faça o julgamento final é incompreensível hoje”, acrescentou.

“Embora a IA seja capaz de identificar e automatizar rapidamente algumas ações que precisam ser tomadas, é imperativo que sejam os humanos quem tome decisões críticas sobre onde e quando agir a partir da inteligência que a IA fornece.” ®

Carimbo de hora:

Mais de O registro