Alimente o fogo AI com centralização PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Alimente o fogo da IA ​​com centralização

Recurso patrocinado Um fluxo constante de tecnologias e descobertas revolucionárias – o fogo, a agricultura, a roda, a imprensa e a Internet, para citar apenas algumas – moldaram profundamente o desenvolvimento humano e a civilização. E esse ciclo de inovação continua com a Inteligência Artificial (IA). 

A empresa de pesquisa IDC chegou ao ponto de concluir que a IA é realmente a resposta para quase “tudo”. Rasmus Andsbjerg, vice-presidente associado de dados e análises da IDC afirma: “A realidade é que a IA oferece soluções para tudo o que enfrentamos no momento. A IA pode ser uma fonte para acelerar jornadas de transformação digital, permitir economias de custos em tempos de taxas de inflação surpreendentes e apoiar esforços de automação em tempos de escassez de mão de obra.”

Certamente, e em todos os setores e funções, as organizações de utilizadores finais estão a começar a descobrir os benefícios da IA, à medida que surgem algoritmos cada vez mais poderosos e infraestruturas subjacentes para permitir uma melhor tomada de decisões e maior produtividade. 

As receitas mundiais para o mercado de inteligência artificial (IA), incluindo software, hardware e serviços associados para aplicações centradas e não centradas em IA, totalizaram US$ 383.3 bilhões em 2021. Isso representou um aumento de 20.7% em relação ao ano anterior, de acordo com o mais recente Rastreador semestral mundial de inteligência artificial da International Data Corporation (IDC).

Da mesma forma, a implantação de software de IA na nuvem continua a apresentar um crescimento constante. A IDC espera que as versões em nuvem do software de IA recém-adquirido superem as implantações locais em 2022.

O céu é o limite para IA

Ronen Dar, diretor de tecnologia da Run:ai, especialista em IA, que criou uma plataforma de gerenciamento de computação para IA, acredita que o céu é o limite para o nascente setor de IA empresarial. 

“A IA é um mercado que vemos crescer muito rapidamente. E em termos de empresas, vemos demanda e adoção de aprendizado de máquina e IA. E penso que neste momento existe aqui uma nova tecnologia que está a trazer novas capacidades que vão mudar o mundo; que vão revolucionar os negócios”, observa Dar. 

Há também uma compreensão cada vez mais clara sobre a necessidade de começar a explorar e experimentar a IA e compreender como integrar a IA nos modelos de negócio.

Dar acredita que a IA pode trazer “benefícios surpreendentes” para melhorar os processos de negócios empresariais existentes: “Em termos de otimização e comprovação dos negócios atuais, vemos muitos casos de uso em torno da IA ​​e do aprendizado de máquina que estão melhorando as operações e como as decisões estão sendo tomadas em torno da oferta e da procura.”

Ele destaca que novos modelos de aprendizagem profunda baseados em redes neurais podem melhorar os processos, a tomada de decisões e a precisão de processos críticos de negócios, como a detecção de fraudes no setor de serviços financeiros. Os cuidados de saúde são outro sector onde o potencial da IA ​​é “enorme”, particularmente em termos de ajudar os médicos a tomar melhores decisões clínicas e ajudar a descobrir e desenvolver novos medicamentos. 

E, olhando mais adiante, Dar prevê que a tecnologia de IA ajudará a oferecer novas oportunidades comerciais que não existem atualmente em setores como veículos autônomos e jogos imersivos. 

Obstáculos de infraestrutura a serem superados

Apesar do potencial óbvio da IA ​​e da aprendizagem automática nas empresas, Dar reconhece que a implantação comercial da IA ​​está a ser dificultada por questões relacionadas com o fornecimento de infraestruturas. Ele aconselha que as empresas precisam, em primeiro lugar, analisar a forma como a IA entra numa organização.

Normalmente, isso envolve um processo descoordenado, departamento por departamento, em que diferentes equipes provisionam tecnologia e recursos de forma independente, levando a implantações isoladas. A TI não consegue controlar efetivamente esses projetos ad hoc e não tem visibilidade do que está acontecendo. E isso torna difícil, se não impossível, calcular o ROI dos gastos com infraestrutura de IA. 

“É o problema clássico: antigamente era shadow IT e agora é shadow AI”, diz Dar. 

Além disso, a infraestrutura de última geração necessária para IA/ML é um investimento, pois as empresas precisam de hardware de computação acelerado por GPU poderoso para processar dados muito complexos e treinar modelos. 

“As equipes de IA precisam de muito poder de computação para treinar modelos, normalmente usando GPUs, que são recursos premium de data center que podem ser isolados e não usados ​​de forma eficiente”, diz Dar. “Isso pode resultar no desperdício de muito dinheiro, com certeza.” 

Essa infraestrutura isolada pode resultar em níveis de utilização inferiores a 10%, por exemplo.

De acordo com a pesquisa Run:ai, A Pesquisa sobre o Estado da Infraestrutura de IA de 2021, publicado em outubro de 2021, 87 por cento dos entrevistados disseram que enfrentam algum nível de problemas de alocação de recursos de GPU/computação, com 12 por cento dizendo que isso acontece com frequência. Como resultado, 83% das empresas pesquisadas relataram que não estavam utilizando totalmente sua GPU e hardware de IA. Na verdade, quase dois terços (61%) indicaram que seu hardware de GPU e IA está, em sua maioria, em níveis “moderados” de utilização.

A centralização da IA

Para resolver estes problemas, Dar defende a centralização do fornecimento de recursos de IA. Run:AI desenvolveu uma plataforma de gerenciamento de computação para IA que faz exatamente isso, centralizando e virtualizando o recurso de computação da GPU. Ao agrupar GPUs em uma única camada virtual e automatizar o agendamento da carga de trabalho para 100% de utilização, essa abordagem oferece vantagens em comparação com sistemas isolados em nível departamental. 

Centralizar a infraestrutura devolve o controle e a visibilidade, ao mesmo tempo que libera os cientistas de dados da sobrecarga de gerenciamento da infraestrutura. As equipes de IA compartilham um recurso de computação de IA universal que pode ser aumentado ou diminuído dinamicamente conforme a demanda aumenta ou diminui, eliminando gargalos de demanda e períodos de subutilização. 

Esta abordagem, argumenta Dar, pode ajudar as organizações a tirar o máximo partido do seu hardware e libertar os cientistas de dados das restrições subjacentes à limitação de recursos. Tudo isso significa que eles podem executar mais trabalhos e colocar mais modelos de IA em produção. 

Um exemplo é fornecido pelo London Medical Imaging & Artificial Intelligence Centre for Value Based Healthcare, liderado pelo King's College London e sediado no St. Thomas' Hospital. Ele usa imagens médicas e dados eletrônicos de saúde para treinar algoritmos sofisticados de aprendizado profundo para visão computacional e processamento de linguagem natural. Esses algoritmos são usados ​​para criar novas ferramentas para triagem eficaz, diagnóstico mais rápido e terapias personalizadas.

O Centro percebeu que sua infraestrutura herdada de IA estava sofrendo de problemas de eficiência: a utilização total da GPU estava abaixo de 30%, com períodos de inatividade “significativos” para alguns componentes. Depois de resolver esses problemas adotando um modelo centralizado de provisionamento de computação de IA baseado na plataforma Run:ai, a utilização da GPU aumentou 110%, com melhorias paralelas na velocidade dos experimentos e na eficiência geral da pesquisa.

“As nossas experiências podem demorar dias ou minutos, utilizando uma pequena quantidade de poder computacional ou um cluster inteiro”, afirma o Dr. M. Jorge Cardoso, professor associado e conferencista sénior em IA no King's College London e CTO do AI Centre. “Reduzir o tempo para obtenção de resultados garante que possamos fazer e responder perguntas mais críticas sobre a saúde e a vida das pessoas”, 

A centralização dos recursos de GPU de IA também proporcionou benefícios comerciais valiosos à Wayve, uma empresa com sede em Londres que desenvolve software de IA para carros autônomos. A sua tecnologia foi concebida para não depender de sensores, mas sim centrar-se numa maior inteligência, para uma melhor condução autónoma em áreas urbanas densas.

O Fleet Learning Loop da Wayve envolve um ciclo contínuo de coleta de dados, curadoria, treinamento de modelos, resimulação e modelos de licenciamento antes da implantação na frota. O principal consumo de computação de GPU da empresa vem do treinamento de produção do Fleet Learning Loop. Ele treina a linha de base do produto com o conjunto de dados completo e treina continuamente para coletar novos dados por meio de iterações do ciclo de aprendizagem da frota.

A empresa começou a perceber que estava sofrendo de “horror” de agendamento de GPU: embora quase 100% de seus recursos de GPU disponíveis tenham sido alocados para pesquisadores, menos de 45% foram utilizados quando o teste foi feito inicialmente. 

“Como as GPUs foram atribuídas estaticamente aos pesquisadores, quando os pesquisadores não estavam usando as GPUs atribuídas, outros não podiam acessá-las, criando a ilusão de que as GPUs para treinamento de modelo estavam em capacidade, mesmo quando muitas GPUs estavam ociosas”, observa Wayve. 

Trabalhar com Run:ai resolveu esse problema removendo silos e eliminando a alocação estática de recursos. Pools de GPUs compartilhadas foram criados permitindo que as equipes acessassem mais GPUs e executassem mais cargas de trabalho, o que levou a uma melhoria de 35% em sua utilização. 

Espelhe melhorias na eficiência da CPU

Espelhando a forma como a VMware trouxe melhorias substanciais de eficiência na forma como as CPUs dos servidores estão sendo usadas em capacidade máxima nos últimos anos, novas inovações estão agora surgindo para otimizar a eficiência da utilização da GPU para cargas de trabalho de computação de IA. 

“Se você pensar na pilha de software executada em CPUs, verá que ela foi construída com muito VMware e virtualização”, explica Dar. “As GPUs são relativamente novas no data center, e softwares para IA e virtualização – como NVIDIA IA Empresarial – também é um desenvolvimento recente.” 

“Trazemos tecnologia avançada nessa área com recursos como GPU fracionada, troca de tarefas e. permitindo que as cargas de trabalho compartilhem GPUs com eficiência”, diz Dar, acrescentando que novas melhorias estão sendo planejadas.

Run:ai trabalha em estreita colaboração com a NVIDIA para melhorar e simplificar o uso de GPUs nas empresas. A colaboração mais recente inclui permitir flexibilidade de GPU multinuvem para empresas que usam GPUs na nuvem e integração com Servidor de inferência NVIDIA Triton software para simplificar o processo de implantação de modelos em produção.

Da mesma forma que as grandes inovações ao longo da história tiveram impactos profundos na raça humana e no mundo, Dar observa que o poder da IA ​​terá de ser aproveitado com cuidado para maximizar os seus potenciais benefícios, ao mesmo tempo que se gerem as potenciais desvantagens. Ele compara a IA com a inovação mais primitiva de todas: o fogo. 

“É como o fogo que trouxe muitas coisas boas e mudou vidas humanas. O fogo também trouxe perigo. Então os seres humanos entenderam como conviver com o fogo”, diz Dar. “Acho que isso também está aqui na IA hoje em dia.” 

Patrocinado por Run:ai.

Carimbo de hora:

Mais de O registro