
A Akamai Technologies (NASDAQ: AKAM), empresa de cibersegurança e computação em nuvem, anunciou a primeira implementação em escala global do design de referência NVIDIA® AI Grid. Ao integrar a infraestrutura de inteligência artificial da NVIDIA à sua própria rede e utilizar orquestração inteligente de workloads em sua rede, a Akamai pretende levar o setor para além das "fábricas de IA" isoladas, em direção a uma grade unificada e distribuída para inferência de IA.
O anúncio marca uma nova etapa no desenvolvimento do Akamai Inference Cloud, apresentado no final do ano passado. Segundo a Akamai, a companhia é a primeira a operacionalizar o AI Grid e está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, oferecendo uma plataforma que permite às empresas executar IA agêntica e física com a capacidade de resposta da computação local e a escala da web global.
"Fábricas de IA foram projetadas para treinamento e cargas de trabalho de modelos de fronteira — e a infraestrutura centralizada continuará oferecendo a melhor economia de tokens para esses casos de uso", afirma Adam Karon, Chief Operating Officer e General Manager do Cloud Technology Group da Akamai.
"Mas, vídeo em tempo real, IA física e experiências altamente personalizadas e simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta a um cluster centralizado. Nossa orquestração inteligente do AI Grid oferece às fábricas de IA uma maneira de escalar a inferência para fora — aproveitando a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para rotear workloads de IA em 4.400 localidades, com o custo certo e no momento certo", acrescenta.
A arquitetura da "tokenomics"
No centro do AI Grid está um orquestrador inteligente que atua como intermediário em tempo real para requisições. Ao aplicar a expertise da Akamai em otimização de desempenho de aplicações, esse plano de controle orientado por cargas de trabalho aprimora a "tokenomics", melhorando significativamente métricas como custo por token, tempo até a geração do primeiro token e throughput.
Segundo a empresa, a Akamai permite que clientes acessem modelos ajustados ou espelhados por meio de sua infraestrutura global de edge, o que pode impactar aspectos como custo e desempenho em cargas de trabalho de IA.
A continuidade da computação: do centro à edge
Construída sobre a NVIDIA AI Enterprise e utilizando a arquitetura NVIDIA Blackwell e DPUs NVIDIA BlueField para redes e segurança aceleradas por hardware, a Akamai consegue gerenciar SLAs complexos entre a rede edge e o centro:
"Novas aplicações nativas de IA exigem latência previsível e maior eficiência de custo em escala planetária", afirma Chris Penrose, Global VP de Business Development – Telco da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido de conexão para IA generativa, agentiva e física, levando a inteligência diretamente até os dados e desbloqueando a próxima onda de aplicações em tempo real", complementa.
Impulsionando a próxima onda de IA em tempo real
A Akamai já observa forte adoção inicial do Akamai Inference Cloud em setores que exigem alta capacidade de computação e baixa latência:
Impulsionada pela demanda empresarial, a plataforma também foi validada por grandes provedores de tecnologia, incluindo um contrato de US$ 200 milhões por quatro anos para um cluster de milhares de GPUs, sem a necessidade de um data center dedicado para infraestrutura de IA empresarial próximo aos centros urbanos.
Escalando fábricas de IA: do centralizado ao distribuído
A primeira onda de infraestrutura de IA foi definida por grandes clusters de GPUs em poucas localizações centralizadas, otimizados para treinamento. À medida que a inferência se torna uma carga de trabalho mais relevante e empresas de diferentes setores passam a desenvolver agentes de IA, modelos centralizados podem apresentar desafios relacionados à escala, conforme a empresa, de forma semelhante ao observado anteriormente em áreas como entrega de mídia, jogos online, transações financeiras e aplicações baseadas em múltiplos serviços.
Para lidar com esses desafios, a Akamai utiliza uma arquitetura de rede distribuída, com orquestração e sistemas projetados para operar próximos ao ponto de interação digital.
De acordo com a empresa, o resultado tem sido melhores experiências de usuário e maior ROI para empresas que adotaram esse modelo. O Akamai Inference Cloud aplica essa arquitetura comprovada às fábricas de IA, permitindo a próxima fase de escala e crescimento ao distribuir computação densa do núcleo até a edge.
Para as empresas, isso significa a capacidade de implantar agentes de IA contextuais e adaptativos. Para a indústria, representa um modelo de como as fábricas de IA podem evoluir de instalações isoladas para uma infraestrutura global distribuída de utilidade pública.
Disponibilidade
O Akamai Inference Cloud já está disponível para clientes empresariais qualificados. Organizações podem saber mais e solicitar acesso aqui. Representantes da Akamai estavam disponíveis para demonstrações e reuniões durante a NVIDIA GTC 2026, no San Jose Convention Center, estande 621, entre 16 e 19 de março de 2026.
Tecnologia Tecnologia no tratamento do câncer pode reduzir custos
Tecnologia Serviços de segurança gerenciada crescem no Brasil
Tecnologia Huawei FreeBuds Pro 5 chega ao Brasil em ação única