AI-Native RAN (Radio Access Network) é uma arquitetura de rede onde redes neurais executam funções centrais de rádio — estimação de canal, beamforming, escalonamento — substituindo algoritmos clássicos completamente. De acordo com a AI-RAN Alliance (2026), mais de 130 empresas estão construindo infraestrutura AI-native para redes 6G e 7G.

Dados Principais

  • Membros da AI-RAN Alliance: 130+ empresas — AI-RAN Alliance, 2026
  • Ganho de scheduling neural Ericsson: 7x tempos de resposta mais rápidos vs. baseado em regras — Ericsson MWC 2026 demo
  • Meta de utilização GPU em base stations: 80–90% (contra ~30% atual) — NVIDIA, 2026
  • Parceiros da coalizão: BT Group, Deutsche Telekom, Nokia, SK Telecom, T-Mobile, Cisco — NVIDIA MWC 2026
  • Primeiro padrão 6G AI-native: 3GPP Release 22+, esperado 2033–2035 — roteiro 3GPP
  • Menor duração de slot 5G NR: 0,5 ms — 3GPP Release 17

Por décadas, as redes de acesso por rádio foram construídas com processamento de sinais clássico — algoritmos matematicamente precisos projetados por engenheiros e codificados diretamente no silício. AI foi adicionada como uma reflexão tardia: painéis de analytics, sugestões de otimização, detecção de anomalias executando em um servidor na nuvem longe da antena. Esta análise é preparada pela equipe editorial do 7G Network, baseada em fontes primárias das demonstrações do MWC 2026, itens de estudo do 3GPP e divulgações de fornecedores.

Esse modelo está chegando ao fim. No MWC 2026, a indústria de telecom demonstrou — não prometeu, demonstrou — que AI está se movendo para dentro do próprio rádio. Redes neurais substituindo cadeias de receptores clássicas. Modelos de machine learning executando em hardware de estação base em tempo real. A mudança de AI assistida para AI nativa não é mais teórica, conforme NVIDIA (2026).

O Que "AI-Native" Realmente Significa

A distinção entre assistido por AI e AI-native é arquitetural, não cosmética:

Assistido por AI (5G atual): Algoritmos clássicos lidam com as funções de rádio — estimação de canal, beamforming, escalonamento, gerenciamento de interferência. A AI roda paralelamente, analisando dados de desempenho e sugerindo otimizações. A camada de AI pode ser removida e a rede ainda funciona. A AI melhora a rede; a rede não depende da AI.

AI-native (objetivo 6G): Redes neurais são as funções de rádio. A estimação de canal é realizada por um modelo treinado, não por um algoritmo de mínimos quadrados. Os pesos de beamforming são preditos por inferência, não computados por operações matriciais. A AI não pode ser removida porque não há fallback clássico para as funções que ela executa. A AI não melhora a rede; a AI é a rede.

A diferença prática: uma interface aérea AI-native pode lidar com condições de rádio para as quais nenhum algoritmo clássico foi projetado. Padrões de interferência complexos demais para modelar. Dinâmicas de canal rápidas demais para rastrear com estimação tradicional. Comportamento do usuário imprevisível demais para escalonar de forma otimizada com sistemas baseados em regras.

AI-native RAN substitui algoritmos clássicos de rádio (estimação de canal, beamforming, escalonamento) por redes neurais que não podem ser removidas. Diferente do 5G assistido por IA, onde a IA é opcional, redes 6G/7G AI-native dependem de machine learning como protocolo central.

MWC 2026: A Evidência Chega

O MWC 2026 em Barcelona foi o ponto de inflexão. Pela primeira vez, o RAN nativo de IA passou de artigos de pesquisa para anúncios de produtos comerciais e demonstrações ao vivo.

Coalizão Global da NVIDIA

A NVIDIA garantiu compromissos de mais de uma dúzia de operadoras globais e empresas de tecnologia para construir 6G em plataformas abertas, seguras e nativas de IA. A coalizão inclui BT Group, Deutsche Telekom, Ericsson, Nokia, SK Telecom, SoftBank, T-Mobile, Cisco, e Booz Allen Hamilton.

A AI-RAN Alliance — o órgão da indústria que impulsiona os padrões AI-RAN — agora tem mais de 130 empresas participantes. O papel da NVIDIA é fornecer a plataforma de computação GPU (NVIDIA Aerial) que executa inferência de redes neurais nas velocidades exigidas pelo processamento de rádio — microssegundos, não milissegundos.

A NVIDIA também apresentou o All-American AI-RAN Stack com líderes de telecomunicações dos EUA — uma iniciativa de cadeia de suprimentos doméstica para infraestrutura 6G nativa de IA, refletindo a crescente ênfase na segurança da cadeia de suprimentos em infraestrutura de comunicações críticas.

Rádios Neurais da Ericsson

Enquanto a Nokia apostou na aceleração GPU da NVIDIA, a Ericsson tomou um caminho diferente: silício construído para propósito específico com aceleradores de redes neurais incorporados. No MWC 2026, a Ericsson apresentou dez novos rádios prontos para IA construídos em seus próprios chips customizados, com capacidades de IA integradas diretamente no hardware Massive MIMO.

O portfólio inclui:

  • Beamforming gerenciado por IA: Redes neurais preveem padrões de feixe ótimos mais rápido que a busca de feixe clássica
  • Posicionamento externo alimentado por IA: Precisão sub-métrica usando apenas sinais de estação base, sem necessidade de GPS
  • Previsão instantânea de cobertura: Modelagem de propagação de rádio em tempo real usando redes neurais treinadas em vez de simulações de ray-tracing
  • Agendador com prioridade de latência: Entregando até 7x tempos de resposta mais rápidos comparado ao agendamento baseado em regras

A abordagem da Ericsson troca a flexibilidade da inferência baseada em GPU por menor consumo de energia e integração mais estreita — a IA está no rádio, não executando em um servidor co-localizado.

DeepSig: A Interface Aérea Nativa de IA

A DeepSig demonstrou o que pode ser a tecnologia mais visionária no MWC 2026: OmniPHY-5G — uma forma de onda pré-6G totalmente aprendida executando sobre uma pilha 3GPP Release 17 acelerada por GPU. Isso não é IA otimizando uma forma de onda clássica; é uma rede neural gerando a própria forma de onda.

Executando no compacto NVIDIA DGX Spark, a DeepSig mostrou uma estação base de nível operadora suportando tanto dispositivos 5G comerciais quanto dispositivos 6G emergentes — demonstrando que sinais nativos de IA e clássicos podem coexistir no mesmo rádio, permitindo transição gradual em vez de atualizações completas.

Receptores Neurais

Uma área que avança rapidamente é o receptor neural — substituindo partes da cadeia de receptor clássica (demodulação, equalização, decodificação) por inferência de rede neural. A Rohde & Schwarz e a NVIDIA fizeram trabalho fundamental em gêmeos digitais para treinamento e teste de receptores neurais, resolvendo o problema do ovo e da galinha de treinar um receptor neural para um sinal que ainda não existe no mundo real.

A Nokia demonstrou pós-distorção digital baseada em IA (DPoD) — usando uma rede neural na estação base para reverter distorção do amplificador de potência após a recepção, melhorando a qualidade do sinal sem modificar a cadeia de transmissão.

No MWC 2026, a NVIDIA formou uma coalizão de 130+ empresas para 6G AI-native, a Ericsson apresentou 10 rádios neurais com scheduling 7x mais rápido, e a DeepSig demonstrou OmniPHY-5G — uma forma de onda totalmente gerada por IA executando em hardware NVIDIA DGX Spark.

Estações Base como Data Centers de AI

Uma das mudanças arquiteturais mais significativas é a reconceitualização da própria estação base. No modelo AI-nativo, uma estação base não é apenas um rádio — ela é um nó de computação AI distribuído.

Estações base aceleradas por GPU podem processar cargas de trabalho de AI durante períodos de baixo tráfego de rádio. Em vez de ficar ociosa às 3 da manhã quando poucos usuários estão conectados, a GPU executa tarefas de inferência para clientes empresariais — reconhecimento de imagem, processamento de linguagem natural, detecção de anomalias — com os resultados servidos na borda da rede, a milissegundos do usuário final.

Isso cria novos modelos de receita para operadoras:

  • Token-as-a-Service: Vendendo tokens de inferência de AI das GPUs das estações base
  • GPU-as-a-Service: Alugando computação de estações base para empresas durante horários de baixa demanda
  • Hospedagem Edge AI: Executando modelos de AI de clientes na borda da rede para aplicações de baixa latência

O impacto econômico é significativo: a utilização de GPU das estações base poderia aumentar dos atuais ~30% (somente rádio) para 80–90% (rádio + cargas de trabalho de AI), mudando fundamentalmente a equação de ROI para implantações densas de rede. Este modelo de duplo uso se alinha com conceitos de arquitetura de rede 7G onde inteligência é distribuída em cada nó.

Base stations aceleradas por GPU podem executar cargas de trabalho de inferência de IA durante horários de baixa demanda, aumentando a utilização de ~30% para 80–90%. Novos modelos de receita incluem Token-as-a-Service, GPU-as-a-Service e hospedagem Edge AI.

Os Desafios Técnicos

Orçamento de Latência

O processamento de rádio opera em escalas de tempo de microssegundos. Um slot 5G NR tem 0,5 ms em sua duração mais curta. A estimação de canal, beamforming e escalonamento devem ser concluídos dentro desta janela. Executar inferência de rede neural dentro deste orçamento requer hardware especializado — CPUs de uso geral são muito lentas, e mesmo muitas arquiteturas de GPU não são projetadas para a execução determinística e de latência limitada que o rádio exige.

Dados de Treinamento

Algoritmos clássicos funcionam a partir de primeiros princípios — eles não precisam de dados de treinamento. Substituições por redes neurais requerem conjuntos de dados massivos de condições de rádio, medições de canal e resultados de desempenho. Gerar esses dados é caro, e transferir um modelo treinado em um ambiente para uma estação base diferente (o problema de "domain gap") permanece não resolvido em escala.

Digital twins — simulações de alta fidelidade de ambientes de rádio — são a melhor solução atual, mas introduzem suas próprias questões de precisão. Um receptor neural treinado em um canal simulado pode ter desempenho inferior no canal real se a simulação não for precisa o suficiente.

Explicabilidade e Certificação

Quando um algoritmo clássico falha, engenheiros podem rastrear a falha até uma etapa matemática específica. Quando uma rede neural falha, o modo de falha é opaco. Para aplicações críticas de segurança (V2X, serviços de emergência), reguladores podem exigir comportamento explicável que as redes neurais atualmente não conseguem fornecer.

O compromisso provável: AI-native para funções críticas de desempenho mas não críticas de segurança (otimização de throughput, gerenciamento de feixe), com fallback clássico para sinalização crítica de segurança (chamadas de emergência, prevenção de colisão V2X).

Lacuna de Padronização

Os itens de estudo do 3GPP Release 20 estão explorando AI para a interface aérea, mas o consenso está convergindo em AI-assisted com fallback clássico para o primeiro padrão 6G. AI-native completo — onde nenhum algoritmo clássico existe para uma determinada função — é uma aspiração do Release 22+, provavelmente chegando no período 6G Advanced (2033–2035). O cronograma de padronização 6G fornece mais detalhes sobre esses marcos.

As principais barreiras técnicas para AI-native RAN incluem latência de inferência em nível de microssegundos, escassez de dados de treinamento (o problema de domain gap), explicabilidade de redes neurais para funções críticas de segurança, e uma lacuna de padronização — AI-native completo é alvo do 3GPP Release 22+ (2033–2035).

De 6G para 7G: IA como Protocolo

Se o 6G torna a IA nativa para funções específicas de rádio, espera-se que o 7G torne a IA nativa para toda a pilha de protocolos. Em vez de treinar modelos separados para estimativa de canal, beamforming e agendamento, um modelo de fundação unificado gerenciaria toda a cadeia de rádio — percebendo o ambiente, decidindo o que transmitir, escolhendo como modulá-lo e adaptando-se em tempo real.

Isso às vezes é chamado de "redes nativas de cognição" — a rede não apenas processa dados de acordo com regras, ela entende o contexto, prevê resultados e toma decisões. A rede 7G sabe que um usuário caminhando em direção à entrada de um prédio precisará de um handoff para uma small cell interna em três segundos, e inicia o handoff antes que o usuário chegue à porta.

A lacuna entre as demonstrações atuais de AI-RAN e essa visão é enorme. Mas o MWC 2026 provou que o primeiro passo — substituir funções clássicas individuais por redes neurais — funciona em escala comercial. O resto é engenharia, financiamento e tempo. Para uma perspectiva mais ampla sobre como 6G e 7G se comparam, veja nossa análise detalhada.

O 7G prevê "redes nativas de cognição" — um modelo de fundação unificado gerenciando toda a pilha de protocolos desde estimação de canal até escalonamento. Diferente da IA por função específica do 6G, o 7G visa a IA como o próprio protocolo, prevendo comportamento do usuário e adaptando-se em tempo real.

AI-native RAN substitui algoritmos clássicos de rádio por redes neurais, tornando a IA o protocolo central em vez de uma camada de otimização. O MWC 2026 demonstrou viabilidade comercial através da coalizão de 130+ empresas da NVIDIA, rádios neurais da Ericsson alcançando ganhos de scheduling de 7x, e formas de onda geradas por IA da DeepSig. Enquanto RAN assistido por IA chega com os primeiros padrões 6G, implantação AI-native completa é alvo de 2033–2035. A visão 7G estende isso para redes nativas de cognição, onde um modelo de IA unificado gerencia toda a pilha de rádio.

Fontes

  1. NVIDIA Telecomunicações — anúncios da coalizão AI-RAN e detalhes da plataforma NVIDIA Aerial, MWC 2026
  2. Ericsson AI-RAN — portfólio de produtos de rádio neural e especificações de acelerador AI em silício customizado
  3. DeepSig — demonstração da interface aérea AI-native OmniPHY-5G e especificações técnicas
  4. AI-RAN Alliance — órgão da indústria para padrões AI-native RAN, membros e roteiro técnico
  5. 3GPP — itens de estudo AI/ML do Release 20 para interface aérea, cronograma de padronização para funções AI-native
  6. Rohde & Schwarz / NVIDIA — metodologia de treinamento e teste com digital twin para receptores neurais

Frequently Asked Questions

O que é RAN AI-nativo?

RAN AI-nativo é uma arquitetura de rede de acesso via rádio onde redes neurais executam funções centrais de rádio — channel estimation, beamforming, scheduling — ao invés de algoritmos clássicos. Diferentemente de redes AI-assistidas onde AI é opcional, no RAN AI-nativo a AI não pode ser removida porque ela É o protocolo.

O que aconteceu com AI-RAN na MWC 2026?

A MWC 2026 marcou a mudança de pesquisa para produtos comerciais. A NVIDIA formou uma coalizão AI-RAN com mais de 130 empresas, a Ericsson apresentou 10 neural radios com aceleradores AI embarcados alcançando scheduling 7x mais rápido, e a DeepSig demonstrou um waveform totalmente gerado por AI em hardware carrier-grade.

O que é a AI-RAN Alliance?

A AI-RAN Alliance é um órgão da indústria com mais de 130 empresas impulsionando padrões e inovação de RAN AI-nativo. Os membros incluem NVIDIA, BT Group, Deutsche Telekom, Ericsson, Nokia, SK Telecom, SoftBank, T-Mobile e Cisco.

Como as base stations AI-nativas geram receita?

Base stations aceleradas por GPU podem executar workloads de AI inference durante horários de baixo tráfego de rádio, oferecendo Token-as-a-Service e GPU-as-a-Service para empresas. Isso poderia aumentar a utilização da base station de ~30% para 80-90%, criando novas fontes de receita para operadoras.

Quando o RAN AI-nativo será implantado?

RAN AI-assistido (com fallback clássico) é esperado no primeiro padrão 6G (3GPP Release 21, ~2028). RAN AI-nativo completo — onde nenhum algoritmo clássico existe para certas funções — é um alvo da Release 22+, provavelmente chegando na era 6G Advanced por volta de 2033-2035.

O que é um receptor neural?

Um receptor neural substitui partes da cadeia de receptor clássica — demodulação, equalização, decodificação — por inferência de rede neural. Empresas como Rohde & Schwarz e NVIDIA usam digital twins para treinar receptores neurais para sinais que ainda não existem em implantações do mundo real.

O que é rede nativa de cognição no 7G?

Rede nativa de cognição é um conceito 7G onde um modelo de fundação de IA unificado gerencia toda a pilha de protocolos — percebendo o ambiente, decidindo o que transmitir, escolhendo a modulação e adaptando-se em tempo real. Diferente da IA por função específica do 6G, o 7G visa a IA como o protocolo completo.