Análise Stickybit 2026

O Problema da Destilação Não é Guerra Fria. É Napster.

A Anthropic flagrou três laboratórios chineses operando 16 milhões de conversações fraudulentas para extrair as capacidades do Claude. O framing de 'Guerra Fria' dominou a cobertura — mas o problema real é de pirataria, e afeta toda empresa que compra modelos de IA.

16M

conversações fraudulentas

24K

contas falsas

3

labs chineses expostos

A Tese

A inteligência mais valiosa já criada está armazenada como matemática — sem peso, copiável, extraível por uma janela de chat. O gradiente de pressão entre o custo de criação (bilhões) e o custo de extração (milhares) é tão extremo que a destilação é inevitável — independente de geopolítica.

Isso não é um problema da China. É um problema de economia da informação. O incentivo para destilar existiria mesmo se China e EUA fossem aliados.

As Operações

As 3 Operações Expostas

A Anthropic rastreou as operações através de metadados de pagamento, perfis públicos de pesquisadores e padrões de requisição.

MiniMax

Trocas

13M+

Foco

Codificação agêntica e orquestração de ferramentas

Método

Pivô em menos de 24h após cada release para capturar últimas capacidades

O modelo resultante pontua bem em benchmarks de código — porque os benchmarks testam exatamente o que o destilador otimizou.

Moonshot

Trocas

3.4M

Foco

Raciocínio agêntico, tool use, computer use, visão computacional

Método

Abordagem cirúrgica: extração e reconstrução de traces de raciocínio do Claude

Antropic atribuiu a campanha a staffs seniores do Moonshot via metadados de requisição.

DeepSeek

Trocas

Targeted

Foco

Traces de raciocínio + dados de censura política

Método

Separação: tomava o raciocínio por trás de uma resposta completa e escrevia passo a passo

Usou Claude para gerar alternativas 'seguras' a queries sobre dissidentes e líderes do partido — dados de treino para que os modelos DeepSeek evitem temas sensíveis ao governo chinês.

O Gradiente

O Gradiente de Pressão

Quando um lado tem capacidades que valem trilhões e o outro pode extraí-las por milhares, a informação se move. Sempre.

CRIAÇÃO $1B+ meses de compute datasets diversos manifold amplo FLUXO EXTRAÇÃO $1K 1.000.000x mais barato copiar
Custo de Criação

$100M–$1B+

Meses de compute

Manifold amplo de capacidades

Custo de Extração

$1K–$100K

Dias ou semanas

Manifold estreito

Este é o mesmo gradiente que fez a água fluir morro abaixo desde Napster em 1999: o custo de copiar é tão baixo que nenhuma regulação consegue parar completamente.

A Analogia

A Analogia Napster

A indústria musical aprendeu em 1999 e a de cinema em 2003: pirataria não para. Desacelera.

1999

Música

Napster — custo de cópia → ~$0

IA

2024–25 — Destilação em escala industrial

2001–03

Música

Napster fechado. Kazaa, LimeWire surgem

IA

2026 — Anthropic expõe labs. Novos métodos surgirão

Hoje

Música

Pirataria desacelerou mas nunca parou

IA

Destilação vai desacelerar mas nunca vai parar

Solução

Música

Spotify — modelo de negócio novo

IA

Velocidade de inovação > velocidade de cópia (ciclo de 90 dias)

Se as capacidades de modelos frontier estão dobrando a cada ~90 dias, a questão não é se vão copiar — é se a cópia vai ser relevante quando chegar.

A Compressão

O Problema da Fragilidade

Destilação não produz uma cópia do modelo original. Produz uma compressão. E essa compressão, como um MP3 com perda, tem consequências enormes.

Modelo Frontier

Treinado em dataset vasto e diverso por meses de compute

Raciocinar sobre código
Navegar instruções ambíguas
Usar ferramentas em combinações novas
Manter coerência em workflows longos
Recuperar de erros
Adaptar abordagem quando plano falha

Manifold

Amplo — superfície larga de competência em muitos tipos de tarefas

Modelo Destilado

Treinado em um subconjunto dos outputs do modelo frontier

O que parece fazer bem

Reproduzir comportamentos específicos
Pontuar bem nos benchmarks alvo
Parecer competente em tarefas padrão

Onde falha

Sem estrutura representacional para generalizar
Não recupera de falhas inesperadas
Não usa ferramentas em combinações novas
Raciocínio incoerente em workflows longos

Manifold

Estreito — brilhante no centro, frágil nas bordas

A Analogia do Futebol Americano

Assistir só os melhores momentos de um jogo de NFL: você vê menos propagandas, mas também vê muito menos do jogo — só as partes que a NFL acha que vão te interessar.

O Risco Oculto

O Performance Shadow

O gap entre modelos frontier e destilados é maior exatamente onde o valor da IA está indo — e nenhum benchmark mede bem.

100% 75% 50% 0% Benchmarks Padrão 95% 88% Trabalho Agêntico Sustentado 90% 30% GAP Frontier Destilado

Trabalho autônomo sustentado

8+ horas de operação coerente

Routing around obstacles

Contornar problemas sem intervenção humana

Tool use não-antecipado

Usar ferramentas em combinações que ninguém previu

Workflows agênticos

Tarefas multi-step com julgamento e adaptação

A Comparação

O Enquadramento Correto

Enquanto o mercado debate export controls e geopolítica, o problema real está nos modelos que sua empresa já está usando.

Framing Guerra Fria

Incompleto
Dinâmica central Competição geopolítica
Solução Export controls
Quem faz Estados-nação
Por que acontece Vantagem militar
O que para Regulação
Risco real Segurança nacional

Framing Napster

Completo
Dinâmica central Economia da informação
Solução Moat estrutural (velocidade de inovação)
Quem faz Todos com incentivo
Por que acontece Assimetria de custo (trilhões vs milhares)
O que para Nada totalmente — pirataria desacelera, nunca para
Risco real Enterprise usando modelos degradados
O Framework

Framework de Decisão para Modelos de IA

Se sua empresa está comprando ou usando modelos de IA, estas perguntas determinam se você está em risco.

1

É modelo frontier ou destilado?

Bom sinal

Frontier → menor risco de fragilidade

Alerta

Destilado/Desconhecido → risco alto

2

Qual o uso pretendido?

Bom sinal

Tarefas padrão/benchmarkáveis → OK

Alerta

Trabalho agêntico/autônomo → testar extensivamente nas bordas

3

Como o modelo foi avaliado?

Bom sinal

Testes em situações novas/edge cases → adequado

Alerta

Benchmarks padrão apenas → insuficiente

4

Transparência do vendor?

Bom sinal

Sabe qual modelo e como foi treinado → bom

Alerta

Sem transparência → red flag

Regra de Ouro

Se o modelo vai fazer trabalho que você não supervisiona minuto a minuto, exija modelo frontier.

A Stickybit

Onde a Stickybit Entra

O problema da destilação não é teórico. Ele afeta a qualidade real dos sistemas de IA que sua empresa roda hoje.

Auditoria de Modelos

Avaliamos os modelos que sua empresa usa — não com benchmarks de prateleira, mas com cenários reais de trabalho agêntico que expõem fragilidade onde ela realmente importa.

Testes nas Bordas

Construímos suítes de avaliação que testam exatamente onde modelos destilados falham: workflows longos, tool use novel, recuperação de erros, raciocínio sob ambiguidade.

Infraestrutura Frontier

Implementamos pipelines de IA usando modelos frontier com monitoramento contínuo de qualidade — para que seu sistema não degrade silenciosamente.

22 anos de produção real

Sabemos a diferença entre um modelo que pontua bem e um modelo que funciona às 3h da manhã quando ninguém está olhando. É nessa diferença que mora o valor.

Seu modelo de IA é frontier ou destilado?

A diferença não aparece nos benchmarks. Aparece quando o modelo precisa pensar 8 horas seguidas sem ninguém olhando. Descubra se a IA que sua empresa está usando aguenta.