Product & Architecture

A História de Skills: Quando a Infraestrutura Invisível Vira o Mercado

Uma investigação sobre como tecnologias resolvem problemas que ninguém consegue nomear. De function calling a convergência de 16 plataformas.

19 min de leitura 25 abr 2026

A História de Skills

Quando a infraestrutura invisível vira o mercado.


Tecnologia é história vista de trás para frente.

Você olha para um padrão dominante e ele parece inevitável. A solução óbvia. Mas no momento em que o problema foi formulado, havia cinco caminhos. Alguém escolheu um. Os outros quatro desapareceram da memória coletiva como se nunca tivessem existido.

A história de Agent Skills é assim. Vou reconstruí-la não como tutorial. Como investigação.


I. O problema que ninguém nomeava

IA nunca foi sobre responder. Sempre foi sobre agir.

Quando ChatGPT lançou em novembro de 2022, conversava bem e não fazia nada. As empresas não queriam musas. Queriam assistentes que consultassem bancos, chamassem APIs, escrevessem em planilhas, executassem código.

Em junho de 2023, OpenAI lançou function calling. O modelo recebia funções em JSON Schema, decidia quando usá-las, retornava chamadas estruturadas. Foi celebrado como revolução. Era apenas o começo.

Porque há uma diferença silenciosa entre fazer algo uma vez e saber como fazer algo, sempre. Um modelo com function calling executa uma query SQL contra Postgres, recebe resultados, processa. Funciona até o banco mudar de schema. Até a otimização não ser óbvia. Até existirem padrões de negócio que não cabem em JSON Schema. Naquele instante, você está preso. A expertise sobre como consultar aquele banco específico, com suas idiossincrasias, seus padrões, suas restrições — não está codificada em lugar nenhum. Vive na cabeça de quem implementou. Morre quando essa pessoa sai.

Function calling resolveu o problema técnico. Deixou intacto o outro: como transformar conhecimento procedural em algo que o modelo pudesse descobrir, usar, reutilizar.

Esse problema não tinha nome.


II. As tentativas paralelas

O que veio depois foi uma sequência de tentativas, cada uma vendo uma parte da resposta sem ver o todo.

Em novembro de 2023, OpenAI imaginou que o problema era customização. Lançou Custom GPTs: instruções, knowledge files e actions em um bundle proprietário. Funcionava dentro do ecossistema OpenAI. Os 8 mil caracteres de espaço instrucional eram uma cela.

Em maio de 2024, Google lançou Gems, versão customizada do Gemini. Mesma ideia, mesma cela, presa a outra plataforma.

Também em maio, Anthropic lançou Tool Use. Praticamente idêntico ao function calling, mas com uma diferença de design que importaria depois.

Em julho, MCP — Model Context Protocol — começou como projeto interno na Anthropic. A premissa era diferente das anteriores: se o problema era codificar expertise reutilizável, talvez a resposta fosse um padrão aberto, não mais um produto fechado.

Em novembro de 2024, MCP foi lançado publicamente. Resolveu o problema M×N — conectar M modelos a N ferramentas sem precisar de M × N integrações customizadas. Foi celebrado por desenvolvedoras. Por alguns meses, todos buscavam saber o que era.

Depois desapareceu.


III. A infraestrutura que se dissolve

Tecnologias que viram commodity param de ser procuradas.

Poucos googlam TCP/IP. HTTP tem interesse mediano, mas constante — uma curva sem picos no Google Trends. Essas coisas funcionam tão bem, tão silenciosamente, que desaparecem da conversa pública. A infraestrutura perfeita é aquela que você não vê.

MCP entrou nessa zona em algum momento entre agosto de 2025 e o final do ano. Pico em “Model Context Protocol” no Trends global em agosto, depois declínio. Não porque parou de funcionar. Porque começou a funcionar tão bem que virou implícito. Você não pesquisa mais MCP — usa a ferramenta que o implementa e segue. A infraestrutura se dissolveu na paisagem como uma pintura de Dali.

Exatamente quando isso aconteceu, algo novo apareceu em cima dela.

Em setembro de 2025 — há sete meses — Claude ganhou capacidades de criar documentos. Excel, PowerPoint, Word, PDF. Tudo implementado internamente via skills. Eram sombras dentro do modelo. Funcionavam, mas não tinham nome público.

Em outubro, a Anthropic nomeou-as. Agent Skills. E aí a história começou a virar.

Skills não são infraestrutura. São o que se faz com infraestrutura. MCP pavimentou a estrada silenciosa. Skills são os veículos que agora trafegam nela — visíveis, nomeáveis, compartilháveis.

Em dezembro, o formato foi publicado como padrão aberto.


IV. A adesão

Em abril de 2026, dezesseis plataformas tinham adotado o mesmo padrão técnico para skills. OpenAI Codex. Gemini. GitHub Copilot. Cursor. VS Code. Mistral. OpenClaw. Outras menores em volta.

Ninguém precisava adotar. Todos adotaram.

Quando a OpenAI escolhe usar SKILL.md como padrão — a empresa que antes competia por diferencial proprietário — ela está fazendo um cálculo frio. Manter um padrão fechado custa mais que abrir o seu. Perder a guerra dos padrões é mais caro que ganhar a guerra do uso.

GitHub incluiu skills nativamente em Copilot. Google publicou um repositório oficial chamado google-gemini/gemini-skills. Empresas que tinham capacidade técnica e capital político de criar seus próprios padrões escolheram adotar o existente. A razão não está em generosidade. Está em aritmética: o valor não está em ter um padrão, está em ter o padrão que todos usam.

A diferença muda o jogo.

Quando há padrão fragmentado, você compete em diferenciação. Cada IDE tem sua semântica. Cada plataforma tem seu formato. A escolha do usuário é pelo produto. Quando há padrão unificado, você compete em implementação. Qual integra melhor. Qual tem o marketplace mais útil. Qual entrega documentação mais clara. O padrão deixa de ser vantagem competitiva e vira piso comum. A diferenciação migra para tudo que vem depois dele.

Ninguém diz isso em alto e bom som. Ninguém escreve “OpenAI adota o formato da Anthropic”. É mais confortável falar de benchmarks e capacidades de modelo. Mas a decisão que define o próximo ciclo é a escolha silenciosa de qual linguagem você fala com as outras plataformas.

Skills se tornou essa linguagem.


V. O custo real

O problema não era volume. Era atenção.

Function calling escalava mal. Você passava cinquenta funções, o modelo esquecia metade. Passava duzentas, ele simplesmente parava de escolher. O espaço de contexto enchia de ruído. A decisão piorava.

Não era falta de inteligência. Era falta de foco.

Skills resolvem isso por progressive disclosure. Você não passa todas as funções. Passa apenas as que importam agora. O modelo vê menos, decide melhor, executa com mais confiança. Não é mágica. É design.

Uma skill é código destilado. Você pega “consultar o banco de clientes” — conhecimento que poderia ocupar cinquenta linhas de SQL, contexto sobre schemas, queries otimizadas, tratamento de erros — e destila em descrição curta, endpoint claro, parametrização precisa. O modelo entende em segundos o que pode usar. Chama quando precisa. Ignora quando não.

O efeito em cadeia: menos contexto desperdiçado, menos custo por requisição, melhor taxa de acerto na primeira tentativa, menos retries. A matemática compõe.

E há algo contra-intuitivo: quando o modelo tem menos opções, a qualidade da escolha sobe. Mais opções não geram melhores decisões. Geram pior execução. Esse é um princípio velho — agentes racionais não escolhem entre infinitas alternativas, escolhem entre alternativas salientes. Skills tornam saliente apenas o que importa agora.

Daí decorre uma virada arquitetural. Se o custo real é atenção, não tokens, então a arquitetura que escala é a que força especificidade. Uma skill não aceita “consultar qualquer banco”. Exige qual banco, quais tabelas, com quais constraints. A rigidez aparente é rigor real.

Organizações que entenderem isso vão escalar. As que insistirem em alimentar modelos com mais contexto vão seguir reclamando que IA “não funciona direito”.


VI. A reconfiguração

Tarefas que saem da mão não significam profissão que desaparece. Significam reconfiguração de onde valor mora.

Um analista de dados em 2025 passava a maior parte do tempo estruturando dados, fazendo queries, testando hipóteses por brute force — rodava a análise, via o resultado, rodava de novo com parametrização diferente. Aquilo era o trabalho. Ninguém questionava.

Em 2026, uma skill faz isso. O analista descreve o insight desejado. A skill executa as variações. O analista escolhe a mais interessante, aprofunda, formula a próxima pergunta.

A tarefa saiu da mão. O valor não.

Porque o valor real do analista nunca foi executar query. Era saber qual query fazer. Era formulação do problema. Era intuição sobre o que a organização precisa saber e ainda não sabe que precisa. Esse trabalho sempre existiu, sempre foi invisível — a pré-análise, o questionamento, a direção. Skills tiram o ruído ao redor dele e deixam só a essência.

O mesmo padrão se repete em outros lugares. Designer que passava semanas refazendo mocks de sistema, agora trabalha em problema. Professor que perdia metade do tempo em logística de aula, agora tem tempo para ensinar — estar presente, questionar, identificar onde o estudante está preso. Engenheiro que escrevia boilerplate, agora desenha sistema.

A parte que era invisível porque era chata, necessária, óbvia — vira código. A parte que sempre foi visível, mas raramente foi reconhecida — o julgamento, a intuição, a criação — passa a ser toda a profissão.

Isso não é substituição. É revelação do que sempre esteve lá.


Essa é a vida de qualquer tecnologia. Ser revolucionária. Depois invisível. Depois plataforma para a próxima coisa.

Skills estão exatamente entre o segundo e o terceiro estágio agora. Daqui a algum tempo, alguém vai escrever o próximo ensaio sobre o que emerge em cima delas. Sobre o problema que ninguém ainda nomeia, mas que já está sendo formulado em algum projeto interno de alguma empresa, esperando o momento de aparecer.

Valor não some. Apenas muda de endereço.

E quem está ocupado observando o que desaparece raramente vê o que está nascendo.