Trilha IA
Roadmap estruturado para um fullstack senior sair de zero conhecimento em IA até domínio operacional em ~9-12 meses de estudo consistente (10-15h/semana). Esta é a trilha que eu seguiria hoje se tivesse que recomeçar. Otimizada para shipping features com IA em produção, não para virar ML researcher. Cada fase tem objetivo claro, checkpoints de progresso, e links para as notas evergreen correspondentes.
Princípios da trilha
- Top-down, não bottom-up. Não começar por matemática. Começar por intuição e uso; desce para fundamentos só quando precisa.
- Praticar desde o dia 1. Cada fase tem projetos. Conhecimento sem aplicação evapora.
- Uma ferramenta a fundo antes de espalhar. Dominar Claude Code + Anthropic SDK antes de tentar cobrir OpenAI, Gemini, frameworks.
- RAG antes de fine-tuning. Custo-benefício real.
- Evaluation desde cedo. Sem golden set é superstição.
- Construir portfolio público. Repos, blog posts, exemplos — isso destrava oportunidades.
- Inglês técnico junto. Ler papers, docs, posts em inglês. É onde o conhecimento vive.
Como usar este roadmap
- Não pule fases. Cada uma depende da anterior.
- Marque checkpoints. Só avance quando atender o “Check”.
- Se travar, revisite fase anterior. Gaps de fundamento aparecem como dor em fases avançadas.
- Adapte ritmo. 10h/semana = ~12 meses; 20h/semana = ~6 meses.
- Documente. Blog ou notas pessoais; ensinar solidifica.
Visão geral (12 meses)
Mês 1 | Fase 0: Cultura e intuição
Mês 2-3 | Fase 1: Fundamentos conceituais
Mês 4-5 | Fase 2: LLMs hands-on (APIs, prompting)
Mês 6-7 | Fase 3: RAG e knowledge bases
Mês 8-9 | Fase 4: Agents e orquestração
Mês 10-11 | Fase 5: Produção (eval, custo, segurança)
Mês 12+ | Fase 6: EspecializaçãoFase 0 — Cultura e intuição (1-2 semanas)
Objetivo: calibrar radar. Saber distinguir sinal de hype. Entender o vocabulário.
O que fazer
- Usar ChatGPT, Claude e Gemini pesadamente em problemas reais por 1-2 semanas.
- Assistir: 3Blue1Brown — Neural Networks series.
- Ler: The Illustrated Transformer — Jay Alammar.
- Seguir: Simon Willison’s Weblog por algumas semanas.
- Fazer conta na Anthropic Console e na OpenAI Platform.
Notas de apoio
- Inteligência Artificial — seção “O que é” e “Hierarquia dos conceitos”
- Comparativo de LLMs — para escolher qual ferramenta usar
Checkpoint
Você consegue explicar para um colega não-técnico a diferença entre “machine learning”, “deep learning” e “LLM” com exemplos concretos. Você identifica buzzwords vs substância em posts sobre IA.
Fase 1 — Fundamentos conceituais (4-6 semanas)
Objetivo: modelo mental correto de ML, deep learning, e como LLMs se encaixam.
O que fazer na Fase 1
Estude (~80% do tempo):
- ML básico: supervised/unsupervised/RL, training/validation/test, overfitting, métricas (accuracy, precision, recall, F1).
- Deep learning geral: rede neural, backprop (intuição), loss, ativação.
- Tokenização, embeddings, similaridade de cosseno.
- Transformer e attention (intuitivamente).
- Pretraining → fine-tuning → RLHF — entender por que modelos se comportam como se comportam.
Pratique (~20%):
- Sklearn: classificar um dataset próprio (spam, sentiment, etc.).
- Tokenizar texto com tiktoken e analisar.
- Calcular cosine similarity entre embeddings de frases.
Recursos principais (Fase 1)
- Livro: Hands-On Machine Learning — Aurélien Géron (partes I-II)
- Curso: Andrew Ng — ML Specialization
- Curso: fast.ai — Practical Deep Learning
- Vídeo: Let’s build GPT from scratch — Karpathy (2h, opcional mas transformador)
- Blog: The Illustrated Transformer
Notas de apoio (Fase 1)
- Inteligência Artificial — trilha completa de conceitos
- LLMs — fundamentos de arquitetura
Checkpoint da Fase 1
Você lê um tweet sobre GPT-5 ou Claude 5 e entende o que está sendo discutido sem precisar pesquisar termos. Você explica CoT, attention, context window, RLHF em linguagem simples.
Fase 2 — LLMs hands-on (6-8 semanas)
Objetivo: proficiência real em usar LLMs, via chat e via API.
O que fazer na Fase 2
Prompting:
- Zero-shot, few-shot, chain-of-thought, self-consistency.
- System prompts estruturados (role + rules + format + examples).
- XML delimiters.
- Output constraints.
API:
- Anthropic Messages API — chat básico, streaming, tool use, structured outputs.
- OpenAI Chat Completions — paralelo, comparar.
- Parâmetros: temperature, top_p, max_tokens, stop, system.
- Prompt caching.
Projetos (obrigatório fazer pelo menos 3):
- Chatbot terminal com histórico — streaming, Claude API.
- Classificador de tickets — few-shot com structured outputs. Construa golden set de 30 exemplos, meça accuracy.
- Extrator estruturado de PDFs — recebe texto livre, retorna JSON validado por schema.
- Sumarizador com chunking — processa doc longo via chunk → summary → consolidate.
Recursos da Fase 2
- Anthropic Prompting Guide
- Anthropic API docs
- OpenAI API docs
- Prompting Guide (community)
- Effective Context Engineering — Anthropic
Notas de apoio (Fase 2)
- LLMs — parâmetros da API, tokenização, sampling
- Skills e Prompting — técnicas e context engineering
Checkpoint da Fase 2
Você consegue levantar uma feature de IA em projeto real num dia. Escolhe modelo justificadamente. Seus prompts têm estrutura clara. Você mede accuracy/faithfulness contra golden set antes de dar deploy.
Fase 3 — RAG e bases de conhecimento (6-8 semanas)
Objetivo: dominar retrieval-augmented generation. Injetar dados do seu domínio em LLMs.
O que fazer na Fase 3
Fundamentos:
- Embeddings: modelos, dimensões, custo.
- Vector databases: pgvector, Pinecone, Qdrant — escolher e usar.
- Chunking: fixed, recursive, semantic, structure-aware.
- Hybrid search (BM25 + vector), reranking.
- Query rewriting, HyDE.
Evaluation:
- Ragas: context precision, recall, faithfulness.
- Golden set com (pergunta, resposta, chunks esperados).
- Medir retrieval separado de generation.
Projeto principal:
- QA sobre base de docs reais — ~100 documentos (manuais, wiki, FAQs).
- Indexar com structure-aware chunking.
- Hybrid search + Cohere Rerank.
- Citação de fonte obrigatória.
- Golden set de 30 perguntas com respostas esperadas.
- Ragas rodando em CI.
Recursos da Fase 3
- Pinecone — Learn RAG
- Anthropic — Contextual Retrieval
- LlamaIndex docs
- Ragas docs
- Paper: Lost in the Middle
- Livro: AI Engineering — Chip Huyen (capítulos de RAG)
Notas de apoio (Fase 3)
- RAG e Vector Databases — trilha completa
- LLMs — embeddings, context window
Checkpoint da Fase 3
Você desenha RAG justificando cada escolha (chunk size, retrieval strategy, rerank). Implementa evaluation rigoroso. Seu RAG funciona melhor que “pure vector” em dataset próprio com evidência quantitativa.
Fase 4 — Agents e orquestração (6-8 semanas)
Objetivo: construir sistemas que raciocinam, usam ferramentas e iteram autonomamente.
O que fazer na Fase 4
Fundamentos:
- ReAct pattern, tool use nativo.
- Tool design: descrição, schemas, outputs compactos.
- Memory: working memory + persistent notes.
- Planning: plan-then-execute vs dynamic.
- Guardrails: max_steps, sandboxing, human-in-the-loop.
- MCP (Model Context Protocol): clients, servers, primitivos.
Projetos:
- Agent de research — recebe pergunta, usa web search + read_url + record_finding, responde com citações. Construa do zero com Anthropic SDK, sem framework.
- MCP server próprio — expõe 3 tools de um domínio que você conhece. Conecte a Claude Code ou Claude Desktop e use de verdade.
- Agent de coding restrito — recebe bug report + arquivo, propõe diff. Sandboxed. Human review antes de aplicar.
Recursos da Fase 4
- Building Effective Agents — Anthropic — leitura obrigatória
- Claude Agent SDK Docs
- Claude Code
- MCP spec
- Awesome MCP Servers
- 12-Factor Agents
- Agentic Engineering — Addy Osmani
Notas de apoio (Fase 4)
- Agents — trilha completa
- MCP — protocolo e construção de servers
- Skills e Prompting — context engineering e skills
Checkpoint da Fase 4
Você consegue construir um agent do zero, sem framework, e explicar cada decisão. Entende onde agents falham em produção. Tem um MCP server próprio rodando em uso real.
Fase 5 — Produção (6-8 semanas)
Objetivo: operar sistemas com IA em produção com confiança. Custo, latência, segurança, evaluation.
O que fazer na Fase 5
Observabilidade:
- Integrar Langfuse ou LangSmith em projeto real.
- Tracing: cada chamada LLM com input, output, tokens, latência, custo.
- Dashboards: cost per feature, error rate, p99 latency.
Evaluation contínua:
- Prompts como código (git, review, versionado).
- Golden sets por feature, rodados em CI.
- LLM-as-judge para tarefas subjetivas.
- A/B test em produção.
Custo:
- Tiering de modelos (Haiku/Flash para triagem, Sonnet/GPT-4 para escalada).
- Prompt caching agressivo.
- Batch API quando aplicável.
- Monitoramento de budget.
Segurança:
- Prompt injection defense (delimitação, allowlisting, classification).
- PII detection e filtering.
- OWASP Top 10 for LLMs.
- Supply chain: review de packages, servers, skills.
Resiliência:
- Retry, backoff, circuit breaker.
- Fallback para modelos alternativos.
- Rate limits do provedor.
- Schema validation com retry corrective.
Projeto
- Operacionalizar um projeto anterior em “produção simulada”: observabilidade completa, golden set em CI, cost dashboard, fallbacks, segurança.
Recursos da Fase 5
- Livro: AI Engineering — Chip Huyen (capítulos finais)
- Langfuse docs
- OWASP Top 10 for LLMs
- Simon Willison — Prompt injection
- Patterns for building LLM-based systems — Eugene Yan
Notas de apoio (Fase 5)
- LLMs — seções de evaluation e produção
- Agents — guardrails e evaluation de agents
- RAG e Vector Databases — evaluation de RAG
Checkpoint da Fase 5
Você assume ownership de um sistema com IA em produção. Sabe debugar, otimizar, responder incidentes. Seu custo é previsível e seus deploys são seguros.
Fase 6 — Especialização (ongoing)
Objetivo: aprofundar em um vetor específico. Não tente fazer tudo; escolha um foco por 6 meses.
Vetores possíveis
ML real: voltar e aprender fine-tuning (LoRA, QLoRA, DPO), model training, evaluation rigorosa. Ideal se você se apaixonar pela parte técnica.
Agentic engineering: multi-agent orchestration, planning complexo, tool design avançado, RL from execution feedback. Ideal para quem quer construir agents sofisticados.
Ferramentas e workflows: virar expert em uma stack (Claude Code + skills + MCP + CLAUDE.md). Publicar skills, contribuir para ecossistema, ensinar.
AI-native product: pensar produto com IA no centro, não como feature. Design de UX para IA, gestão de expectativas, onboarding.
Research: ler papers semanalmente, entender estado da arte, seguir labs (Anthropic, OpenAI, DeepMind, Meta AI).
Domain-specific: aplicar IA ao seu domínio — medicina, legal, finance, education. Construir expertise profunda na interseção.
Recursos contínuos
- Simon Willison blog e newsletter
- The Pragmatic Engineer — seção AI
- Latent Space Podcast
- Anthropic Engineering blog
- Papers with Code
- Hugging Face blog
- DeepLearning.AI short courses — dezenas de cursos curtos
Ferramentas recomendadas por fase
| Fase | Essenciais | Opcionais |
|---|---|---|
| 0 | ChatGPT, Claude, Gemini web | — |
| 1 | Jupyter, sklearn, numpy, pandas | fast.ai lib |
| 2 | Anthropic SDK, OpenAI SDK, tiktoken, promptfoo | LangChain (leve) |
| 3 | pgvector, sentence-transformers, Ragas, Cohere Rerank | Pinecone, Qdrant, LlamaIndex |
| 4 | Anthropic SDK, Claude Code, MCP SDK | LangGraph, CrewAI |
| 5 | Langfuse, promptfoo, Sentry | Helicone, LangSmith, Braintrust |
| 6 | depende do vetor escolhido | — |
Projetos para portfolio
Ao final das fases 2-5, você deve ter no GitHub pelo menos:
- Chatbot com streaming (fase 2)
- Classificador com structured outputs + golden set (fase 2)
- Sumarizador de documentos longos (fase 2)
- QA RAG sobre docs reais com evaluation (fase 3)
- Agent de research com MCP server próprio (fase 4)
- Sistema de produção com observabilidade completa (fase 5)
Isso é um portfolio forte. Acompanhe cada repo com README que explica decisões, trade-offs e evaluations.
Links de referência (legado)
AGENTS.md e context engineering
- Como reduzi em 70% o uso do context window no Copilot
- Complete Guide to AGENTS.md
- Effective Context Engineering — Anthropic
Agent Skills
- Agent Skills spec
- Agent Skills in 2026 — Neon
- Equipping Agents with Skills — Claude Blog
- Claude Agent Skills
- Cursor Skills
- Codex Skills
- Anthropic Skills repo
- Awesome Copilot Skills
- CopilotSkills
- Antigravity Kit — docs
- Antigravity Workflows
- Skills CLI (skills.sh)
Ferramentas Claude
Copilot
Agentic Engineering e leituras
- Agentic Engineering — Addy Osmani
- Factory Model — Addy Osmani
- The Third Golden Age of Software
- Spec-Driven Development
- 12-Factor Agents
- Full Cycle com Agents (playlist)
Testing AI
Veja também
- IA — MOC de IA
- Inteligência Artificial — conceitos fundamentais
- LLMs
- Skills e Prompting
- Agents
- RAG e Vector Databases
- MCP
- Claude
- GitHub Copilot
- Codex
- Gemini
- Comparativo de LLMs
- Claude Course
- Senda Entrevistas