Kaique Mitsuo Silva Yamamoto
Ia

Roadmap: Fundamentos de IA e Machine Learning

Guia estruturado para estudar aprendizado supervisionado, não supervisionado e redes neurais, com base em roadmaps consolidados e melhores práticas da indústria.


Visão geral

O caminho típico leva de 6 a 12 meses (5–10 h/semana) para consolidar fundamentos. A ordem abaixo é recomendada para construção progressiva de conhecimento.


Fase 0: Pré-requisitos (semanas 1–4)

Programação

  • Python — Linguagem dominante no ecossistema ML
  • Bibliotecas base: NumPy, Pandas, Matplotlib
  • Estruturas de dados, funções, manipulação de arquivos

Matemática

ÁreaConteúdo essencialUso em ML
Álgebra linearVetores, matrizes, autovalores, decomposiçõesRepresentação de dados, redes neurais
CálculoDerivadas, gradientes, regra da cadeiaOtimização, backpropagation
Estatística e probabilidadeDistribuições, Bayes, variância, correlaçãoInferência, avaliação de modelos

Recursos: Mathematics for Machine Learning (Coursera), mml-book.github.io


Fase 1: Aprendizado supervisionado (semanas 5–10)

Conceitos centrais

  • Dados rotulados (features + labels)
  • Fluxo: treinamento → avaliação → inferência
  • Train/test split, validação cruzada
  • Overfitting, underfitting, regularização

Classificação

  • Regressão logística
  • Árvores de decisão e Random Forest
  • Support Vector Machines (SVM)
  • Métricas: precisão, recall, F1, AUC-ROC

Regressão

  • Regressão linear (simples e múltipla)
  • Regressão polinomial
  • Métricas: MSE, MAE, R²

Implementação

  • Scikit-learn para todos os algoritmos clássicos
  • Projetos práticos: predição de preços, classificação de imagens simples

Fase 2: Aprendizado não supervisionado (semanas 11–14)

Conceitos

  • Dados não rotulados — busca de padrões sem labels
  • Uso quando rotulação é cara ou indisponível

Técnicas principais

TécnicaObjetivoExemplo
ClusteringAgrupar dados por similaridadeK-Means, DBSCAN, hierárquico
Redução de dimensionalidadeSimplificar dados mantendo informaçãoPCA, t-SNE, UMAP
Detecção de anomaliasIdentificar outliersIsolation Forest, autoencoders
Density estimationEstimar distribuição dos dadosGaussian Mixture Models

Casos de uso

  • Segmentação de clientes
  • Pré-processamento para modelos supervisionados
  • Visualização de dados de alta dimensão

Fase 3: Redes neurais e Deep Learning (semanas 15–24)

Perceptron e MLP

  • Neurônio artificial, função de ativação
  • Multi-Layer Perceptron (MLP)
  • Backpropagation e gradiente descendente
  • Vanishing/exploding gradients

Arquiteturas fundamentais

ArquiteturaDomínioAplicações
CNN (Convolutional Neural Networks)ImagensClassificação, detecção, segmentação
RNN/LSTMSequênciasTexto, série temporal, áudio
TransformersTexto e multimídiaLLMs, visão, processamento de linguagem

Deep Learning moderno

  • PyTorch ou TensorFlow — escolha um e aprofunde
  • Normalização (BatchNorm, LayerNorm)
  • Regularização (Dropout, weight decay)
  • Transfer learning e fine-tuning

Projetos sugeridos

  • Classificação de imagens com CNN
  • Modelo de linguagem ou análise de sentimentos
  • Sistema de recomendação

Ordem de estudo sugerida

Pré-requisitos (Python + matemática)

Aprendizado supervisionado (classificação + regressão)

Aprendizado não supervisionado (clustering, PCA)

Redes neurais básicas (perceptron → MLP)

Arquiteturas especializadas (CNN → RNN → Transformers)

Recursos recomendados

Cursos

Livros e referências

Ferramentas

  • Scikit-learn — ML clássico
  • PyTorch ou TensorFlow — Deep learning
  • Jupyter — Experimentação e visualização

Notas

Ajuste o ritmo conforme sua base e disponibilidade. Projetos práticos fixam o conteúdo melhor do que teoria isolada.