Overfitting ocorre quando o modelo memoriza o ruído e particularidades dos dados de treino ao invés de aprender padrões gerais. Sinais incluem alta acurácia no treino mas baixa no teste. Técnicas de prevenção incluem: regularização (L1/L2), dropout, early stopping, data augmentation, cross-validation, e ensemble methods. Underfitting é o oposto — quando o modelo é simples demais para capturar os padrões.