Redes neurais são compostas por neurônios organizados em camadas: entrada, ocultas e saída. Cada conexão tem um peso ajustado durante o treinamento via backpropagation e gradient descent. Funções de ativação (ReLU, Sigmoid, Tanh) introduzem não-linearidade. Arquiteturas incluem feedforward, convolucional (CNN), recorrente (RNN), Transformer e graph neural networks. O deep learning usa redes com muitas camadas ocultas.