Zero-shot learning permite que modelos generalizem para classes novas usando representações semânticas compartilhadas. Em LLMs, zero-shot prompting significa dar uma instrução sem exemplos. Modelos como CLIP conectam descrições textuais a imagens, permitindo classificar imagens de categorias nunca vistas. Few-shot learning usa poucos exemplos (1-5) para adaptar o modelo.