Embeddings transformam dados complexos em vetores densos de números reais, onde itens semanticamente similares ficam próximos no espaço vetorial. Word embeddings (Word2Vec, GloVe) representam palavras; sentence embeddings representam frases inteiras. Modelos modernos como OpenAI Ada, Sentence-BERT e Cohere geram embeddings de alta qualidade usados em busca semântica, clustering e RAG.