Viés algorítmico origina-se de dados de treinamento não-representativos, preconceitos históricos capturados nos dados, escolhas de design dos desenvolvedores e métricas de otimização inadequadas. Manifesta-se em discriminação por raça, gênero, idade, classe social e localização. Técnicas de mitigação incluem: auditoria de dados, fairness constraints, adversarial debiasing, counterfactual fairness e monitoramento contínuo pós-deploy.