Modelos de linguagem baseados em inteligência artificial (IA) hoje são capazes de responder a praticamente qualquer pergunta — mas isso não significa que sejam sempre precisos ou confiáveis.

Para enfrentar esse desafio e oferecer uma forma mais sólida de avaliar esses sistemas, pesquisadores da Universidade Ruhr de Bochum e da Universidade Técnica de Dortmund apresentaram uma proposta: um modelo com seis dimensões de confiabilidade, pensado para ser aplicado não só a máquinas e sistemas de IA, mas também a humanos e instituições.

O estudo, assinado por Carina Newen, Emmanuel Müller e Albert Newen, foi publicado na revista científica Topoi e busca responder a uma pergunta cada vez mais urgente: em que medida podemos realmente confiar na inteligência artificial?

---

### Seis dimensões para medir a confiabilidade da IA

Em vez de tratar confiança como algo binário — confiável ou não confiável — os autores defendem que ela deve ser entendida como um perfil composto por diferentes critérios.

Entre essas dimensões estão:

- **Funcionalidade objetiva**

Mede se o sistema cumpre bem a tarefa para a qual foi projetado. Em outras palavras, ele faz o que promete com consistência e qualidade?

- **Transparência dos processos**

Avalia o quanto é possível entender como o sistema chega a suas respostas ou decisões. Quando o funcionamento interno é opaco, a confiança fica comprometida.

- **Incerteza dos dados e modelos**

Considera a segurança, os vieses e a qualidade das informações usadas no treinamento. Dados tendenciosos ou mal selecionados podem levar a resultados problemáticos — e isso vale tanto para erros quanto para discriminações.

Além disso, o modelo leva em conta:

- **Grau de incorporação física ou virtual**

Se o sistema está integrado a um corpo físico (como um robô ou veículo autônomo) ou se atua apenas em ambiente digital, o impacto potencial de erros e falhas muda significativamente.

- **Imediatismo da interação com o usuário**

Quanto mais direta, contínua e responsiva é a interação, maior tende a ser a tendência do usuário de atribuir confiança ao sistema — o que pode ser perigoso se outras dimensões estiverem fragilizadas.

- **Compromissos que o sistema pode assumir (ou não)**

Aqui entra a questão de até que ponto a IA é capaz de firmar algum tipo de compromisso, responsabilidade ou obrigação com o usuário — algo que, no estado atual da tecnologia, ainda é muito limitado.

Segundo os pesquisadores, tecnologias amplamente usadas hoje, como chatbots conversacionais e veículos autônomos, ainda apresentam fragilidades marcantes em várias dessas dimensões, o que exige cautela em relação ao grau de confiança que lhes é atribuído.

---

### Caixa-preta, vieses e o perigo da confiança cega

Do ponto de vista técnico, a falta de transparência segue como um obstáculo central. Emmanuel Müller enfatiza que, embora o deep learning produza resultados impressionantes, seus mecanismos internos permanecem, em grande medida, uma “caixa-preta”. Ou seja, mesmo especialistas têm dificuldade em explicar com clareza como certas decisões ou respostas são geradas.

Carina Newen chama atenção para outro ponto crítico: os vieses presentes nos dados de treinamento. Se o material usado para treinar um modelo reflete preconceitos, distorções ou assimetrias do mundo real, o sistema tende a reproduzir e amplificar esses problemas.

Na análise filosófica, Albert Newen destaca um risco específico dos grandes modelos de linguagem: eles conseguem formular respostas altamente convincentes — mas isso não garante que sejam corretas. Essa combinação de fluência, segurança no discurso e possíveis imprecisões torna ainda mais importante que os usuários mantenham uma postura crítica.

Newen também alerta para o perigo de estabelecer laços de confiança com chatbots. Apesar de parecerem atenciosos, úteis ou até “amigáveis”, esses sistemas não têm obrigações reais com o usuário. Eles não possuem intenção, responsabilidade moral ou compromisso genuíno, mesmo quando simulam empatia ou cuidado.

O recado dos pesquisadores é claro: confiar cegamente em sistemas de IA, especialmente em assistentes conversacionais, é arriscado. Entender as múltiplas dimensões da confiabilidade é essencial para decidir quando — e até que ponto — vale a pena levar a sério aquilo que a inteligência artificial diz.