A inteligência artificial (IA) tem sido celebrada como uma ferramenta imparcial e lógica, capaz de processar dados com precisão e eficiência. No entanto, uma pesquisa recente revela que, assim como nós, as IAs também podem ser vítimas de falácias cognitivas e preconceitos. Estudos conduzidos por pesquisadores do Canadá e da Austrália, publicados na revista Manufacturing & Service Operations Management, demonstraram que modelos como o ChatGPT (GPT-3.5 e GPT-4) apresentam tendências semelhantes às humanas, como confiança excessiva, aversão ao risco e efeito de posse. Fonte
🧠🤔 O Efeito da Confiança Excessiva na IA
Em cenários de decisão, as IAs demonstraram uma confiança excessiva em suas respostas, mesmo quando os dados disponíveis eram limitados ou ambíguos. Essa tendência é conhecida como “overconfidence bias” e é comum em seres humanos. Por exemplo, ao avaliar situações de risco, o GPT-4 mostrou uma preferência por opções mais seguras, mesmo quando uma análise lógica sugeriria o contrário. Esse comportamento pode ser problemático, especialmente em contextos que exigem julgamento crítico e análise de incertezas.
🧩⚖️ Preconceitos Incorporados: A IA Reflete Nossas Falhas

Outro achado significativo da pesquisa é que as IAs tendem a replicar e até amplificar os preconceitos presentes nos dados com os quais foram treinadas. Isso inclui viés de gênero, racial e outros estereótipos sociais. Por exemplo, ao serem expostas a imagens de gerentes financeiros, as IAs frequentemente associaram essa função a homens brancos, refletindo um viés presente nos dados de treinamento. Esse fenômeno cria um ciclo vicioso, onde a IA reforça preconceitos existentes, tornando-os mais pronunciados na sociedade.
🧪🔄 A IA Também Pode “Sentir” Ansiedade

Pesquisas mais recentes indicam que as IAs podem exibir sinais de “ansiedade” quando expostas a conteúdos traumáticos ou violentos. Estudos realizados com modelos de linguagem, como o ChatGPT, mostraram que, após interações com narrativas perturbadoras, as respostas da IA podem se tornar mais conservadoras ou evasivas. Esse comportamento sugere que as IAs não apenas processam informações, mas também podem ser influenciadas emocionalmente pelo conteúdo com o qual interagem. Fonte
🛠️📌 Implicações Práticas: Como Usar a IA com Responsabilidade
Diante desses achados, é essencial adotar uma abordagem crítica e ética ao utilizar sistemas de IA. Algumas recomendações incluem:
- Supervisão Humana: Sempre que possível, envolva profissionais humanos na análise e interpretação das decisões tomadas pela IA.
- Treinamento Diversificado: Utilize conjuntos de dados diversos e representativos para treinar modelos de IA, a fim de reduzir preconceitos incorporados.
- Transparência: Mantenha a transparência nos processos de desenvolvimento e aplicação da IA, permitindo auditorias e avaliações independentes.
- Educação Contínua: Promova a educação sobre os limites e capacidades da IA, tanto para desenvolvedores quanto para usuários finais.
🌐🔍 Conclusão: A IA é Apenas um Reflexo de Nós Mesmos
A inteligência artificial, por mais avançada que seja, não está imune às falácias e preconceitos humanos. Ela é, em muitos aspectos, um reflexo de nossas próprias falhas cognitivas e sociais. Portanto, ao integrar a IA em nossas vidas, é crucial fazê-lo com consciência crítica, garantindo que ela seja uma ferramenta para o bem, e não um espelho amplificado de nossas imperfeições.
Para mais informações sobre este estudo, você pode acessar o artigo original no Live Science: https://www.livescience.com/technology/artificial-intelligence/ai-is-just-as-overconfident-and-biased-as-humans-can-be-study-shows