Aracaju (SE), 14 de janeiro de 2026
POR: Isabella Lima
Fonte: Assessoria
Em: 15/10/2025 às 08:04
Pub.: 15 de outubro de 2025

A Inteligência Artificial também erra

Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD) - Foto: Assessoria
Quando se fala em IA, um dos medos mais comuns é que ela tome o controle e se torne mais inteligente que os humanos. Mas um grande perigo, frequentemente ignorado, é a confiança cega em suas respostas. A Inteligência Artificial também erra.

Exemplos de enganos, que têm se tornado comuns, ocorrem na montagem de roteiros de viagem. Turistas têm ido em busca de destinos inexistentes e até se aventuram em passeios de alto risco, apenas confiando em roteiros feitos pelo ChatGPT.

Para a especialista em Comunicação e Inteligência Artificial, Jullena Normando, quando o usuário acredita cegamente,ele ou nós, entramos numa espécie de transe digital. “O que eu quero dizer é que essa confiança cega no ChatGPT ou em qualquer outro modelo de linguagem é um perigo real, e que já acontece, diferente da discussão abstrata e potencialmente perigosa sobre quando e se a IA vai ter consciência. Se a gente não souber usar esses modelos de inteligência artificial, o perigo já está aqui.”

Um caso que tem se tornado preocupante ocorre na Itália. Desde 1º de junho deste ano, mais de 100 turistas perderam a vida nos Alpes Italianos. A informação foi compartilhada pelo Corpo Nazionale Soccorso Alpino e Speleologico (Corpo Nacional de Socorro Alpino e Espeleológico, em tradução livre) e tem alarmado autoridades e guias de montanha.

O ChatGPT está fornecendo dicas de trilhas e rotas a usuários que perguntam sobre os Alpes Italianos, o que pode ser fatal, especialmente para turistas inexperientes no alpinismo. O caso reacende o debate sobre responsabilidade: quando um algoritmo erra, a culpa é de quem o programou, dos dados que o treinaram ou até mesmo de quem fez o uso da tecnologia?

Um relatório recente da McKinsey mostra que a maioria das empresas ainda não está preparada para responder por danos causados por sistemas de inteligência artificial.

“Essas empresas  tratam o risco ético como se fosse risco de software, mas há uma diferença. Então, quando o sistema de IA gera uma rota que leva alguém à morte, o dano é humano; ele não é meramente técnico. Nós não estamos falando de um bug, estamos falando de vidas que foram afetadas pelas consequências desses modelos”, afirma Jullena Normando.

*Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD).


Notícias Indicadas

Maior exposição de tubarões do Brasil chega a Aracaju

Justiça reconhece atuação legal da Guarda Municipal e rejeita denúncia por abuso de autoridade

Iguá Sergipe acelera implantação de reservatórios para ampliar reserva hídrica em 10 cidades

Entenda mudanças na aposentadoria em 2026

Câmara publica edital de concurso público com inscrições em janeiro

Veja faixas e alíquotas das novas tabelas do Imposto de Renda 2026

Regras para ciclomotores, bicicletas elétricas e equipamentos de mobilidade individual autopropelidos começam a valer nesta quinta; saiba mais

Prefeitura mantém IPTU congelado em 2026 e publica calendário oficial de pagamento

Hapvida vai abrir novo hospital com 130 leitos, urgência, emergência e exames de alta complexidade

Clínica de saúde ComfortClin amplia oferta de serviços e lança check-up acessível em Aracaju

Governo divulga o calendário de feriados e pontos facultativos de Sergipe em 2026

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação