Aracaju (SE), 15 de outubro de 2025
POR: Isabella Lima
Fonte: Assessoria
Em: 15/10/2025 às 08:04
Pub.: 15 de outubro de 2025

A Inteligência Artificial também erra

Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD) - Foto: Assessoria
Quando se fala em IA, um dos medos mais comuns é que ela tome o controle e se torne mais inteligente que os humanos. Mas um grande perigo, frequentemente ignorado, é a confiança cega em suas respostas. A Inteligência Artificial também erra.

Exemplos de enganos, que têm se tornado comuns, ocorrem na montagem de roteiros de viagem. Turistas têm ido em busca de destinos inexistentes e até se aventuram em passeios de alto risco, apenas confiando em roteiros feitos pelo ChatGPT.

Para a especialista em Comunicação e Inteligência Artificial, Jullena Normando, quando o usuário acredita cegamente,ele ou nós, entramos numa espécie de transe digital. “O que eu quero dizer é que essa confiança cega no ChatGPT ou em qualquer outro modelo de linguagem é um perigo real, e que já acontece, diferente da discussão abstrata e potencialmente perigosa sobre quando e se a IA vai ter consciência. Se a gente não souber usar esses modelos de inteligência artificial, o perigo já está aqui.”

Um caso que tem se tornado preocupante ocorre na Itália. Desde 1º de junho deste ano, mais de 100 turistas perderam a vida nos Alpes Italianos. A informação foi compartilhada pelo Corpo Nazionale Soccorso Alpino e Speleologico (Corpo Nacional de Socorro Alpino e Espeleológico, em tradução livre) e tem alarmado autoridades e guias de montanha.

O ChatGPT está fornecendo dicas de trilhas e rotas a usuários que perguntam sobre os Alpes Italianos, o que pode ser fatal, especialmente para turistas inexperientes no alpinismo. O caso reacende o debate sobre responsabilidade: quando um algoritmo erra, a culpa é de quem o programou, dos dados que o treinaram ou até mesmo de quem fez o uso da tecnologia?

Um relatório recente da McKinsey mostra que a maioria das empresas ainda não está preparada para responder por danos causados por sistemas de inteligência artificial.

“Essas empresas  tratam o risco ético como se fosse risco de software, mas há uma diferença. Então, quando o sistema de IA gera uma rota que leva alguém à morte, o dano é humano; ele não é meramente técnico. Nós não estamos falando de um bug, estamos falando de vidas que foram afetadas pelas consequências desses modelos”, afirma Jullena Normando.

*Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD).


Notícias Indicadas

Saúde preventiva acessível: ComfortClin lança pacote completo de check-up para homens e mulheres

ComfortClin: Nova Clínica Médica e Odontológica chega a Aracaju

SMTT de Aracaju realiza intervenções para melhorar a mobilidade na Alameda das Árvores

SMTT de Aracaju: Rua Péricles Muniz Barreto, no Salgado Filho, passa a ser mão única a partir de terça-feira, 30

Conheça Sergipe: confira dados geográficos e econômicos de todos os municípios sergipanos

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação