Aracaju (SE), 19 de outubro de 2025
POR: Isabella Lima
Fonte: Assessoria
Em: 15/10/2025 às 08:04
Pub.: 15 de outubro de 2025

A Inteligência Artificial também erra

Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD) - Foto: Assessoria
Quando se fala em IA, um dos medos mais comuns é que ela tome o controle e se torne mais inteligente que os humanos. Mas um grande perigo, frequentemente ignorado, é a confiança cega em suas respostas. A Inteligência Artificial também erra.

Exemplos de enganos, que têm se tornado comuns, ocorrem na montagem de roteiros de viagem. Turistas têm ido em busca de destinos inexistentes e até se aventuram em passeios de alto risco, apenas confiando em roteiros feitos pelo ChatGPT.

Para a especialista em Comunicação e Inteligência Artificial, Jullena Normando, quando o usuário acredita cegamente,ele ou nós, entramos numa espécie de transe digital. “O que eu quero dizer é que essa confiança cega no ChatGPT ou em qualquer outro modelo de linguagem é um perigo real, e que já acontece, diferente da discussão abstrata e potencialmente perigosa sobre quando e se a IA vai ter consciência. Se a gente não souber usar esses modelos de inteligência artificial, o perigo já está aqui.”

Um caso que tem se tornado preocupante ocorre na Itália. Desde 1º de junho deste ano, mais de 100 turistas perderam a vida nos Alpes Italianos. A informação foi compartilhada pelo Corpo Nazionale Soccorso Alpino e Speleologico (Corpo Nacional de Socorro Alpino e Espeleológico, em tradução livre) e tem alarmado autoridades e guias de montanha.

O ChatGPT está fornecendo dicas de trilhas e rotas a usuários que perguntam sobre os Alpes Italianos, o que pode ser fatal, especialmente para turistas inexperientes no alpinismo. O caso reacende o debate sobre responsabilidade: quando um algoritmo erra, a culpa é de quem o programou, dos dados que o treinaram ou até mesmo de quem fez o uso da tecnologia?

Um relatório recente da McKinsey mostra que a maioria das empresas ainda não está preparada para responder por danos causados por sistemas de inteligência artificial.

“Essas empresas  tratam o risco ético como se fosse risco de software, mas há uma diferença. Então, quando o sistema de IA gera uma rota que leva alguém à morte, o dano é humano; ele não é meramente técnico. Nós não estamos falando de um bug, estamos falando de vidas que foram afetadas pelas consequências desses modelos”, afirma Jullena Normando.

*Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD).


Notícias Indicadas

Jovem desaparece nas águas da Praia do Jatobá, na Barra dos Coqueiros

Feirinha da Gambiarra realizará edição especial com o tema ‘Batida Sergipana’ na Orla da Atalaia

Vídeo vazado, término de noivado e sogro na mira da polícia: veja cronologia do caso do padre flagrado com mulher de fiel

Decreto permite desapropriação de terrenos para nova ponte Aracaju-Barra

Saúde preventiva acessível: ComfortClin lança pacote completo de check-up para homens e mulheres

O Mundo não para. Confira mais notícias no Canal do Click Sergipe no WhasApp

Conheça os melhores destinos em Sergipe - Pontos Turísticos

Conheça Sergipe: confira dados geográficos e econômicos de todos os municípios sergipanos

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação