FLUTUANTE 1100 x 284
Aracaju (SE), 31 de outubro de 2025
POR: Isabella Lima
Fonte: Assessoria
Em: 15/10/2025 às 08:04
Pub.: 15 de outubro de 2025

A Inteligência Artificial também erra

Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD) - Foto: Assessoria
Quando se fala em IA, um dos medos mais comuns é que ela tome o controle e se torne mais inteligente que os humanos. Mas um grande perigo, frequentemente ignorado, é a confiança cega em suas respostas. A Inteligência Artificial também erra.

Exemplos de enganos, que têm se tornado comuns, ocorrem na montagem de roteiros de viagem. Turistas têm ido em busca de destinos inexistentes e até se aventuram em passeios de alto risco, apenas confiando em roteiros feitos pelo ChatGPT.

Para a especialista em Comunicação e Inteligência Artificial, Jullena Normando, quando o usuário acredita cegamente,ele ou nós, entramos numa espécie de transe digital. “O que eu quero dizer é que essa confiança cega no ChatGPT ou em qualquer outro modelo de linguagem é um perigo real, e que já acontece, diferente da discussão abstrata e potencialmente perigosa sobre quando e se a IA vai ter consciência. Se a gente não souber usar esses modelos de inteligência artificial, o perigo já está aqui.”

Um caso que tem se tornado preocupante ocorre na Itália. Desde 1º de junho deste ano, mais de 100 turistas perderam a vida nos Alpes Italianos. A informação foi compartilhada pelo Corpo Nazionale Soccorso Alpino e Speleologico (Corpo Nacional de Socorro Alpino e Espeleológico, em tradução livre) e tem alarmado autoridades e guias de montanha.

O ChatGPT está fornecendo dicas de trilhas e rotas a usuários que perguntam sobre os Alpes Italianos, o que pode ser fatal, especialmente para turistas inexperientes no alpinismo. O caso reacende o debate sobre responsabilidade: quando um algoritmo erra, a culpa é de quem o programou, dos dados que o treinaram ou até mesmo de quem fez o uso da tecnologia?

Um relatório recente da McKinsey mostra que a maioria das empresas ainda não está preparada para responder por danos causados por sistemas de inteligência artificial.

“Essas empresas  tratam o risco ético como se fosse risco de software, mas há uma diferença. Então, quando o sistema de IA gera uma rota que leva alguém à morte, o dano é humano; ele não é meramente técnico. Nós não estamos falando de um bug, estamos falando de vidas que foram afetadas pelas consequências desses modelos”, afirma Jullena Normando.

*Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD).


Notícias Indicadas

Galeria Casacor recebe "Ces arts, c’est la vie”

Fábio Jr. celebra trajetória em show emocionante no Salles Multieventos

"Romance em duas línguas" :: Com Célia Gil

Aracaju Beauty Hair 2025 traz novidades e promete atrair mais de 10 mil visitantes

Villela Produções traz a Aracaju Fábio Rabin e o espetáculo "Ladeira Abaixo”

Cacto Experience aposta em aulas lúdicas para incentivar crianças a trocarem telas por atividades físicas

Curta-Se 24: Alice Caymmi, Zé Ibarra, Pedro Lua e Polayne estão entre as atrações musicais do festival

Festival Kids traz espetáculo "Bobbie Goods & Labubu” para animar a criançada em Aracaju

Feirinha da Gambiarra realizará edição especial com o tema ‘Batida Sergipana’ na Orla da Atalaia

Halloween do Chá promete noite temática com música e concurso de fantasias em Aracaju

Festival Inshallah 2025 apresenta: "Noites em Inshallah” – Um espetáculo de dança do ventre que encanta corações

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação