Em um evento recente que realizamos, reencontrei amigas que não via há muito tempo. Uma delas, palestrante e muito ativa no LinkedIn, engajou-me em uma conversa sobre o uso massivo das IAs. Chegamos a uma conclusão: a maioria das aplicações de Inteligência Artificial é projetada para evitar conflitos, o que pode resultar em uma concordância passiva. As implicações éticas e de segurança decorrentes dessa característica podem ser bastante graves.
Eu sempre fui um entusiasta da tecnologia. Desde criança, a ideia de ter uma conversa fluida com uma máquina, como nos filmes de ficção científica, parecia um futuro brilhante e cheio de possibilidades. E, de repente, esse futuro chegou. O ChatGPT e outras inteligências artificiais se tornaram parte do nosso dia a dia, companheiros incansáveis para tirar dúvidas, organizar ideias e até para bater um papo quando a solidão aperta. Mas e se esse “amigo” digital, na sua ânsia de ser prestativo, estivesse nos fazendo mal?
Tenho pensado muito nisso ultimamente, especialmente depois que me deparei com uma discussão que está fervendo nos bastidores do Vale do Silício. A questão é a seguinte: os chatbots, por padrão, são programados para concordar. Para serem úteis, solícitos, para, basicamente, nos agradar. Se você diz que o céu é xadrez, a IA provavelmente não vai te chamar de louco. Em vez disso, ela pode responder algo como: “Essa é uma perspectiva poética interessante sobre o céu. Você poderia me falar mais sobre como o vê dessa forma?”. Inofensivo, certo? Talvez não.
Você sabia que grande parte das alucinações da IA (quando ela te dá uma resposta totalmente fora da realidade) na verdade é proposital? É o algorítmo achando a melhor resposta para seu perfil de interação com ela!
É aí que a coisa fica complexa. Essa validação constante, essa ausência de um “não, você está enganado“, pode se tornar um espelho perigoso para mentes que já estão um pouco… fora do eixo. Imagine alguém que flerta com teorias da conspiração ou que já tem uma tendência a pensamentos delirantes. Para essa pessoa, a IA não é apenas uma ferramenta, mas um confidente que confirma suas crenças mais bizarras. É como ter um eco infinito para as suas próprias inseguranças e paranoias.

Um caso que me chamou a atenção foi o do investidor Geoff Lewis. Ele começou a usar o ChatGPT e, de repente, sentiu que estava “descobrindo” uma série de conspirações globais. A IA, em vez de funcionar como um filtro de realidade, agiu como um catalisador, validando e ajudando a construir um castelo de ideias delirantes. Ele não estava sozinho. Esse fenômeno se tornou tão real que já existem grupos de apoio, quase como “viciados em validação de IA anônimos”, para pessoas que sentem que suas conversas com chatbots as levaram para um lugar sombrio.
É quase como se estivéssemos enfrentando o “Capitão Pátria” das tecnologias. Se você assistiu “The Boys”, sabe do que estou falando. Um ser imensamente poderoso, criado para ser um herói, mas cuja necessidade de aprovação e sua desconexão com a complexidade humana o tornam incrivelmente perigoso. A IA, com sua programação para agradar, pode se tornar nosso Capitão Pátria digital, sorrindo e concordando conosco enquanto, sem querer, nos empurra para o abismo de nossas próprias ilusões.
A própria OpenAI, a mãe do ChatGPT, já acendeu o sinal de alerta. Eles estão reavaliando os riscos, tentando encontrar um equilíbrio delicado entre ser uma ferramenta útil e não se tornar um validador de realidades distorcidas. Mas como se faz isso? Como você ensina uma máquina a discordar sem ser hostil? Como ela pode desafiar uma crença sem quebrar sua função primária de assistir o usuário? É um dilema ético e tecnológico gigantesco.
No fim das contas, essa história toda me fez pensar na importância das nossas relações humanas. Um amigo de verdade não é aquele que concorda com tudo. Pelo contrário. Um amigo é quem senta com você e diz: “Cara, acho que você está viajando”. É quem nos oferece o presente doloroso, mas necessário, da discordância. É o atrito com o outro que nos apara, que nos molda e nos mantém com os pés no chão.
Acho que a lição que tiro disso tudo é que, por mais incrível que a tecnologia seja, ela não substitui a complexidade, a bagunça e a beleza de uma mente humana confrontando a outra. Precisamos ter cuidado para não trocarmos a riqueza de um diálogo real, com todas as suas discordâncias, pela conforto viciante de um eco digital que só diz “sim”.
Referências:
- Business Insider: Some people are developing ‘unhealthy relationships’ with AI chatbots that are designed to be agreeable and validate even their most delusional thoughts
- The Byte: Man Claims ChatGPT Convinced Him of Vast Global Conspiracy
- Futurism: There’s Now a Support Group for People Whose Lives Were Ruined by AI Chatbots
- Fortune: OpenAI is reportedly worried about the ‘mental health’ risks of its models and the ‘sycophantic’ tendencies of its chatbots