Karine Sales
Jornalista com especialização em Cinema, possui mais de 8 anos de experiência dedicados à criação de conteúdo estratégico para diversas plataformas.
Karine Sales
Atualizado em 11/07/2025
5 min de leitura
Um novo estudo do MIT Media Lab trouxe à tona preocupações sobre o impacto do ChatGPT e de outras IAs generativas no desenvolvimento do pensamento crítico, especialmente entre jovens e estudantes universitários.
Pensamento crítico é a capacidade de pensar de forma lógica, com o objetivo de formar julgamentos e tomar decisões de acordo. Quem pensa de forma crítica avalia a situação, considera os pros e contras e evita conclusões passivas ou precipitadas. |
O estudo foi feito da seguinte forma: foram reunidos 54 adultos entre 18 e 39 anos, da região de Boston. Eles escreveram redações do SAT (o “vestibular americano”), sendo que:
Todos escreveram ensaios em sessões monitoradas por EEG (eletroencefalograma), que analisou a atividade cerebral em 32 regiões diferentes do cérebro. Ao fim, professores de inglês avaliaram a qualidade dos textos.
Os resultados da pesquisa foram os seguintes:
Apesar de trazer dados importantes e que devem ser levados em consideração, é primordial dizer que o estudo teve uma amostragem muito pequena, além de serem todos da mesma região.
Outra limitação é que o estudo ainda não passou pela revisão por pares, o que exige cautela na interpretação dos resultados.
A autora principal do estudo, Nataliya Kosmyna, alerta que cérebros em desenvolvimento estão especialmente vulneráveis ao uso excessivo de IAs generativas.
Ela escolheu publicar o estudo antes da revisão por pares justamente por ter pressa em colocar o assunto em discussão, já que diversos jovens usam a IA frequentemente em seus trabalhos escolares.
E isso também pode prejudicar o mercado de trabalho. O “vibe coding”, prática em que plataformas permitem que qualquer pessoa crie sites e aplicativos usando um prompt e inteligência artificial, está resultando em sérios problemas de segurança.
Um exemplo de muitos: uma falha crítica foi descoberta no Lovable, plataforma de programação com IA. Ela não foi corrigida por meses e expôs informações sensíveis das pessoas, como nomes, e-mails e até dados financeiros, em centenas de aplicações gerados pela ferramenta.
Mesmo após a implementação de um “scanner de segurança”, especialistas apontam que a solução é superficial e não detecta configurações incorretas que deixam dados vulneráveis.
Casos de invasão rápida e acesso a informações privadas mostram que a facilidade de uso dessas plataformas pode vir acompanhada de riscos graves, especialmente quando desenvolvedores inexperientes dependem de IA para criar sistemas sem o devido conhecimento técnico em segurança.
Ninguém vai deixar de usar IA, isso é um fato. E nem precisa.
Mas, é fundamental ensinar o uso consciente dessas ferramentas e reforçar a importância do desenvolvimento cognitivo “analógico”. Antes de se quer pensar em colocar IA no currículo dos estudantes, é preciso fazer mais estudos e em larga escala.
O trabalho de Kosmyna sugere que, se usada de forma complementar e não substitutiva, a IA pode até potencializar o aprendizado, mas o uso passivo e recorrente tende a ser prejudicial.
__
A ideia aqui é usar a IA como uma ferramenta para entender conceitos, pedir exemplos ou sugestões de leitura. Mas, sempre com pé atrás e verificando as informações e fontes, já que o ChatGPT, por exemplo, pode citar URLs que não existem (e até inventar links).
Se você curte esse assunto, não deixe de seguir nosso LinkedIn, se inscrever no YouTube e assinar nossa nossa newsletter. Estamos sempre palpitando sobre IA por aqui! 🤓
Comentários