Reflexões sobre os riscos das IAs Generativas no desenvolvimento do estudante enquanto indivíduo
O conforto virou rotina. E na era das inteligências artificiais, isso está ficando cada vez mais visível — principalmente entre estudantes. Com tantas ferramentas oferecendo respostas prontas, a educação parece ter virado um jogo de atalhos. Em vez de pesquisar, refletir e construir um pensamento próprio, muita gente tem se apoiado no comodismo de soluções automáticas. Plataformas como o ChatGPT, por exemplo, acabaram ganhando espaço não só como apoio, mas como substituto do processo de aprendizado. O problema? A gente começa a terceirizar o raciocínio e se desconectar das fontes confiáveis.
Risco 1: Originalidade
Grande parte das IAs é treinada com conteúdos que já circulam na internet, ou seja, dados repetitivos e baseados em padrões comuns. Isso significa que os textos e ideias que elas geram tendem a seguir caminhos previsíveis, com pouco espaço pra inovação real. A criatividade, que deveria ser construída com base em vivências, leituras e interpretações próprias, começa a ser moldada por um algoritmo. E aí surge o risco de se perder o que faz o pensamento humano tão único: a capacidade de questionar e criar o novo.
Estudo relacionado: https://hdsr.mitpress.mit.edu/pub/ycykh7cq/release/4
(Sobre como os LLMs podem limitar a diversidade de pensamento)
Risco 2: Vieses
Por mais avançadas que sejam, essas ferramentas ainda refletem a visão de mundo dominante nos dados que recebem. E esses dados, na maioria das vezes, vêm de contextos específicos: jovens, homens, brancos, de países desenvolvidos. Isso significa que opiniões, valores e até formas de interpretar o mundo que não fazem parte desse grupo acabam ficando à margem. Quando usamos essas IAs sem filtro ou sem senso crítico, a gente corre o risco de reforçar desigualdades e silenciar vozes que já são pouco ouvidas.
Leitura recomendada: https://dl.acm.org/doi/10.1145/3442188.3445922
(Artigo sobre os "papagaios estocásticos" e os impactos éticos dos modelos de linguagem)
Risco 3: Atividade Cerebral
Um estudo do MIT intitulado “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” em que os participantes foram divididos em 3 grupos: LLM (Large Language Model), Busca e Apenas cérebro, tem como resultado que as pessoas que usaram tiveram acesso majoritário a LLM demonstraram consistentemente um menor esforço cognitivo durante a atividade de escrita, em contraste com participantes que utilizaram apenas o próprio cérebro. Além disso, o grupo da LLM também teve mais dificuldade em citar o próprio texto e ficou altamente “refém” do vocabulário empregado pela LLM. Estes achados indicam que podem haver prejuízos de longo prazo no processo educacional devido ao uso destas ferramentas.
Conclusão
Apesar de ofertar conveniência, o uso de LLMs pode ter um papel prejudicial no processo de aprendizagem. Mais estudos são necessários para poder aferir com melhor precisão qual será o efeito desta transformação tecnológica a final, porém o prognóstico, tendo em vista o exposto, não é animador.
Referências
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
https://dl.acm.org/doi/10.1145/3442188.3445922
Bommasani, R., Zoph, B., & Liang, P. (2021). On the Opportunities and Risks of Foundation Models.
https://arxiv.org/pdf/2108.07258
Kosmyna, K. et. al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task; https://arxiv.org/pdf/2506.08872