Esse post é uma continuação de uma discussão iniciada em Anomia digital: quando a internet perde suas regras
A rápida incorporação dos Large Language Models (LLMs) em contextos educacionais abre possibilidades inéditas de mediação da aprendizagem, personalização de conteúdos e apoio ao professor. Ao mesmo tempo, ela reacende um problema já presente no ambiente digital: a anomia digital, isto é, o enfraquecimento das normas que orientam o comportamento e dão sentido às interações.
Quando uma criança interage com um LLM, ela não está apenas acessando informação. Está se relacionando com um sistema que responde, orienta, corrige e, muitas vezes, valida suas ações. Essa relação, se não for cuidadosamente projetada, pode reproduzir dinâmicas anômicas já conhecidas no ambiente digital.
O risco da inteligência sem contexto normativo
LLMs tendem a ser percebidos como autoridades neutras e sempre disponíveis. Para crianças, isso é particularmente sensível. A ausência de corporeidade, de limites explícitos e de mediação humana clara pode gerar a sensação de que o sistema “sempre sabe” e “sempre responde”, independentemente do contexto ou das consequências.
Nesse cenário, o aprendizado pode se deslocar de um processo socialmente mediado para uma interação solitária, onde regras, intencionalidade pedagógica e responsabilidade ficam diluídas. O problema não está no modelo em si, mas na forma como ele é inserido na experiência educativa.
Sob a ótica sociológica de Émile Durkheim, trata-se de um ambiente onde normas não desaparecem, mas deixam de ser compreendidas como construções coletivas. Elas passam a ser implícitas, algorítmicas e pouco questionáveis.
LLMs como mediadores pedagógicos, não substitutos
Quando integrados de forma crítica, LLMs podem atuar como mediadores poderosos do aprendizado. Isso exige que eles não sejam apresentados como oráculos, mas como ferramentas situadas, com limites claros e objetivos pedagógicos definidos.
Em projetos educacionais digitais, especialmente os que envolvem infância, o LLM deve reforçar normas educativas já existentes, como valorização do processo, incentivo à reflexão e reconhecimento do erro como parte da aprendizagem. A tecnologia, nesse caso, não dita regras: ela as explicita e as sustenta.
A força da integração com jogos educativos híbridos
É na combinação entre LLMs e jogos educativos híbridos que surge um caminho promissor para mitigar a anomia digital. Ao integrar o modelo de linguagem a experiências físicas e coletivas, o aprendizado volta a estar ancorado no corpo, no espaço e na interação social.
Nesse tipo de projeto, o LLM pode assumir papéis como narrador, mediador de desafios ou facilitador de reflexão, sempre conectado a ações concretas realizadas no mundo físico. As regras do jogo deixam de ser apenas código invisível e passam a ser vivenciadas, negociadas e observáveis.
Assim, a inteligência artificial não substitui a experiência social do aprender, mas a amplia, mantendo referências normativas claras e compartilhadas.
Educação, ética e responsabilidade no uso de LLMs
Pensar o uso de LLMs na educação infantil não é apenas uma questão técnica. É uma decisão pedagógica e ética. Ambientes educativos baseados em IA ensinam, de forma explícita ou implícita, como lidar com autoridade, erro, diálogo e responsabilidade.
Quando bem projetados, esses ambientes podem contribuir para a formação de sujeitos críticos, capazes de compreender que sistemas inteligentes são ferramentas, não juízes absolutos. Quando mal projetados, podem reforçar passividade, dependência e desorientação normativa, que são marcas centrais da anomia digital.
Para concluir
LLMs têm potencial para transformar profundamente a educação, mas seu impacto depende do contexto em que são inseridos. Integrados a projetos educacionais híbridos, mediados por educadores e orientados por princípios pedagógicos claros, eles podem atuar como aliados na construção de sentido, cooperação e aprendizagem significativa. Sem isso, correm o risco de se tornar apenas mais um vetor de anomia em um ecossistema digital já frágil.
