CoSN2025: Quais Preocupações Dificultam a Adoção da IA nas Escolas?

Desde os vieses nos dados até dilemas éticos relacionados à implementação, algumas escolas da educação básica (K–12) ainda hesitam em adotar totalmente ferramentas de inteligência artificial.

Não há dúvidas de que a inteligência artificial — especialmente a generativa — tem o potencial de transformar radicalmente o cenário educacional. Ainda assim, embora muitas escolas estejam começando a incorporar essa tecnologia nos fluxos de trabalho administrativos e pedagógicos, ensinando sobre ela aos alunos e incentivando a exploração de suas possibilidades, outras instituições preferem bloquear seu uso completamente.

“Existe uma disparidade enorme entre pessoas engajadas com a IA e aquelas que esperam que ela desapareça”, afirmou Bryan Krause, estrategista nacional de segurança escolar da CDW, durante o CoSN 2025. Ele comparou a IA a uma bicicleta, que não funciona sem alguém para guiar e pedalar.

Ken Shelton, palestrante principal de abertura do evento, disse que costuma investigar mais a fundo quando ouve sobre escolas que proíbem totalmente o uso da IA. “Isso significa que vocês também bloquearam o corretor ortográfico e os filtros de spam do e-mail?”, questionou, incentivando o público a entender como esses sistemas funcionam.

Mesmo assim, ele admite que, embora humanos nas escolas K–12 possam usar a IA como uma poderosa ferramenta de aprendizagem, é essencial fazer isso com plena consciência de seus riscos e vieses potenciais.

Explorando as Possibilidades da IA e Seus Vieses Potenciais

Uma das preocupações mais comuns entre escolas e pais sobre o uso da IA em sala de aula é a possibilidade de os alunos trapacearem, disse Shelton. “Eu não chamo isso de trapaça. Prefiro dizer que é algo que compromete a aprendizagem. O que está levando o aluno a comprometer sua aprendizagem?”

Ele argumenta que abordagens pedagógicas e tipos de tarefas precisam evoluir para preparar melhor os alunos para o mundo atual: “É fácil se atrair por soluções que tornam tudo mais simples.”

Contudo, ele ressalta que qualquer pessoa — criança ou adulto — que utilize IA precisa entender como ela funciona, incluindo os vieses embutidos.

Segundo Shelton, embora o viés exista em todos os modelos generativos, é mais fácil identificá-lo em geradores de imagens. Mesmo os modelos de IA considerados mais “seguros” revelam seus vieses em questão de segundos. “Basta pedir para gerar a imagem de um adolescente usando tornozeleira eletrônica. Adivinhem como eram as imagens? Eram pessoas que se pareciam exatamente comigo”, afirmou.

“A IA generativa trabalha com base em padrões para fazer previsões”, explicou. “Quanto mais lacunas deixamos, mais espaço damos para que o viés as preencha.” Para líderes e educadores da educação básica, entender o funcionamento desses sistemas é essencial para que possam usar a IA na adaptação das experiências de aprendizagem à realidade, aos pontos fortes e às necessidades dos alunos.

Vendo os Dois Lados de um Dilema Ético com IA

A IA também pode gerar dilemas éticos, tanto pelos resultados de sua implementação quanto por sua própria natureza, conforme relataram os palestrantes em uma sessão chamada “Dilemas Éticos na IA”, realizada na quarta-feira.

“Dilemas não são fáceis. Costumam envolver dois lados em conflito, sem respostas certas ou erradas, e os riscos geralmente são altos”, afirmou Jessica Fields, coach de aprendizagem do século XXI nas escolas de Grandview Heights, em Ohio.

Fields compartilhou uma metodologia chamada “corda de puxar”, do Thinking Routines Toolbox do Projeto Zero, útil para tomar decisões em situações de dilemas. Ela destacou que “é importante sentir a tensão dos dois lados”. Embora a sessão tenha focado em dilemas com IA, a abordagem pode ser aplicada a qualquer decisão complexa enfrentada por líderes escolares.

Ela também observou que os tomadores de decisão devem considerar todas as perspectivas se optarem por aplicar essa metodologia. Todas as partes interessadas — em todos os níveis — devem ser representadas ou, pelo menos, levadas em conta.

Os palestrantes — incluindo Jennifer Fry, diretora de tecnologia do Distrito Escolar da Cidade de Delaware (Ohio); Aaron Cook, diretor de educação secundária; e Christopher Deis, diretor de tecnologia das escolas de Grandview Heights — propuseram aos participantes do CoSN 2025 a discussão de dilemas éticos hipotéticos envolvendo IA, como por exemplo:

  • Uma escola incorporou IA aos fluxos de trabalho e percebeu que isso tornou alguns cargos obsoletos. No entanto, esses profissionais têm fortes vínculos com os alunos e impactam positivamente a cultura escolar. A escola deve demiti-los?
  • Tecnologia de reconhecimento facial detecta o humor e a linguagem corporal de alunos e funcionários no prédio escolar, ajudando a prevenir conflitos e incidentes violentos. No entanto, essa vigilância ocorre sem consentimento explícito. É ético utilizar esse sistema mesmo sem consentimento, considerando os benefícios para a segurança?
  • Um professor passou a depender da IA para planejar aulas, fazer exposições e dar feedback aos alunos. Isso resultou em melhora no desempenho dos estudantes, mas em menor envolvimento do professor com a turma. Essa prática compromete a qualidade da educação? É ético o professor agir assim?

Os participantes discutiram aspectos financeiros, preocupações com cibersegurança e a importância de manter o elemento humano em todos os cenários. Representantes de diferentes pontos de vista argumentaram a favor e contra cada uma das decisões.

“O objetivo é enxergar os dois lados para ter as melhores informações possíveis”, concluiu Fields.

Saiba mais em: https://edtechmagazine.com/k12/article/2025/04/cosn2025-what-concerns-hinder-schools-adoption-ai


Copyright © Direitos Reservados por Learnbase Gestão e Consultoria Educacional S.A.

Contato

contato@learnbasek12.com.br