Considere por um momento os seguintes cenários: uma pessoa utiliza um aplicativo de inteligência artificial para criar imagens para um relatório, mas as representações de executivos e cientistas que obtém são exclusivamente de homens brancos. Uma adolescente decide fazer pesquisas escolares no TikTok, se depara com a ausência de fontes verificáveis e não consegue discernir a lógica das recomendações dos vídeos que consome. Em outro caso, um jovem procura tutoriais de videogame no YouTube e logo se vê mergulhado em uma série de vídeos promovendo discursos violentos e teorias conspiratórias. Um idoso, por sua vez, é enganado por uma simulação digital convincente de um médico renomado e é persuadido a interromper seu tratamento médico.
Essas situações hipotéticas estão baseadas no estado atual de desenvolvimento das tecnologias de informação e comunicação que utilizamos todos os dias, e têm algo em comum: evidenciam a presença cada vez maior das decisões algorítmicas e da inteligência artificial em nosso caminho até a informação — e também ilustram alguns dos seus riscos e limitações.
Na era digital de hoje, cada interação com dispositivos transforma nossas ações, reações e emoções em dados que alimentam algoritmos de previsão e recomendação. Estes, por sua vez, determinam o que aparece em nossas buscas e feeds, influenciando nosso comportamento e percepções em nome de lógicas comerciais. Programas de inteligência artificial, geralmente treinados de forma opaca, geram conteúdos que, embora nem sempre justos ou confiáveis, têm o poder de moldar ou distorcer nossa visão de mundo. E, com a popularização dessas tecnologias, é claro, surgem aqueles dispostos a fazer uso malicioso delas — criando, só para citar um exemplo, deep fakes que podem desestabilizar campanhas eleitorais.
Frente a essas realidades, a educação midiática não pode mais se limitar à análise dos conteúdos que recebemos. Novas abordagens incluem não só a observação cuidadosa das mensagens em si, mas também dos mecanismos emocionais ativados e das questões de direitos humanos mobilizadas pela ação dos algoritmos. Incluem, além disso, o conhecimento de como as IAs funcionam e por que podem ampliar desigualdades estruturais refletidas nos dados, possibilitar injustiças ou facilitar a disseminação de desinformação.
Está claro que o letramento midiático contemporâneo precisa incorporar também as esferas da computação crítica e da cidadania consciente, examinando a dimensão ética das inteligências artificiais.
O conjunto de materiais “Educação Midiática e Inteligência Artificial”, lançado no início de maio pelo EducaMídia, responde a esses imperativos. Os recursos disponibilizados — incluindo um percurso formativo para educadores, glossário, planos de aula e atividades práticas — estão alinhados às recomendações da Estratégia Brasileira de Educação Midiática, que afirma: “os conhecimentos e habilidades devem ser explorados de forma crítica, para entendermos os impactos da tecnologia sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital.”
Não se trata de acrescentar mais um novo (e desconhecido) componente curricular. Diretrizes recentes da Unesco observam que a educação midiática, com metodologia familiar e adoção recomendada pelas normas educacionais vigentes, é a estratégia mais indicada para acolher de imediato e de forma transversal a demanda por esses novos letramentos. Segundo Tawfik Jelassi, Diretor-Geral Adjunto para Comunicação e Informação da Unesco, “as políticas e normas sobre inteligência artificial devem dar prioridade à capacitação dos usuários e, nesta perspectiva, o letramento midiático e informacional oferece o conjunto chave de competências para a navegação em um ecossistema digital em desordem.”
Com essa iniciativa, o EducaMídia busca integrar efetivamente o letramento algorítmico e noções sobre as IAs às iniciativas existentes de educação midiática, habilitando educadores e estudantes a interagirem com tecnologias emergentes de forma crítica e informada.