Imagem de carregamento
— Planos de aula

EM+IA: Dados e viés – quando as IAs são excludentes (EM)

Objetivo: reconhecer a possibilidade de viés nos dados que alimentam as inteligências artificiais, e como isso impacta a sociedade.

Eixo EducaMídia

Ler Participar

  • Habilidades midiáticas
  • - Letramento da informação
  • - Cidadania digital
  • Segmento Ensino Médio
  • Duração sugerida45 min

Objetivos

Algoritmos precisam ser constantemente ajustados para evitar que produzam resultados excludentes ou previsões inadequadas, e com a chegada das IAs que geram texto ou imagens, esse problema é ainda maior. Apesar das IAs aprenderem com uma grande quantidade de dados, estes não são necessariamente representativos. Na verdade, muitas vezes eles são tendenciosos: algumas culturas, estilos de vida, idiomas, grupos de pessoas ou comportamentos podem estar sub representados, outros desproporcionalmente representados. Isso pode levar à cristalização de certos estereótipos ou a ausências importantes, gerando discriminação social. Nesta atividade, vamos examinar como isso acontece. 

Roteiro de aula

  1. Utilize o nosso Glossário Anotado EducaMídia+IA para explorar a definição de algoritmo. Proponha a seguinte pergunta: o software é neutro? Ou os algoritmos podem embutir valores?
  2.  Peça que os alunos façam pesquisas de imagens na internet utilizando os termos “cabelo feio” e “cabelo bonito”. Compare os resultados. O que apareceu? Por que? Como eles se sentiram com esses resultados? Como outras pessoas se sentiriam?
  3. Mostre o vídeo do UOL: Como os algoritmos espalham racismo e desigualdade de gênero (a partir de 3m22s) e solicite reflexões.
  4. Peça que os alunos leiam o texto introdutório que consta no roteiro da aula e a seguir distribua os exemplos entre grupos para 10 min de discussão. Passeie entre os grupos, orientando a  conversa a partir das notas para o professor.
  5. Peça aos grupos que exponham para a turma seus exemplos e algumas das reflexões que fizeram.
  6. Reflexão final: como podemos identificar vieses e garantir que a tecnologia não viole direitos?

Para explorar mais

CNN Brasil – Entre Vozes #01: Preconceito programado? Como operam os algoritmos (podcast)

UOL – Como os algoritmos espalham racismo e desigualdade de gênero (vídeo)

Portal Geledés – “Racismo algorítmico”: pesquisador mostra como os algoritmos podem discriminar (artigo)

LIS (The London Interdisciplinary School) – How AI Image Generators Make Bias Worse (video)

Vox – Why algorithms can be racist and sexist (artigo – usar o Google tradutor se necessário)

FAÇA
PAR—
TE

Venha para nossa rede de educação midiática!
Fique por dentro das novidades

Receba gratuitamente nossa newsletter

Siga nossas redes sociais

Que tal usar nossa hashtag?

#educamidia

Utilizamos cookies essenciais para proporcionar uma melhor experiência. Ao continuar navegando, você concorda com a nossa Política de privacidade.

Política de privacidade