📸: Ilustração criada por Mariana Ochs com MidJourney. Comando utilizado: ilustração em colagem sobre o uso consciente de tecnologias criativas de IA — como ChatGPT e MidJourney. Cores suaves, bordas irregulares, fundo claro.
Nos últimos meses, presenciamos a rápida adesão às tecnologias de criação assistidas por inteligência artificial e acessadas por linguagem natural, como o ChatGPT da OpenAI, que cria textos com estrutura gramatical e coerência interna perfeitas, e o MidJourney, da empresa de mesmo nome, que devolve imagens realistas a partir de comandos de texto. Esses são os exemplos mais conhecidos de uma leva crescente de aplicativos que disponibilizam o uso da IA para o público em geral, e que estão tomando o mercado em tempo recorde. Enquanto o Instagram levou dois anos e meio para atingir a marca de 100 milhões de usuários e o TikTok precisou de nove meses para isso, segundo dados apurados pela Reuters, o ChatGPT atingiu a marca em apenas dois meses — a adesão mais veloz na história dos aplicativos para o consumidor final.
Mas toda essa tecnologia não vem sem riscos. É importante que os usuários compreendam as implicações éticas e sociais da utilização de ferramentas de inteligência artificial, bem como seus limites, para que possam usá-las de forma consciente e cuidadosa. Isso aponta para um dos pilares da educação midiática: o uso crítico e reflexivo das tecnologias. Desse ponto de vista, identificamos alguns pontos de atenção que podem – e devem – ser alvo de ações educativas: desinformação, degradação, viés e uniformização.
Desinformação: No momento, a geração de textos por IA possui mecanismos de controle que garantem a qualidade da estrutura narrativa e gramatical, mas não a confiabilidade ou precisão das informações ali contidas. Quando há dados, por exemplo, não só as fontes não são citadas, como os dados podem, por admissão do próprio robô, ser totalmente “hipotéticos”. Isso pode auxiliar na disseminação de informações falsas, parciais ou tendenciosas. Por outro lado, a própria linguagem gerada pelo chatbot, por ser correta e bem estruturada, acaba gerando no usuário uma falsa sensação de autoridade. A pesquisadora do MIT Patty Maes comparou o Chat GPT a um papagaio, que sabe reproduzir estruturas gramaticais coerentes, mas não sabe refletir sobre seu conteúdo ou significado, o que reforça a necessidade de educar o público para seu uso crítico. O próprio CEO da empresa que criou o ChatGPT, Sam Altman, reconheceu recentemente que a tecnologia pode passar “uma impressão enganosa de competência”.
Degradação: Um artigo recente da revista New Yorker chamou a atenção para a perda gradual de qualidade que acontece quando um algoritmo consulta uma grande quantidade de informações e busca reduzi-la às suas estruturas mais frequentes. Esse processo descarta muito da informação, retendo apenas uma aproximação do original. Essa aproximação, que está na base da tecnologia utilizada pelos robôs de IA, é comparável à perda de definição de uma imagem reproduzida na fotocopiadora: imperceptível à primeira vista, mas que vai se agravando à medida que reproduzimos novamente as imagens já degradadas. Quando os textos já simplificados voltam para as bases de dados que “treinam” as IAs, a perda de detalhe e qualidade aumenta ainda mais.
Viés: Outra forma de causar a degradação da base de dados ou imagens é alimentar o sistema com imagens ou textos enviesados. Um exemplo são os textos jornalísticos que associam diretamente favelas à violência, ou imagens com conotação racista ou misógina. Isso tende a reforçar clichês, estereótipos ou preconceitos presentes na base de dados, afetando negativamente a qualidade e a diversidade dos conteúdos gerados. Ausências, viés e recortes são nuances que escapam à análise dos algoritmos, e temos muito que avançar ainda nesse sentido.
Uniformização: O ChatGTP entrega textos habilmente construídos do ponto de vista gramatical e segundo a norma padrão, mas conseguir nuances estilísticas e criativas depende sobretudo de um manejo mais hábil dos comandos. O mesmo acontece com o MidJourney: o uso repetido dos mesmos bancos de imagens e a frequência de imagens de determinados estilos nessas bases acaba gerando uma uniformização dos resultados e uma repetição de clichês visuais. Nos dois ambientes, a qualidade e originalidade dos resultados dependerá sempre da habilidade dos usuários em gerar perguntas e comandos melhores, o que por sua vez requer conhecimento sobre o tema e bagagem estética.
Em suma, quando se trata de inovações com potencial disruptivo e grande impacto na sociedade, é essencial que as empresas responsáveis sejam claras quanto aos limites dessas tecnologias e que se empenhem desde os estágios iniciais do desenvolvimento, junto com os diversos setores da sociedade, em mitigar os possíveis efeitos negativos. A nós, educadores e educadoras, cabe preparar as atuais e futuras gerações de usuários para o uso consciente, criativo e ético dessa ou de qualquer outra tecnologia.
Nota: o primeiro parágrafo deste texto foi elaborado com a ajuda do Chat GPT e trazia alguns dados que tivemos que checar e corrigir. Ao ser perguntado sobre a fonte dos dados, o robô respondeu o seguinte: “Peço desculpas, mas como uma IA, eu não tenho acesso direto a fontes de dados em tempo real. Os dados apresentados foram usados apenas como exemplos hipotéticos para ilustrar a resposta à pergunta.”