?>

Curtas

O começo do fim da realidade

O começo do fim da realidade

Comunicação e Mídia por RED
20/12/2024 17:00 • Atualizado em 20/12/2024 19:17
O começo do fim da realidade

Por HERTON ESCOBAR*

Se você curte imagens de gatinhos, passarinhos e outros bichinhos fofinhos nas redes sociais, deve ter visto um vídeo que viralizou recentemente no Instagram (e possivelmente em outras plataformas), de uma mamãe papagaio fazendo uma “cabaninha” com as asas para proteger seus filhotes da chuva. Coisa mais linda desse mundo! O vídeo foi replicado amplamente e recebeu milhões de visualizações em vários perfis da plataforma. “O amor de uma mãe não tem limites”, diz a legenda de uma das postagens.

Só tem um problema: o vídeo é uma mentira, criada 100% por inteligência artificial (IA) e totalmente desconectada da realidade. A mamãe papagaio é de uma espécie que não existe, os filhotes são de algum tipo de gavião que provavelmente não existe, também, e o ninho parece ser de um beija-flor (não de papagaio nem de gavião). Aliás, papagaios não constroem ninhos; eles nidificam em ocos de árvores e outras cavidades naturais. E essa postura de proteger os filhotes da chuva com as asas não existe na natureza, segundo o especialista Luís Fábio Silveira, curador de ornitologia do Museu de Zoologia da USP, com quem conversei antes de escrever esse texto. “Tá tudo errado nessa porcaria”, resumiu ele.

Seria menos mal se a imagem estivesse claramente identificada como IA. Algumas postagens até tinham uma notinha de rodapé, mas a maioria, não. (O Instagram tem um botão que permite adicionar um “rótulo de IA” na hora de postar; mas é algo muito discreto, e não é obrigatório.) Aposto que a maioria das pessoas que viram esse vídeo achou que ele era verdadeiro.

“Mas e daí? É só uma imagem fofinha que vai alegrar o dia das pessoas. Que mal isso pode causar?” Se fosse apenas esse vídeo, tudo bem. O problema é que esse é apenas um entre milhões de vídeos, fotos, áudios, textos e outros conteúdos falsos que estão inundando as redes sociais em uma escala cada vez maior e com uma qualidade cada vez melhor — ou seja, cada vez mais difíceis de serem identificados como falsos. O meu Instagram está repleto deles, incluindo dezenas de variações desse vídeo da mamãe papagaio protegendo os filhotes da chuva, além de muitos vídeos de monstros marinhos que não existem, de polvos e peixes gigantes que não existem, de filhotes de urso polar subindo a bordo de embarcações para abraçar as pessoas como se fossem cachorros, de robôs humanoides fazendo coisas impressionantes que ainda não são capazes de fazer, e por aí vai.

Um vídeo postado recentemente por um perfil de ativismo contra a poluição plástica mostra um pinguim com um anel plástico enroscado no pescoço sendo resgatado por um moço sorridente, que se aproxima dele com um peixe na mão e retira o anel. A cena termina com o pinguim pulando de alegria e acenando para as câmeras ao lado do homem como se estivesse num show de circo. Bonitinho, mas mentiroso. Não há qualquer aviso na imagem ou na legenda de que se trata de um vídeo gerado por IA. O problema da poluição plástica é real, e gravíssimo (como descrevo neste podcast), mas o comportamento do pinguim é totalmente irreal. Vários usuários criticaram o uso não identificado da IA na postagem, mas o perfil rebateu dizendo que os fins justificam os meios, porque o objetivo é chamar atenção para o impacto dos plásticos na biodiversidade.

Eu discordo. No médio e longo prazo, o uso de imagens falsas para tratar de problemas reais pode ser um tiro pela culatra, à medida que vai dessensibilizar as pessoas para a real natureza do problema que se deseja enfrentar. Depois de ver milhares de vídeos fofinhos de animais sendo resgatados ou fazendo coisas incríveis nas redes sociais, será que as pessoas ainda vão se sensibilizar com imagens do mundo real, que tendem a ser menos espetaculares do que aquelas produzidas por IA? Pior ainda: será que as pessoas vão acreditar nas imagens reais? Afinal de contas, se todas aquelas outras imagens foram criadas por IA, quem garante que essa também não foi? A realidade vai parecer tão sem graça, comparada ao que se vê nas redes sociais, que ninguém mais se interessar com ela.

O ponto crítico é que a linha que separa a realidade da ficção no mundo digital está sendo completamente borrada pela IA. Já escrevi sobre isso aqui antes, mas a velocidade com que essas tecnologias estão avançando e se popularizando é realmente assustadora. Estamos próximos — se é que já não chegamos lá — de um ponto em que vai se tornar quase impossível saber se uma imagem é real ou não. Tão perigoso quanto acreditar em mentiras é deixar de acreditar na verdade. Se o papagaio daquele vídeo não existe, quem garante que aquela imagem da Amazônia em chamas também não é falsa? Quem garante que aquela geleira está realmente derretendo? Que aquele político realmente pegou aquela mala de dinheiro? E por aí vai. Nesse novo estado de esquizofrenia digital coletiva, toda e qualquer realidade de torna questionável.

Isso abre brechas enormes para a propagação de mentiras e teorias conspiratórias; e é claro que muita gente vai se aproveitar dessa confusão. Quando Kamala Harris se lançou candidata à presidência nos Estados Unidos e começou a atrair multidões para os seus comícios, por exemplo, Donald Trump alegou que as imagens dos eventos eram geradas por IA. Lógico que era mentira, mas muita gente acreditou. Quem garante que não?

Vou dar um outro exemplo preocupante. No início deste ano a Samsung lançou um novo modelo de IA integrado aos seus dispositivos, chamado Galaxy AI, que permite fazer uma série de coisas — entre elas, edição de imagens — com extrema facilidade. O comercial de lançamento mostra uma mãe utilizando a tecnologia para “editar” (adulterar, seria o termo mais correto) uma foto do seu filho em uma peça de teatro na escola. Ela move as duas crianças que estavam mais à frente do palco para as laterais e puxa o seu filho para o primeiro plano, deixando-o isolado como protagonista no centro da cena.

Assim como no caso dos passarinhos, tudo muito fofo e aparentemente inofensivo. Mas imagine só o seguinte: quando essas crianças da “geração IA” ficarem mais velhas e olharem para suas fotos de infância, como vão saber se aquelas imagens são reais ou não? Como vão saber o que realmente aconteceu? Em que lugar do palco elas realmente estavam? Imagine a dissonância cognitiva que vai se formar entre as memórias biológicas e as lembranças digitais adulteradas da história de vida das pessoas.

Agora imagine essas tecnologias de edição de imagem, cada vez mais sofisticadas e acessíveis, sendo usadas em larga escala para adulterar a realidade de milhões de fotos e vídeos que são publicados todos os dias nas redes sociais, que é onde a maior parte das pessoas convive e se relaciona com o mundo atualmente. Quando você olhar o perfil de alguém no Instagram, no TikTok ou seja lá onde for, como vai saber se aquelas imagens são reais? Se aquela pessoa realmente foi àqueles lugares que diz que foi e fez aquelas coisas que diz que fez? Em resumo: como vamos saber quem as pessoas realmente são? Como vamos saber o que realmente está acontecendo? O que aconteceu no passado? Se aquele bicho realmente existe? Se aquele problema é realmente tão grave quanto parece?

Podemos pensar no consumo de IA via redes sociais como equivalente ao consumo de alimentos ultraprocessados na nossa dieta: tudo bem comer um pouco de vez em quando, mas não exagere, para não prejudicar sua saúde (mental, nesse caso). O ponto fundamental é a rotulagem: as pessoas precisam saber o que estão consumindo. Não importa quão nobre seja a intenção — combater a poluição plástica ou gerar empatia pela biodiversidade —, esconder o fato de que um conteúdo foi gerado por IA é desonestidade. É uma mentira contada na forma de imagem.

*Herton Escobar é jornalista especializado em Ciência e Meio Ambiente e repórter especial do “Jornal da USP”

Publicado originalmente no Jornal da USP

Foto da capa: Imagem postada no Tik Tok

@mark_jerwin..velasco

Parrot protecting babies. Check my pinned post. 🥹🥺 #parrot #nature #raining #baby

♬ original sound – 𝙉𝙚𝙖𝙡 // 𝙀𝘿𝙄𝙏𝙕🎟️🍭 – 𝙉𝙚𝙖𝙡 // 𝙀𝘿𝙄𝙏𝙕🎟️🍭

Toque novamente para sair.