Com o avanço da tecnologia, plataformas como Midjourney e DALL-E 2 tornaram-se populares por criar imagens utilizando inteligência artificial (IA). Embora essas ferramentas possam gerar imagens impressionantes, elas também podem ser usadas para disseminar informações falsas. Portanto, é crucial saber identificar imagens geradas por IA para evitar cair em fake news.
As imagens criadas por IA frequentemente apresentam falhas que podem ser usadas para identificar sua origem artificial. Anomalias como dedos faltando ou detalhes borrados são comuns. Este artigo fornece um guia detalhado para ajudar a identificar imagens falsas e evitar a disseminação de desinformação.
Quais são as marcas d’água e assinaturas em imagens de IA?
Uma das primeiras etapas para identificar imagens criadas por IA é procurar por marcas d’água. Por exemplo, o DALL-E 2 insere uma barra colorida no canto inferior direito de suas criações. Embora discreta, essa marca pode confirmar que a imagem foi gerada por IA. No entanto, é importante lembrar que marcas d’água podem ser removidas com ferramentas de edição, portanto, a ausência delas não garante a autenticidade da imagem.
Além disso, em ilustrações, é útil procurar por assinaturas nos cantos da imagem. As IAs, ao utilizar trabalhos de artistas como base, podem não remover as marcas originais, evidenciando o plágio. Um exemplo disso ocorreu com o aplicativo Lensa, que gerou avatares 3D contendo resquícios das assinaturas dos artistas originais.
Como as proporções corporais podem indicar uma imagem falsa?
Imagens geradas por IA podem parecer realistas, mas frequentemente apresentam deformidades em silhuetas corporais. Isso ocorre porque a IA não possui compreensão de detalhes como espaçamento e proporcionalidade. Assim, é comum que as imagens mostrem pessoas com mãos de tamanhos diferentes ou partes do corpo distorcidas. Ao encontrar fotos de pessoas famosas, é importante verificar se suas silhuetas estão proporcionais antes de compartilhar.
Quais são os erros comuns em imagens geradas por IA?
Plataformas como Midjourney frequentemente cometem erros em pequenos detalhes que podem indicar a falsidade de uma imagem. Exemplos incluem pares de brincos diferentes ou rostos borrados. Esses erros podem ser mais evidentes em ilustrações, onde partes da imagem podem parecer borradas. Para identificar essas imperfeições, é útil dar zoom na imagem e procurar por pistas de inautenticidade.
Como usar a busca reversa para verificar a origem de uma imagem?
O Google Imagens oferece um recurso de busca reversa que permite carregar uma foto para encontrar onde ela já foi publicada. Essa ferramenta é eficaz para verificar se uma imagem é real ou falsa. Se a foto for original, a busca pode apontar para uma fonte confiável que explique seu contexto e data. Caso seja falsa, a pesquisa pode indicar uma publicação de uma agência de checagem de fatos, explicando como a imagem foi criada.
Por que desconfiar de imagens com pessoas “perfeitas” demais?
Pessoas reais possuem imperfeições naturais, como textura de pele e dentes irregulares. Se uma imagem mostra alguém com pele excessivamente lisa e traços harmoniosos, é provável que tenha sido criada por IA. Essa tecnologia é projetada para gerar imagens agradáveis, resultando em pessoas “perfeitas” demais para serem reais.
Como o plano de fundo pode revelar a autenticidade de uma imagem?
O plano de fundo de uma imagem pode ser um indicador significativo de sua autenticidade. Ferramentas como DALL-E 2 e MidJourney podem não dar a devida atenção aos planos de fundo, resultando em borrões, formas distorcidas ou objetos duplicados. Identificar essas imperfeições pode ser um forte indicativo de que a imagem foi criada por IA.