close

Imagem gerada por IA pode trazer ameaças 

Embora pareça inofensiva, tecnologia pode aumentar os riscos de privacidade e segurança quando usada de maneira indevida

imagem ia © - Shutterstock
por Redação fevereiro 1, 2024

As imagens criadas com a ajuda da inteligência artificial tornaram-se cada vez mais populares em vários setores, incluindo publicidade, banco de imagens e realidade virtual. A tecnologia avança principalmente pela facilidade, uma vez que os recursos mais básicos geram uma imagem a partir de texto digitado pelo usuário.

A criação pode ser divertida, mas não é necessariamente inofensiva. Nas Filipinas, por exemplo, o sinal de alerta foi dado pelo Ministério da Defesa, proibindo os profissionais das áreas de segurança de usarem os recursos de IA para criar uma imagem.

De acordo com o site Philstar Global, o processo de geração de imagem pode ser um pouco mais sofisticado – e ainda mais perigoso – pois pede que os usuários enviem pelo menos dez fotos para gerar um retrato aprimorado, o que aumentaria os riscos de privacidade e segurança. Nesse caso, o gerador de imagens de IA compila os dados dos usuários e cria uma “pessoa digital que imita como um indivíduo real fala e se move”.

Ameaças de imagem criada por IA

© – Shutterstock

Os perigos incluem a criação de perfis falsos, que podem levar a “roubo de identidade, engenharia social, ataques de phishing e outras atividades maliciosas”, na avaliação do Ministério da Defesa filipino.

Ainda mais ameaçador é o uso de geração de imagens de IA para retratar abuso infantil, como atesta um relatório recente da universidade de Stanford. As informações são do site AP News, cuja reportagem destaca que “escondidas nas bases dos populares geradores de imagens de inteligência artificial estão milhares de imagens de abuso sexual infantil”.

Por incrível que pareça, uma possível forma de evitar a manipulação de imagens geradas por IA é justamente usar a própria IA como fonte de proteção. É que o propõe o PhotoGuard, uma tecnologia desenvolvida por especialistas do MIT. 

Desenvolvido por pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL), o recurso usa alterações minúsculas em valores de pixels invisíveis ao olho humano, mas detectáveis ​​por modelos de computador e que, efetivamente, atrapalham a capacidade de manipulação da imagem por IA.




Os assuntos mais relevantes diretamente no seu e-mail

Inscreva-se na nossa newsletter