- A IA pode ser manipulada por diferenças no canal alfa das imagens, alertam especialistas
- Isso pode representar riscos para diagnósticos médicos e direção autônoma
- O reconhecimento de imagem precisa se adaptar à possibilidade deste ataque
Embora a IA tenha a capacidade de analisar imagens, novas pesquisas revelaram uma supervisão significativa nas plataformas modernas de reconhecimento de imagens.
Pesquisadores da Universidade do Texas em San Antonio (UTSA) alegaram que o canal alfa, que controla a transparência da imagem, é frequentemente ignorado, o que poderia abrir a porta para ataques cibernéticos com consequências potencialmente perigosas para as indústrias de condução multimídia e autônoma.
A equipe de pesquisa da UTSA, liderada pelo professor assistente Guenevere Chen, desenvolveu um método de ataque proprietário chamado “AlphaDog” para explorar esta vulnerabilidade negligenciada em sistemas de IA. O canal alfa, uma parte dos dados de imagem RGBA (vermelho, verde, azul, alfa), controla a transparência das imagens e desempenha um papel crucial na renderização de imagens compostas, e pode causar uma desconexão entre como os humanos e os sistemas de IA percebem a mesma imagem. .
Vulnerabilidade para carros, imagens médicas e reconhecimento facial
O ataque AlphaDog foi projetado para atingir sistemas humanos e de IA, embora de maneiras diferentes. Para os humanos, as imagens manipuladas podem parecer relativamente normais. No entanto, quando processadas por sistemas de IA, estas imagens são interpretadas de forma diferente, levando a conclusões ou decisões incorretas.
Os pesquisadores geraram 6.500 imagens e as testaram em 100 modelos de IA, incluindo 80 sistemas de código aberto e 20 plataformas de IA baseadas em nuvem, como ChatGPT. Seus testes revelaram que o AlphaDog tem um desempenho particularmente bom ao atingir regiões de imagens em tons de cinza.
Uma das descobertas mais alarmantes do estudo é a vulnerabilidade dos sistemas de IA utilizados em veículos autônomos. Os sinais de trânsito, muitas vezes contendo elementos em tons de cinza, podem ser facilmente manipulados usando a técnica AlphaDog, interpretando mal os sinais de trânsito, levando potencialmente a resultados perigosos.
A investigação também destaca uma questão crítica na imagiologia médica, uma área cada vez mais dependente da IA para diagnósticos. Raios X, ressonâncias magnéticas e tomografias computadorizadas, que geralmente contêm imagens em tons de cinza, podem ser manipuladas usando o AlphaDog. Nas mãos erradas, esta vulnerabilidade pode levar a diagnósticos errados.
Outra área de preocupação é a potencial manipulação dos sistemas de reconhecimento facial, aumentando a possibilidade de os sistemas de segurança serem contornados ou de identificação incorreta de indivíduos, abrindo a porta tanto para preocupações de privacidade como para riscos de segurança.
Os investigadores estão a colaborar com grandes empresas tecnológicas, incluindo Google, Amazon e Microsoft, para resolver a vulnerabilidade nas plataformas de IA. “A IA é criada por humanos, e as pessoas que escreveram o código focaram em RGB, mas deixaram o canal alfa de fora. Em outras palavras, eles escreveram código para modelos de IA lerem arquivos de imagem sem o canal alfa”, disse Chen.
“Essa é a vulnerabilidade. A exclusão do canal alfa nessas plataformas leva ao envenenamento de dados… A IA é importante. Ela está mudando nosso mundo e temos muitas preocupações”, acrescentou Chen.
Através TechXplore