Pesquisadores da Universidade da Pensilvânia descobriram que uma série de sistemas robóticos aprimorados por IA são perigosamente vulneráveis a jailbreaks e hacks. Embora o jailbreak de LLMs em computadores possa ter consequências indesejáveis, o mesmo tipo de hack que afeta um robô ou veículo autônomo pode rapidamente ter consequências catastróficas e/ou mortais. Um relatório compartilhado pelo IEEE Spectrum cita exemplos assustadores de cães-robôs desbloqueados usando lança-chamas contra seus mestres humanos, guiando bombas para os locais mais devastadores e carros autônomos atropelando propositalmente pedestres.
Assistir ligado
Os especialistas da Penn Engineering apelidaram sua tecnologia de ataque de robô com tecnologia LLM de RoboPAIR. Dispositivos de três fornecedores de robótica diversos foram vítimas do jailbreak do RoboPAIR: o Dolphins LLM apoiado pela Nvidia, o Clearpath Robotics Jackal UGV e o quadrúpede Unitree Robotics Go2. De acordo com os pesquisadores, o RoboPAIR demonstrou uma taxa de sucesso de 100% no jailbreak desses dispositivos.
“Nosso trabalho mostra que, neste momento, grandes modelos de linguagem simplesmente não são seguros o suficiente quando integrados ao mundo físico”, alertou George Pappas, Professor da Fundação UPS de Transporte em Engenharia Elétrica e de Sistemas (ESE), em Ciência da Computação e Informação ( CIS), e em Engenharia Mecânica e Mecânica Aplicada (MEAM), e Reitor Associado de Pesquisa na Penn Engineering.
Outros pesquisadores citados no artigo fonte observaram que desbloquear robôs controlados por IA é “alarmantemente fácil”. Foi explicado que o RoboPAIR funciona equipado com a interface de programação de aplicativos (API) do robô alvo, para que o invasor possa formatar os prompts de forma que o dispositivo alvo possa ser executado como código.
O jailbreak de um robô, ou veículo autônomo, é feito de maneira semelhante ao jailbreak de AI Chatbots online, que discutimos anteriormente em Ferragens do Tom. No entanto, Pappas observa que “o jailbreak e o controle de robôs estão relativamente distantes e têm sido tradicionalmente estudados por diferentes comunidades” – portanto, as empresas de robótica têm demorado a aprender sobre as vulnerabilidades do jailbreak do LLM.
Em contraste com o uso de LLM em dispositivos de computação pessoal, onde a ‘IA’ é usada para gerar textos e imagens, transcrever áudio, personalizar recomendações de compras e assim por diante – os LLMs robóticos atuam no mundo físico e podem causar grandes estragos nele.
Olhando para o exemplo do cão robótico, seu amigo canino robótico pode ser transformado de um ajudante ou guia amigável em um assassino empunhando um lança-chamas, um robô de vigilância secreto ou um dispositivo que caça os locais mais perigosos para plantar explosivos. Carros autônomos podem ser igualmente perigosos, se não mais, se forem direcionados a pedestres, outros veículos ou receberem instruções para saltar de uma ponte.
Conforme descrito nos exemplos acima, os perigos potenciais do jailbreak de LLMs aumentaram para um nível totalmente novo. No entanto, descobriu-se que as IAs vão além de apenas cumprir solicitações maliciosas depois de desbloqueadas. Os pesquisadores descobriram que poderiam oferecer ativamente sugestões para maior destruição. Este é um passo considerável em relação aos primeiros sucessos do LLM em robótica, auxiliando nos comandos do robô em linguagem natural e na conscientização especial.
Então, os pesquisadores da Penn State abriram uma caixa de Pandora? Alexander Robey, pesquisador de pós-doutorado na Carnegie Mellon University em Pittsburgh, diz que embora o jailbreak de robôs controlados por IA tenha sido “alarmantemente fácil”, durante a pesquisa, a equipe de engenharia garantiu que todas as empresas de robótica mencionadas tivessem acesso às descobertas antes de se tornarem públicas. . Além disso, Robey afirma que “defesas fortes para casos de uso maliciosos só podem ser projetadas depois de primeiro identificar os ataques mais fortes possíveis”.
Por último, mas não menos importante, o artigo de investigação conclui que existe uma necessidade urgente de implementar defesas que restrinjam fisicamente os robôs controlados por LLM.