- O modelo AI Deepseek tem um desempenho ruim contra seus pares em testes de segurança
- O modelo R1 exibiu uma taxa de sucesso de ataque de 100% nos testes da Cisco
- Ai chatbots pode ser ‘jailbroken’ para executar tarefas maliciosas
A nova IA em cena, Deepseek, foi testada quanto a vulnerabilidades e as descobertas são alarmantes.
Um novo relatório da Cisco afirma que a DeepSeek R1 exibiu uma taxa de sucesso de ataque de 100% e não conseguiu bloquear um único prompt prejudicial.
A Deepseek assumiu o mundo pela tempestade como um chatbot de alto desempenho, desenvolvido por uma fração do preço de seus rivais, mas o modelo já sofreu uma violação de segurança, com mais de um milhão de registros e bancos de dados críticos deixados expostos. Aqui está tudo o que você precisa saber sobre as falhas do modelo de grande idioma Deepseek R1 nos testes da Cisco.
Prompts prejudiciais
Os testes da Cisco usaram 50 instruções aleatórias do conjunto de dados do Harmbench, cobrindo seis categorias de comportamentos prejudiciais; Desinformação, cibercrime, atividades ilegais, instruções químicas e biológicas, desinformação/desinformação e danos gerais.
O uso de instruções prejudiciais para contornar as diretrizes e as políticas de uso de um modelo de IA também é conhecido como ‘Jailbreaking’, e até escrevemos conselhos sobre como isso pode ser feito. Como a AI Chatbots é projetada especificamente para ser o mais útil possível para o usuário – é notavelmente fácil de fazer.
O modelo R1 não conseguiu bloquear um único prompt prejudicial, que demonstra a falta de corrimãos que o modelo possui. Isso significa que o Deepseek é “altamente suscetível a car jarinos algorítmicos e uso indevido em potencial”.
Deepseek tem um desempenho inferior em comparação com outros modelos, que supostamente ofereceram pelo menos alguma resistência a avisos prejudiciais. O modelo com a menor taxa de sucesso de ataque (ASR) foi a prévia do O1, que tinha um ASR de apenas 26%.
Para comparar, o GPT 1.5 Pro teve um ASR e o LLAMA 3.1 405B em 86% tinham um ASR de 96% igualmente alarmante.
“Nossa pesquisa ressalta a necessidade urgente de avaliação de segurança rigorosa no desenvolvimento da IA para garantir que os avanços em eficiência e raciocínio não tenham o custo de segurança”, disse Cisco.
Mantendo -se seguro ao usar ai
Existem fatores que devem ser considerados se você deseja usar um AI Chatbot. Por exemplo, modelos como o ChatGPT podem ser considerados um pesadelo de privacidade, pois armazena os dados pessoais de seus usuários, e a empresa -mãe Openai nunca pediu às pessoas que seu consentimento use seus dados – e também não é possível para os usuários Verifique quais informações foram armazenadas.
Da mesma forma, a Política de Privacidade da Deepseek deixa muito a desejar, pois a empresa pode estar coletando nomes, endereços de email, todos os dados inseridos na plataforma e as informações técnicas dos dispositivos.
Modelos de idiomas grandes raspam a Internet para obter dados, é uma parte fundamental de sua maquiagem – por isso, se você se opor às suas informações usadas para treinar os modelos, a IA Chatbots provavelmente não será para você.
Para usar um chatbot com segurança, você deve ter muito cuidado com os riscos. Em primeiro lugar, sempre verifique se o chatbot é legítimo – pois os robôs maliciosos podem personificar serviços genuínos e roubar suas informações ou espalhar software prejudicial no seu dispositivo.
Em segundo lugar, você deve evitar inserir qualquer informação pessoal com um chatbot – e suspeitar de qualquer bot que peça isso. Nunca compartilhe suas informações financeiras, de saúde ou login com um chatbot – mesmo que o chatbot seja legítimo, um ataque cibernético pode levar esses dados a serem roubados – colocando você em risco de roubo de identidade ou pior.
A boa prática geral para usar qualquer aplicativo é manter uma senha forte e, se você quiser algumas dicas sobre como fazer uma, temos alguns para você aqui. Tão importante quanto manter seu software atualizado regularmente para garantir que todas as falhas de segurança sejam corrigidas o mais rápido possível e monitorar suas contas para qualquer atividade suspeita.