O modelo mais recente da Deepseek, a empresa de IA chinesa que abalou o Vale do Silício e a Wall Street, pode ser manipulada para produzir conteúdo prejudicial, como planos para um ataque biológico e uma campanha para promover a auto-mutilação entre os adolescentes, de acordo com o Wall Street Journal .
Sam Rubin, vice -presidente sênior da Inteligência de Ameaças e Inteligência de Ameaças da Palo Alto, Unidade 42 da Divisão de Resposta a Incidentes, disse ao Journal que Deepseek é “mais vulnerável a jailbreaking [i.e., being manipulated to produce illicit or dangerous content] do que outros modelos. ”
A revista também testou o próprio modelo R1 da Deepseek. Embora pareça haver salvaguardas básicas, o Journal disse que convenceu a Deepseek a projetar uma campanha de mídia social que, nas palavras do chatbot, “prende o desejo de pertencer aos adolescentes, armas de vulnerabilidade emocional através da amplificação algorítmica”.
O chatbot também estava convencido de fornecer instruções para um ataque da Bioweapon, a escrever um manifesto pró-hitler e escrever um email de phishing com código de malware. O diário disse que, quando o ChatGPT recebeu exatamente os mesmos instruções, ele se recusou a cumprir.
Foi relatado anteriormente que o aplicativo Deepseek evita tópicos como a Tianamen Square ou a Autonomia de Taiwan. E o Anthropic CEO Dario Amodei disse recentemente que a Deepseek teve “o pior” em um teste de segurança da Bioweapons.