- Microsoft descobre que Whisper Leak mostra falhas de privacidade em sistemas criptografados de IA
- Bate-papos criptografados com IA ainda podem vazar pistas sobre o que os usuários discutem
- Os invasores podem rastrear tópicos de conversa usando o tamanho e o tempo do pacote
A Microsoft revelou um novo tipo de ataque cibernético chamado “Whisper Leak”, que é capaz de expor os tópicos que os usuários discutem com chatbots de IA, mesmo quando as conversas são totalmente criptografadas.
A pesquisa da empresa sugere que os invasores podem estudar o tamanho e o tempo dos pacotes criptografados trocados entre um usuário e um grande modelo de linguagem para inferir o que está sendo discutido.
“Se uma agência governamental ou provedor de serviços de Internet estivesse monitorando o tráfego para um chatbot de IA popular, eles poderiam identificar com segurança os usuários que fazem perguntas sobre tópicos delicados específicos”, disse a Microsoft.
Ataques de vazamento de sussurro
Isso significa que “criptografado” não significa necessariamente invisível – a vulnerabilidade está na forma como os LLMs enviam respostas.
Esses modelos não esperam por uma resposta completa, mas transmitem dados de forma incremental, criando pequenos padrões que os invasores podem analisar.
Com o tempo, à medida que coletam mais amostras, esses padrões tornam-se mais claros, permitindo suposições mais precisas sobre a natureza das conversas.
Esta técnica não descriptografa mensagens diretamente, mas expõe metadados suficientes para fazer inferências fundamentadas, o que é indiscutivelmente igualmente preocupante.
Após a divulgação da Microsoft, OpenAI, Mistral e xAI disseram que agiram rapidamente para implantar mitigações.
Uma solução adiciona uma “sequência aleatória de texto de comprimento variável” a cada resposta, interrompendo a consistência dos tamanhos de token em que os invasores confiam.
No entanto, a Microsoft aconselha os usuários a evitar discussões delicadas em Wi-Fi público, usando uma VPN ou optando por modelos de LLMs sem streaming.
As descobertas acompanham novos testes que mostram que vários LLMs abertos permanecem vulneráveis à manipulação, especialmente durante conversas multivoltas.
Pesquisadores da Cisco AI Defense descobriram que até mesmo modelos construídos por grandes empresas enfrentam dificuldades para manter os controles de segurança quando o diálogo se torna complexo.
Alguns modelos, disseram eles, apresentavam “uma incapacidade sistêmica… de manter barreiras de segurança em interações prolongadas”.
Em 2024, surgiram relatos de que um chatbot de IA vazou mais de 300.000 arquivos contendo informações de identificação pessoal, e centenas de servidores LLM ficaram expostos, levantando questões sobre o quão seguras são as plataformas de chat de IA.
As defesas tradicionais, como software antivírus ou proteção de firewall, não conseguem detectar ou bloquear vazamentos de canal lateral como o Whisper Leak, e essas descobertas mostram que as ferramentas de IA podem ampliar involuntariamente a exposição à vigilância e à inferência de dados.

A melhor proteção contra roubo de identidade para todos os orçamentos
Siga o TechRadar no Google Notícias e adicione-nos como fonte preferencial para receber notícias, análises e opiniões de especialistas em seus feeds. Certifique-se de clicar no botão Seguir!
E é claro que você também pode siga o TechRadar no TikTok para notícias, análises, unboxings em formato de vídeo e receba atualizações regulares nossas em WhatsApp também.









