A Meta corrigiu uma falha de segurança grave no seu sistema de Inteligência Artificial (IA), que permitia aceder a conversas privadas mantidas entre utilizadores e o chatbot Meta AI. A vulnerabilidade possibilitava visualizar mensagens de terceiros, bem como as respostas geradas automaticamente pela ferramenta, incluindo conteúdos em texto e imagem.
De acordo com a agência Europa Press, o problema estava relacionado com o mecanismo que permite aos utilizadores editarem mensagens anteriores dentro das conversas com o chatbot. Este sistema de edição assenta na atribuição de um identificador único a cada mensagem e respetiva resposta gerada pela IA.
Investigadores descobriram que era possível capturar este identificador através da análise do tráfego de rede. Ao substituir esse identificador por outro, era possível obter mensagens e respostas associadas a conversas alheias, violando a confidencialidade dos dados e comprometendo a privacidade dos utilizadores.
A falha residia no facto de os servidores da Meta não validarem se o utilizador que submetia o pedido estava autorizado a aceder ao identificador em causa. Este erro de verificação permitia o acesso a conteúdos de outros utilizadores, o que contraria as políticas de segurança e privacidade da empresa.
A Meta já lançou uma atualização para resolver a vulnerabilidade e assegura que os sistemas foram reforçados para evitar que situações semelhantes ocorram no futuro. Até ao momento, a empresa não confirmou se houve acesso indevido massivo ou fuga de dados, mas garantiu estar a investigar o impacto total da falha.
Especialistas em cibersegurança alertam para a necessidade de maior escrutínio e transparência por parte das grandes tecnológicas, sobretudo no desenvolvimento de ferramentas com base em IA, que lidam com volumes crescentes de informação sensível.
A Meta encontra-se sob crescente pressão para garantir a proteção dos dados dos seus utilizadores, sobretudo numa altura em que aposta fortemente na integração da IA nas suas plataformas.