662
As autoridades americanas investigam uma tentativa de burla envolvendo o uso de inteligência artificial (IA) para simular a voz do secretário de Estado dos EUA, Marco Rubio. O objectivo, segundo as autoridades, era enganar altas figuras governamentais para obter dados sensíveis ou acesso a contas protegidas.
De acordo com uma informação interna citada pelo Washigton Post, datada de 3 de Julho, o burlador ou grupo de burladores contactou três ministros das Relações Exteriores, um governador e um membro do Congresso dos EUA, enviando-lhes mensagens de voz e texto que imitavam a voz e o estilo de escrita de Marco Rubio, usando um software com inteligência artificial.
O autor da fraude usou o aplicativo Signal para estabelecer a comunicação com as vítimas, numa “operação” que teria iniciado em Junho último. Nesse mês, o autor da fraude criou uma conta falsa no Signal com o nome “marco.rubio@state.gov”, através da qual passou a abordar autoridades por meio de áudios e mensagens.
Segundo a CNBC, o falso Marco Rubio enviou uma mensagem de texto para pelo menos uma das vítimas, solicitando-o para conversar no Signal, e enviou mensagens de voz do Signal para pelo menos dois outros.
Embora alguns meios de comunicação se refiram ao autor no singular, ainda não há clareza sobre quem ou quantas pessoas estão envolvidas no caso, nem os resultados obtidos. A conclusão prévia, para já, é que o alcance desta tentativa de fraude reforça as preocupações sobre a segurança das comunicações e põe em causa a fiabilidade nos sistemas baseados em voz.
Contudo, este não é um caso isolado. Em Maio último, por exemplo, as autoridades norte-americanas reportaram estar em curso investigações para determinar o autor que se fazia passar pela chefe de gabinete do Presidente Donald Trump, Susie Wiles.
Na altura, foi revelado que o impostor invadiu o telemóvel da vítima e enviou mensagens a autoridades eleitas, executivos empresariais e outras figuras proeminentes, em nome de Susie Wiles.
De acordo com o The New York Times, o episódio que envolve Marco Rubio gerou nos EUA um debate sobre a partilha de informações potencialmente confidenciais por via de aplicativos de mensagens como o Signal. O caso também revela que autoridades americanas podem ter desrespeitado as regras que determinam a retenção de registos, visto que um chat do Signal pode ser configurado para excluir mensagens automaticamente após um período específico, finaliza o diário.
Como se proteger de deepfakes?
Deepvoices ou deepfakes de voz são formas de engenharia social baseadas em IA que permitem imitar ou clonar a voz de uma pessoa de forma realista, a partir de amostras de áudio da voz original. Há também a versão em vídeos, que permite criar vídeos falsos altamente realistas em que o rosto, os gestos ou até a voz de uma pessoa são manipulados ou substituídos por outra.
Pela sua complexidade e novidade, a protecção contra deepfakes, especialmente os de voz e vídeo, requer uma combinação de atenção, tecnologia e boas práticas digitais.
Acções como evitar publicar áudios e vídeos longos ou em boa qualidade com a sua voz ou rosto nas redes sociais, configura a privacidade das suas contas para limitar o acesso ao seu conteúdo, assim como evitar partilhar informações sensíveis por chamadas com desconhecidos, são algumas opções a considerar.
Assim, se receber uma mensagem de voz, vídeo ou chamada com conteúdo suspeito, o aconselhável é confirmar a autenticidade através doutro canal com o emissor. Numa chamada em vídeo, por exemplo, preste também máxima atenção aos pequenos atrasos labiais durante a fala, franzir o rosto, mudanças de tom ou olhares fixos, eles podem ser sinais de uma deepfake.


