IA pode clonar sua voz sem que você possa impedir, aponta relatório

Resumo
  • A Consumer Reports, organização de defesa do consumidor dos EUA, divulgou um relatório apontando que ferramentas populares de clonagem de voz por IA não adotam medidas eficazes contra clonagem não autorizada.
  • Criminosos podem usar as ferramentas para fraudes, falsificações em contextos jurídicos e manipulação de informações.
  • A maioria das ferramentas analisadas está disponível gratuitamente.

Ferramentas conhecidas de clonagem de voz por inteligência artificial não possuem mecanismos eficazes para impedir fraudes e uso indevido. É o que aponta uma investigação da Consumer Reports, organização de defesa do consumidor, divulgada nesta segunda-feira (10/03).

Seis programas populares de clonagem de voz foram analisados: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify. Dentre eles, quatro não adotam medidas eficazes para evitar clonagem não autorizada. 

Nos testes, as ferramentas ElevenLabs, Speechify, PlayHT e Lovo exigem apenas que o usuário marque uma caixa de seleção afirmando que obteve permissão da pessoa cuja voz está sendo clonada — sem qualquer verificação adicional. 

Como as ferramentas de clonagem de voz por IA funcionam?

A tecnologia funciona a partir de uma amostra de áudio de uma pessoa falando, permitindo que o sistema reproduza digitalmente sua voz. Isso significa que qualquer pessoa pode carregar um áudio retirado de vídeos no YouTube, TikTok ou outras redes sociais, por exemplo, e replicar a voz de alguém realistamente — e sem autorização.

Entre as ferramentas analisadas pela Consumer Reports, apenas o Resemble AI impõe um obstáculo mais sério, exigindo que o usuário grave um áudio em tempo real em vez de apenas enviar um arquivo. No entanto, os testes mostraram que essa exigência pode ser facilmente burlada: bastou reproduzir uma gravação no computador para enganar o sistema.

O Descript foi o único serviço que se destacou em segurança, pois exige que o usuário grave uma declaração de consentimento específica antes da clonagem de voz. Essa medida dificulta fraudes, mas ainda pode ser contornada por criminosos que usem outra ferramenta de IA para falsificar a autorização.

Os seis serviços estão disponíveis para o público de forma gratuita. Speechify, Resemble AI e PlayHT cobram para criar clones de voz personalizados, com preços de R$ 49,50, US$ 5 (cerca de R$ 29) e US$ 19 (R$ 110) mensais, respectivamente, mas oferecem testes grátis.

Quais são os riscos da clonagem de voz por IA?

O uso indevido dessa tecnologia pode facilitar fraudes, golpes financeiros e até falsificação de áudios em contextos jurídicos. Em 2023, por exemplo, criminosos usaram clonagem de voz para enganar familiares e simular falsos sequestros e prisões, que exigiam um pagamento de fiança.

Outro risco é a possibilidade de manipulação de informações. Áudios gerados por IA podem ser usados para difamar figuras públicas, disseminar desinformação e interferir em processos eleitorais. 

Como o uso da IA pode ser mais seguro?

A Consumer Reports propõe algumas diretrizes voltadas à transparência e segurança no uso da IA. Entre as principais recomendações estão:

  • Exigir que empresas informem claramente quando um sistema de IA influencia decisões importantes, como crédito, aluguel, promoções e seguros;
  • Garantir que consumidores recebam explicações compreensíveis sobre decisões adversas e possam corrigir erros;
  • Proibir discriminação algorítmica e garantir que leis de direitos civis também se apliquem a ferramentas de IA;
  • Proibir a venda de informações pessoais coletadas por ferramentas de IA generativa;
  • Banir a identificação biométrica remota em espaços públicos, exceto em situações específicas e justificáveis;
  • Responsabilizar empresas que não adotem precauções contra o uso malicioso de IA.

Com informações de Consumer Reports e NBC News

IA pode clonar sua voz sem que você possa impedir, aponta relatório

Adicionar aos favoritos o Link permanente.