Justiça terá de aprender a lidar com provas “deepfakes”

Justiça terá de aprender a lidar com provas “deepfakes”

Depois de a Justiça enfrentar a disseminação de notícias fraudulentas (fake news) que, entre outras coisas, rendeu ao TSE um “Prêmio Innovare” por seu “Projeto de Enfrentamento à Desinformação”, os operadores do Direito terão de aprender a lidar com um problema mais complexo, por seu componente tecnológico: as provas oriundas de “deepfakes”.

Para simplificar, “deepfake” se refere a vídeos fraudulentos – e também a áudios fraudulentos. “Deepfake” é uma fusão das palavras “deep learning” (aprendizagem profunda) e “fake” (fraudulento ou falsificado).

A parte da aprendizagem profunda entra na história porque os falsificadores usam essa tecnologia, facilitada pela inteligência artificial, para trocar, por exemplo, o rosto de uma pessoa, na gravação original, pelo rosto de outra pessoa que querem prejudicar. Ou a voz de uma pessoa pela de outra.

Exemplos mais frequentes nos Estados Unidos foram citados na conferência “ABA Techshow” da American Bar Association (ABA). O mais comum é o da substituição do rosto de uma atriz pornô, em um vídeo pornográfico, pelo rosto de uma ex-namorada ou ex-mulher. Quase todos os casos se encaixam na definição de pornografia de vingança.

Outro exemplo é o da troca do rosto e da voz de políticos para prejudicá-los em campanhas eleitorais ou por qualquer outro motivo. Celebridades e empresários também são vítimas costumeiras. Mas, enfim, qualquer pessoa pode ser vítima de vídeos e áudios fraudulentos.

A produção de “deepfakes” não é novidade, porque eles já estão na praça há algum tempo. Mas, o que preocupa no momento, é que os operadores de Direito não estão preparados para distinguir o que é verdadeiro do que é fraudulento — e provar. Afinal, a manipulação das provas é muito bem feita, graças à inteligência artificial.

Uma conclusão dos participantes da conferência, intitulada “Pílula vermelha vs. pílula azul: como deepfakes estão definindo a realidade digital”, foi a de que a justiça tem “um problema enorme” pela frente.

A palestrante Sharon Nelson, da empresa de tecnologia Sensei Enterprises, disse que a maioria dos vídeos fraudulentos afetam as mulheres. Elas são vítimas de 96% dos casos, segundo um relatório da empresa Deeptrace, que está desenvolvendo ferramentais para desmascarar conteúdo fraudulento. A Universidade da Califórnia em Berkeley e a Google também estão desenvolvendo ferramentas semelhantes.

Os estados de Virgínia e Califórnia já aprovaram leis contra “deepfakes”, ela disse. “Mas é preciso fazer muito mais para impedir que as imagens das pessoas sejam usadas sem consentimento”, afirmou.

A palestrante citou dois casos em que “deepfakes” foram usados com sucesso. No Reino Unido, um executivo enviou 220 mil euros a alguém que ele pensou ser o dirigente da empresa controladora. Os fraudadores usaram um áudio fraudulento para enganá-lo.

Nos EUA, um áudio fraudulento foi usado em corte, em uma disputa por guarda dos filhos. No áudio, o pai fazia ameaças à mãe. Ela havia manipulado o áudio, usando um aplicativo barato. Isso mostrou que não é preciso ser um nerd da informática para manipular áudios.

Redação com Conjur

Sobre o Autor

Talvez você também goste

Destaques 0 Comentários

GILMAR MENDES DIZ QUE COLEGAS, EM CERTOS CASOS, DECIDEM DE ACORDO COM AS RUAS

Após ser vaiado em um voo comercial e ter solicitado a presença da policia federal para sua segurança Gilmar Mendes um dos ministros do supremo tribunal federal em entrevista a

Notícias

Alexandre de Moraes proíbe Sara Winter de ir ao aniversário do filho

Sara Winter foi proibida pelo ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, de ir à festa de aniversário do próprio filho, Hector, que completa 5 anos no próximo

Notícias 0 Comentários

EFEITO BOLSONARO: POLICIAL FEDERAL SE FILIA AO PSL EM MT

O Policial Federal, Rafael Ranalli se filiou na tarde desta terça-feira (9), ao Partido Social Liberal (PSL), em Cuiabá. Seguidor de Jair Bolsonaro, Ranalli é pré-candidato a Deputado Federal por