Deep fakes são uma ameaça crescente e ainda falta resposta legal adequada (2024)

Imagine encontrar na Internet uma foto sua, na qual aparece sem roupa, que tem a certeza de não ter tirado. Parece algo saído de um filme de ficção científica, mas foi algo que aconteceu a mais de 20 adolescentes em pelo menos cinco escolas secundárias de Almendralejo, em Badajoz, este mês de Setembro. Algumas depararam-se, elas próprias, com fotos da sua cara em corpos nus falsos. Outras foram confrontadas por colegas. “Vi uma foto tua nua”, terá dito um rapaz a uma jovem de 14 anos que falou ao El País.

A influencer norte-americana Gabi Belle confessou ao Washington Post ter ficado “enojada” ao encontrar uma nude sua na Internet. Quando tentou, com a ajuda de colegas, que esta fosse eliminada, descobriu que havia cerca de cem outras a circular.

Estas imagens (e vídeos) altamente manipuladas chamam-se deep fakes (se tentarmos traduzir para português, será algo como “hiperfalsificação”). São conteúdos gerados por inteligência artificial (IA) para retratar algo que não existe ou nunca aconteceu. O fenómeno não é novo, mas, com a evolução da tecnologia, as fotos, vídeos e áudios estão a tornar-se cada vez mais reais. A facilidade de acesso a aplicações de criação e manipulação de imagens também nunca foi tão grande.

A legislação portuguesa ainda não contempla directamente a questão das deep fakes. Mas, como esclarece Ana Raquel Conceição, professora da Escola de Direito da Universidade do Minho (EDUM), o enquadramento legal actual consegue dar resposta nestes casos.

“Que eu tenha conhecimento até ao momento, creio que não [houve alterações da legislação em Portugal para tratar esta questão]. As incriminações que já temos, apesar de não serem exactamente para esta actividade, conseguem proteger os valores que esta viola”, diz, explicando que o futuro pode obrigar a uma mudança mais radical em termos de código penal. “Se calhar, a evolução disto também vai obrigar a uma adaptação das incriminações.”

Segundo afirmou à Euronews, Manuel Cancio, professor de Direito Penal na Universidade Autónoma de Madrid, na Europa, apenas nos Países Baixos há um código penal que aborda esta questão. Nos Estados Unidos, refere o Washington Post, a lei federal ainda não dá resposta, por exemplo, à p*rnografia gerada com recurso a deep fakes. Uma ordem executiva emitida por Joe Biden a 30 de Outubro aconselha as empresas a explicitarem se uma imagem, vídeo ou áudio foi criada com IA, mas não é vinculativa.

Segundo um estudo feito em 2019 pela Sensity AI, uma empresa de controlo de deep fakes, mencionado pelo mesmo jornal norte-americano, 96% destas imagens são utilizadas para p*rnografia e 99% retratam mulheres.

Usando como exemplo o caso das adolescentes de Badajoz, a professora da EDUM explica que, se o caso se passasse em Portugal, podiam estar em causa várias tipologias de crimes. “Falsidade informática, porque, em bom rigor, está-se a utilizar dados informáticos através da imagem que não correspondem à realidade. Poderá estar aqui também a ser praticado o crime de gravações ou fotografias ilícitas, porque também é ilícito utilizar a fotografia ou gravação que foi fornecida com consentimento, mas para um fim diferente daquele que foi atribuído”, explica Ana Raquel Conceição.

Acrescenta que também pode haver crimes de “difamação agravada com publicidade e calúnia”, porque as imagens foram usadas para ofender a vítima, ou crimes sexuais, se as deep fakes forem utilizadas com propósito de aliciamento sexual.

“Como são crimes contra as pessoas, não se pode falar em crimes continuados”, o que significa que, na prática, cada adolescente que teve uma foto “sua” a circular na Internet corresponde a um caso. O seu número vai multiplicar-se pelo número de crimes praticados em cada caso.

Quando os conteúdos de natureza sexual manipulados incluem menores, esclareceu o Centro Nacional de Cibersegurança (CNCS) e a Linha Internet Segura da APAV ao PÚBLICO, está-se perante o crime de p*rnografia de menores, já que o artigo 176.º do Código Penal prevê “materiais reais ou simulados de menores”. Como é um crime público, pode ser denunciado a qualquer órgão de polícia criminal.

A facilidade de acesso a aplicações e programas que permitem a criação de deep fakes reduz a probabilidade de se proibir estas ferramentas. “Acho difícil que isso possa vir a acontecer, sinceramente, por força dessa facilidade que existe na sua utilização. Como é que a lei penal vai incriminar um comportamento, [já] que qualquer utilizador pode ter esse instrumento para o praticar? Até no nosso telemóvel podemos perfeitamente tirar uma fotografia e fazer estas manipulações. É difícil a lei penal incriminar este comportamento por força de estar disponível a toda a gente.”

“E se fizerem uma deep fake minha? Como posso evitar?”

Para reduzir a probabilidade de se ser vítima de deep fakes, a Linha Internet Segura e o CNCS aconselham os utilizadores a “tornar os perfis nas redes sociais privados e fazer uma revisão das definições de privacidade e segurança”. Também aconselha a que se removam todos os perfis desconhecidos da rede.

Caso se seja vítima, importa “guardar informações, conteúdos e outros dados que possam identificar o possível autor e que sejam meio de prova”. Também não se deve “efectuar qualquer pagamento” e é aconselhável que se cesse “de imediato a comunicação com o agressor” sem dar informação adicional. As vítimas devem “contactar a Linha Internet Segura (800 219 090 ou linhainternetsegura@apav.pt) e denunciar o caso às autoridades competentes, nomeadamente a Polícia Judiciária”, reforçam.

De forma a que a experiência online seja mais limpa e mais protegida destas ameaças, há uma série de boas práticas que o CNCS e a Linha Internet Segura enumeram: não confiar em vídeos ou áudios que se recebam, sem confirmar as fontes oficiais; procurar erros de linguagem ou incorrecções no conteúdo; verificar a veracidade do endereço de email, perfil, ou número de telefone que nos contacte; não clicar em anexos ou links suspeitos.

Uma arma para a desinformação (e não só)

Os usos das deep fakes não se esgotam na p*rnografia. Há quem use aplicações – algumas à distância de um download no telemóvel – com intuitos lúdicos. Um vídeo de Jair Bolsonaro com uma peruca loira a cantar para Donald Trump? Já foi feito. Taylor Swift a falar mandarim? Também.

Nos últimos anos, em anos de guerra e de pós-verdade, o potencial que as deep fakes têm enquanto veículos de desinformação também motivaram preocupação.

Em Março de 2022, por exemplo, cerca de um mês depois de a Rússia invadir a Ucrânia, um vídeo do Presidente ucraniano, Volodymyr Zelensky, “a render-se” começou a proliferar-se nas redes sociais. Em Setembro, surgiu um vídeo no qual Ron DeSantis parecia estar a anunciar a desistência de participar nas eleições republicanas de 2024. Ambos falsos.

A deepfake of Ukrainian President Volodymyr Zelensky calling on his soldiers to lay down their weapons was reportedly uploaded to a hacked Ukrainian news website today, per @Shayan86 pic.twitter.com/tXLrYECGY4

— Mikael Thalen (@MikaelThalen) March 16, 2022

Há quem veja, porém, usos benéficos na utilização desta tecnologia em contexto político. Ao Rest of the World – um site sem fins lucrativos que aborda temas relacionados com tecnologia – o estratego político Sagar Vishnoi usou um episódio passado na Índia como exemplo: há algumas semanas, um vídeo do primeiro-ministro indiano, Narendra Modi, a cantar uma canção de Bollywood, feito por IA, tornou-se viral nas redes sociais.

Isto deu azo a que surgissem novos vídeos falsos de Modi a dizer uma vasta panóplia de coisas e aqui está o ponto-chave nas várias línguas que se falam na Índia, país onde existem 22 línguas oficiais. Assim, explicou o estratego político ao site de tecnologia, a utilização de clonagem de voz com IA pode ajudar a “quebrar a barreira linguística na Índia” e, em último caso, mudar o jogo nas eleições de 2024 no país.

No futuro, a ameaça deverá ser maior

Segundo o boletim do Observatório de Cibersegurança de Dezembro de 2022, tem-se verificado “uma crescente aplicação da IA na área da cibersegurança”. Porém, o crescente uso da IA é uma faca de dois gumes: “Este uso tem benefícios para a segurança em si (por exemplo, na criação de sistemas de detecção de ameaças), mas também tem utilidade para os agentes de ameaça, como seja na criação de deep fakes para engenharia social na realização de fraudes ou em desinformação.”

Actualmente, as deep fakes não são das ameaças à cibersegurança mais expressivas em Portugal. No Relatório de Cibersegurança em Portugal – Riscos & Conflitos, de Junho de 2023, a expressão deep fakes surge apenas uma vez, listado nas “acções hostis emergentes”, tendo em conta o “contexto de facilitação do cibercrime por via da IA”.

Em 2019, a Unidade de Combate ao Cibercrime da Polícia Judiciária referia ao PÚBLICO que, em Portugal, a utilização de deep fakes para criação de p*rnografia falsa era um fenómeno “sem expressão”. O PÚBLICO pediu à PJ uma nova análise sobre a situação actual do país, mas não obteve uma resposta em tempo útil.

No entanto, segundo a ENISA – a Agência da União Europeia para a Cibersegurança –, o uso abusivo da IA é considerada a 10.ª ameaça emergente para 2030.

Deep fakes são uma ameaça crescente e ainda falta resposta legal adequada (2024)

FAQs

Can you go to jail for deep fakes? ›

The distribution of deepfakes is a crime in and of itself, and anyone caught trying to profit from their possession faces the same fate. Another time, a fine of up to $1,000 and a maximum sentence of one year. Some 42 states have passed legislation making it illegal to post or circulate revenge p*rn.

What is the law on deep fakes? ›

Under the Online Safety Act, which was passed last year, the sharing of deepfakes was made illegal. The new law will make it an offence for someone to create a sexually explicit deepfake - even if they have no intention to share it but "purely want to cause alarm, humiliation, or distress to the victim", the MoJ said.

What are the consequences of deepfakes? ›

Non-consensual deepfake videos can cause significant harm to individuals by exploiting and manipulating their likeness for explicit or damaging content. This can lead to severe harm, including loss of employment opportunities, public humiliation, or damage to personal relationships.

Can you sue someone for a deepfake? ›

Can you sue someone for making a deepfake? Yes, individuals can sue for the creation of deepfakes under several grounds, including defamation, emotional distress, and violation of intellectual property rights. Celebrities and public figures can also claim that their likeness has been misappropriated.

How do you fight deep fakes? ›

To combat such abuses, technologies can be used to detect deepfakes or enable authentication of genuine media. Detection technologies aim to identify fake media without needing to compare it to the original, unaltered media. These technologies typically use a form of AI known as machine learning.

Can deep fakes be detected? ›

Details are the weak point of deepfake software. Therefore, we can spot them by focusing on small aspects, such as dull shadows around the eyes, unrealistic facial hair, overly smooth or wrinkled skin, fictitious moles and unnatural lip colour.

What can deep fakes be used for? ›

Deepfakes are videos, picture or audio clips made with artificial intelligence to look real. They can be used for fun, or even for scientific research, but sometimes they're used to impersonate people like politicians or world leaders, in order to deliberately mislead people.

What are deep fake pictures? ›

A deepfake is an artificial image or video (a series of images) generated by a special kind of machine learning called “deep” learning (hence the name). There two overviews of how deepfakes work in this article: one for the layperson, and one for the technically-minded.

Are deepfakes really a security threat? ›

Even scarier are the AI-generated deepfakes that can mimic a person's voice, face and gestures. New cyber attack tools can deliver disinformation and fraudulent messages at a scale and sophistication not seen before. Simply put, AI-generated fraud is harder than ever to detect and stop.

Are deepfakes identity theft? ›

By leveraging artificial intelligence, deepfakes enable fraudsters to clone your face, voice, and mannerisms to steal your identity. Just ask the Hong Kong employee who fell victim to a $25 million deepfake scam.

Are there laws against AI? ›

Four states — California (AB 302, 2023), Connecticut (SB 1103, 2023), Louisiana (SCR 49, 2023)and Vermont (HB 410, 2022)— have enacted legislation to protect individuals from any unintended, yet foreseeable, impacts or uses of unsafe or ineffective AI systems.

Are deepfakes a crime? ›

Beginning in 2019, several states passed legislation aimed at the use of deepfakes. These laws do not apply exclusively to deepfakes created by AI. Rather, they more broadly apply to deceptive manipulated audio or visual images, created with malice, that falsely depict others without their consent.

Why is deepfake bad? ›

Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security. With the ability to convincingly impersonate anyone, cybercriminals can orchestrate phishing scams or identity theft operations with alarming precision.

Should I be worried about deepfakes? ›

Deepfakes are creating havoc across the globe, spreading fake news and p*rnography, being used to steal identities, exploiting celebrities, scamming ordinary people and even influencing elections.

Is deep fake identity theft? ›

However, criminals can also use deepfake AI technology for direct financial gain. The Identity Fraud Report 2023 from verification platform provider sumsub shows just how widespread deepfake identity theft has become. In this report, the company examined two million fraud attempts across multiple industries worldwide.

What is the deep fake law in California? ›

For the purposes of this law, the term “deep fake video” is defined to mean a video created with the intent to deceive, that appears to depict a real person performing an action that did not occur in reality. A violation of the law is a misdemeanor, punishable by up to a year in jail, a fine of up to $4,000, or both.

Can deep fakes be used for good? ›

Deepfakes, often associated with nefarious purposes, are a potent example of generative AI that can also be harnessed for positive applications in diverse fields like ecommerce, healthcare, art, and history.

Top Articles
Latest Posts
Article information

Author: Lilliana Bartoletti

Last Updated:

Views: 6361

Rating: 4.2 / 5 (53 voted)

Reviews: 84% of readers found this page helpful

Author information

Name: Lilliana Bartoletti

Birthday: 1999-11-18

Address: 58866 Tricia Spurs, North Melvinberg, HI 91346-3774

Phone: +50616620367928

Job: Real-Estate Liaison

Hobby: Graffiti, Astronomy, Handball, Magic, Origami, Fashion, Foreign language learning

Introduction: My name is Lilliana Bartoletti, I am a adventurous, pleasant, shiny, beautiful, handsome, zealous, tasty person who loves writing and wants to share my knowledge and understanding with you.