O uso da inteligência artificial para criar ou editar imagens ganhou destaque em 2023, apesar de diversas ferramentas com a tecnologia já serem usadas há certo tempo. No entanto, o que chamou a atenção, especialmente este ano, foi o realismo das imagens criadas.

deepfake

Imagem: local_doctor/Shutterstock.com

Conhecido por “Deepfake”, o termo, no âmbito das redes sociais, é associado a um sistema de reconhecimento facial utilizado por plataformas (a título de exemplo, o Facebook) para reconhecer a face dos usuários em fotos.

Recentemente, imagens do Papa Francisco usando um casacão estilo “puffer” circularam na internet. A tendência “puffer”, segundo os sites especializados, vem dominando as passarelas e inspirando famosos. Também circularam imagens do ex-presidente americano Donald Trump entrando em confronto com a polícia e sendo preso, justamente no momento em que havia certa expectativa de sua prisão. No mesmo sentido, imagens do presidente francês Emmanuel Macron sentado em volta de lixos espalhados pelo chão após protestos contra a reforma da previdência na França circularam em diversos sites.

Essas imagens têm alguns pontos em comum. Por óbvio, destaca-se que todas foram criadas a partir de ferramenta de inteligência artificial. Outro ponto em comum nessas imagens diz respeito aos sujeitos envolvidos: todos os três mencionados são pessoas públicas, que tiveram as imagens criadas a partir de um contexto no qual estavam associados, à exceção do Papa Francisco.

Pode-se destacar, por fim, que as imagens têm em comum (e o que causa mais espanto) a alta qualidade e o alto grau de realismo. O espanto está vinculado a um fato que tem preocupado a todos que se interessam pelo tema: em tempos de disseminação de “fake news”, o alto grau de realismo pode causar sérios prejuízos para quem foi vítima de “Deepfake”.

Talvez essa preocupação não seja tão evidente quando se trata de pessoas públicas. Em tese, basta uma nota oficial emitida por seus assessores para que qualquer dúvida sobre a autenticidade das imagens possa ser dirimida, o que não é tão simples de ser feito por uma pessoa “comum”, que sofrerá as consequências relacionadas à sua falsa exposição.

De modo a deixar mais evidente a problemática que, cedo ou tarde, as autoridades deverão se debruçar, pode-se imaginar uma pessoa vítima de “Revenge Porn”, prática de divulgação de fotos e vídeos íntimos por seus ex-parceiros.

A prática de ‘revenge porn’ com o uso de ‘deepfake’

Inicialmente, essa prática “dependia” da obtenção, de forma autorizada ou não, de fotos íntimas do(a) ex-parceiro(a). No entanto, as atuais ferramentas de inteligência artificial podem ser capazes de criar, com alto grau de realismo e qualidade, imagens ou vídeos de pessoas em situações íntimas.

'Revenge Porn' e 'Deepfake': ferramentas de inteligência artificial podem ser responsabilizadas por essa prática?

Imagem: Rawpixel.com/Freepik

No Brasil, tanto a legislação civil e como a penal prevê a responsabilização de quem divulga, sem autorização, vídeos e fotos íntimas de terceiros. Em relação aos provedores, o Marco Civil da Internet – Lei nº 12.965/2014 dispõe que a responsabilidade civil do provedor de internet pelos danos decorrentes do conteúdo gerado por terceiro é subsidiária e somente ocorrerá em caso de descumprimento de ordem judicial que determina a indisponibilização do conteúdo ilícito ou da permanência de imagens/vídeos íntimos após a ciência do ocorrido.

Ou seja, além de a legislação prever punição para quem produz o conteúdo ilícito, o provedor de internet poderá ser responsabilizado se, após notificado da decisão judicial, não indisponibilizar o conteúdo ilícito. A rigor, a responsabilidade é de quem produziu o conteúdo.

Note, no entanto, que, em relação à prática do “deepfake”, há um novo componente: a ferramenta de inteligência artificial utilizada para a produção do falso conteúdo.

Considerando a sensibilidade do tema, é de se imaginar que a resposta do Poder Público para essa situação será rígida. A discussão, assim, poderá ser em torno dos seguintes questionamentos: “poderá haver alguma responsabilização da ferramenta eventualmente utilizada na criação/edição dessas falsas imagens? É possível atribuir a responsabilidade do controle sobre a utilização de imagens por essas plataformas?”, dentre outros.

As respostas podem parecer óbvias. Entretanto, dada a sensibilidade do tema, qualquer resposta deve, necessariamente, ser precedida de muitos estudos e debates, ainda mais considerando que o tema pode se tornar mais sensível, como, por exemplo, nos casos em que envolver menores de idade.

Assim, qual seria a melhor solução para evitar esse tipo de prática? A conscientização sobre as terríveis consequências, notadamente psicológicas, que as vítimas podem sofrer? A regulamentação do uso dessas ferramentas pelo Poder Público? Exigir que as ferramentas de inteligência artificial controlem as imagens submetidas para edição? De forma mais extrema, a proibição do uso dessas ferramentas?

A pornografia de vingança é crime e sua prática deve ser combatida em qualquer hipótese. Com as atuais ferramentas de inteligência artificial, a discussão envolvendo “Revenge Porn” ganha mais um elemento que, cedo ou tarde, deverá ser objeto de debate: a prática de “revenge porn” com o uso da “deepfake”.

 

Direito ao esquecimento versus desindexação

Isabela Pompilio é responsável pela área de contencioso da unidade de Brasília de TozziniFreire Advogados, com larga experiência em atuação nos Tribunais Superiores. Atua em causas estratégicas há duas décadas e no acompanhamento de teses visando a formação de novos entendimentos jurisprudenciais em direito cível, internacional e digital.

 

 

 

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários