16/11/2023
𝗖𝗮𝘀𝗼𝘀 𝗱𝗲 𝗻𝘂𝗱𝗲𝘀 𝗳𝗮𝗹𝘀𝗼𝘀 𝘀𝗲 𝗺𝘂𝗹𝘁𝗶𝗽𝗹𝗶𝗰𝗮𝗺 𝗲 𝗽𝗿𝗲𝗼𝗰𝘂𝗽𝗮𝗺 𝗮𝘂𝘁𝗼𝗿𝗶𝗱𝗮𝗱𝗲𝘀: '𝗰𝗿𝘂𝗲𝗹𝗱𝗮𝗱𝗲 𝗶𝗺𝗽𝗲𝗻𝘀𝗮́𝘃𝗲𝗹 𝗰𝗼𝗺 𝗺𝗲𝗻𝗶𝗻𝗮𝘀 𝘁𝗮̃𝗼 𝗻𝗼𝘃𝗮𝘀'
Em uma manhã do início de novembro, a estudante Lara*, de 13 anos, correu desesperada em direção ao banheiro da escola e começou a chorar copiosamente.
Pouco antes, ela havia recebido uma mensagem com uma fotografia que a deixou abalada. Na imagem, ela aparecia nua.
Lara se lembrava daquela foto, feita por sua mãe em um momento em família. A estudante havia compartilhado o registro em seu perfil no Instagram. Mas tinha certeza de que estava de biquíni.
A adolescente foi vítima de uma manipulação de imagens para fazer n**es criados com inteligência artificial (IA), o que fez com que ela aparecesse nua na foto.
“Quando a minha filha me ligou chorando, achei até que fosse uma pegadinha, porque ela não é de se exaltar, gritar ou chorar”, diz Vanessa*, mãe de Lara, à BBC News Brasil.
Assim como Lara, ao menos outras 28 estudantes com idades entre 13 e 16 anos de escolas de elite da Barra da Tijuca, bairro na Zona Oeste do Rio de Janeiro, sofreram com a mesma situação.
Grande parte das vítimas estudam no tradicional Colégio Santo Agostinho.
“É tão impensável e surreal que essas pessoas tenham essa crueldade com essas meninas tão novas”, diz Vanessa.
De acordo com os relatos dos pais e das próprias vítimas, os responsáveis por manipular as imagens foram meninos adolescentes que estudam no Santo Agostinho.
A escola disse em nota à BBC News Brasil que acompanha o episódio.
O caso é investigado pela Delegacia de Proteção à Criança e ao Adolescente (DPCA) do Rio de Janeiro, que tem ouvido os envolvidos.
“Diligências seguem para identificar a autoria do crime e esclarecer o caso”, informou um comunicado da Polícia Civil do Rio de Janeiro.
A situação tem se repetido com certa frequência em escolas brasileiras e também em outros países.
Em questão de dias, casos semelhantes foram denunciados em colégios de Recife, em Pernambuco, e de Belo Horizonte, em Minas Gerais.
No exterior, um dos casos que mais repercutiram ocorreu no vilarejo de Almendralejo, na Província de Badajoz, na Espanha.
O caso se tornou alvo de investigação policial. Mais de 20 meninas, com idades entre 11 e 17 anos, se apresentaram como vítimas de n**es feitos com IA.
Outro caso com grande repercussão foi registrado em uma escola de Nova Jersey, nos Estados Unidos. Alunas do Ensino Médio descobriram que garotos que estudam na mesma escola haviam manipulado imagens delas com roupas para que elas aparecessem nuas. Os pais das jovens denunciaram o caso.
‘𝗧𝗼𝗱𝗮 𝗺𝘂𝗹𝗵𝗲𝗿 𝗲́ 𝘃𝗶́𝘁𝗶𝗺𝗮 𝗲𝗺 𝗽𝗼𝘁𝗲𝗻𝗰𝗶𝗮𝗹’
Um dos fatores que preocupa sobre esse tipo de caso é que as ferramentas disponíveis para manipular esse tipo de imagem são de fácil acesso. Basta fazer uma busca na internet que surge uma lista com diversas opções.
Por isso, alertam especialistas, casos assim podem se tornar cada vez mais comuns.
“Isso pode se tornar epidêmico porque é muito fácil (acessar ferramentas de inteligência artificial para manipular imagens)”, diz a advogada Estela Ar**ha, assessora especial de Direitos Digitais do Ministério da Justiça e Segurança Pública (MJSP).
“Hoje, com esse tipo de instrumento, todas as mulheres e meninas podem ser potenciais vítimas desse tipo de crime. E, no ambiente escolar, em que há bullying, as pessoas podem achar que isso é divertido”, acrescenta.
Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), diz que essas ferramentas de inteligência artificial devem ficar cada vez mais sofisticadas e com efeitos ainda mais reais. Enquanto isso, ele pontua, crianças e adolescentes continuarão postando fotos nas redes que podem ser usadas facilmente nesses aplicativos.
“Os aplicativos de IA não vão simplesmente desaparecer. Por mais que a gente pense em fazer com que eles sumam das lojas de aplicativos, sempre vai haver sites de fácil acesso que ofereçam essas funções.”
Souza avalia que esses aplicativos de inteligência artificial não devem ser considerados os vilões desses casos de fotografias falsas. Ele frisa que o problema é a forma indevida como essas ferramentas podem ser usadas, por isso diz que é fundamental que haja cada vez mais esclarecimentos sobre os riscos e as consequências que esse tipo de manipulação de imagens pode ter.
“É preciso enfrentar essa situação. É preciso que a legislação seja aplicada para punir por simulação de menores em atos pornográficos. É preciso haver uma educação digital sobre o uso seguro e responsável da Inteligência Artificial”, declara Souza.
‘𝗡𝗮̃𝗼 𝗲́ 𝗺𝗼𝗻𝘁𝗮𝗴𝗲𝗺 𝗱𝗲 𝗳𝘂𝗻𝗱𝗼 𝗱𝗲 𝗾𝘂𝗶𝗻𝘁𝗮𝗹’
Vanessa conta que, enquanto as meninas vítimas dos n**es feitos com IA estavam abaladas com as imagens, os garotos que criaram as imagens afirmavam que tudo não passava de uma brincadeira.
“Em grupos desses meninos no Telegram, eles pediam fotos das meninas. Escolhiam a dedo as mais populares e bonitas. Iam no seu perfil no Instagram, pegavam uma foto e faziam a montagem”, diz Vanessa à BBC News Brasil.
Isso só veio à tona porque um aluno que participava do grupo decidiu revelar a situação às vítimas.
“Esse menino contou que essas fotos foram feitas no laboratório de informática do Santo Agostinho e que isso acontecia desde o início de outubro”, diz Vanessa.
Uma das preocupações dos pais das estudantes que fizeram denúncias à polícia é a forma como as imagens manipuladas são muito realistas.
“Nos grupos, ninguém tratava como uma montagem, era como se fosse um n**e real das meninas”, afirma Vanessa.
“É fácil falar: ‘ah, mas essa foto é falsa, por que está tão preocupada?’ Mas não é uma montagem de quintal, é uma boa imagem. Quem olhar nem sempre vai saber se é real ou não.”
Também preocupa onde esses falsos n**es podem ir parar.
“Em sites adultos, quem vai dizer se é verdade ou mentira? É a minha filha que está ali”, acrescenta Vanessa.
Estela Ar**ha reforça que as fotos manipuladas com IA são especialmente realistas.
“É muito mais crível do que pegar um rosto e colocar em um corpo qualquer. É exatamente como a pessoa é, mas nua”, diz Ar**ha.
Os pais das vítimas temem o impacto destas imagens no futuro delas e como isso pode afetá-las.
“Minha filha vai conviver com isso para sempre. A gente não sabe, daqui a cinco anos, se essa foto vai aparecer de novo, já que é tão real e nem parece montagem”, diz Vanessa.
“Ela pode estar em uma entrevista de emprego e encontrarem essa imagem e, como não vão saber que é montagem, ela pode ser julgada por isso”, acrescenta.
O Colégio Santo Agostinho disse, em nota, que permanece atento em relação ao caso e que mensagens que “prejudicam a integridade emocional das crianças e dos adolescentes envolvidos não serão admitidas em qualquer espaço” do colégio.
A unidade de ensino afirma que tem trabalhado de “forma firme e incansável em diversas ações que a situação exige” e que prestou esclarecimentos à polícia sobre o caso.
‘𝗡𝗮̃𝗼 𝗽𝗼𝗱𝗲𝗺𝗼𝘀 𝘁𝗿𝗮𝘁𝗮𝗿 𝗰𝗼𝗺𝗼 𝗯𝗿𝗶𝗻𝗰𝗮𝗱𝗲𝗶𝗿𝗮’
A multiplicação de episódios semelhantes tem preocupado especialistas.
Não há levantamento oficial sobre quantos casos já foram registrados, segundo o Ministério da Justiça. Somente desde o fim de outubro foram, ao menos, quatro episódios desse tipo.
Um dos casos ocorreu no colégio Marista São Luís, em Recife. Na unidade de ensino, alunas com idades por volta de 14 anos foram vítimas de n**es feitos com IA.
Pais das alunas contaram ao portal G1 que um estudante disse ter feito as montagens junto com outros colegas.
Em nota à BBC News Brasil, o colégio Marista São Luís informou que logo que soube do caso, em 6 de novembro, suspendeu os quatro garotos envolvidos no episódio.
Além disso, a escola disse que um dos estudantes foi transferido da unidade de ensino após o caso, enquanto os outros três vão concluir o ano letivo de 2023 “sem frequentar presencialmente as aulas”.
“Para 2024, todos estudantes envolvidos já estão com a documentação da transferência escolar autorizada, a partir do dia 16 de dezembro, considerando o calendário, para finalização do ano letivo”, disse a escola em comunicado.
“O Marista reitera que acolheu imediatamente as vítimas e auxiliou os responsáveis no registro formal da queixa na delegacia especializada, tendo ainda registrado o caso no Conselho Tutelar. A Instituição segue colaborando com as investigações policiais e prestando apoio e esclarecimentos à comunidade escolar”, finalizou a nota da escola.
Outras duas adolescentes, de 14 e 15 anos, que estudam em um colégio particular de Belo Horizonte – que não teve o nome divulgado – também foram vítimas. Segundo a Polícia Civil de Minas Gerais, a investigação apontou que o responsável pelas imagens falsas foi um adolescente de 15 anos, que estuda na mesma escola.
Segundo a polícia mineira, em nota à BBC News Brasil, as imagens foram descobertas ao serem compartilhadas pelo adolescente em redes sociais por meio de um perfil falso. Após denúncias dos pais das jovens, uma investigação apontou quem era o dono do perfil.
A polícia já concluiu a investigação e disse, em nota, que “representou pela aplicação de medida socioeducativa” contra o adolescente. O caso agora está com a Justiça.
Outro caso, no fim de outubro, envolveu a atriz Isis Valverde. Fotografias dela de biquíni ou roupas foram modificadas para que ela aparecesse nua. As imagens repercutiram na internet e a atriz denunciou o caso. O episódio é investigado pela Polícia Civil do Rio de Janeiro.
Os episódios recentes demonstram, segundo especialistas, a importância de que esse tipo de uso indevido da IA seja levado a sério, por meio da investigação dos casos e a punição dos responsáveis.
“É fundamental mandar um sinal de reprovação absoluta dessas condutas, temos que tratar como um crime grave e não como brincadeira”, diz Estela Ar**ha.
A advogada Camila Bouza, responsável pela defesa de Lara, reforça que não se trata de algo banal.
“Não é um jogo sexual porque a pessoa do outro lado não estava brincando”, diz Bouza.
Carlos Affonso Souza defende que uma das formas de tentar impedir o aumento desses casos é a atenção dos adultos aos conteúdos acessados e aos aplicativos usados pelos filhos.
“Os pais ou responsáveis podem e devem responder pelos atos desempenhados por seus filhos na internet, em especial quando violam a intimidade de colegas de classe”, declara Souza, que é professor de Direito Digital da Universidade Estadual do Rio de Janeiro (Uerj).
“Infelizmente, muitas vezes é preciso doer no bolso (por meio de indenizações por danos morais)”, acrescenta o especialista.
Ele afirma que as escolas também precisam falar com os estudantes sobre o tema e adotar as medidas necessárias para que esses casos não sejam tratados como brincadeira.
Após a repercussão dos casos recentes, o deputado federal Marcelo Álvaro Antônio (PL-MG) apresentou um projeto de lei que inclui no Código Penal o crime de criação e reprodução de n**ez feita por meio de inteligência artificial.
O projeto prevê pena de prisão de 6 meses a um ano, e a pena pode ser aumentada se a vítima for menor de idade e se as imagens forem usadas para chantagens.
No Reino Unido, recentemente foi aprovada uma Lei de Segurança Online que promete transformar o país no "lugar mais seguro do mundo para estar online."
Essa lei trata de problemas relacionados ao acesso de crianças e adolescentes à pornografia online. Um dos pontos diz sobre o compartilhamento não consensual de imagens íntimas e aponta que a divulgação de imagens íntimas ou falsas, artificialmente criadas de pessoas nuas, podem levar a pena de até seis meses de prisão.
𝗩𝗶𝗼𝗹𝗲̂𝗻𝗰𝗶𝗮 𝗱𝗲 𝗴𝗲̂𝗻𝗲𝗿𝗼
Esses casos são também uma forma de violência de gênero, frisam especialistas, porque todas as vítimas são mulheres.
A Ordem dos Advogados do Brasil no Rio de Janeiro (OAB-RJ) afirmou em nota que o caso das escolas da Barra da Tijuca é “um ato criminoso”.
“Viola a privacidade, a dignidade, a honra e a intimidade das vítimas, além de configurar pornografia de vingança, cyberbullying e violência de gênero”, disse a OAB-RJ.
A advogada Camila Bouza afirma que o fato de as vítimas serem apenas mulheres deixa claro que se trata de uma nova forma de violência de gênero.
“São meninos de 14 anos que perpetuam um machismo estrutural, relações nas quais não respeitam os corpos das meninas”, afirma Bouza.
“Elas podem, sim, postar fotos de biquínis. Vivemos em uma cidade com a cultura de praia, e eles não são donos dos corpos dessas meninas. Os corpos são delas.”
Estela Ar**ha diz que a popularização das ferramentas de tecnologia artificial pode agravar a violência cotidiana contra mulheres.
“A violência sexual contra a mulher no Brasil é um problema epidêmico e pode piorar com essas novidades tecnológicas.”
𝗢 𝗶𝗺𝗽𝗮𝗰𝘁𝗼 𝗽𝘀𝗶𝗰𝗼𝗹𝗼́𝗴𝗶𝗰𝗼
Adolescentes que veem seus corpos nus expostos nas redes sociais, mesmo que sejam em imagens falsas, podem sofrer um impacto emocional equivalente ao que teriam se fosse uma fotografia verdadeira, diz a psicóloga Anna Lucia Spear King, professora do Instituto de Psiquiatria da Universidade Federal do Rio de Janeiro (UFRJ).
A psicóloga afirma ser fundamental que estas meninas sejam acompanhadas por um psicólogo e um psiquiatra para receber orientação e suporte emocional.
“Elas não têm maturidade para lidar com o estresse, vergonha, julgamento e as críticas alheias que surgem a partir da exposição sofrida e advindos dos comentários nas redes sociais”, diz King, fundadora do Instituto Delete, que pesquisa o impacto das tecnologias na saúde mental.
Segundo a psicóloga, a exposição das fotos manipuladas pode causar transtornos mentais como pânico, ansiedade generalizada e depressão.
“Em até seis meses podem aparecer sintomas relativos ao transtorno de estresse pós-traumático”, diz King.
Lara sofre com os efeitos da publicação do n**e feito com IA, conta sua mãe.
"Ela está com uma insegurança enorme e não sabe mais em quem confiar", diz Vanessa.
"Ela anda na escola pensando: esse menino me viu pelada? Quando alguém fala alguma coisa ou ri perto dela, ela acha que é por causa daquela foto. Ela acha que virou motivo de chacota."
A adolescente passou a se culpar e quis apagar todas as suas fotos nas redes sociais, afirma Vanessa.
“Ela não sabe mais se deve voltar no tempo em que as mulheres andavam cobertas, mesmo estando em um país onde a gente quer o oposto: ser livre.”
*Nomes alterados para preservar as identidades de mãe e filha.
© 𝟐𝟎𝟐𝟑 𝐁𝐁𝐂