“Do riso ao medo: o dia em que meu rosto apareceu no Sora sem meu consentimento”

Em meio à explosão de aplicativos de inteligência artificial (IA) para criação de vídeos, experiências aparentemente inocentes podem rapidamente gerar preocupações sérias sobre privacidade, imagem pessoal e segurança digital.
Foi exatamente isso que aconteceu comigo recentemente, quando meus amigos decidiram usar meu rosto em vídeos do Sora App, uma plataforma de criação de conteúdo de vídeo desenvolvida pela OpenAI. A experiência começou com risadas, mas rapidamente se transformou em uma mistura de surpresa e medo.
Devidos cuidados aos programas de IA
O Sora App permite que usuários criem vídeos animados e interativos usando tecnologia de deepfake e síntese de imagem. Por meio da IA, é possível inserir rostos em diferentes cenários, fazer simulações de fala e até criar reações faciais expressivas.
A ferramenta, embora inovadora, levanta questões éticas e legais sobre consentimento, uso de imagem e possíveis consequências de divulgação de conteúdo manipulado.
Quando percebi que meu rosto havia sido usado, a reação inicial foi de diversão. Os vídeos eram engraçados, absurdos, e a tecnologia impressionava pelo realismo. Eu ri junto com meus amigos, compartilhando as pequenas criações entre nós.
No entanto, não demorou muito para que a realidade das implicações surgisse. Perguntas começaram a se formar: “E se alguém mais tivesse acesso a esses vídeos?”, “Quem controla minha imagem agora?”, “Posso ser prejudicado de alguma forma?”.
O medo surgiu justamente da possibilidade de perda de controle sobre minha própria representação digital. Diferentemente de uma foto tradicional, que você pode escolher quando postar, as criações feitas pelo Sora App podem ser compartilhadas facilmente em redes sociais e aplicativos de mensagens, muitas vezes sem aviso ou consentimento da pessoa que aparece no vídeo.
Esse é um dos desafios mais críticos da era da IA generativa: a democratização de ferramentas poderosas, muitas vezes sem regulamentação clara sobre limites de uso.
Especialistas em direito digital e privacidade já alertam sobre os riscos de deepfakes e vídeos gerados por IA. Segundo advogados consultados, o uso da imagem de alguém sem autorização pode configurar violação de direitos de personalidade, enquadrando-se em situações de difamação ou danos morais, dependendo do contexto e da divulgação do material.
“Mesmo que seja feito como brincadeira, há implicações legais potenciais”, explica Mariana Silva, advogada especializada em direito digital. “A pessoa tem o direito de controlar sua própria imagem, e qualquer uso não autorizado pode gerar responsabilização civil.”
Além do aspecto legal, existe uma preocupação crescente com impactos psicológicos e sociais. Um estudo recente do Centro de Estudos em Tecnologia e Sociedade indicou que a exposição não consentida em conteúdos digitais pode gerar ansiedade, medo de exposição pública e sensação de perda de controle sobre a própria identidade.
Em outras palavras, aquilo que começou como uma brincadeira entre amigos pode se tornar uma experiência de desconforto significativo, afetando a autoestima e a percepção de segurança online.
No meu caso, a decisão de rir no primeiro momento refletia a natural curiosidade e fascínio pelo que a tecnologia pode fazer.
Entretanto, o medo surgiu ao pensar nas possibilidades futuras: vídeos poderiam ser usados fora do contexto, compartilhados em plataformas públicas ou até manipulados para criar narrativas falsas. A linha entre entretenimento e invasão de privacidade se mostrou tênue.
Além do impacto pessoal, há questões técnicas a considerar. O Sora App funciona utilizando algoritmos de aprendizado profundo para mapear traços faciais e reproduzir expressões de forma realista.
Isso significa que, uma vez que o rosto é carregado na plataforma, ele se torna parte de um banco de dados que, dependendo dos termos de uso, pode ser utilizado para treinar a IA ou gerar conteúdos futuros. Para usuários que não estão cientes disso, o risco de perda de controle sobre a própria imagem digital é real.