Como a criadora Catharina Doria traduz riscos da IA para milhões e ensina proteção prática
Viralização e alcance
Em menos de um ano, a comunicadora e pesquisadora brasileira Catharina Doria conquistou mais de 200 mil seguidores ao publicar vídeos que explicam, de forma direta, como lidar com a inteligência artificial. Alguns de seus vídeos ultrapassam a marca de um milhão de visualizações, e ela diz ter recebido, no último mês, cerca de 7,1 milhões de visualizações — um sinal de que o tema chegou ao centro das preocupações públicas.
O ponto de partida das publicações foi um vídeo desafiador: o espectador deveria identificar qual clipe era real e qual foi gerado por IA. “Parece fácil, mas é muito difícil”, alertou ela na peça inicial, acrescentando que “Você precisa treinar seu cérebro para se proteger dessa tecnologia”.
O que ela ensina
A pauta de Doria mistura noções de segurança digital, privacidade e ética. Entre os exemplos que viralizaram estão alertas sobre tendências que pedem fotos pessoais para gerar versões animadas, riscos de robôs aspiradores que podem captar imagens dentro de casa e explicações práticas sobre como detectar mídias sintéticas.
Em uma de suas postagens sobre aspiradores robô, ela afirma categoricamente: “NUNCA confie no seu aspirador robô! Talvez nada aconteça. Mas talvez aconteça. E TENHO CERTEZA de que você NÃO quer ser a pessoa cuja foto no BANHEIRO vaza”. A mensagem resume a premissa: a tecnologia tem potencial útil, mas também cria vetores reais de exposição e dano.
Contexto profissional e motivações
Doria não é apenas uma criadora de conteúdo: formou-se em comunicação, escreveu uma tese premiada e fez mestrado em ciência de dados. Conta que a leitura de Algorithms of Oppression, de Safiya Noble, mudou sua trajetória e a levou a focar em governança e igualdade algorítmica. Trabalhou em governança de IA em uma empresa americana antes de dedicar-se integralmente à educação pública sobre o tema.
Seu objetivo declarado é aproximar conversas técnicas da vida cotidiana: quando ela falava com a própria mãe, percebeu que muita gente não sabia o que era IA nem como golpes e desinformação usam essa tecnologia. Por isso decidiu “ser a pessoa que fala com as pessoas no dia a dia”.
Análise: por que as pessoas estão perdidas?
Uma das explicações centrais de Doria é a velocidade da adoção. Ferramentas como o ChatGPT chegaram a ambientes de trabalho e redes sociais sem um letramento paralelo. Em muitas empresas, diz ela, houve um convite tácito ao uso: “Bora usar IA”, sem explicações sobre limites, riscos e privacidade.
Além disso, há uma falta de transparência das corporações. Doria cita casos e processos públicos — incluindo ações contra grandes fornecedores — para lembrar que práticas de coleta e treinamento de dados nem sempre são claras ao usuário. Quando empresas não explicam como usam fotos e conversas para treinar modelos, a população fica vulnerável.
Regulações como o EU AI Act podem forçar maior clareza, mas Doria avalia que, sem leis, é improvável que grandes empresas mudem por vontade própria. Por isso, na sua visão, a educação, a ação regulatória e a comunicação responsável precisam andar juntas.
Uma comunicação que não só alarma
O tom de Doria busca evitar pânico gratuito. Ela reconhece que a IA pode trazer ganhos práticos, mas sustenta que o caminho responsável passa por transformar medo em ação: explicar problemas e oferecer passos concretos de proteção. “Quando crio um vídeo, explico quais são os problemas e por que devem se preocupar, e sempre tento terminar com o que a pessoa pode fazer para se empoderar, se proteger”, disse ela.
Essa postura é importante num cenário em que a desinformação e as imagens manipuladas podem ferir reputações, explorar emoções e até facilitar crimes. Educar o público sobre sinais de mídia sintética e boas práticas digitais é tão urgente quanto desenvolver salvaguardas técnicas.
O que mudar: responsabilidade compartilhada
Doria defende que “cabe a todo mundo” a tarefa do letramento. Mas lembra que empresas e Estados têm papéis distintos e decisivos: leis claras obrigam transparência; comunicação pública e produções jornalísticas traduzem riscos; criadores educam e empoderam.
No campo prático, ela recomenda cuidado ao subir imagens em trends, atenção ao conteúdo compartilhado por perfis abertos e desconfiança em relação a dispositivos domésticos que coletam dados sensíveis.
Para quem busca um ponto de referência moral e prático, a própria proposta de transformar medo em conhecimento tem ressonância bíblica breve: buscar entendimento é prudente — uma atitude coerente com o chamado cristão à responsabilidade no cuidado com o próximo.
Em resumo, o trabalho de Catharina Doria traduz uma necessidade urgente: não basta ter acesso às ferramentas de IA; é preciso entender seus limites, riscos e formas de proteção. Enquanto a regulação avança lentamente, a alfabetização digital emerge como defesa coletiva — e como serviço público que combina clareza técnica com linguagem acessível.

