OpenAI Implementa Novas Iniciativas para Proteger Crianças da Exploração Sexual no ChatGPT

A proteção de crianças e adolescentes na web tem ganhado destaque em todo o mundo. No Brasil, o ECA Digital se destaca como um marco importante nesse cenário. A questão da inteligência artificial (IA) também está no centro desse debate, e a OpenAI revelou uma abordagem inovadora para **combater a exploração sexual infantil em suas plataformas**.

O denominado **Plano de Segurança Infantil** foi apresentado em um documento intitulado **“Protecting Children in the Age of Generative AI”** (“Protegendo Crianças na Era da IA Generativa”, em tradução livre). Esse plano oferece um guia prático para prevenir e interromper abusos que envolvem o uso da tecnologia de IA.

O documento delineia prioridades para que a empresa e as autoridades atuem de maneira coordenada, através de estratégias legais. Além disso, propõe abordagens operacionais e técnicas que ajudem as ferramentas a **identificar riscos, otimizar respostas e apoiar a responsabilização** dos envolvidos.

“Juntas, essas medidas permitem que o setor aborde a segurança infantil de forma mais eficaz. Ao interromper tentativas de exploração de maneira mais precoce, melhorar a qualidade das informações enviadas às autoridades e reforçar a responsabilização em todo o ecossistema, essa estrutura visa prevenir danos antes que ocorram”, destacou a OpenAI em comunicado.

Modernização de leis para lidar com a IA

O plano da OpenAI, liderada por Sam Altman, é voltado para os EUA e contou com a colaboração de instituições como o National Center for Missing & Exploited Children e a National Association of Attorneys General.

Um dos pilares dessa estratégia é a **modernização legislativa em nível estadual**, assegurando que as leis relacionadas à exploração sexual infantil online sejam aplicáveis também no contexto das plataformas de IA.

A proposta não apenas busca expandir as leis para incluir conteúdos gerados ou editados por IA, mas também visa responsabilizar e punir de forma mais rigorosa **aqueles que criam materiais relacionados ao abuso sexual infantil**.

Outra área prioritária diz respeito à padronização e ao **aprimoramento dos sistemas de denúncia e relatos**, incluindo dados sobre infratores, a natureza da infração, localização e cronologia dos eventos.

Esse mesmo pilar defende o uso de recursos de IA para identificar padrões de exploração, que serão analisados por humanos antes da formalização das denúncias. **Os relatórios também devem fornecer contexto das interações dos suspeitos com as plataformas de IA**, evitando a análise isolada de trechos de conversas.

Melhores práticas de segurança

Um terceiro pilar do Plano de Segurança aborda ações e mecanismos que buscam interromper tentativas de exploração, através da geração de alertas e **supervisão contínua do uso das ferramentas**.

“Os sistemas de IA generativa criam oportunidades para intervir mais cedo no ciclo do dano, identificando tentativas de mau uso antes que materiais abusivos sejam produzidos ou distribuídos. Uma segurança robusta em IA generativa não é uma única solução; é uma abordagem em camadas que combina políticas, salvaguardas técnicas, monitoramento e supervisão humana”, ressalta a OpenAI.

O documento apresenta diferentes estratégias de atuação nesse campo, visando proteger as crianças e adolescentes em um ambiente digital cada vez mais complexo.

Rolar para cima