Inteligência Artificial na Prevenção do Abuso Sexual Infantil na Internet
O Problema
A ONG End Violence Against Children lançou uma chamada para projetos que atendam aos seguintes objetivos:
- Detecte, remova e denuncie imagens e vídeos com conteúdo ou atos sexuais envolvendo crianças e adolescentes (geralmente chamados “material de abuso sexual infantil”, ou CSAM).
- Bloqueie o acesso de adultos a crianças em plataformas digitais destinadas a abusar sexualmente delas (geralmente chamadas “solicitação ou tratamento sexual on-line“).
- Interrompa a transmissão ao vivo de abuso sexual infantil realizado na frente de uma câmera (geralmente chamada “transmissão ao vivo de material de abuso sexual infantil”).
- Impeça o abuso sexual de crianças on-line antes que isso aconteça, incluindo prevenção e soluções direcionadas diretamente a agressores sexuais on-line e adultos com interesse sexual em crianças.
A quantidade de variáveis a serem consideradas para uma abordagem deste tipo inviabiliza o uso de soluções convencionais.
Abordagem do Modal
O Instituto Modal, em parceria com a Universidade de Ottawa, desenvolveu uma metodologia para identificar padrões de abordagem textual em mensagens entre assediadores e crianças, contribuindo para prevenir o abuso sexual infantil on-line. A solução desenvolvida utiliza recursos de inteligência artificial (abordagem conexionista) para construir o perfil de personalidade das pessoas envolvidas no chat, gerando como resultado padrões de comportamento que podem ser comparados com aqueles de abusadores conhecidos. Caso a IA perceba que determinada troca de mensagens apresenta determinada combinação de fatores de risco, um operador humano pode ser acionado para avaliar as mensagens e confirmar (ou não) se é o caso de uma intervenção policial.