Um estudante de 13 anos foi detido em uma escola da Flórida (EUA) depois de, no computador do colégio, perguntar ao ChatGPT: “como matar meu amigo no meio da aula?”.
O alerta veio do Gaggle, um sistema de monitoramento usado por escolas, que notificou a polícia. O jovem foi localizado e levado sob custódia. 🚔 O tema ganhou ainda mais peso nos EUA após casos recentes e ações judiciais — incluindo um suicídio que colocou a segurança de adolescentes no centro do debate.
Para responder a essas preocupações, a OpenAI lançou controles parentais no ChatGPT. Com consentimento mútuo, pais e adolescentes podem conectar contas para ativar filtros de conteúdo, limitar o uso, desligar a “memória” das conversas e optar por não usar os dados no treino do modelo.
Ainda assim, há limitações. Em um teste, o colunista Geoffrey A. Fowler, do The Washington Post, conseguiu burlar as restrições em poucos minutos: bastou sair do login protegido e criar uma nova conta no mesmo computador. 💻
Ele também apontou falhas nos filtros de imagem e atrasos de até 24 horas nos avisos enviados aos pais — lentidão que pode ser crítica em situações de risco. Especialistas reconhecem o avanço, mas reforçam que é um passo na direção certa, mas não uma solução definitiva.
💬 Compartilhe nos comentários o que você acha desse tipo de monitoramento nas escolas.