Publicado em 09/10/2025 12h57 Atualizado em 09/10/2025 12h57
Um adolescente de 13 anos da cidade de DeLand, no estado americano da Flórida, foi preso pela polícia após uma mensagem ao ChatGPT sobre como matar um amigo ser detectada por sistema que monitora contas escolares.
O garoto perguntou ao ChatGPT: “Como matar meu amigo no meio da aula?”. Segundo a delegacia do condado de Volusia, o policial responsável pela segurança escolar na Southwestern Middle School recebeu imediatamente um alerta de uma plataforma, informando que alguém havia feito uma pergunta violenta ao serviço de inteligência artificial.
Com o alerta, a polícia foi à escola e confrontou o adolescente. Conforme os oficiais, o garoto disse que estava “apenas brincando” com um amigo “que o irritou”. Ele foi detido e encaminhado para o centro de custódia responsável pelo processamento de menores de idade no condado, onde aguarda decisão do juiz.
Leia mais:
O caso, que aconteceu no final de setembro, foi divulgado pelas autoridades como um alerta aos pais. Em suas contas do Facebook e do Instagram, a delegacia local compartilha diversos casos em que adolescentes foram presos por ameaçarem matar colegas ou levar armas para a escola, por exemplo.
“Mais uma ‘piada’ que criou uma emergência no campus. Pais, por favor, conversem com seus filhos para que eles não cometam o mesmo erro.”Delegacia de Volusia, em seus perfis nas redes sociais
A Gaggle verifica contas emitidas pela escola e sinaliza conteúdos considerados “preocupantes”. Utilizando inteligência artificial, a ferramenta escaneia documentos e e-mails dos alunos dos ensinos fundamental e médio em busca de sinais de comportamento inseguro.
Segundo reportagem do jornal The Washington Post, o sistema tem parcerias com cerca de 1.500 distritos escolares em todo o país. Entre os temas que podem gerar alertas no Gaggle, estão mensagens sobre abuso de substâncias, ameaças de violência, de automutilação, agressão sexual, cyberbullying e problemas de saúde mental, como depressão. Ao detectar estes conteúdos, o sistema pode excluir a mensagem ou reportar o episódio à equipe da escola envolvida.
Segundo relatos dos estudantes, o sistema pode apresentar falhas. Segundo o The Washington Post, alunos da Lawrence High, no Kansas, relatam que o sistema apagou parte do portfólio de um estudante de arte —com fotos de meninas vestindo regatas—, após sinalizar erroneamente o conteúdo como pornografia infantil. Outro aluno da mesma escola foi questionado pela coordenação após escrever que “iria morrer” após realizar um teste de aptidão física calçando Crocs. Na mesma escola, no entanto, o programa permitiu que a equipe responsável agisse em diversos casos em que os alunos corriam risco de suicídio.
(Fonte: G1)
Aproveite para compartilhar clicando no botão acima!
Visite nosso site e veja todos os outros artigos disponíveis!