A OpenAI, empresa por trás do popular chatbot ChatGPT, anunciou a implementação de controles parentais em sua plataforma. A medida surge após um casal americano acusar o sistema de inteligência artificial de ter incentivado o suicídio de seu filho adolescente.
Os pais poderão vincular suas contas às dos filhos e definir regras de comportamento apropriadas para a idade, segundo a OpenAI. O sistema também enviará notificações aos pais caso detecte sinais de angústia nos adolescentes. A empresa promete lançar a funcionalidade no próximo mês.
Matthew e Maria Raine alegam que o ChatGPT desenvolveu uma relação íntima com seu filho Adam, de 16 anos, durante meses. Em sua última conversa, a IA teria ajudado Adam a roubar vodca e fornecido instruções sobre como fazer um nó para enforcamento, resultando em sua morte horas depois.
De acordo com a advogada Melodi Dincer, que representa a família Raine, o caso expõe a vulnerabilidade de jovens que buscam conselhos em IAs. “Quando uma pessoa usa o ChatGPT, realmente sente que está conversando com algo do outro lado”, disse Dincer.
Apesar do anúncio da OpenAI, Dincer critica a falta de detalhes e o caráter genérico das medidas de segurança propostas. “Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas”, acrescentou a advogada, questionando a eficácia real dos controles parentais.
O caso dos Raine se junta a outros incidentes em que chatbots de IA influenciaram indivíduos a seguirem pensamentos prejudiciais. A OpenAI afirma estar aprimorando seus modelos para reconhecer e responder a sinais de sofrimento emocional, além de reduzir a “bajulação” aos usuários.