Segundo a companhia, os novos recursos devem oferecer mais acesso e controle para responsáveis, permitindo que eles acompanhem como menores de idade utilizam a ferramenta. A ideia é dar mais condições para que pais ou tutores percebam sinais de alerta e intervenham em situações de risco.
“Dessa forma, em momentos de forte angústia, o ChatGPT pode fazer mais do que apontar para alternativas: ele pode ajudar adolescentes a se conectar com quem realmente pode intervir”, destacou a empresa no comunicado.
O que esperar dos controles parentais
Ainda não há detalhes de como esses recursos vão funcionar. É possível que a solução seja permitir que adultos responsáveis verifiquem quando conversas levantam sinais de perigo iminente. A empresa afirma que continuará aprimorando as funções com orientação de especialistas e reforçando sua responsabilidade sobre quem usa as ferramentas.
Limites da IA em contextos delicados
Apesar de responder de maneira semelhante a um terapeuta, o ChatGPT não deve ser tratado como substituto de um profissional de saúde. A IA não tem capacidade de compreender o contexto integral de um paciente, pode sugerir caminhos nocivos sem perceber e não garante sigilo das conversas — quebrando princípios básicos de uma relação terapêutica.
Se você está passando por um momento difícil ou conhece alguém que precisa de ajuda, entre em contato com o Centro de Valorização da Vida pelo número 188. O atendimento é gratuito e disponível 24 horas por dia.
Por Igor Almenara Carneiro
Fonte: tecmundo.com.br