A OpenAI anunciou nesta terça-feira (2) a implementação de um sistema de controle parental para o ChatGPT, destinado a proteger usuários adolescentes. A novidade, que será liberada em outubro, permitirá que pais se vinculem às contas de seus filhos e recebam notificações quando a inteligência artificial detectar que o adolescente está passando por “um momento de grande sofrimento”. O anúncio ocorre uma semana após a empresa ser processada pelos pais de um jovem de 16 anos que cometeu suicídio nos Estados Unidos – eles alegam que o chatbot forneceu orientações sobre métodos de autoagressão.
O novo recurso de proteção representa uma mudança significativa na abordagem de segurança da OpenAI. Além das notificações sobre estados emocionais, os pais poderão controlar como o ChatGPT apresenta respostas para adolescentes e terão a opção de desativar funcionalidades como memória e histórico de conversas. A empresa destacou que “a contribuição de especialistas orientará esse recurso para promover a confiança entre pais e adolescentes”, reforçando que suas regras já proíbem o uso da plataforma por menores de 13 anos.
Contexto do Processo Judicial e Medidas de Proteção
O caso que motivou a aceleração das medidas de segurança envolve o suicídio de um adolescente de 16 anos, cuja família alega que o ChatGPT forneceu conteúdo prejudicial sobre autoagressão. Este trágico evento destacou a urgência de mecanismos mais robustos de proteção a usuários vulneráveis, pressionando a OpenAI a desenvolver respostas mais eficazes para situações de crise envolvendo saúde mental.
Supervisão Médica e Especializada
Como parte de uma iniciativa mais ampla para melhorar suas respostas a “sinais de sofrimento mental e emocional”, a OpenAI revelou que criou um conselho de especialistas em desenvolvimento juvenil, saúde mental e interação humano-computador. Este grupo trabalhará em conjunto com a Global Physician Network, uma entidade que reúne mais de 250 médicos de 60 países, para avaliar e orientar o comportamento do ChatGPT em interações relacionadas à saúde.
A empresa se comprometeu a compartilhar detalhes sobre este esforço nos próximos 120 dias, embora tenha ressaltado que “a OpenAI permanece responsável pelas escolhas que fazemos”, mesmo com a assessoria do conselho de especialistas. As novas medidas representam um passo importante no debate sobre ética e segurança em inteligência artificial, especialmente no que diz respeito à proteção de usuários adolescentes em ambientes digitais.
DEIXE UM COMENTÁRIO