A OpenAI anunciou nesta segunda-feira (04) uma atualização no ChatGPT para incentivar um uso mais equilibrado da inteligência artificial. A partir desta semana, a plataforma exibirá alertas para usuários que permanecerem por muito tempo em uma mesma sessão.
A funcionalidade é semelhante ao famoso aviso dos serviços de streaming — o “Você ainda está assistindo?”. Agora, no ChatGPT, após interações prolongadas, surgirá um pop-up com a mensagem: “Dando uma olhada. Você está conversando há um tempo — é uma boa hora para uma pausa?”.
Segundo a companhia, a frequência e o formato dos alertas serão ajustados ao longo do tempo para que pareçam “naturais e úteis”. A novidade faz parte de um pacote voltado para promover o bem-estar digital e reduzir possíveis impactos negativos do uso contínuo da IA.
Mais atenção a perguntas pessoais
Além dos lembretes para pausas, o ChatGPT também passará a lidar de forma mais cautelosa com questões pessoais sensíveis. Em perguntas como “devo terminar meu relacionamento?”, por exemplo, a IA não dará respostas definitivas, mas incentivará a reflexão, ajudando o usuário a ponderar prós e contras.
Outra novidade é a melhoria na detecção de sinais de sofrimento emocional ou mental. Quando necessário, o modelo será capaz de sugerir recursos de ajuda baseados em evidências, evitando orientações erradas ou respostas simplistas.
De acordo com a OpenAI, essas mudanças foram desenvolvidas com apoio de mais de 90 médicos — incluindo psiquiatras, pediatras e clínicos gerais — de 30 países. A empresa também está criando um grupo consultivo com especialistas em saúde mental e interação humano-computador para aprimorar as diretrizes do chatbot.
CEO alerta: ChatGPT não é um terapeuta
As mudanças chegam em um momento de atenção às interações entre usuários e IA. Milhões de pessoas já recorrem ao ChatGPT para lidar com dúvidas pessoais, mas o próprio CEO da OpenAI, Sam Altman, fez um alerta: não há garantias de confidencialidade nas conversas com o chatbot.
Diferente de um médico ou psicólogo, as interações com a IA não são protegidas por sigilo profissional e podem ser solicitadas judicialmente. Além da privacidade, a empresa reconhece que existe risco de apego emocional à tecnologia, motivo pelo qual revisou mecanismos de feedback e métricas de utilidade.
Com essas medidas, a OpenAI busca equilibrar inovação com responsabilidade, evitando que a IA seja usada como substituto para profissionais de saúde e garantindo interações mais seguras e conscientes.


