ChatGPT vai alertar um amigo em casos de autoagressão

Apps
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times
AplicLoja Windows 11 Pro

O ChatGPT vai passar a contar com uma nova função de segurança que pode fazer a diferença em momentos críticos. A OpenAI anunciou o Trusted Contact, um sistema que permite ao utilizador indicar uma pessoa de confiança para ser avisada se houver sinais sérios de risco de autoagressão.


A novidade surge numa altura em que cada vez mais pessoas usam a inteligência artificial como espaço de desabafo, apoio emocional e até conversa sobre saúde mental. E é precisamente aí que esta mudança ganha peso.
O que muda com o Trusted Contact no ChatGPT
A funcionalidade foi criada para utilizadores com 18 ou mais anos. Nas definições do ChatGPT, será possível escolher um adulto como contacto de confiança.

Depois disso, essa pessoa recebe um convite e tem até uma semana para o aceitar. Se não responder dentro desse prazo, o utilizador pode selecionar outro contacto.

A ideia é simples: se o sistema detetar que a pessoa pode estar em risco real de se magoar, a OpenAI, depois das medidas para adolescentes, poderá avisar esse contacto para que tente intervir ou, pelo menos, verificar se está tudo bem.

Como funciona o alerta em situações de risco
Antes de qualquer contacto ser feito, o próprio utilizador será avisado de que a OpenAI poderá notificar a pessoa escolhida caso identifique um cenário grave.

O ChatGPT também irá incentivar o utilizador a falar diretamente com esse amigo ou familiar, sugerindo até formas de começar a conversa.

Mas o processo não é totalmente automático. Segundo a OpenAI, existe uma pequena equipa de profissionais com formação específica que analisa cada caso antes de qualquer alerta ser enviado.

Quando é que o contacto recebe a notificação
O aviso só será enviado se essa equipa concluir que existe uma possibilidade séria de autoagressão. Nessa situação, o contacto de confiança poderá receber um email, uma mensagem de texto ou uma notificação na aplicação.

A mensagem enviada indica que o utilizador poderá estar a passar por um momento difícil e recomenda que a pessoa entre em contacto com ele.

Privacidade continua a ser limitada no alerta
Apesar do aviso, a OpenAI diz que não vai partilhar as conversas completas com o contacto de confiança. Ou seja, a empresa pode indicar que houve uma conversa sobre suicídio ou sofrimento grave, mas sem mostrar a transcrição.

Esta abordagem tenta equilibrar dois pontos delicados: a proteção da privacidade e a necessidade de agir rapidamente em situações de emergência.

Porque é que esta novidade é importante
O uso do ChatGPT para apoio emocional tem aumentado de forma clara. A própria OpenAI já revelou anteriormente que mais de um milhão dos seus 800 milhões de utilizadores semanais expressam pensamentos suicidas nas conversas com o chatbot.

Nos últimos anos, o tema ganhou ainda mais atenção depois de críticas e investigações sobre respostas inadequadas da IA em momentos de fragilidade emocional.

Com esta nova ferramenta, a OpenAI tenta mostrar que quer reforçar a segurança do ChatGPT, sobretudo em cenários em que uma resposta automática pode não ser suficiente.

O que isto significa para os utilizadores
Na prática, esta função pode transformar o ChatGPT num serviço mais cauteloso para quem o usa como apoio emocional. Não substitui ajuda profissional, mas acrescenta uma camada extra de proteção.

Para alguns utilizadores, pode ser apenas uma opção discreta nas definições. Para outros, poderá ser um mecanismo importante num momento limite.

É também um sinal claro de que as empresas de inteligência artificial, tal como já vimos no Instagram, estão a ser pressionadas a lidar de forma mais responsável com temas de saúde mental.

Uma tendência que pode alargar-se a outras plataformas
Este tipo de mecanismo poderá abrir caminho a novas regras noutras plataformas de IA e apps de conversação. Se a medida resultar, é provável que mais empresas tecnológicas adotem soluções semelhantes.

Num mercado cada vez mais competitivo, a segurança do utilizador está a tornar-se tão importante como as próprias capacidades da inteligência artificial.

 


Fonte:da Redação e da maistecnologia
Reeditado para:Noticias do Stop 2026
Outras fontes • AFP, AP, TASS, EBS
Material Informático - www.aplicloja.com
Receba diariamente no Grupo STOPMZNWS poderá ler QRCOD
Link do Grupo WhatsApp - https://chat.whatsapp.com/JUiYE4NxtOz6QUmPDBcBCF
Qual Duvida pode enviar +258 827606348 ou E-mail:Este endereço de e-mail está sendo protegido de spambots. Você precisa habilitar o JavaScript para visualizá-lo.

AplicLoja Microsoft Office 2022 Pro Plus