Se você viu nas redes sociais que o ChatGPT “parou de dar conselhos médicos e jurídicos” e ficou tipo “E agora, quem me salva?”, relaxa: era fake. A OpenAI veio a público confirmar que não cortou o papo — a IA ainda pode ajudar a entender temas de saúde ou lei, só que nunca foi substituto de um profissional de verdade.
🕵️ O que rolou
- Circulou um post dizendo que o ChatGPT teria recebido uma atualização que impedia os conselhos jurídicos e médicos.
- O chefe de IA em saúde da OpenAI, Karan Singhal, deixou claro no X que “o comportamento do modelo permanece inalterado”.
- A confusão vem de uma atualização publicada em 29 de outubro que unificou as políticas de uso da empresa — nela consta que o ChatGPT não deve ser usado para “aconselhamento personalizado que exige licença, como jurídico ou médico, sem envolvimento de profissional licenciado”.
- Mas atenção: isso não é novidade. Essa regra já existia desde janeiro de 2025.
✅ O que isso significa pra você
- O ChatGPT continua podendo explicar conceitos jurídicos ou de saúde, ajudar você a entender um contrato ou desenrolar uma dúvida médica básica.
- Não: ele não vai substituir um advogado ou médico que te examina, te dá receita ou representa no tribunal.
- Então sim: se você viu “ChatGPT proibido de dar conselhos”, foi exagero da internet.
🚨 E o que não mudou
- A IA não pode dar recomendações personalizadas que exijam fiscalização/ação de profissional licenciado — tipo “toma esse remédio X” ou “processa esse cara no tribunal Y”. Essas práticas continuam proibidas.
- As regras de uso da OpenAI continuam firmes: “provision of tailored advice that requires a license, such as legal or medical advice, without appropriate involvement by a licensed professional”.
Fontes: OpenAI, The Verge e Business Insider.
✍️ Por João Fernando
falando de tecnologia com bom humor e sem enrolação no Canal EiTV
