Mudança ocorre após debates sobre responsabilidade, segurança e riscos legais no uso da IA.
A OpenAI anunciou mudanças nas diretrizes de uso do ChatGPT, restringindo a atuação da IA em áreas sensíveis como saúde e direito. Agora, o modelo só fornece informações gerais, enquanto redireciona os usuários para profissionais qualificados. A medida busca evitar diagnósticos incorretos, interpretações imprecisas e possíveis consequências legais.
Além disso, o ChatGPT não poderá mais analisar imagens médicas, incluindo exames de radiografia ou ressonância, nem interpretar laudos com finalidade de diagnóstico ou tratamento. Recentemente, alguns usuários exploravam essas funções, mas a empresa reforça que esse tipo de orientação deve ser feito exclusivamente por especialistas humanos.
Responsabilidade
A decisão surge após discussões sobre responsabilidade e segurança no uso de inteligência artificial em áreas críticas. Com as mudanças, a OpenAI garante que o ChatGPT continue apto a explicar conceitos gerais, auxiliar na compreensão de temas complexos e revisar textos ou dados, mas não substitui o papel de médicos ou advogados.
A empresa enfatiza que as restrições não representam retrocesso tecnológico. Pelo contrário, elas representam avanço no controle ético e regulatório, permitindo que a IA seja utilizada de forma segura e confiável em contextos de alto risco.
Aplicações
Mesmo com as limitações, os usuários ainda podem usar o ChatGPT para informações educativas e esclarecimento de dúvidas gerais, mantendo a ferramenta útil sem comprometer a segurança e a responsabilidade profissional.
Junte-se aos grupos de WhatsApp do Portal CONTEXTO e fique por dentro das principais notícias de Anápolis e região. Clique aqui.


