ChatGPT Health: What You’re Meant to Use the AI for, and Everything You Should Avoid

https://www.profitableratecpm.com/f4ffsdxe?key=39b1ebce72f3758345b2155c98e6709c

À ce stade, il est raisonnable de supposer que vous avez utilisé un chatbot comme ChatGPT ou Gémeaux. En plus de poser des questions générales ou faire résumer de longs textesvous avez peut-être aussi posé une question sur la santé. Peut-être essayiez-vous de déterminer si un symptôme méritait de s’inquiéter ou de donner un sens aux résultats de laboratoire, souvent tard dans la nuit, lorsqu’un médecin n’est pas disponible.

Le rapport d’OpenAI de janvier 2026 révèle que plus de 5 % de tous les messages ChatGPT dans le monde concernent les soins de santé, et que plus de 40 millions d’utilisateurs actifs hebdomadaires dans le monde posent chaque jour des questions sur les soins de santé.

(Divulgation : Ziff Davis, la société mère de CNET, a déposé en 2025 une action en justice contre OpenAI, alléguant qu’elle avait violé les droits d’auteur de Ziff Davis dans la formation et l’exploitation de ses systèmes d’IA.)

En janvier 2026, OpenAI a introduit ChatGPT Health pour transformer cette habitude en une fonctionnalité dédiée. Cette « expérience axée sur la santé » dans ChatGPT est conçue pour vous aider à comprendre les informations médicales et à vous préparer à de véritables conversations avec des cliniciens.

Ce n’est pas un outil de diagnostic ou de traitement.

Alors, qu’est-ce que ChatGPT Health exactement et en quoi diffère-t-il du fait de demander à un chatbot une question de santé aléatoire ? Double-cliquons sur le nouvel onglet Santé dans ChatGPT.

Qu’est-ce que ChatGPT Santé ?

ChatGPT Santé n’est-ce pas une application distincte comme la sienne Navigateur IA,Atlas. Il se trouve dans ChatGPT sous la forme d’un espace ou d’un onglet dédié, axé sur les questions, les documents et les flux de travail liés à la santé.

Une capture d'écran de l'onglet Santé dans ChatGPT sur le bureau

L’onglet Santé dans ChatGPT.

ChatGPT/Capture d’écran par CNET

Dans sa note de publication, OpenAI indique avoir travaillé avec plus de 260 médecins ayant exercé dans 60 pays et des dizaines de spécialités pendant deux ans, examinant les réponses des modèles liés à la santé plus de 600 000 fois. En conséquence, il ne répond pas à tout ce qui semble médical de la même manière ouverte qu’une conversation normale. Au lieu de cela, il réagit avec plus de prudence, avec des limites plus strictes sur la manière dont les informations sont expliquées et des incitations plus claires à consulter un professionnel.

ChatGPT Health est disponible sur le Web et dans l’application mobile. Vous n’avez pas besoin de télécharger quoi que ce soit ou de vous inscrire en dehors de ChatGPT lui-même. L’accès dépend du lieu et de l’étape de déploiement, mais vous pouvez vous inscrire sur la liste d’attente.

Début 2026, il est disponible aux États-Unis, au Canada, en Australie, dans certaines parties d’Asie et d’Amérique latine, où ChatGPT prend déjà en charge les fonctionnalités de santé. Il n’est actuellement pas disponible dans l’UE et l’Espace économique européen, au Royaume-Uni, en Chine et en Russie. OpenAI a déclaré que la disponibilité augmenterait, mais les délais varient selon les régions en raison des réglementations locales et des règles en matière de données de santé.

Comment fonctionne ChatGPT Santé

ChatGPT Health utilise le même sous-jacent grands modèles de langage (LLM) comme ChatGPT. Vous posez une question et le modèle génère une réponse. La différence avec la santé réside dans le contexte, l’ancrage et les contraintes.

Alex Kotlar, fondateur de Bystro AI, une plateforme LLM axée sur la génétique pour des informations sur la santé, a déclaré à CNET qu’OpenAI n’avait pas construit un nouveau modèle de santé fondamental.

Atlas de l'IA

“Ils n’ont pas créé un modèle qui comprend soudainement beaucoup mieux les dossiers médicaux. Il s’agit toujours de ChatGPT, simplement connecté à vos dossiers médicaux”, a déclaré Kotlar.

Health s’appuie sur les données que vous choisissez de synchroniser, mais il ne peut y accéder que si vous lui accordez explicitement l’autorisation. Outre les dossiers médicaux, vous pouvez connecter des applications telles que Pomme Santérésultats de laboratoire de Fonction et journaux alimentaires de MonFitnessPal. Vous pouvez également créer un lien Observateurs de poids pour GLP-1 idées de repas, Instacart pour transformer les plans de repas en listes de courses et Peloton pour des recommandations d’entraînement. Cela permet à l’IA de fournir des informations personnalisées basées sur votre historique, plutôt que des conseils génériques.

Ces conversations suivent désormais des règles plus strictes concernant le ton, l’approvisionnement et le style de réponse, qu’OpenAI dit tester à l’aide de son cadre d’évaluation, HealthBench. Il utilise des rubriques rédigées par des médecins pour évaluer les réponses des modèles à travers 5 000 conversations simulées sur la santé, en appliquant plus de 48 000 critères spécifiques pour évaluer la qualité et la sécurité.

Vous pouvez télécharger des documents sur Health, utiliser la commande vocale et faire tout ce que vous feriez normalement dans un chat normal. Si vous examinez plusieurs résultats de tests ou préparez une visite chez un spécialiste, Santé peut garder une trace de ce que vous avez déjà partagé et vous aider à organiser les informations au fil du temps.

OpenAI suggère de l’utiliser pour examiner les résultats de laboratoire, organiser les questions avant un rendez-vous, traduire le langage médical en anglais simple et résumer de longs documents comme les notes de sortie ou les explications d’assurance.

Captures d'écran des questions posées à ChatGPT Health

ChatGPT/Capture d’écran par CNET

OpenAI indique clairement que l’outil est destiné à faciliter les conversations avec les professionnels de la santé, et non à les raccourcir. Il ne peut pas ordonner des tests, prescrire des médicaments ou confirmer un diagnostic. Si vous le traitez comme un médecin, vous ne l’utilisez pas correctement.

Mais le Dr Saurabh Gombar, instructeur clinique à Stanford Health Care et médecin-chef chez Atropos Health, a déclaré à CNET : « Je pense que la préparation et l’éducation elles-mêmes franchissent déjà les limites du conseil médical. »

Health maintient les conversations, les applications connectées, les fichiers et la mémoire spécifique à Health séparés de vos discussions principales, afin que les détails de santé ne reviennent pas dans le reste de ChatGPT. Cependant, Health peut utiliser la mémoire des discussions régulières. Supposons que vous ayez mentionné un déménagement récent ou un changement de style de vie, comme devenir végétalien. La santé peut s’appuyer sur ce contexte pour rendre la conversation plus pertinente.

Il peut également suivre des tendances au fil du temps. Si vous vous connectez Pomme Santévous pouvez poser des questions sur dormir tendances, modèles d’activité ou autres mesures, puis utilisez ce résumé pour en parler à votre médecin.

ChatGPT Health et ChatGPT pour les soins de santé ne sont pas identiques

ChatGPT Health est une fonctionnalité grand public pour le bien-être personnel. Le centre d’aide d’OpenAI indique que la HIPAA ne s’applique pas aux produits de santé grand public comme la santé. HIPAA est la loi sur la portabilité et la responsabilité en matière d’assurance maladie, qui protège au niveau fédéral les informations de santé sensibles d’un patient contre toute divulgation sans son consentement.

Par ailleurs, OpenAI propose « ChatGPT for Healthcare » pour les organisations qui ont besoin de contrôles conçus pour une utilisation clinique réglementée et d’une prise en charge de la conformité HIPAA, y compris des accords de partenariat commercial (par exemple, des contrats entre des prestataires de soins de santé et des sociétés de facturation).

Si vous utilisez ChatGPT Health, vous n’entrez pas dans un système hospitalier, même si vos dossiers médicaux peuvent être connectés à cette fonctionnalité. Vous utilisez un produit grand public doté de protections supplémentaires contrôlées par OpenAI. Ne présumez donc pas que « fonctionnalité de santé » équivaut automatiquement à HIPAA.

Contrôles de confidentialité et de données

OpenAI affirme que Health ajoute des protections supplémentaires aux contrôles existants de ChatGPT, y compris « un cryptage et une isolation spécialement conçus pour garder les conversations de santé protégées et compartimentées ».

Un porte-parole d’OpenAI a déclaré à CNET que les conversations et les fichiers dans ChatGPT sont cryptés par défaut au repos et en transit, et que Health ajoute des protections supplémentaires en raison de la nature sensible des données de santé. Le porte-parole a ajouté que l’accès de tout employé à vos données de santé serait limité aux opérations de sûreté et de sécurité, et que l’accès est plus restreint et limité à des fins que les flux de données de produits typiques.

“Lorsque les consommateurs entendent dire que quelque chose est crypté, ils pensent souvent que personne ne peut le voir. Ce n’est pas vraiment ainsi que cela fonctionne. Chiffré au repos ne signifie pas que l’entreprise elle-même ne peut pas accéder aux données”, a déclaré Kotlar.

Vous pouvez déconnecter des applications, supprimer l’accès aux dossiers médicaux et supprimer les mémoires de santé. Dane Stuckey, responsable de la sécurité de l’information chez OpenAI, affirme également que les conversations sur la santé ne sont pas utilisées par défaut pour entraîner ses modèles de base.

Une capture d'écran d'un article sur X d'OpenAI sur la façon dont ChatGPT est utilisé pour les requêtes liées à la santé

X/Capture d’écran par CNET

Pourtant, « plus protégé que les chats classiques » n’est pas la même chose que sans risque. Même une sécurité renforcée ne peut pas éliminer tout risque lié au stockage en ligne d’informations sensibles sur la santé. C’est une des raisons pour lesquelles la confidentialité les experts ont exhorté les utilisateurs Il faut bien réfléchir avant de télécharger des dossiers médicaux complets dans un outil d’IA.

Limites et problèmes de sécurité

ChatGPT Health peut vous aider à comprendre les informations, mais ça peut encore faire des erreurs. Il y a un risque que les gens prennent les réponses de Health au pied de la lettre. Dans le monde d’aujourd’hui, tout le monde veut des réponses rapides, et l’IA peut sembler convaincante même lorsqu’elle doit être prudente. Sans surprise, l’ECRI (une organisation à but non lucratif chargée de la sécurité des patients) a classé les chatbots IA comme la norme n°1 en matière de technologie de la santé pour 2026.

Hallucinationsl’habitude de l’IA de produire en toute confiance des détails incorrects, importe bien plus dans les soins de santé que lorsque vous le lui demandez résumer un PDF. Si un outil fabrique complètement une étude, interprète mal une valeur de laboratoire ou surestime la signification d’un symptôme, vous pourriez mettre gravement votre santé en danger.

“Le plus grand danger pour les consommateurs est que s’ils n’ont pas de formation médicale, ils auront du mal à évaluer quand quelque chose est vrai et quand il dit quelque chose de mal”, a déclaré Kotlar.

Lorsqu’on lui a demandé de commenter les taux d’hallucinations, le porte-parole d’OpenAI a déclaré que les modèles qui alimentent ChatGPT Health ont « considérablement réduit » les hallucinations et autres erreurs à haut risque dans les conversations médicales difficiles. Selon les évaluations internes HealthBench d’OpenAI, GPT-5 réduit de huit fois les hallucinations dans des scénarios de santé difficiles par rapport aux modèles précédents, réduit les erreurs dans des situations potentiellement urgentes de plus de 50 fois par rapport aux modèles précédents. GPT-4o et ne montre aucun échec détecté dans l’ajustement au contexte sanitaire mondial.
La société affirme également que ses modèles les plus récents sont beaucoup plus susceptibles de poser des questions de suivi en cas d’incertitude, ce qui, selon elle, réduit le risque de réponses confiantes mais incorrectes.

“Les entreprises à l’origine de ces outils doivent partager le fait qu’elles ont mis en place ce type de freins et contrepoids ou ces critères de référence pour garantir que la qualité de la réponse est élevée”, a déclaré Gombar à CNET.

OpenAI affirme que la santé n’est pas destinée au diagnostic ou au traitement et doit soutenir, et non remplacer, les soins des cliniciens.

Kotlar affirme que les soins de santé sont complexes et hautement réglementés, de sorte que des outils comme celui-ci peuvent être « excellents, mais aussi irresponsables en même temps », car beaucoup de choses peuvent encore mal tourner.

Faut-il l’utiliser ?

Les gens utilisaient déjà ChatGPT pour des questions liées à la santé, même si ce n’était pas le bon endroit pour le faire. Étant donné que Santé ajoute des garde-fous plus stricts pour les sujets médicaux, il peut être légèrement plus sûr qu’un chat standard à cet effet. Même les médecins utilisent davantage l’IA dans leur pratique, et cette utilisation a presque doublé entre 2023 et 2024, selon l’American Medical Association, qui a interrogé un peu plus de 1 100 médecins.

Gombar a déclaré que les interactions entre les soins de santé traditionnels et l’IA sont susceptibles de rester, mais ajoute : « il y a place à l’amélioration et aux bénéfices ». Beaucoup de gens je n’ai pas d’accès fiable aux soins cliniques de routine, et si les LLM peuvent au moins aider à déterminer si une personne doit consulter un médecin, cela à lui seul pourrait être significatif.

Si vous faites attention aux données que vous partagez, cela pourrait être utile. Vous pouvez utiliser Santé pour traduire un langage médical ou rédiger des questions afin de ne pas vous figer dans un rendez-vous de 10 minutes. Vous pouvez également lui poser d’autres questions à faible risque sur l’alimentation et l’exercice. Vérifiez toujours les informations auprès de sources fiables ou d’un professionnel. Ne l’utilisez jamais pour vous auto-diagnostiquer, décider de prendre ou d’arrêter un médicament ou interpréter un symptôme grave.

“Les soins de santé ne sont pas comme le codage ou l’écriture”, a déclaré Kotlar. “Lorsqu’il échoue, il échoue d’une manière qui est vraiment dangereuse pour un être humain.”

ChatGPT Health peut vous aider à donner un sens aux informations, mais il ne peut pas assumer la responsabilité de votre santé. Comme la plupart des outils d’IA, sa valeur dépend de la façon dont vous comprenez ses limites.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button