OpenAI lance ChatGPT Health, une expérience dédiée qui propose de connecter des données personnelles de santé à l’agent conversationnel, avec un cloisonnement renforcé et une promesse explicite de non entraînement des modèles sur ces échanges. L’annonce intervient alors que l’usage « hors cadre » de l’IA conversationnelle pour comprendre des symptômes, préparer une consultation ou obtenir un avis de santé se banalise déjà dans le grand public, sans passer par les circuits cliniques établis.
Les outils de recherche avaient habitué les patients à « consulter Internet » avant d’appeler un cabinet. L’agent conversationnel change la grammaire de ce réflexe. Il reformule, hiérarchise, contextualise et, surtout, encourage à déposer plus d’informations qu’un moteur de recherche, parfois jusqu’à des éléments de dossier. L’étape franchie par OpenAI consiste précisément à encadrer ce basculement, en le transformant en produit.
Dans son communiqué, OpenAI affirme que les questions santé figurent parmi les usages les plus fréquents de ChatGPT, avec plus de 230 millions de personnes dans le monde qui posent chaque semaine des questions liées à la santé et au bien-être. L’éditeur présente ChatGPT Health comme un espace séparé, doté de protections supplémentaires, qui « soutient » l’accès à l’information sans se substituer au soin et sans prétendre au diagnostic ni au traitement.
ChatGPT Health formalise un usage massif déjà installé
Le premier signal, c’est la volumétrie revendiquée par OpenAI. Au-delà des 230 millions d’utilisateurs hebdomadaires qui interrogent déjà ChatGPT sur des sujets santé, la création d’un espace dédié acte une réalité de marché, l’agent conversationnel est devenu une interface d’orientation pour des questions qui, historiquement, passaient par un site de référence, un forum, ou un professionnel. Cette trajectoire n’est pas neutre. Elle déplace la charge de tri, de compréhension et de formulation vers une machine qui produit une réponse fluide, mais pas une preuve clinique.
Les travaux de mesure disponibles confirment que le phénomène dépasse l’anecdote. En Australie, une enquête représentative publiée dans The Medical Journal of Australia indique qu’une part non négligeable de la population a déjà utilisé ChatGPT pour obtenir des informations liées à la santé au cours des six mois précédents, avec une exposition très large au service. Ce type de chiffre est précieux, car il documente l’usage « grand public » sans passer par des déclarations marketing d’éditeurs. La santé mentale illustre le désalignement entre besoin immédiat et circuits cliniques./p>
Une étude relayée par Rand, publiée dans Jama Network Open, montre qu’une fraction significative d’adolescents et de jeunes adultes aux États-Unis a déjà sollicité des agents conversationnels pour des conseils en santé mentale, avec une fréquence d’usage élevée chez une partie des répondants. Le point saillant n’est pas seulement l’adoption, c’est le mécanisme qui la rend logique, le coût marginal est nul, la disponibilité est permanente, et l’outil donne l’impression d’une confidentialité supérieure à un échange humain. Ce même corpus met en lumière un angle mort opérationnel. Les répondants déclarent juger l’aide « utile », mais l’étude ne qualifie pas la pertinence clinique des réponses ni leur innocuité sur des profils vulnérables.
Cloisonnement des données et partenaire de connectivité
OpenAI décrit ChatGPT Health comme un espace séparé à l’intérieur de ChatGPT, avec des « mémoires » distinctes et des protections supplémentaires, dont un cloisonnement des conversations et une promesse centrale, les échanges dans Health ne sont pas utilisés pour entraîner les modèles de fondation. L’objectif affiché est d’autoriser un usage plus contextualisé, fondé sur des données personnelles, tout en limitant la propagation de ces informations vers le reste de l’agent.
La connectivité aux données de santé, elle, repose sur un partenaire, b.well, présenté par OpenAI comme un réseau de données de santé « live » pour les consommateurs américains. L’architecture décrite combine des interfaces normalisées de type FHIR (Fast Healthcare Interoperability Resources, le standard international d’échange de données de santé), une gestion du consentement et une logique d’autorisation explicite par l’utilisateur. Côté produit, OpenAI met aussi en avant la connexion à des applications de bien-être, dont Apple Health, Function et MyFitnessPal. L’accès est, à ce stade, limité aux utilisateurs hors Espace économique européen, hors Suisse et hors Royaume-Uni.























