Si OpenAI fait son entrée officielle dans le monde médical avec le lancement de « ChatGPT Health ». Alors, vos données médicales : seront-elles vraiment en sécurité ? Dans un environnement spécialisé au sein de son chatbot populaire. Conçu pour gérer vos informations médicales les plus sensibles.
ChatGPT Santé et vos données médicales
Il est présenté comme un assistant numérique centralisé capable d’analyser vos résultats d’analyses sanguines, de s’intégrer à Apple Santé pour suivre votre sommeil. En plus d’aider à préparer une consultation le tout en accédant à votre dossier médical. Mais alors que les utilisateurs sont invités à partager leur historique médical avec une entreprise d’IA, la question cruciale ne se limite pas à l’utilité ; elle concerne avant tout la sécurité.
ChatGPT Health comme un environnement clos
OpenAI a anticipé les réactions négatives concernant la protection de la vie privée. L’entreprise positionne explicitement ChatGPT Health comme un environnement clos. Selon l’annonce, ce nouveau domaine fonctionne indépendamment de l’interface ChatGPT standard.
L’engagement le plus important est que les données partagées au sein de cet environnement dédié à la santé, y compris les conversations, les fichiers téléchargés et les données des applications connectées, ne seront pas utilisées. Dans le but d’entraîner les modèles de base d’OpenAI. Il s’agit d’une différence fondamentale par rapport à la version gratuite standard de ChatGPT, où les interactions des utilisateurs alimentent les futures itérations de l’IA.
Des protocoles de chiffrement et d’isolation
Techniquement, OpenAI utilise des protocoles de chiffrement et d’isolation spécialement conçus. Pour faciliter la connexion aux dossiers médicaux électroniques (DME) aux États-Unis, l’entreprise s’est associée à b.well, une plateforme de gestion de la santé qui assure la liaison sécurisée entre le chatbot et les professionnels de santé.
Le système est conçu pour permettre aux utilisateurs de révoquer l’accès ou de supprimer les « mémoires de santé » à tout moment, donnant ainsi théoriquement le contrôle total au patient.
L’écart entre sécurité et sûreté
Cependant, les experts en protection de la vie privée et les professionnels de santé restent sceptiques, et à juste titre. La « sécurité » dans le domaine de la santé ne se limite pas à la prévention des fuites de données ; elle englobe également la garantie de l’exactitude et de la conformité. Si OpenAI revendique des protections renforcées, la conformité des outils d’IA destinés directement aux consommateurs à la loi HIPAA demeure floue.
ChatGPT standard n’est pas conforme à la loi HIPAA, et bien que ChatGPT Health ajoute des niveaux de sécurité, il ne constitue pas un dispositif médical réglementé. La plateforme avertit explicitement qu’elle n’est pas destinée au diagnostic ni au traitement, une clause de non-responsabilité « à vos risques et périls » qui transfère l’entière responsabilité des erreurs à l’utilisateur.



































