Cela devient intéressant, car Anthropic vient de lancer des intégrations de santé pour Claude, qui vous permettent de connecter les données des applications de fitness et de santé directement à leurs modèles. Pour ce genre de chose : analyser les données de la montre, de l’appareil PAP, de l’oxymètre de pouls nocturne et dans le domaine des tests périodiques/spécialisés, j’ai ChatGPT : mais je dois moi-même mettre pratiquement toutes ces données dans les conversations. Tout cela est dû aux législateurs européens, qui pensent généralement avec sobriété à notre vie privée, mais leurs moulins législatifs bloquent effectivement les fonctions intéressantes de l’IA.
Je sais que cela peut être trop pour certaines personnes : mais je comprends aussi que de nombreux utilisateurs de modèles de langage les utilisent de cette façon. Par conséquent, OpenAI dispose de ChatGPT Health (mais non disponible dans l’UE et pareil avec Claude, malheureusement) : un espace séparé pour l’analyse de la santé et l’intégration avec Apple Health et Google Health.
Les intégrations de santé pour Claude consistent essentiellement à connecter des applications liées à la santé et à l’activité afin que l’assistant ait accès aux chiffres que nous visualisons généralement divisés en graphiques, onglets et « anneaux fermés ». Cependant, de nombreuses personnes ne savent pas ce que signifient ces chiffres et ne peuvent pas en tirer de conclusions. Cela ne leur donne pas une mauvaise image, les applications de santé traduisent et extraient rarement elles-mêmes la « viande » des données.
Grâce à cela, Claude est censé résumer l’histoire de notre santé et expliquer les paramètres « en termes humains » : ce qu’ils signifient, quelles peuvent être leurs causes et comment les comprendre dans le contexte de la vie quotidienne. Moins il y a de jargon médical, plus cela a de sens pour l’utilisateur.
Anthropic veille également à ne pas en faire trop dans la communication. L’entreprise souligne que les réponses de Claude ne remplace pas une consultation médicaleet les problèmes plus graves doivent être évalués par un professionnel. Il s’agit d’une assurance typique, mais nécessaire. Il est déjà arrivé que des personnes effrayées par une « consultation avec le Dr GPT » se précipitent chez leur médecin et insistent sur une procédure médicale spécifique car « elles pourraient mourir ». Comme il s’est avéré le plus souvent, ils allaient bien et le modèle dépassait tout simplement. N’oubliez pas non plus qu’aucune IA ne remplacera votre médecin.
Fondation dans les données
Si vous deviez trouver le TOP des recommandations santé les plus courantes sur Internet, quels seraient-ils ? Dormez mieux. Bougez. Buvez de l’eau. Standard. Sans données, ces informations générales n’ont aucun sens – et l’utilisateur obtient toujours une liste de contrôle qui s’applique à tout le monde et à personne en même temps.
La connexion des données de santé à l’IA déplace l’attention vers des conseils spécifiques qui pointent vers un fondement dans les données. Du coup, l’assistant ne se fie pas à des déclarations, mais voit des tendances : diminution d’activité, mauvais sommeil, pics de fréquence cardiaque, manque de régénération. L’IA est généralement efficace pour repérer les tendances et les modèles, ce qui peut être utilisé de manière judicieuse et judicieuse.
Claude peut ainsi reconstituer des éléments que vous examineriez normalement séparément dans les applications de santé : l’historique, les moyennes, les changements au fil du temps. Cela peut également vous aider à remarquer des relations qui nous échappent souvent.
Confidentialité
Les données de santé font partie des informations les plus sensibles qu’une personne puisse fournir à une entreprise technologique. Même si nous parlons de paramètres de formation, nous parlons toujours de choses très sensibles : on peut en savoir beaucoup plus sur l’utilisateur à partir de ces données que sur son activité sur Internet en général.
Anthropic promet des « règles strictes » pour la protection des informations. Connexion de données requise consentement expliciteet les conversations liées à la santé ne sont pas destinées à être enregistrées dans la formation des modèles ou dans la mémoire de discussion. Tout cela parce que dans les assistants IA, la mémoire est l’un des points généralement les moins fiables. Dans le même temps, l’entreprise n’a pas précisé si les données sont traitées en arrière-plan afin d’éliminer la fraude, de développer des modèles, etc. Cela ne veut pas nécessairement dire quelque chose de mauvais – mais le manque de détails donne aux utilisateurs la possibilité de développer une certaine… anxiété.
Claude vient chez le médecin, et le médecin…
Dans le même temps, Anthropic a annoncé quelque chose de plus important : Claude pour la Santé. Il s’agit d’une version destinée aux professionnels de la santé, conforme à la norme américaine de protection des données de santé. Les enjeux sont ici plus importants, car il s’agit du soutien des professionnels de la santé, et les exigences seront bien plus grandes.
Claude pour les médecins est censé se connecter à des bases de données, aux dossiers des patients, à un ensemble de codes concernant les diagnostics et les procédures dans les normes applicables, etc. Au lieu de lire manuellement la documentation, les réglementations, les classifications et l’historique des patients, un médecin peut interroger le système en langage naturel et obtenir la réponse dont il a besoin.
Claude promet d’économiser du temps, de la paperasse et de l’argent. L’IA doit être extrêmement humble et aussi efficace que possible : une erreur dans un contexte clinique peut être une tragédie. L’entreprise s’est donc mise à fond.
Les utilisateurs testent déjà
Il est intéressant de noter que les premières réactions de Claude aux intégrations de soins de santé sont assez mitigées. Certaines personnes publient des années de données, créent des tableaux de bord personnels, recherchent des tendances et tentent de « se comprendre » à l’aide de statistiques. Un peu sensé, un peu névrosé, je le ferais moi-même. Oh, attendez : c’est ce que je fais, mais « autour ».
Le deuxième groupe est sceptique, principalement en raison de la confidentialité. Et ils ne sont guère surpris, car l’industrie technologique vend depuis longtemps la vie privée comme une promesse et saute ensuite sérieusement sur cette promesse en talons hauts. Anthropic parle d’un « conteneur de données sécurisé » à l’intérieur de Claude, mais les gens sont déjà convaincus que le charabia marketing n’est pas une garantie pour eux. Ils ont raison, sans aucun doute. L’industrie technologique est l’une des plus corrompues : parce que tout est question d’argent. Et comme il s’agit d’entreprises absolument énormes, elles gâtent encore plus les directoires et les actionnaires.
L’IA veut être partout
Les plus grands acteurs du marché de l’IA tentent clairement d’étendre leur influence à d’autres domaines de la vie de l’utilisateur. OpenAI possède ses propres intégrations de ce type et commence à diffuser des publicités auprès des utilisateurs de forfaits inférieurs. Microsoft intègre Copilot dans pratiquement tous les coins de Windows et investit massivement dans les centres de données. Google se pousse avec ses coudes et ses jambes : parce qu’il a de l’argent pour le développement de centres de données et de modèles : pratiquement illimités.
Lire aussi : Amazon investit 4 milliards de dollars dans Claude AI. Il a un agenda caché
Ne soyons donc pas surpris que l’intelligence artificielle veuille nous « aider » (c’est peut-être un gros mot, car nous aidons de manière désintéressée, et les entreprises derrière les modèles d’intelligence artificielle NE SONT PAS altruistes) en tout. Il veut simplement gérer tous les domaines de notre vie. Pourquoi? Pour de l’argent. Si une société informatique vous dit qu’elle fait quelque chose pour vous, alors… elle vous trompe. Vous auriez survécu sans ses soins : peut-être un peu moins confortablement, mais quand même.
