Bitcoin

Avoid These 8 Mistakes When Using AI in Healthcare

Toutes les sociétés pharmaceutiques qui développent de nouveaux médicaments doivent respecter des directives réglementaires intenses et soumettre des milliers de pages de rapports d'étude clinique et de résumés de sécurité pour se rapprocher de leur médicament sur le marché.

Imaginez, pour accélérer ce processus élaboré, une entreprise pharmaceutique décide de tirer parti d'un modèle grand langage pour aider à créer cette masse de contenu. L'équipe mène des pilotes, testant le LLM sur des ensembles de données plus petits et moins complexes. Ces pilotes intègrent des examinateurs humains à l'aide d'une approche humaine en boucle, en se concentrant principalement sur la vitesse, la mise en forme de base et la garantie de précision initiale. Les premiers résultats sont prometteurs – la vitesse s'améliore considérablement et les projets semblent bien organisés.

Cependant, les pilotes manquent une faille critique: malgré l'implication des examinateurs humains, le LLM lutte toujours avec des interprétations cliniques sensibles au contexte lors de tâches plus complexes. Lors des revues pilotes, les erreurs semblent mineures et sont facilement fixées par l'équipe, conduisant à un faux sentiment de sécurité. Mais lorsque le modèle est mis à l'échelle pour aider à la soumission complète, ces problèmes se composent. Lors d'une réunion de revue cruciale, il devient évident que plusieurs sections contiennent des références obsolètes et que les données cliniques clés sont mal interprétées d'une manière qui n'était pas évidente lors de tests à plus petite échelle. La surveillance se produit parce que les pilotes n'ont pas soigneusement testé la capacité de la LLM à gérer toute la portée et la complexité des documents réglementaires.

Le résultat? Des semaines de retouches, des retards de soumission et des pénalités réglementaires potentielles, toutes résultant d'une validation insuffisante et d'une surestimation des capacités de la LLM.

Ce scénario n'est pas seulement hypothétique. L'industrie des soins de santé, y compris la pharmacie, les dispositifs médicaux et les soins aux patients, a toutes accru leur dépendance à l'égard de l'IA, en particulier les LLM. Mais alors que New Tech apporte une immense promesse – comme il est démontré dans cet exemple – cela augmente également le risque. Lorsque l'IA n'est pas correctement intégrée et validée, elle peut compromettre non seulement les délais, mais aussi la conformité, la sécurité des patients et la confiance dans la technologie.

Bien qu'il soit vrai que dans l'industrie des soins de santé, les organisations doivent adhérer à des processus de validation stricts, de plusieurs niveaux d'examen des données et de directives réglementaires établies, l'intégration de LLMS présente des défis nouveaux et uniques qui doivent être compris et abordés.

Explorons les pièges de la santé communs que les organisations de soins de santé sont confrontés lorsque vous essayons de mettre en œuvre les LLM dans les flux de travail et comment les aborder pour construire un avenir plus sûr et plus efficace pour l'IA dans les soins de santé.

Soulignement sur l'IA sans intégration d'expertise du domaine

Pitre: Lorsque les sociétés pharmaceutiques ou les entreprises de soins de santé déploient les LLM pour rationaliser les processus de prise de décision, la tentation de laisser l'IA prendre les rênes peut être forte. Les LLM peuvent traiter de grandes quantités de données beaucoup plus rapidement que les humains. Mais en ce qui concerne le traitement des données, la prise de décision au niveau de l'entreprise implique plusieurs parties prenantes, des nuances contextuelles et des considérations réglementaires qui nécessitent plus qu'une simple vitesse.

Même avec des cadres de validation rigoureux en place, le fait de recourir à l'IA sans expertise du domaine humain peut être une erreur critique, en particulier dans une industrie aussi élevée que les soins de santé. Par exemple, Imb's Watson, un outil visionnaire destiné à révolutionner l'oncologie, s'est avéré biaisé et peu fiable. Ses recommandations n'ont souvent pas réussi à s'aligner sur les décisions des oncologues expertes, car le système n'a pas compris les nuances des cas de patients individuels et les complexités des émotions humaines impliquées dans les choix de traitement.

Les leçons apprises: La leçon clé ici est que les systèmes d'IA devraient augmenter, et non remplacer, l'expertise humaine, en particulier en médecine. Les organisations de soins de santé devraient adopter un modèle hybride pour l'intégration de l'IA. Ce modèle exploite l'IA pour ses forces – vitesse, reconnaissance de motifs et traitement de grands ensembles de données – tout en gardant les humains dans la boucle pour les tâches nécessitant une compréhension contextuelle, des connaissances réglementaires et une pensée critique.

Problèmes de qualité des données non résolus à travers les systèmes fragmentés

Pitre: L'un des plus grands défis opérationnels des soins de santé et de la pharma est la nature fragmentée des données. Des dossiers des patients dans les essais cliniques aux ensembles de données d'exploitation pour les soumissions réglementaires ou les données des systèmes commerciaux, les informations sont souvent stockées dans divers systèmes avec beaucoup utilisant différents formats et normes.

Pour en énumérer quelques-uns: le Clinical Data Interchange Standards Consortium pour l'organisation des données cliniques, le niveau de santé 7 pour l'interopérabilité dans l'échange de données sur la santé et les ressources d'interopérabilité de santé rapide pour le partage de données standardisé dans les applications de soins de santé.

Les LLM peuvent produire des sorties inexactes ou incomplètes sans harmonisation des données et adhésion à ces normes, ce qui a un impact négatif sur la prise de décision.

Les leçons apprises: une stratégie rigoureuse de gestion des données doit être mise en place pour assurer des sorties d'IA fiables. Cela comprend la normalisation des données, la transformation et la conformité aux formats de données réglementaires. Les protocoles de gouvernance des données au niveau de l'entreprise et les solutions d'interopérabilité des données peuvent aider à garantir que le LLM travaille avec des données uniformes, ce qui réduit davantage le risque d'interprétation erronée.

Risques éthiques et de conformité dans la gestion des données de santé sensibles

Piège: Les antécédents médicaux et les dossiers de traitement sont considérés comme des informations de santé protégées (PHI). Les organisations risquent des amendes juridiques importantes et des dommages de réputation si ces données sont mal gérées par un accès non autorisé, un consentement inadéquat ou une faible sécurité, donc la saisie du PHI dans les LLM fait des préoccupations concernant les risques éthiques et de conformité.

Leçon apprise: Dans un établissement de soins de santé, les LLM doivent avoir des cadres de gouvernance des données robustes qui priorisent le consentement des patients, la sécurité des données et la conformité. Cela implique la mise en œuvre du chiffrement des données, de l'anonymisation des données et des techniques de dé-identification, et nécessitant un comité d'éthique des données pour examiner tous les projets liés à l'IA.

Mauvaise intégration avec les flux de travail organisationnels existants

Piège: Lorsque peu de planification a été intégrée à l'intégration d'un modèle d'IA dans les flux de travail existants, ils peuvent perturber les opérations, ralentir la productivité et ne pas offrir les avantages prévus. Par exemple, pour qu'un système d'IA analyse avec succès les données des patients et optimiser les protocoles d'essai, il peut nécessiter un recyclage complet du personnel, qui doit être organisé et livré avant l'intégration d'IA.

Leçons apprises: Les organisations doivent hiérarchiser la compatibilité du flux de travail et garantir l'alignement avec les structures de prise de décision d'entreprise lors du déploiement de LLMS. Les organisations doivent identifier les domaines clés où la LLM interagira avec d'autres systèmes, processus et personnel. Il est préférable d'adopter une intégration modulaire et de créer des interfaces conviviales qui permettent au personnel d'interagir avec l'IA sans avoir besoin d'apprendre des systèmes entièrement nouveaux pour réduire considérablement les frictions et améliorer l'adoption des utilisateurs.

Validation et surveillance du modèle inadéquat après le déploiement

Piège: Les LLM, comme n'importe quel modèle d'apprentissage automatique, peuvent ressentir une «dérive du modèle» dans le temps. C'est là que les sorties deviennent moins précises à mesure que les données sous-jacentes ou les connaissances médicales. Par exemple, un modèle prédictif développé pendant la pandémie Covid-19 peut avoir du mal à s'assimiler bien aux scénarios post-crise, en continuant à fournir des résultats en fonction des données sur lesquelles elle a été formée, conduisant à des recommandations de soins inappropriées.

Leçons apprises: Bien que les organisations de soins de santé aient déjà une revue continue des données et l'adhésion aux normes réglementaires, le déploiement de LLMS nécessite une couche supplémentaire de surveillance du modèle pour assurer l'alignement sur l'évolution des données et des connaissances médicales. Les organisations de soins de santé doivent établir des processus de surveillance et de validation des modèles robustes post-déploiement. Cela implique la mise en place d'une boucle de rétroaction continue où les résultats de la LLM sont régulièrement examinés contre de nouvelles données et l'évolution des connaissances médicales. La mise en œuvre de la validation en temps réel, du recyclage régulier des modèles et des systèmes d'apprentissage continu sont des étapes opérationnelles essentielles.

Négliger les exigences réglementaires et de conformité

Piège: Les systèmes d'IA ont un dédale de réglementations de santé auxquelles ils doivent respecter. De la bonne pratique d'apprentissage automatique (GMLP) par la FDA, aux normes ISO / IEC 27001 pour la sécurité de l'information, et le règlement général sur la protection des données (RGPD) pour la confidentialité des données au sein de l'Union européenne. La négligence de ces normes peut entraîner des retards coûteux, une non-approbation des soumissions ou même des pénalités légales.

Leçons apprises: La conformité réglementaire doit être intégrée dans chaque phase de la conception et du développement de l'IA. Cela consiste à construire des vérificateurs de conformité dans le flux de travail LLM lui-même, à maintenir des sentiers d'audit détaillés et à hiérarchiser la technologie d'IA explicable qui permette aux examinateurs humains de comprendre comment le LLM est arrivé à des conclusions spécifiques.

Surpromis les capacités de l'IA aux parties prenantes

Piège: La surestimation du potentiel de l'IA, sans garde-corps claire pour les attentes, peut entraîner une désillusion, un désalignement avec les objectifs commerciaux et des ressources gaspillées.

Leçons apprises: Les attentes réalistes de ce que les LLM peuvent et ne peuvent pas faire doivent être partagées et comprises par toutes les parties prenantes. Cela implique de prendre en compte la complexité de la prise de décision d'entreprise, de l'adhésion réglementaire et de l'intégration opérationnelle. L'adoption d'une stratégie de mise en œuvre par étape permet à l'IA de prouver de manière progressive ses capacités de test et de définir des KPI clairs et des mesures qui définissent le succès en termes mesurables sont cruciaux.

Ignorer le besoin de personnalisation dans le développement de modèles

Piège: Les modèles d'IA standard ne pourront jamais répondre aux besoins spécifiques des organisations de soins de santé. Leur mise en œuvre peut non seulement conduire à des résultats de qualité inférieure et à une précision réduite, mais peut même risquer la sécurité des patients. Par exemple, une étude du MIT a révélé qu'un modèle d'IA avait formé principalement sur les images d'un groupe démographique a mal performé lors de l'analyse des images d'une population plus diversifiée, entraînant des diagnostics manqués et un préjudice potentiel pour les patients

Leçons apprises: La personnalisation est le seul moyen de déployer avec succès les LLM dans les milieux de santé. Cela implique de régler le LLM avec des ensembles de données spécialisés et d'ajuster les workflows du modèle pour s'adapter aux processus organisationnels établis. La collaboration entre les experts de l'IA et les professionnels de la santé peut aider à créer des processus de validation de sortie généralisés et exécutoires.

Conclusion

Il est clair que l'utilisation de LLMS dans les soins de santé peut transformer les opérations et permettre aux organisations de profiter de nouveaux niveaux d'efficacité et de perspicacité. Mais ce succès dépendra de la quantité de planification réfléchie et de l'exécution intelligente que chaque organisation met. Une dépendance excessive à l'IA à une mauvaise intégration, au manque de formation du personnel et à la personnalisation inadéquate sont des pièges courants que l'industrie des soins de santé devrait éviter. En apprenant à partir de ceux-ci, l'industrie des soins de santé peut garantir que leurs déploiements d'IA offrent une valeur réelle.


Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button

Adblocker Detected

Please consider supporting us by disabling your ad blocker