Christiana Care propose des conseils pour personnaliser la boîte noire & # 39; de l'apprentissage automatique


Pour tous les avantages potentiels de l'intelligence artificielle et de l'apprentissage automatique, l'un des défis technologiques les plus importants et de plus en plus médiatisés est le potentiel de biais algorithmique.

Mais un défi encore plus fondamental pour les hôpitaux et les systèmes de santé cherchant à mettre en œuvre l'IA et le ML peut être le scepticisme du personnel de première ligne, un doute lors de l'utilisation de modèles prédictifs qui, même s'ils ne sont pas biaisés, sont certainement difficiles à comprendre.

Au Christiana Care Health System, basé dans le Delaware, ces dernières années, des efforts ont été faits pour "simplifier le modèle sans sacrifier la précision", explique le Dr Terri Steinberg, son chef de l'information sur la santé et vice-président de l'informatique de la santé à la population.

"Plus le modèle est simple, plus les êtres humains l'accepteront", a déclaré Steinberg, qui parlera davantage de cette notion lors d'une présentation le 12 mars à HIMSS20.

En ce qui concerne les programmes de santé populaires, les ensembles de données utilisés pour conduire l'analyse sont importants, explique-t-il. Qu'il s'agisse de données de DSE, de déterminants sociaux de la santé, de données sur les réclamations ou même d'informations portables, il est essentiel de sélectionner les sources de données les plus pertinentes, d'utiliser l'apprentissage automatique pour segmenter la population, puis, surtout, Présentez ces résultats à des gestionnaires de soins compréhensibles et adaptez-vous à votre flux de travail.

Lors du HIMSS20, Steinberg, en collaboration avec Jason Jones, responsable scientifique des données de Health Catalyst, montrera comment Christiana Care a travaillé pour rationaliser ses processus d'apprentissage automatique, pour s'assurer qu'ils sont plus accessibles et donc plus susceptibles d'être adopté par leurs équipes de soins.

"Le but est de simplifier le modèle autant que possible, afin que les êtres humains comprennent les composants."

Dre Terri Steinberg, Christiana Care Health System

Ils expliqueront comment attribuer une valeur relative aux données de santé pop et analyseront certains des défis associés à son intégration; Ils montreront comment le ML peut segmenter les populations et mettre en évidence des stratégies d'utilisation de nouvelles sources de données qui augmenteront la valeur et l'utilité des modèles prédictifs.

LIS  Avantages incroyables pour la santé de l'huile d'argousier

"Nous faisons cela depuis 2012", a déclaré Steinberg. Et maintenant, nous avons beaucoup de temps sous notre ceinture, nous voulions donc revenir à HIMSS et parler de ce que nous faisions en termes de programmes de gestion des soins et, plus important encore, de la façon dont nous segmentons notre population avec l'apprentissage automatique. "

Instaurer la confiance

"Il y a quelques schémas que nous avons vu se répéter dans les engagements qui sont un peu contraires à la façon dont les gens construisent généralement ces modèles aujourd'hui, qui est de tout jeter et d'espérer pour le mieux", a déclaré Jones, de Health Catalyst, Partenaire prestataire Christiana Care.

Chez Christiana Care, a-t-il déclaré, l'objectif était «d'aider les gens à comprendre tout ce qu'ils veulent sur le fonctionnement des modèles, afin qu'ils puissent leur faire confiance et vraiment les utiliser.

"Nous avons constaté à plusieurs reprises que nous pouvons construire des modèles techniquement fantastiques auxquels les gens ne font tout simplement pas confiance et qu'ils n'utiliseront pas", a-t-il ajouté. "Dans ce cas, nous ferions mieux de ne pas déranger en premier lieu. Alors allons de l'avant et montrons comment nous pouvons construire des modèles de telle manière qu'ils soient techniquement excellents, mais aussi fiables par les personnes qui vont les utiliser."

Au cours des dernières années, "lorsque nous avons créé le modèle et que nous l'avons présenté à nos responsables de soins et que nous avons dit:" Voilà, personnalisez maintenant vos plans de traitement en fonction du score de risque ", ce que nous découvrons est Ils ont fondamentalement ignoré le score et ont fait ce qu'ils voulaient ", a expliqué Steinberg.

LIS  Yoga sur le mur de corde: défiez votre corps pour augmenter la force et l'endurance

Mais en simplifiant un modèle donné au "plus petit nombre de participants et d'éléments de données qui peuvent être", cela permet le développement de quelque chose "assez petit pour que les gens comprennent la liste des composants, afin qu'ils pensent savoir par ce que le modèle a fait une prédiction spécifique ", at-il dit.

Cela a plus de valeur que ne le croient de nombreux professionnels de la santé de la population.

"L'objectif est de simplifier le modèle autant que possible, afin que les êtres humains comprennent les composants", a déclaré Steinberg.

"Les gens aiment comprendre pourquoi un individu particulier entre dans une catégorie de risque", a-t-il déclaré. "Et parfois, ils aimeraient même savoir quelle est la caractéristique qui a causé le risque. Le message final est que plus les êtres humains comprennent ce que fait la machine, plus ils sont susceptibles de faire confiance à la machine. Nous voulons personnaliser la boîte noire ".

Steinberg et Jones parleront davantage de la façon de rendre l'apprentissage automatique significatif dans une session HIMSS20 intitulée "Apprentissage automatique et sélection des données pour la santé de la population". Il est prévu le jeudi 12 mars de 10 heures à 11 heures dans la salle W414A.



Source link

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *