As big data becomes more publicly accessible, artificial intelligence (AI) is increasingly available and applicable to problems around clinical decision-making. Yet the adoption of AI technology in healthcare lags well behind other industries. The gap between what technology could do, and what technology is actually being used for is rapidly widening. While many solutions are proposed to address this gap, clinician resistance to the adoption of AI remains high. To aid with change, we propose facilitating clinician decisions through technology by seamlessly weaving what we call 'invisible AI' into existing clinician workflows, rather than sequencing new steps into clinical processes. We explore evidence from the change management and human factors literature to conceptualize a new approach to AI implementation in health organizations. We discuss challenges and provide recommendations for organizations to employ this strategy.
Commentaire du Dr Marius Laurent (PAQS)
- Les auteurs posent la question du fossé qui se creuse entre les progrès de l’intelligence artificielle (IA) qui sont explosifs et ses applications dans la pratique médicale qui stagnent. Il ne suffit pas de changer son point de vue et ne plus comparer le médecin à la machine, mais bien le médecin avec ou sans la machine. Ce n’est pas simple, en particulier du fait que si l’on met l’outil entre les mains du médecin, il sera sous-utilisé si on ne le fait pas évoluer dans le bon sens. Les auteurs plaident pour une intégration de l’IA dans la logique du travail clinique de manière transparente et invisible. La transparence exige que le fonctionnement de l’IA soit compréhensible (comment faire confiance à une suggestion si on ne peut la justifier et exposer le mécanisme qui y a conduit ?), ce qui nécessitera un effort de la part du concepteur, mais aussi du médecin qui devra se former au B A BA des principes de l’IA. L’invisibilité demande que l’intervention de l’IA dans le processus diagnostique soit naturelle et à point nommé. Pas trop tôt, la confiance (ou la défiance) en l’IA biaiserait le raisonnement humain, ni trop tard, ce qui entraînerait pertes de temps et frustration. Les auteurs citent la réussite des générateurs de diagnostics qui accompagnent les électrocardiogrammes (même si tout n’est pas blanc ou noir dans leurs effets sur le diagnostic final), mais il s’agit là d’un outil simple où l’on ne peut qu’à peine parler d’intelligence artificielle (il n’est pas capable d’apprendre en collaboration avec le médecin). Les auteurs n’éludent pas la question de savoir qui est responsable en cas d’erreur, et considèrent qu’elle est loin d’être résolue.
Sibbald M, Zwaan L, Yilmaz Y, et al. Incorporating artificial intelligence in medical diagnosis : a case for an invisible and (un)disruptive approach. J Eval Clin Pract 2022. Doi : 10.1111/jep.13730.