The impact of hospital command centre on patient flow and data quality: findings from the UK National Health Service
Mebrahtu TF1,3, McInerney CD1,2, Benn J3,4, McCrorie C2,4, Granger J4, Lawton T5, Sheikh N2, Habli I6, Randell R7,8, Johnson O1,2.
1- School of Computing – University of Leeds – Leeds – Royaume uni
2- Yorkshire and Humber Patient Safety Translational Research Centre – Wolfson Centre for Applied Health Research – Bradford Royal Infirmary – Bradford – Royaume uni
3- Bradford Institute for Health Research – Bradford Teaching Hospitals National Health Service (NHS) Foundation Trust – Bradford Royal Infirmary – Bradford – Royaume uni
4- School of Psychology – University of Leeds – Leeds – Royaume uni
5- Bradford Teaching Hospitals – NHS Foundation Trust – Bradford Royal Infirmary –Bradford – Royaume uni
6- Department of Computer Science – University of York – York – Royaume uni
7- Wolfson Centre for Applied Health Research – Bradford Royal Infirmary – Bradford – Royaume uni
8- Faculty of Health Studies – University of Bradford – Bradford – Royaume uni
Int J Qual Health Care. 2023;10;35(4):mzad072. Accessible à : https://academic.oup.com/intqhc/article/35/4/mzad072/7282369?login=false (Consulté le 01-03-2024).
Au cours des six dernières années, les hôpitaux des pays développés ont testé l’utilisation de centres de pilotage pour améliorer l’efficacité de l’organisation et les soins délivrés aux patients. Cependant, jusqu’à présent, l’impact de ces centres de pilotage n’a pas été évalué de manière systématique. Il s’agit ici d’une étude rétrospective basée sur la population. Les participants étaient des patients qui se sont présentés au service d’urgences de l’hôpital Bradford Royal Infirmary, entre le 1er janvier 2018 et le 31 août 2021. Les critères évalués étaient le flux de patients (mesuré à travers le temps d’attente aux urgences, la durée de séjour et le délai de consultation par le médecin) et la qualité des donnés (mesurée à travers la proportion de données manquantes concernant les traitements et les évaluations cliniques et la validité des transitions entre les différentes étapes de soins aux urgences). Le modèle de régression segmentée pour des données temporelles interrompues et la technique d’exploration de processus ont été utilisés pour l’analyse. Le temps de transition entre l’arrivée du patient aux urgences et l’examen par un médecin s’est légèrement amélioré au cours de la période d’intervention : il y a eu une diminution de 0,9 minute (intervalle de confiance à 95% [IC95] [0,35-1,4]), 3 minutes (IC95 [2,4-3,5]), 9,7 minutes (IC95 [8,4-11,0]) et 3,1 minutes (IC95 [2,7-3,5]) lors de la première période de l’intervention (programme de flux de patients), la deuxième période (annonce du déploiement du centre de pilotage), la troisième période (activation du centre de pilotage), et la quatrième période (programme de formation à l’échelle de l’hôpital), respectivement. Cependant, le temps de transition entre le traitement du patient et la fin de la visite a augmenté de 11,5 minutes (IC95 [9,2-13,9]), 12,3 minutes (IC95 [8,7-15,9]), 53,4 minutes (IC95 [48,1-58,7]), et 50,2 minutes (IC95 [47,5-52,9]) durant les quatre périodes post-intervention, respectivement. De plus, la durée de séjour n’a pas été impactée de manière significative : le changement a été de -8,8h (IC95 [-17,6 à 0,08]), -8,9h (IC95 [-18,6 à 0,65]), -1,67h (IC 95 [-10,3 à 6,9]) et -0,54h (IC95 [-13,9 à 12,8]) au cours des quatre périodes post-interventions, respectivement. Il en était de même pour les temps d’attente et les temps de consultation par le médecin. La qualité des données, mesurée par la proportion des dates manquantes dans les dossiers, était généralement médiocre (date de traitement=42,7% et date de consultation par le médecin=23,4%) et ne s’est pas améliorée de manière significative au cours des périodes d’intervention. D’après les résultats des indicateurs et données utilisées dans la présente étude, il semblerait que la mise en place de centres de pilotage, comprenant des changements au niveau des processus et des logiciels, n’ait pas un impact positif durable sur la sécurité des patients et sur la qualité des données. Par conséquent, les hôpitaux qui envisagent de mettre en place des centres de pilotage ne doivent pas présumer qu’il y aura des améliorations en termes de flux de patients et de qualité des données.
In the last 6 years, hospitals in developed countries have been trialling the use of command centres for improving organizational efficiency and patient care. However, the impact of these command centres has not been systematically studied in the past. It is a retrospective population-based study. Participants were patients who visited the Bradford Royal Infirmary hospital, Accident and Emergency (A&E) Department, between 1 January 2018 and 31 August 2021. Outcomes were patient flow (measured as A&E waiting time, length of stay, and clinician seen time) and data quality (measured by the proportion of missing treatment and assessment dates and valid transition between A&E care stages). Interrupted time-series segmented regression and process mining were used for analysis. A&E transition time from patient arrival to assessment by a clinician marginally improved during the intervention period; there was a decrease of 0.9 min [95% confidence interval (CI): 0.35–1.4], 3 min (95% CI: 2.4–3.5), 9.7 min (95% CI: 8.4–11.0), and 3.1 min (95% CI: 2.7–3.5) during ‘patient flow program’, ‘command centre display roll-in’, ‘command centre activation’, and ‘hospital wide training program’, respectively. However, the transition time from patient treatment until the conclusion of consultation showed an increase of 11.5 min (95% CI: 9.2–13.9), 12.3 min (95% CI: 8.7–15.9), 53.4 min (95% CI: 48.1–58.7), and 50.2 min (95% CI: 47.5–52.9) for the respective four post-intervention periods. Furthermore, the length of stay was not significantly impacted; the change was −8.8 h (95% CI: −17.6 to 0.08), −8.9 h (95% CI: −18.6 to 0.65), −1.67 h (95% CI: −10.3 to 6.9), and −0.54 h (95% CI: −13.9 to 12.8) during the four respective post-intervention periods. It was a similar pattern for the waiting and clinician seen times. Data quality as measured by the proportion of missing dates of records was generally poor (treatment date=42.7% and clinician seen date=23.4%) and did not significantly improve during the intervention periods. The findings of the study suggest that a command centre package that includes process change and software technology does not appear to have a consistent positive impact on patient safety and data quality based on the indicators and data we used. Therefore, hospitals considering introducing a command centre should not assume there will be benefits in patient flow and data quality.
Van Innis AL. L’impact des centres de pilotage sur le flux de patients et la qualité des données. Risques & Qualité 2024;(21)1;54-56.