1
S76 Colloque Adelf-Emois / Revue d’Épidémiologie et de Santé Publique 62S (2014) S71–S92 Méthodes.– Près de 7000 séjours hospitaliers représentant deux années d’hospitalisations d’un hôpital du nord de la France sont utilisés. Un tirage au sort permet de constituer un échantillon d’apprentissage et un échantillon de test. Les diagnostics présents au moins 135 fois sont les variables à prédire. Des motifs séquentiels sont construits à partir des courriers hospitaliers, d’une part, et des résultats de biologie et prescriptions médicamenteuses, d’autre part. Ces motifs séquentiels sont utilisés comme variables explicatives afin de prédire les diagnostics : des règles de prédiction sont construites en utilisant notamment l’indice de Gini. Résultats.– Un dictionnaire médical contenant près de 47 000 motifs fréquents est obtenu, d’une part, et plus de 150 000 motifs fréquents de prescriptions médicamenteuses et résultats de biologie sont générés, d’autre part. Ensuite, 356 règles de prédiction sont construites, soit environ 6,5 règles par diagnostic. L’évaluation de ces règles sur l’échantillon de test permet de retrouver près de 86 % des diagnostics (rappel) et parmi les diagnostics retrouvés, 87 % sont cor- rects (précision). La biologie et les médicaments sont retrouvés parmi 17 des jeux de règles générés pour chaque diagnostic. Discussion/Conclusion.– Des règles de prédiction de diagnostics CIM- 10 incluant plusieurs types de données ont été construites par fouille de données et évaluées. Les résultats obtenus suggèrent que la prédiction de codes est amé- liorée lorsque des informations structurées hétérogènes sont utilisées, en plus des seuls courriers. http://dx.doi.org/10.1016/j.respe.2014.01.016 B2-3 Exploitation automatisée des données électrocardiographiques pour le codage : mise en place et évaluation E. Chazard a , C. Dumesnil a , M.S. Marcolino b , A. Caron a , M.B. Alkmim b , A.L. Pinho-Ribeiro b a EA 2694, université Lille Nord de France, CHRU de Lille, Lille, France b Hospital das Clinicas, Universidade Federal de Minas Gerais, Belo Horizonte, MG, Brésil Introduction.– Le contrôle de qualité du codage est souvent guidé des procédures qui permettent de détecter des oublis de codes. Certaines de ces procédures sont automatisées et s’appuient sur des données produites en routine : les courriers de sortie, les résultats de laboratoire et les médicaments administrés. Un concept présent dans ces sources sans code correspondant déclenche alors une alerte. Le signal des électrocardiogrammes (ECG) n’est pas utilisé, alors que ce signal est parfois disponible et qu’il existe des interpréteurs automatisés, comme le Glasgow University Interpreter (GUI). L’objectif de ce travail est de mettre en place cet interpréteur et d’évaluer son aptitude à détecter automatiquement des anomalies électrocardiographiques. Méthodes.– Un ensemble de 897 ECG est analysé séquentiellement par trois cardiologues afin d’obtenir un gold standard. Le GUI est exécuté afin d’obtenir un diagnostic automatisé. Les deux codages sont comparés. Les anomalies ECG détectées sont triées selon la moyenne harmonique (F) de la sensibilité et de la valeur prédictive positive. Résultats.– Le GUI obtient ses meilleurs résultats pour (anomalie, code CIM10, moyenne harmonique) : – les blocs de branche droits, I451, F = 0,722 ; – les fibrillations atriales, I490, F = 0,667 ; – les déviations de l’axe du QRS, R943, F = 0,604 ; – les blocs de branche gauche, I447, F = 0,582 ; – les tachycardies atriales, I471, F = 0,571 ; – les blocs atrio-ventriculaires du premier degré, I440, F = 0,516 ; – les extrasystoles atriales, I491, F = 0,500 ; – les syndromes de Wolff-Parkinson-White, I456, F = 0,500. Discussion/Conclusion.– Ces moyennes harmoniques sont modérément bonnes (du même ordre qu’entre deux médecins non experts), principalement du fait de faibles taux de prévalence. Néanmoins, cette approche permettrait de retrou- ver automatiquement, à moindre effort, certaines complications et morbidités associées. Par exemple, I490 est une CMA de niveau 2, et ce code rapporte en moyenne 71D par séjour lorsqu’il est utilisé (étude http://valodiag.cefimis.com). Il représente 1,46 % des cas de notre échantillon et est détecté avec une valeur prédictive positive de 52,2 %. http://dx.doi.org/10.1016/j.respe.2014.01.017 B2-4 Courbes des valeurs des GHS en fonction de la durée et de la sévérité : tracé systématique et analyse M. Djennaoui a , M. Genty b , E. Aernout a , F. Maury b a Service d’information et des archives médicales, EA 2694, CHRU de Lille, Lille, France b SARL CEFIMIS, Lille, France Introduction.– L’arrêté tarifaire estime le prix d’un séjour selon sa racine de GHM, sa durée et son niveau de complexité. Son interprétation est complexe car l’algorithme de groupage tient également compte de la durée, les CMA ne s’appliquent pas toujours, les bornes temporelles varient, il peut exister plusieurs GHS par GHM. Objectif.– Représenter graphiquement et discuter la relation entre durée, comple- xité et valorisation (totale et journalière) des séjours au sein des racines de GHM. Méthodes.– Exploitant les fichiers de tarifs diffusés par l’ATIH, un programme est développé en R afin de tracer, pour chaque GHS, la valeur du séjour en fonc- tion de sa durée. Les courbes sont ensuite regroupées par racine de GHM. Les limites temporelles sont recalculées en fonction des autres GHS de la racine. La valeur journalière moyenne est représentée similairement. Trois graphiques sont produits pour chaque racine, en 2012 et 2013, secteurs ex-DGF et ex-OQN, soit un total de 7662 images PNG. L’analyse est focalisée sur les catégories majeures diagnostiques 1 et 4 à 7, correspondant à 206 racines de GHM et 1035 GHS du secteur ex-DGF en 2013. Résultats.– L’analyse du profil des courbes d’évolution du tarif journalier en fonction des durées de séjour identifie cinq profils : – une décroissance graduelle du tarif journalier (610 GHS, 59 %) ; – une décroissance entrecoupée d’une réascension précoce (197 GHS, 19 %) ; – une décroissance entrecoupée d’une réascension tardive (71 GHS, 6,9 %) ; – un aplatissement de la courbe (152 GHS, 15 %) ; – une réascension sans décroissance (5 GHS, 0,5 %). Il ressort de l’analyse des spécificités médicales de ces profils que la réascen- sion tardive concerne surtout des GHS chirurgicaux de niveau 4 tandis que le l’aplatissement est typique des GHS médicaux de niveau 1. Discussion/Conclusion.– Les valorisations en fonction de la durée et de la sévé- rité sont parfois différentes de la représentation que les professionnels s’en font, plus encore pour la valorisation journalière moyenne. Les images sont librement téléchargeables à l’adresse http://ghs.cefimis.com. http://dx.doi.org/10.1016/j.respe.2014.01.018 B2-5 Comparaison de performance des algorithmes de rapprochement de patients X. Li a , A. Guttman a , S. Cipière b , L. Maigne b , J.-Y. Boire a , L. Ouchchane a a Institut des sciences de l’image pour les techniques interventionnelles, UMR 6284 UdA-CNRS, Clermont-Ferrand, France b Laboratoire de physique corpusculaire, UMR6533 CNRS/IN2P3 UBP, Aubière, France Introduction.– En l’absence d’identifiant unique, le chaînage des données distri- buées d’un même patient nécessite des algorithmes de rapprochement. À partir des traits d’identification communs entre deux patients, ces algorithmes ont pour principe de quantifier l’éventualité qu’il s’agisse d’un même individu. La compa- raison de ces algorithmes est difficile du fait que leur évaluation est souvent réalisée dans des contextes spécifiques. Nous avons comparé quatre algorithmes de chaînages, deux algorithmes princeps et deux adaptations, sur les mêmes données, afin d’en évaluer les performances. Méthodes.– Quatre algorithmes sont évalués : – chaînage probabiliste selon Fellegi et Sunter ;

Exploitation automatisée des données électrocardiographiques pour le codage : mise en place et évaluation

  • Upload
    al

  • View
    213

  • Download
    0

Embed Size (px)

Citation preview

S76 Colloque Adelf-Emois / Revue d’Épidémiologie et de Santé Publique 62S (2014) S71–S92

Méthodes.– Près de 7000 séjours hospitaliers représentant deux annéesd’hospitalisations d’un hôpital du nord de la France sont utilisés. Un tirageau sort permet de constituer un échantillon d’apprentissage et un échantillon detest. Les diagnostics présents au moins 135 fois sont les variables à prédire. Desmotifs séquentiels sont construits à partir des courriers hospitaliers, d’une part,et des résultats de biologie et prescriptions médicamenteuses, d’autre part. Cesmotifs séquentiels sont utilisés comme variables explicatives afin de prédire lesdiagnostics : des règles de prédiction sont construites en utilisant notammentl’indice de Gini.Résultats.– Un dictionnaire médical contenant près de 47 000 motifs fréquentsest obtenu, d’une part, et plus de 150 000 motifs fréquents de prescriptionsmédicamenteuses et résultats de biologie sont générés, d’autre part. Ensuite,356 règles de prédiction sont construites, soit environ 6,5 règles par diagnostic.L’évaluation de ces règles sur l’échantillon de test permet de retrouver près de86 % des diagnostics (rappel) et parmi les diagnostics retrouvés, 87 % sont cor-rects (précision). La biologie et les médicaments sont retrouvés parmi 17 desjeux de règles générés pour chaque diagnostic.Discussion/Conclusion.– Des règles de prédiction de diagnostics CIM-10 incluant plusieurs types de données ont été construites par fouille de donnéeset évaluées. Les résultats obtenus suggèrent que la prédiction de codes est amé-liorée lorsque des informations structurées hétérogènes sont utilisées, en plusdes seuls courriers.

http://dx.doi.org/10.1016/j.respe.2014.01.016

B2-3

Exploitation automatisée des donnéesélectrocardiographiques pour le codage :mise en place et évaluationE. Chazard a, C. Dumesnil a, M.S. Marcolino b, A. Caron a,M.B. Alkmim b, A.L. Pinho-Ribeiro b

a EA 2694, université Lille Nord de France, CHRU de Lille, Lille, Franceb Hospital das Clinicas, Universidade Federal de Minas Gerais, BeloHorizonte, MG, Brésil

Introduction.– Le contrôle de qualité du codage est souvent guidé des procéduresqui permettent de détecter des oublis de codes. Certaines de ces procédures sontautomatisées et s’appuient sur des données produites en routine : les courriers desortie, les résultats de laboratoire et les médicaments administrés. Un conceptprésent dans ces sources sans code correspondant déclenche alors une alerte.Le signal des électrocardiogrammes (ECG) n’est pas utilisé, alors que ce signalest parfois disponible et qu’il existe des interpréteurs automatisés, comme leGlasgow University Interpreter (GUI). L’objectif de ce travail est de mettre enplace cet interpréteur et d’évaluer son aptitude à détecter automatiquement desanomalies électrocardiographiques.Méthodes.– Un ensemble de 897 ECG est analysé séquentiellement par troiscardiologues afin d’obtenir un gold standard. Le GUI est exécuté afin d’obtenirun diagnostic automatisé. Les deux codages sont comparés. Les anomalies ECGdétectées sont triées selon la moyenne harmonique (F) de la sensibilité et de lavaleur prédictive positive.Résultats.– Le GUI obtient ses meilleurs résultats pour (anomalie, code CIM10,moyenne harmonique) :– les blocs de branche droits, I451, F = 0,722 ;– les fibrillations atriales, I490, F = 0,667 ;– les déviations de l’axe du QRS, R943, F = 0,604 ;– les blocs de branche gauche, I447, F = 0,582 ;– les tachycardies atriales, I471, F = 0,571 ;– les blocs atrio-ventriculaires du premier degré, I440, F = 0,516 ;– les extrasystoles atriales, I491, F = 0,500 ;– les syndromes de Wolff-Parkinson-White, I456, F = 0,500.Discussion/Conclusion.– Ces moyennes harmoniques sont modérément bonnes(du même ordre qu’entre deux médecins non experts), principalement du faitde faibles taux de prévalence. Néanmoins, cette approche permettrait de retrou-ver automatiquement, à moindre effort, certaines complications et morbiditésassociées. Par exemple, I490 est une CMA de niveau 2, et ce code rapporte enmoyenne 71D par séjour lorsqu’il est utilisé (étude http://valodiag.cefimis.com).

Il représente 1,46 % des cas de notre échantillon et est détecté avec une valeurprédictive positive de 52,2 %.

http://dx.doi.org/10.1016/j.respe.2014.01.017

B2-4

Courbes des valeurs des GHS en fonction dela durée et de la sévérité : tracé systématiqueet analyseM. Djennaoui a, M. Genty b, E. Aernout a, F. Maury b

a Service d’information et des archives médicales, EA 2694, CHRU de Lille,Lille, Franceb SARL CEFIMIS, Lille, France

Introduction.– L’arrêté tarifaire estime le prix d’un séjour selon sa racine deGHM, sa durée et son niveau de complexité. Son interprétation est complexecar l’algorithme de groupage tient également compte de la durée, les CMA nes’appliquent pas toujours, les bornes temporelles varient, il peut exister plusieursGHS par GHM.Objectif.– Représenter graphiquement et discuter la relation entre durée, comple-xité et valorisation (totale et journalière) des séjours au sein des racines deGHM.Méthodes.– Exploitant les fichiers de tarifs diffusés par l’ATIH, un programmeest développé en R afin de tracer, pour chaque GHS, la valeur du séjour en fonc-tion de sa durée. Les courbes sont ensuite regroupées par racine de GHM. Leslimites temporelles sont recalculées en fonction des autres GHS de la racine. Lavaleur journalière moyenne est représentée similairement. Trois graphiques sontproduits pour chaque racine, en 2012 et 2013, secteurs ex-DGF et ex-OQN, soitun total de 7662 images PNG. L’analyse est focalisée sur les catégories majeuresdiagnostiques 1 et 4 à 7, correspondant à 206 racines de GHM et 1035 GHS dusecteur ex-DGF en 2013.Résultats.– L’analyse du profil des courbes d’évolution du tarif journalier enfonction des durées de séjour identifie cinq profils :– une décroissance graduelle du tarif journalier (610 GHS, 59 %) ;– une décroissance entrecoupée d’une réascension précoce (197 GHS, 19 %) ;– une décroissance entrecoupée d’une réascension tardive (71 GHS, 6,9 %) ;– un aplatissement de la courbe (152 GHS, 15 %) ;– une réascension sans décroissance (5 GHS, 0,5 %).Il ressort de l’analyse des spécificités médicales de ces profils que la réascen-sion tardive concerne surtout des GHS chirurgicaux de niveau 4 tandis que lel’aplatissement est typique des GHS médicaux de niveau 1.Discussion/Conclusion.– Les valorisations en fonction de la durée et de la sévé-rité sont parfois différentes de la représentation que les professionnels s’en font,plus encore pour la valorisation journalière moyenne. Les images sont librementtéléchargeables à l’adresse http://ghs.cefimis.com.

http://dx.doi.org/10.1016/j.respe.2014.01.018

B2-5

Comparaison de performance desalgorithmes de rapprochement de patientsX. Li a, A. Guttman a, S. Cipière b, L. Maigne b,J.-Y. Boire a, L. Ouchchane a

a Institut des sciences de l’image pour les techniques interventionnelles, UMR6284 UdA-CNRS, Clermont-Ferrand, Franceb Laboratoire de physique corpusculaire, UMR6533 CNRS/IN2P3 UBP,Aubière, France

Introduction.– En l’absence d’identifiant unique, le chaînage des données distri-buées d’un même patient nécessite des algorithmes de rapprochement. À partirdes traits d’identification communs entre deux patients, ces algorithmes ont pourprincipe de quantifier l’éventualité qu’il s’agisse d’un même individu. La compa-raison de ces algorithmes est difficile du fait que leur évaluation est souventréalisée dans des contextes spécifiques. Nous avons comparé quatre algorithmesde chaînages, deux algorithmes princeps et deux adaptations, sur les mêmesdonnées, afin d’en évaluer les performances.Méthodes.– Quatre algorithmes sont évalués :– chaînage probabiliste selon Fellegi et Sunter ;