1. Inizio pagina
  2. Contenuto della pagina
  3. Menu principale
  4. Menu di Sezione
 

Menu

Menu

Contenuto della pagina Versione stampabile della pagina
 
 

Indice K

 

L'indice k è uno strumento per valutare l'accordo reale oltre il caso fra due osservatori (o fra due osservazioni, fatte dallo stesso osservatore in momenti diversi). [1] Nel primo caso si parla di accordo inter-osservatori, nel secondo intra-osservatore.
Ma perchè si vuole stimare l'accordo oltre il caso? Se due ostetriche o due ostetrici, anziché esaminare un cardiotocogramma, avessero deciso di porre diagnosi di 'tracciato normale' o 'tracciato patologico' facendo 'testa o croce', cioè lanciando in aria una moneta non truccata -  optando per esempio per 'tracciato normale' nel caso in cui la moneta dia testa e 'tracciato patologico' nel caso in cui dia croce - su 100 donne in travaglio le diagnosi concorderebbero in 50 casi (in media) per solo effetto del caso.
Quindi, per poter affermare che le/i due professioniste/i non concordano semplicemente per effetto del caso, ma perchè il criterio diagnostico utilizzato consente criteri omogenei e riproducibili di valutazione, è necessario considerare quante volte i due clinici sono d'accordo oltre i 50 casi su 100 concordanti attesi per effetto del caso. Si definisce accordo atteso la proporzione attesa di diagnosi concordanti per effetto del caso sul totale dei pazienti. Dall'accordo osservato bisogna quindi sottrarre la quota dovuta al caso per ottenere l'accordo reale oltre il caso. In altri termini, l'accordo reale oltre il caso non riconosce come valore massimo l'accordo completo (pari a 1), bensì l'accordo completo depurato dal caso o, in altri termini, l'accordo potenziale non dovuto al caso
La statistica k è una misura della proporzione di accordo che esclude la quota dovuta al caso. L'indice k di concordanza oltre il caso può assumere valori compresi tra -1 (massimo disaccordo) e +1 (massimo accordo). Se l'accordo osservato è uguale all'accordo atteso per effetto del caso, k assume un valore uguale a 0 (accordo nullo).

In concreto, per interpretare l'indice k, si può utilizzare lo schema seguente, definito scala di Landis e Koch:

k ≤0 concordanza scarsissima
k =0.01-0.20 concordanza scarsa
k =0.21-0.40 concordanza discreta
k =0.41-0.60 concordanza moderata
k =0.61-0.80 concordanza buona
k =0.81-1.00 concordanza ottima
 

Ovviamente, il fatto che tra due clinici risulti un alto indice di concordanza diagnostica (k) non è una garanzia di competenza e capacità diagnostica: i due professionisti potrebbero infatti indovinare (o sbagliare) la diagnosi nella stessa maniera.
La statistica k di Cohen-Fleiss è un metodo molto generale, solitamente impiegato per più osservatori e più categorie di giudizio, ma che può essere utilizzato anche per due categorie e due osservatori.

 
 

Alcuni esempi

  • Negli Stati Uniti, valutando il terzo sistema di classificazione del tracciato cardiotocografico di National Institute of Child Health and Human Development (NICHD), l'analisi da parte di tre clinici esperti di 154 segmenti di cardiotocogramma della durata di 15'-20', senza altri elementi clinici, ha dato i seguenti risultati: indice di k inter-osservatori per categoria I =0.48 (concordanza moderata), quindi meno della metà (48%) delle osservazioni erano concordanti oltre il caso; per categoria II k =0.44 (concordanza moderata); per categoria III k =0.0 (concordanza scarsissima, nessuna delle osservazioni era concordante oltre il caso). La concordanza intra-osservatore è risultata invece da buona a perfetta (k =0.74-1.0). [2]
  • Nei Paesi Bassi, la decisione di intervenire, sulla base del cardiotogramma, per correggere una condizione clinica non normale, ha mostrato fra osservatori k compresi fra 0.42-0.73 (concordanza da moderata a buona). La concordanza intra-osservatore per la classificazione del cardiotocogramma e la decisione di intervenire è risultata rispettivamente k =0.52-0.67 (moderata-buona, ma l'osservatore non era d'accordo oltre il caso con il giudizio da lui stesso dato in precedenza da poco meno della metà a quasi un terzo dei tracciati esaminati) e k =0.61-0.75 (buona). [3]
  • Ancora nei Paesi Bassi, uno studio che ha valutato l'accordo fra tre osservatori nella classificazione dell'ECG fetale automatizzato in gravidanze singole, ha mostrato k =0.47-0.48 (concordanza moderata, accordo oltre il caso in meno della metà dei tracciati). [4]
 
 

Bibliografia

1. Sackett DL, Haynes RB, Guyatt GH, Tugwell P. Clinical epidemiology: a basic science for clinical medicine. 2nd ed. Boston: Little, Brown & Co, 1991
2. Blackwell SC, Grobman WA, Antoniewicz L, Hutchinson M, Gyamfi Bannerman C. Interobserver and intraobserver reliability of the NICHD 3-Tier Fetal Heart Rate Interpretation System. Am J Obstet Gynecol 2011;205:378.e1-5
3. Westerhuis ME, van Horen E, Kwee A, van der Tweel I, Visser GH, Moons KG. Inter- and intra-observer agreement of intrapartum ST analysis of the fetal electrocardiogram in women monitored by STAN. BJOG 2009;116:545-51
4.Ojala K, Mäkikallio K, Haapsamo M, Ijäs H, Tekay A. Interobserver agreement in the assessment of intrapartum automated fetal electrocardiography in singleton pregnancies. Acta Obstet Gynecol Scand. 2008;87:536-40

 
 


Data di pubblicazione: 16/07/2012

  1. SaperiDoc
Direzione generale cura della persona, salute e welfare
Via Aldo Moro 21, Bologna