Indicatori e griglie lea, ma il monitoraggio funziona davvero?
di Andrea Angelozzi
21 FEB -
Gentile Direttore,puntualmente vengono stilate relazioni valutative sul funzionamento della sanità nelle Regioni e puntualmente emerge il confronto fra chi sottolinea con soddisfazione il proprio posizionamento e chi invece si trova confuso a constatare la differenza fra la quotidianità sanitaria, come utente o come operatore, ed i punteggi positivi delle tabelle.
Come è noto, ora è in vigore la griglia del Nuovo Sistema di Garanzia, introdotta con il DM 12 marzo 2019, costituita da 88 indicatori raggruppati in diverse aree: prevenzione, assistenza distrettuale, assistenza ospedaliera, indicatori di contesto per la stima del bisogno sanitario, indicatori di equità sociale ed indicatori per la valutazione dei il monitoraggio dei PDTA.
Al loro interno, nell’ambito della prevenzione, della assistenza distrettuale ed in quella ospedaliera, sono stati assunti 22 indicatori che costituiscono il sottoinsieme “core”, destinato ad una valutazione sintetica.
Premetto che mi rendo ben conto che scegliere costruire indicatori è una operazione estremamente complessa e che merita il massimo rispetto; ma proprio per questa sua complessità è facile, scorrendo i vari items della griglia, imbattersi anche in molte domande.
La prima questione riguarda la filosofia che ha guidato la scelta degli indicatori. Per esemplificare, troviamo che l’area distrettuale dimentica completamente tutto ciò che ha a che fare con consultori, tossicodipendenze, neuropsichiatria infantile e salute mentale territoriale oppure la organizzazione della Medicina di base. Aldi là di un generico utenti adulti che hanno avuto almeno una visita (e sul cui destino poi non sappiamo nulla), compaiono solo i dati relativi ai ricoveri di minori ed adulti per patologia psichiatrica, oltre ai dati dei TSO e delle i riammissioni in psichiatria a 8 e 30 giorni.
La filosofia di base di queste analisi sembra anche quella di voler considerare le organizzazioni sanitarie un sistema unitario dove una qualche omogeneità di fondo permette di estrarre alcuni indicatori in alcune aree quasi fossero campioni di una qualità complessiva, per cui se taluni aspetti ospedalieri funzionano bene, allora funziona bene tutto l’ospedale e probabilmente anche il territorio. Direi che di fatto non è la realtà che si incontra.
Un altro aspetto di fondo, che sembra permeare la griglia, è che gli indicatori mettono a confronto la modalità con cui si esprimono servizi come se avessero ovunque sviluppo e risorse omogenee. Ma non è così e le risorse condizionano non solo il valore numerico degli indicatori, ma anche il loro significato.
La seconda questione, infatti, riguarda proprio il diverso significato che può avere lo stesso dato a seconda dei contesti, trovando anche situazioni ove una povertà di risorse può per paradosso portare a punteggi ottimali. Prendiamo ad esempio il problema del ricovero dei minori, che le schede esplicative sul calcolo dell’indicatore non legano alla disponibilità di posti letto. Alla fine, non avere posti letto dedicati, costringendo a mendicarli in reparti anche inappropriati, sicuramente aiuta a contenere i ricoveri ottenendo un buon punteggio, ma questo non è certo indice di qualità.
Anche avere basse riammissioni ospedaliere in psichiatria a 8 e 30 giorni è molto positivo, ma se questo è dovuto a una forte presenza di cliniche private che fanno ricoveri con degenza media molto alta, ben oltre questi tempi di riammissione, ed a una situazione di sofferenza degli SPDC che possono rispondere solo alle richieste per le situazioni più gravi, lasciando il resto a casa o alle cliniche private, non ci troviamo certo di fronte ad una condizione ottimale. Ed è lineare contenere le risonanze osteoarticolari in pazienti anziani con più di 65 anni o rimanere entro le 4 ecografie in gravidanza, se fissare un appuntamento per questi esami diventa una impresa impossibile. Così come è più semplice contenere gli esami di laboratorio se occorre pagarli di tasca propria nel privato in una situazione ove la povertà avanza e le persone rinunciano a curarsi. Oppure rispettare le tempistiche per le prestazioni di tipo B se di queste richieste non rimane traccia chiedendo al paziente di richiamare per l’appuntamento in futuro.
Qualche problema a mio parere esiste anche nella composizione dei Comitato Permanente per la verifica dell’erogazione dei LEA, che vede 14 membri, di cui 7 individuati dalle Regioni e gli altri 7 legati al Ministero della Salute (4), della Economia e Finanze (2) e Dipartimento per gli affari regionali (1), rischiando di fatto una autovalutazione di soggetti eroganti. Sia chiaro, il problema non è la obiettività con cui sono analizzati i dati, per la quale non mi permetto dubbi; ma quello di un modello generale che individua solo un aspetto dell’erogare prestazioni, senza considerare che queste sono poi erogate da operatori, e destinate ai cittadini, che, alla fine, sono i veri giudici di quanto a loro viene dato.
Alfie Kohn nel suo “Punisced by rewards” (1993), ci ricorda il rischio di distorsioni indotto dai sistemi premianti nella produzione. Perché, alla fine, ci si trova con un sistema alle cui valutazioni si legano vere e proprie caratteristiche premianti, in particolare per le Direzioni Strategiche e per le direzioni politico/organizzative delle Regioni. Ed a questo si collega la inevitabile polarizzazione che un sistema premiante porta sugli indicatori che mettano in luce la efficacia di quella organizzazione sanitaria. Che contrattualità pensano di avere servizi, quali ad esempio quelli territoriali, che non portano nemmeno un indicatore nel punteggio finale? E’ un meccanismo che parte considerando taluni servizi di serie B e poi li conferma come tali, e rischia, nella migliore delle ipotesi, di puntare la luce solo sulle attività oggetto degli indicatori e, nella peggiore, di orientare solo in quelle direzioni anche la destinazione delle risorse.
Infine un duplice problema di correlazione. Il primo è nei confronti dei LEA così come sono declinati nelle disposizioni di legge: limitandomi alla salute mentale è evidente la incolmabile distanza fra gli indicatori scelti nel NSG e la complessità degli articoli 26 e 33 del Decreto del Presidente del Consiglio dei Ministri 12 gennaio 2017. Il secondo, più importante, è se questi indicatori rispondano effettivamente al bisogno di salute che i cittadini esprimono. Ed anche qui credo che la distanza sia incolmabile.
Andrea AngelozziPsichiatra
21 febbraio 2024
© Riproduzione riservata
Altri articoli in Lettere al direttore