Il portale dell'epidemiologia per la sanità pubblica

a cura del Centro nazionale per la prevenzione delle malattie e la promozione della salute dell'Istituto superiore di sanità

glossario

Journal of Epidemiology and Community Health 2004;58:538-545 © 2004 BMJ Publishing Group Ltd

(Traduzione a cura della redazione di EpiCentro)



Un glossario per l’evidence based public health (la salute pubblica basata su prove di evidenza)

Lucie Rychetnik1, Penelope Hawe2, Elizabeth Waters3, Alexandra Barratt4 and Michael Frommer1
1
Sydney Health Projects Group, School of Public Health, University of Sydney, Australia
2 Alberta Heritage Foundation for Medical Research, Department of Community Health Sciences, University of Calgary, Canada and School of Public Health, LaTrobe University, Victoria, Australia
3 Centre for Community Child Health, University of Melbourne, Murdoch Children’s Research Institute, Victoria, Australia, and Cochrane Health Promotion and Public Health Field
4 Screening and Test Evaluation Program, School of Public Health, University of Sydney, Australia


Questo glossario si sforza di definire e spiegare alcuni tra i principali concetti che compongono l’evidence based public health, cioè la medicina basata su prove di efficacia. Si basa sulla letteratura scientifica, l’esperienza di parecchi anni di analisi dell’argomento e sulle discussioni con operatori della sanità pubblica impegnati nella ricerca e nella pratica, con policy makers e studenti.

Scarica il PDF

 


Evidenze
Nell’accezione più ampia, evidenza può essere definita come “fatti o testimonianze a sostegno di una conclusione, affermazione o opinione” e “qualcosa che può servire da prova”. Tale definizione generica è un utile punto di partenza ma è troppo decontestualizzata e non indica specificamente che cosa funziona come evidenza, quando e per chi.

Salute pubblica
E’ l’insieme di sforzi scientifici e tecnici, ma anche sociali e politici volti a migliorare la salute e il benessere delle comunità o delle popolazioni. Una definizione dell'Oxford Textbook of Publich Health presenta modo conciso le sue multiple dimensioni: “salute pubblica è il processo di mobilitazione e impegno a livello locale, nazionale, e internazionale delle risorse per assicurare condizioni in cui le persone possano mantenersi in salute. ... le azioni che possono essere avviate sono determinate dalla natura della dimensione dei problemi che affliggono la salute della comunità. Quello che si può fare sarà determinato dalla conoscenza scientifica (efficacia) e dalle risorse disponibili (fattibilità). Quello che viene effettivamente realizzato sarà determinato dalla situazione sociale e politica esistente in quello specifico luogo e tempo.

Salute pubblica basata sull'evidenza
E’ lo sforzo di salute pubblica in cui si fa un uso informato, esplicito, e giudizioso dell'evidenza derivata dai vari campi della ricerca scientifica, da quello biomedico a quello sociale e dalle valutazioni empiriche.
La definizione evidenzia due aspetti della salute pubblica basata sull'evidenza: (1) l'uso di un tipo particolare di evidenza che guidi le decisioni in materia di sanità pubblica; e (2) l’enfatizzazione della interpretazione razionale quando l’evidenza viene esaminata.
I tipi di ricerca che sono comunemente associati con la salute pubblica basata sull'evidenza sono descritti di seguito.

Ricerca dell'evidenza - La nostra definizione di salute pubblica basata sull'evidenza è sufficientemente ampia da comprendere una estesa varietà di risultati della ricerca fatta all’interno della sanità pubblica come fonte di evidenza. Gli studi possono essere classificati a seconda delle domande cui cercano di rispondere. Di seguito una possibile definizione dei tipi di studio (definizioni adattate dal dizionario di epidemiologia e dal dizionario dell'indagine qualitativa):

 

Descrittivi: identificano le qualità e le distribuzioni delle variabili;

  • Tassonomici: confrontano e classificano le variabili in gruppi o categorie correlate;

  • Analitici: esaminano le associazioni tra variabili – che possono essere causali, ipotetiche o terapeutiche;

  • Interpretativi: identificano e spiegano i significati, solitamente da una prospettiva particolare;

  • Esplicativi: fanno osservazioni comprensibili e intelligibili;

  • Valutativi: determinano la qualità e il valore - spesso stabilendo il grado di rilevanza, efficacia, e le conseguenze delle attività.

Alcuni promotori delle pratiche basate sull'evidenza adottano una specificità anche più dettagliata sui tipi di ricerca che contribuiscono alla salute pubblica basata sull'evidenza. Brownson et al. distingue solo due tipi di evidenza: il tipo (1) è quella ricerca che descrive le relazioni in merito al rischio di malattia, e identifica la dimensione, severità, e prevenibilità dei problemi di salute pubblica. Quindi l'evidenza di tipo 1 punta al fatto che “qualcosa dovrebbe essere fatto”. L'evidenza di tipo (2) identifica l'efficacia relativa di specifici interventi che hanno lo scopo di rispondere a un certo problema. Quindi l'evidenza di tipo 2 può aiutare a individuare che “questo dovrebbe essere fatto”.

Per una evidenza che sia utile nel dare informazioni per le politiche e le pratiche di salute pubblica, proponiamo una terza categoria che mette in evidenza l'importanza delle informazioni descrittive e/o qualitative. L'evidenza di tipo (3) potrebbe quindi includere i seguenti elementi: informazione sul design e sullo svolgimento di un intervento; le circostanze contestuali nelle quali l'intervento è stato portato a termine; l'informazione su come l'intervento è stato recepito. L'evidenza di tipo (3) ci dice “come qualcosa dovrebbe essere fatto”.

Ogni tipo di evidenza può comprendere varie combinazioni di tipi di studio. Sebbene estremamente utile agli operatori e ai regolatori, il terzo tipo di evidenza è spesso non disponibile nelle pubblicazioni e nei rapporti di valutazione degli interventi. Un obiettivo importante per quelli impegnati nella salute pubblica basata sull'evidenza è migliorare la qualità, la disponibilità, e l'uso di tutti e tre i tipi di evidenza nelle decisioni di salute pubblica.

Opinioni di esperti
La definizione “opinione degli esperti” solitamente si riferisce ai punti di vista di professionisti che hanno un’esperienza e conoscenza rispetto a una particolare forma di pratica o campo di ricerca, come ad esempio la pratica clinica o le metodologie di ricerca. Opinione di esperti può essere quindi il punto di vista di una singola persona o l’opinione comune di un gruppo di esperti. Quando il concetto della pratica basata sull'evidenza è stato introdotto per la prima volta, l'opinione di esperti veniva identificata come la forma meno affidabile di evidenza sull’efficacia degli interventi, e quindi era posizionata al livello più basso nella gerarchia dei “livelli di evidenza”. Ulteriori studi hanno però messo in luce che mettere l'opinione di esperti nella stessa scala di priorità dei livelli di evidenza non è utile né appropriato perché l'opinione di esperti è qualitativamente diversa dalle forme di evidenza derivate dalla ricerca. L'opinione può essere identificata come un modo di giudicare la ricerca e di interpretarla piuttosto che come una forma più debole di evidenza.

Saperi non esperti
I “saperi non esperti” sono quelli riferiti alla comprensione che i membri del pubblico generico hanno di un problema o di un certo argomento. “Saperi non esperti” sono ad esempio “l’insieme dei significati che salute, malattia, disabilità e rischio hanno per le persone.” Il riconoscimento formale e l'analisi dei saperi non esperti è condotta principalmente attraverso forme qualitative di ricerca. Una adeguata attenzione alle conoscenze non esperte è stata proposta come criterio per la valutazione critica delle ricerche qualitative. Sono state espresse anche preoccupazioni sul fatto che alcuni operatori della salute non diano il giusto valore alle conoscenze dei non esperti. Queste conoscenze sono difficili da accedere e da definire, e focalizzarsi solo su forme quantitative di evidenza può portare i decisori a sottovalutare i saperi non esperti che provengono dalle narrazioni e dalle storie.

Argomento e evidenza

Un principio fondamentale della salute pubblica basata sull'evidenza è lo stretto legame tra un argomento solido e l'evidenza. A tal fine è importante definire i termini seguenti:

Argomento si riferisce a una sequenza di dichiarazioni nelle quali la premessa dà a  intendere che ci siano motivi validi per accettare le conclusioni. Quindi la premessa è la proposizione dalla quale la conclusione è dedotta. Nel dibattito scientifico o legale “investigare su intuizioni alla luce dell'evidenza o difendere argomenti come irrazionali sono due elementi di interesse fondamentali dell'analisi critica”.

Ragionare si riferisce al processo di trarre delle inferenze o delle conclusioni da premesse, fatti, o altre evidenze. È utile distinguere tra tre tipi di ragionamento.

Induzione si riferisce al ragionamento che procede dal particolare al generale. Quindi l’induzione viene applicata per trarre conclusioni o teorie generali da dati empirici, come osservazioni particolari o casi.

Deduzione si riferisce al ragionamento che procede dal generale al particolare. Quindi la deduzione si appoggia sulla teoria generale per trarre conclusioni particolari.

Abduzione si riferisce a un tipo di ragionamento che fa una inferenza verso la migliore spiegazione disponibile; cioè, selezionando da un numero di possibilità l'ipotesi che forniscono alla migliore spiegazione date le evidenze disponibili.

Logica è la scienza del ragionare “corretto”. Se la logica di un argomento ha a che fare con la validità, allora la questione chiave è se, quando le premesse sono vere, abbiamo una ragione valida di accettare le conclusioni.

Il termine validità deriva dalla parola latina validus, che significa forte. Si riferisce al grado in cui qualcosa è ben fondato, solido, corretto. La validità è spesso utilizzata assieme a termini e aggettivi che le attribuiscono significati specifici, come segue:

  • Validità delle misurazioni si riferisce al grado con cui si riesce a misurare effettivamente quanto si intende misurare. La validità delle misurazioni può essere di tre tipi. La validità del costrutto è il grado in cui la misurazione corrisponde ai concetti teorici o ai concetti elaborati; la validità del contenuto è il grado in cui le misurazioni inglobano lo scopo o il campo del fenomeno che s'intende studiare; e la validità dei criteri è la misura in cui il fenomeno si correla con un criterio esterno a sé stesso. La validità di criterio può essere può essere simultanea (misura e criterio si riferiscono a uno stesso momento temporale) o predittiva (l'abilità della misura di predire il criterio).

  • Validità dello studio si riferisce al grado in cui le inferenze tratte da uno studio sono avvallate quando si prendono in considerazione i metodi dello studio; la rappresentatività del campione; e la natura della popolazione dal quale è selezionato.

Ci sono due tipi di validità dello studio. La validità interna esprime il grado di validità dei risultati di un certo studio all’interno del campione di persone studiate. La validità esterna (generalizzabilità) si riferisce invece alla validità dei risultati per una popolazione più estesa rispetto ai soggetti contemplati dallo studio o che si trova in altri contesti.

Affidabilità è il grado in cui l'osservazione o le misure possono essere replicate, quando ripetute sotto le stesse condizioni. L’affidabilità è necessaria ma non è sufficiente per stabilire la validità di una proposizione. Una bassa affidabilità può essere dovuta alla variabilità negli strumenti di misurazione o nell'osservatore, oppure a una instabilità del fenomeno stesso che si sta studiando.

Onere della prova

La prova è l'evidenza che fa sì che si creda alla “verità” espressa da una proposizione o argomento. In una disputa, l'onere della prova spetta alla parte responsabile per la produzione delle evidenze delle proprie proposizioni, o a chi sposta una conclusione dalla sua posizione di default. Per esempio, nel sistema legale di molti paesi una persona accusata è presunto innocente (posizione default) finché non ne viene provata la colpevolezza. L'onere della prova quindi spetta all’accusa. Domande tipiche nell’ambito legale, come: “chi ha l'onere della prova?” “Cosa deve essere provato?” e “Quali standard devono essere utilizzati per provarlo?” si applicano anche al campo della salute pubblica. Tuttavia, ci sono spesso significative differenze nel modo in cui si risponde a queste domande.

L'onere della prova della salute pubblica determina il modo in cui la pratica basata sull'evidenza viene interpretata e applicata. Per esempio, dovrebbero le strategie essere “considerate utili finché si dimostrano non efficaci o si dovrebbe assumere che siano inutili finché risulta invece che sono efficaci? Dovremmo decidere noi a chi spetta l'onere della prova. Se questo onere si basa sulla dimostrazione di inefficacia, la posizione default è quella di fare tutto; se invece si tratta di dimostrare l'efficacia, il default è fare nulla.”

Frequenza e tasso
La dimensione e la severità dei problemi di salute pubblica sono spesso espresse come misure della frequenza o proporzioni e tassi.

Per prevalenza si intende la proporzione di persone in una popolazione che hanno a un certo punto nel tempo o durante un periodo di tempo determinato presentano qualche attributo o condizione particolare.

Incidenza (tasso di incidenza) è il numero di nuovi eventi (per esempio nuovi casi di una malattia) in una certa popolazione, all'interno di un periodo di tempo specificato.

Proporzione dell'incidenza (incidenza cumulativa) è la proporzione di persone che sviluppa una certa condizione all'interno di un periodo di tempo stabilito. Una proporzione di incidenza è sinonimo di rischio. Per esempio la proporzione di persone che sviluppa una certa condizione nel corso della propria vita rappresenta il rischio di contrarre quella malattia nel corso della vita.

Causalità
La causalità è “il mettere in relazione le cause agli effetti prodotti”. Generalmente, la causalità è relativa alla produzione nel senso che una causa è qualcosa che produce o crea un effetto. Il concetto di causalità è fondamentale per due aspetti della medicina pubblica basata sull'evidenza: (1) dimostrare e capire le cause dei problemi di salute pubblica; (2) stabilire la probabilità e la natura delle relazioni casuali tra un intervento e i suoi effetti. Tradizionalmente, la ricerca nel campo della salute pubblica si è focalizzata sul primo aspetto (l’ampiezza e l’eziologia di una malattia), ma la letteratura scientifica relativa alle pratiche basata sull'evidenza ha enfatizzato metodi e processi per generare, valutare, e applicare una ricerca sugli interventi. (vedi anche “valutazione” e “criteri di valutazione critica”).

Esistono diverse definizioni di causalità, e a seconda del punto di vista assunto si possono trarre conclusioni differenti su come una certa relazione causale è stata stabilita. Queste differenze generano anche aspettative diverse rispetto a quello che costituisce una “buona” evidenza per le decisioni di salute pubblica. Alcune formule alternative di causalità sono descritte di seguito.

Le cause a volte sono descritte come necessarie o sufficienti. Una causa è necessaria quando deve sempre precedere l'effetto affinché quell'effetto si realizzi; senza la causa l'effetto non può realizzarsi.
Alternativamente, una causa è sufficiente quando inevitabilmente produce un effetto; se la causa è presente, l'effetto deve realizzarsi. In una relazione tra una causa e un effetto, la causa può essere necessaria, sufficiente, nessuna delle due o entrambe. Queste relazioni causali così deterministiche e precise non sono comunemente osservate nella ricerca sulla salute pubblica.

La causalità probabilistica o statistica è alternativa rispetto al determinismo. Una causa probabilistica aumenta o riduce la probabilità che un certo effetto si manifesti. Una definizione probabilistica dà una informazione quantitativa sulla stima della forza e della natura di quella relazione causa-effetto. Dà anche un'informazione quantitativa su potenziali modifiche dell'effetto, e su qualunque relazione dose-risposta che possa esistere tra la causa e il suo effetto. L'applicazione della causalità probabilistica è una pietra angolare dell’epidemiologia clinica, della medicina basata sull'evidenza, e della salute pubblica basata sull'evidenza.

La causalità controfattuale si manifesta quando gli effetti osservati differiscono in diverse condizioni. Una relazione di questo tipo può essere descritta in termini deterministici e probabilistici, per dimostrare come l'effetto (o la sua probabilità) differisce quando la causa è presente o assente (mentre, idealmente, tutte le altre variabili sono costanti). Questo tipo di causalità implica l'uso di gruppi di controllo nella ricerca.

Interventi di salute pubblica
Un intervento sottintende un’azione o un programma che ha l’obiettivo di raggiungere obiettivi ben identificati. Un intervento di salute pubblica può essere caratterizzato dal fatto che è applicato a molti, alla maggior parte, o a tutti i membri di una comunità, con lo scopo di ottenere un netto beneficio per la comunità o popolazione così come benefici per gli individui. Gli interventi di salute pubblica includono politiche dei governi e delle organizzazioni non governative; leggi e regolamenti; sviluppo delle organizzazioni; sviluppo delle comunità; educazione degli individui e delle comunità; sviluppi ingegneristici e tecnici; sviluppo dei servizi e della capacità di offerta; e comunicazione, incluse le politiche di marketing sociale.

Gli interventi di salute pubblica a volte danneggiano alcuni individui, ed è importante che questi danni siano identificati in qualunque valutazione dell'intervento. Questa valutazione permette una riflessione consapevole sul fatto che il danno ad alcuni individui sia talmente ridotto (e/o così raro) da essere controbilanciato dai benefici prodotti alle altre persone. Per esempio i programmi di immunizzazione delle popolazioni beneficiano molte persone che sono protette dall'effetto del vaccino, e l'intera comunità trae beneficio se l'effetto gregge diventa così grande che l'organismo infettivo fa fatica a sopravvivere. Tuttavia per ottenere questo beneficio, molte persone subiscono dei disagi (per esempio, dolori alle braccia per alcune ore) e pochissime persone possono essere danneggiate dagli effetti laterali dei vaccini. Nella maggior parte dei paesi, tuttavia, il beneficio netto dei programmi di immunizzazione selettiva è considerato sufficiente a garantire un intervento a livello della popolazione.

Gli interventi di salute pubblica possono essere anche descritti a seconda che la comunità al centro dell’intervento sia: (a) il contesto dove l’intervento viene realizzato; (b) il target del cambiamento desiderato; (c) una risorsa per l'intervento; o (d) l'agente del cambiamento. McLeroy et al. distingue anche tra i livelli e obiettivi dell'intervento, cioè un intervento può realizzarsi a un certo livello ma produrre cambiamenti anche ad altri livelli. Queste distinzioni tra diversi tipi di intervento sono utili nello specificare gli obiettivi di salute pubblica e possono guidare una valutazione degli effetti dell'intervento. Possono aiutare a focalizzare la ricerca per l'evidenza nella salute pubblica.

Valutazione
Il dizionario di epidemiologia definisce la valutazione come “un processo che cerca di determinare il più sistematicamente e obiettivamente possibile la rilevanza, l’efficacia, l’impatto delle attività alla luce dei loro obiettivi.” La valutazione genera evidenze del tipo (2) e del tipo (3) e quindi identifica quello che dovrebbe o potrebbe essere fatto per rispondere a un certo problema di salute pubblica, e come dovrebbe essere fatto. Il termine valutazione è utilizzato spesso in modo intercambiabile con ricerca valutativa, e le valutazioni di interventi sono anche definite studi di intervento. Abbiamo osservato che il termine “valutazione” è talvolta utilizzato per riferirsi solo a studi di controllo di qualità “interni” o a audizioni interne, che, sfortunatamente, non godono dello status (nel senso di supporto finanziario) della ricerca. La tendenza a svalutare la valutazione può spiegare il perché ci sia poca evidenza del tipo (3) nella letteratura pubblicata nonostante l'importanza di quest'evidenza per i decisori.

Il termine valutazione non implica un particolare tipo di design di uno studio. Una valutazione potrebbe essere un trial randomizzato controllato, un design di serie temporali interrotte, o un caso studio. Le gerarchie dei diversi tipi di studi sono relative al grado in cui questi studi sono suscettibili di errore. Anche se sono state identificate fino a 32 diverse categorie di valutazione, indichiamo di seguito quelle più comunemente utilizzate nella valutazione dei programmi di salute pubblica.

La valutazione di processo è una valutazione che giudica il modo in cui il programma viene realizzato. Per effettuare questo tipo di valutazione possono essere prese in considerazione le seguenti caratteristiche: arruolamento dei partecipanti e mantenimento della partecipazione (anche conosciuta come raggiungimento del programma); il contesto nel quale programma è condotto e valutato; le risorse richieste e utilizzate; l'implementazione del programma rispetto al piano previsto; gli ostacoli e i problemi incontrati; il grado di esposizione ai materiali e alle attività; l'uso iniziale o il coinvolgimento in attività fin dall'inizio del programma; l'uso continuativo di attività nel corso del tempo; il mantenimento di standard di qualità.

La valutazione formativa si riferisce all'uso dei dati fatto dai pianificatori del programma rispetto alla valutazione del processo condotta nei primi tempi dello sviluppo di un intervento, così che se necessario sia possibile apportare dei correttivi.

La valutazione di impatto esamina l'effetto iniziale di un programma su una serie di target di cambiamento più immediati, come le politiche, i comportamenti, o le attitudini. Quindi in questo caso vengono valutati gli obiettivi iniziali del programma.

La valutazione del risultato si riferisce agli effetti osservati dopo l'attuazione del programma in termini della salute delle popolazioni coinvolte, rispetto agli obiettivi posti. Si può anche definire valutazione sommatoria, perché una volta completata, un ricercatore o un regolatore si troverebbe nella posizione di dare un giudizio complessivo sul valore di un certo programma. Un tale giudizio implica che vengano precedentemente svolte con successo le valutazioni del processo e dell'impatto.

La valutazione della valutabilità è un processo sistematico per controllare se un programma è ben teorizzato, pianificato, e finanziato, e sufficientemente ben implementato, prima dello svolgimento di una valutazione di impatto o di risultato. Questo termine è stato coniato per la prima volta nei primi anni '80 con lo scopo di evitare valutazioni inutili dei risultati; cioè prevenire l'investimento di fondi per cercare gli effetti di programmi che erano così mal disegnati e implementati che uno non si sarebbe aspettato alcun effetto.

La valutazione libera dagli obiettivi si focalizza su tutti gli effetti del programma, previsti e non previsti. Gli effetti esaminati all’interno di questo tipo di valutazione possono essere quelli che si realizzano inizialmente dopo l'intervento (e cioè che corrispondono alla valutazione di impatto) e/o gli effetti successivi (quelli corrispondenti alla valutazione dei risultati).

La valutazione focalizzata sull'utilizzo prende il via quando il valutatore richiede ai decisori che tipo di informazione (evidenza) considererebbero più utile. Lo scopo è aumentare il trasferimento delle evidenze verso le pratiche. Parte di questo tipo di valutazione consiste nell’ipotizzare scenari in base ai risultati ipotetici derivati da uno studio proposto per determinare come (o se) i decisori utilizzerebbero i dati prodotti da quella ricerca. La valutazione focalizzata sull'utilizzo può anche comprendere valutazioni di processo, impatto, o dei risultati; dipende dai bisogni dell'utilizzatore. Nota: la valutazione libera dagli obiettivi può anche focalizzarsi sull'utilizzo - cioè essere relativa agli interessi di quelli che sono gli utilizzatori previsti proprio di quel tipo di valutazione.

 


LOGICA DEGLI INTERVENTI BASATI SULL'EVIDENZA
La logica della pratica basata sull'evidenza identifica una relazione ciclica tra valutazione, evidenza, pratica, e ulteriore valutazione. La premessa è che le valutazioni permettono di determinare se gli effetti attesi dell'intervento si realizzano davvero nella pratica, e identifica gli effetti non attesi. I rapporti di queste valutazioni sono una risorsa importante dell'evidenza per massimizzare i benefici, e ridurre i pericoli, nelle politiche e nelle pratiche di salute pubblica. L'evidenza può anche dare indicazioni per la pianificazione della valutazione, e quindi migliorare la qualità e la rilevanza della nuova ricerca.

I vari livelli in questo ciclo tendono ad essere completati da gruppi diversi secondo le differenti priorità e necessità. Per capire le sfide che possono nascere nella salute pubblica basata sull'evidenza, vale la pena di distinguere le seguenti componenti:

Review delle evidenze
Per interpretare e utilizzare la ricerca di valutazione, la ricerca stessa deve passare un processo di valutazione che definisce fino a che livello dà una informazione credibile (valida e affidabile), e se questa informazione possa essere utile (rilevante e generalizzabile) in un diverso contesto. Quindi una review delle evidenze è un processo di valutazione critica della ricerca e un riassunto dei risultati che ha lo scopo di rispondere a specifiche domande. Nel contesto della pratica basata sull'evidenza, le review delle evidenze tendono a essere processi tecnici che richiedono una buona comprensione dei metodi di ricerca guidati da criteri standardizzati e da protocolli di revisione. (vedi anche “revisioni sistematiche” e “criteri di valutazione critica”).

Raccomandazioni basate sull'evidenza
La formulazione di raccomandazioni basate sull'evidenza o di linee guida si basa sulle review delle evidenze e usa i risultati per fare affermazioni sulle implicazioni dell'evidenza sulla politica e la pratica attuale. Questo richiede un input sostanziale da parte degli operatori, dei regolatori, dei consumatori che possono integrare i risultati dell'evidenza con le necessarie considerazioni pratiche e sociali.
Le linee guida basate sull'evidenza illustrano la natura e la forza dell'evidenza sulla quale le raccomandazioni sono basate. In molti casi le raccomandazioni sono ordinate per gradi: il grado della raccomandazione è determinato dalla forza dell'evidenza. Le raccomandazioni basate sull'evidenza possono essere anche ordinate in base al bilancio tra benefici e rischi.
La considerazione del contesto nel quale le raccomandazioni devono essere attuate (implicazioni di questa attuazione) inevitabilmente genera problemi di interpretazione che non emergono quando si considerano solo le sintesi delle evidenze. Questo può portare a un disaccordo sulle raccomandazioni; una scarsa efficacia delle linee guida anche quando sono basate sull'evidenza; o a linee guida conflittuali sullo stesso argomento da parte di diverse organizzazioni.

Politica e pratica basata sull'evidenza (azione di salute pubblica)
L'azione di lobby e di pressione richieste per influenzare le politiche, cambiare le pratiche, e ottenere un'azione di salute pubblica sono una componente importante della salute pubblica. Riuscire a ottenere un certo grado di influenza è spesso più difficile, e richiede negoziazioni sociali e politiche più complesse, che non una valutazione critica dell'evidenza e la formulazione di raccomandazioni. Nella promozione della salute pubblica, la ricerca fornisce solo un tipo di evidenza, e in ogni caso qualsiasi tipo di evidenza costituisce sono una delle considerazioni di cui si tiene conto. Fattori sociali, politici, e commerciali spesso determinano l'uso delle evidenze nei diversi contesti politici. Una caratteristica chiave delle politiche e pratiche basate sull'evidenza è che si nutrono delle evidenze ma al tempo stesso le decisioni prese dipenderanno da valori e priorità prevalenti.

L'azione basata sull'evidenza è spesso inibita anche dalla discrepanza tra la dimensione dell'importanza di un problema di salute pubblica e l'adeguatezza dell'evidenza sui potenziali interventi per risolvere il problema. Per es., nonostante il fatto che la disuguaglianza nello stato di salute e l'obesità infantile siano problemi di salute pubblica enormi, di alta priorità, mancano le evidenze per scegliere la politica più efficace (efficace dal punto di vista dei costi) e le iniziative pratiche per risolverli.

Strategie di connessione e scambio
Una sfida crescente nella salute pubblica è quella di chiudere il gap tra ricerca e pratica. Per ‘Strategie di connessione e scambio’ si intendono quindi le iniziative che cercano di promuovere l'utilizzo della ricerca in contesti decisionali, e incoraggiare la ricerca che genera evidenze utili e significative.

Strategie di distinzione
Il fatto che le proposte basate sull'evidenza hanno una priorità rispetto alle altre può essere un reale incentivo a influenzare la creazione e l'uso dell'evidenza da parte di chi ha interessi nelle politiche e nella pratica. Una chiara distinzione tra quelli che producono o riesaminano l'evidenza e quelli con interessi politici o commerciali è essenziale. Le strategie di distinzione servono a stabilire strutture e sistemi che proteggano la ricerca indipendente e le revisioni che sono libere dall'influenza di interessi commerciali.

REVIEW SISTEMATICA
Una review sistematica è un metodo per identificare, valutare criticamente, e sintetizzare le evidenze provenienti dalla ricerca. Lo scopo è quello di valutare e interpretare tutta la ricerca disponibile che è rilevante rispetto a un certo problema posto. Una review sistematica differisce da quella tradizionale della letteratura perché quest’ultima descrive e valuta criticamente i lavori precedenti, ma non specifica i metodi che hanno permesso di identificare, selezionare e valutare gli studi revisionati. In una review sistematica lo scopo (per esempio, la domanda iniziale e tutte le domande successive così come le sotto analisi) è definito in precedenza, e i metodi che devono essere utilizzati ad ogni passaggio sono specificati. I passaggi includono: una ricerca completa per trovare tutti gli studi rilevanti; l'uso di criteri per includere o escludere gli studi; l'applicazione di standard stabiliti per valutare la qualità degli studi. Una review sistematica rende espliciti anche in metodi per estrarre e sintetizzare i risultati degli studi.

Una review sistematica può essere condotta su qualunque tipo di ricerca: per esempio, descrittiva, analitica (sperimentale e osservativa), e studi qualitativi. I metodi di sintesi utilizzati in una review sistematica possono essere quantitativi o narrativi/qualitativi (vedi “meta-analisi” e review sistematica narrativa). Le review sistematiche sono utilizzate per rispondere a un ampio range di domande, come ad esempio: il carico della malattia, l'eziologia e il rischio, predittività e prognosi, l'accuratezza diagnostica, l'efficacia degli interventi e dei costi, e fenomeni sociali. Le review sistematiche di salute pubblica sono utilizzate sempre di più per rispondere a questioni in materia di iniziative di salute pubblica, così come su altre politiche sociali che influenzano la salute.

Il rilevante valore di una review di questo tipo è accresciuto dal fatto che quelli che la utilizzano sono coinvolti in alcuni passaggi fondamentali del processo. Per esempio, possono aiutare a far sì che le domande cui la review cerca di rispondere siano rilevanti rispetto alle decisioni sulle pratiche e le politiche; che la review prenda in considerazione tutte le misure rilevanti e i risultati; e che i risultati della review e le raccomandazioni siano presentate in un formato che sia agevole per l'utilizzatore.

La premessa delle review sistematiche è che un altro revisore utilizzando lo stesso metodo per rispondere alle stesse domande iniziali possa identificare gli stessi risultati. Sebbene questa ripetibilità si ottenga sempre più facilmente nelle review quantitative e nelle metanalisi, ci sono sviluppi nel miglioramento e nella standardizzazione nei metodi della sintesi narrativa.

La metanalisi è un metodo specifico di sintesi statistica utilizzata in qualche review sistematica, dove i risultati di diversi studi sono combinati in modo quantitativo e riassunti. La stima complessiva dell'effetto di una metanalisi è più precisa (cioè, a intervalli di confidenza più stretti) rispetto ai risultati di ciascuno degli studi che contribuiscono individualmente, perché il campione nel suo complesso ha una forza statistico più grande.

La review narrativa è qualcosa di utilizzato per descrivere e quindi è non sistematica. Il termine review narrativa sistematica è utilizzata per review sistematiche di studi eterogenei, dove è più appropriato descrivere il ventaglio di possibili evidenze disponibili che non combinare i risultati in un risultato complessivo. Una review di questo tipo può essere condotta sia con una ricerca quantitativa che con una qualitativa.

Le review Cochrane sono di tipo sistematico, e sono condotte sotto gli auspici della Cochrane Collaboration. I protocolli delle review sono peer reviewed e pubblicati elettronicamente prima della compilazione delle stesse review. Le review Cochrane sono anch'esse peer reviewed per i metodi e il contenuto prima della pubblicazione, e l’impegno è quello di aggiornarle ogni due anni.

Le distorsioni dovute alle pubblicazioni sono quelle distorsioni generate in una review sistematica dal fatto che studi con risultati statisticamente significativi hanno più probabilità di essere pubblicati rispetto a quelli che dimostrano di non avere alcun effetto (particolarmente per quanto riguarda gli studi di intervento). Queste distorsioni possono essere minimizzate se si cerca di includere nella review sistematica tutti gli studi rilevanti pubblicati e non. Questo processo può essere facilitato dall'uso di registri internazionali dei trial.

L'eterogeneità è genericamente utilizzata per riferirsi a qualsiasi tipo di variabilità significativa tra studi che contribuiscono a una meta-analisi che fa sì che i dati non siano adatti a essere riuniti in un unico risultato complessivo. Questo può significare eterogeneità nella procedura diagnostica, nella strategia di intervento, nelle misure dei risultati, nella popolazione, nei campioni di studio, o nei metodi di studio. Il termine eterogeneità può anche riferirsi a differenze nei risultati dello studio. Diversi test statistici possono essere utilizzati per confrontare i risultati dello studio e determinare se le differenze tra essi sono statisticamente significative. Per esempio, una eterogeneità significativa tra le stime dell’impatto degli studi di intervento indica che quegli studi non riescono a dare una stima di un singolo effetto comune. In presenza di una significativa eterogeneità, è più appropriato descrivere le variazioni nei risultati dello studio che cercare di combinare i risultati in un'unica stima.

 

Criteri di valutazione critica

I criteri di valutazione critica sono vere e proprie liste di controllo o standard utilizzati per valutare le evidenze. Possono essere applicati per giudicare il valore di un singolo studio, o per esaminare diversi studi come parte di un processo di revisione sistematica. Questi criteri utilizzano diverse variabili, a seconda della natura e dello scopo della ricerca, e le aspettative e le priorità dei revisori.

Il rigore metodologico si riferisce alla robustezza e credibilità dei metodi utilizzati in uno studio, e al fatto che i metodi utilizzati siano appropriati per rispondere alle domande poste nello studio stesso.

Un approccio esplicito e standardizzato alla valutazione critica dei metodi di studio è una caratteristica importante della salute pubblica basata sull'evidenza. Lo scopo è determinare se i risultati della ricerca siano validi o credibili come prova di evidenza. Esistono ormai liste di valutazione critica per giudicare il rigore metodologico relative a quasi tutti tipi di problemi di ricerca e di design di uno studio.

Livelli di evidenza si riferisce alla gerarchia dei diversi tipi di design di uno studio raggruppati in base alla loro suscettibilità alle distorsioni. la gerarchia indica quali studi dovrebbero avere più peso in una valutazione quando la stessa domanda non è esaminata utilizzando diversi tipi di studio.

La forza della evidenza è spesso valutata come combinazione del design di uno studio (livello di evidenza), della qualità dello studio (come viene attuato), e della precisione statistica (valore p e intervalli di confidenza).

Per dimensione si intende la grandezza della stima degli effetti, la sua significatività statistica e/o l'importanza (clinica o sociale) di un risultato quantitativo. L'ampiezza della significatività statistica è data da calcoli numerici, ma i giudizi sull'importanza di un effetto misurato non sono relativi all'argomento e al contesto della decisione.

La completezza indica se l'evidenza fornisce tutta l'informazione richiesta. Per esempio, valutando un intervento di salute pubblica, i revisori devono avere informazioni descrittive delle strategie dell'intervento che sono state adottate; sullo stato di attuazione dell'intervento e il livello cui è stato fatto; sul contesto e le circostanze nel quale è stato attuato; su chi ha raggiunto (o non raggiunto); e come è stato recepito. I revisori dovrebbero anche cercare informazioni sugli effetti non previsti dell'intervento, sulle modifiche dell'effetto, e sui potenziali rischi dell'intervento.

Rilevanza si riferisce al fatto che la ricerca sia appropriata per rispondere alla domanda posta e se i risultati dello studio sono trasferibili (generalizzabili) alla popolazione o al contesto cui si riferisce la domanda.

Criteri di causalità indica il set di criteri utilizzati per valutare la forza della relazione tra causa ed effetto. I criteri sono stati proposti inizialmente da Bradford Hill per giudicare se la relazione tra un fattore di rischio identificato e una malattia fosse di causalità, o semplicemente di associazione. I criteri meglio definiti e ampiamente adottati sono i seguenti:

  • Temporalità quando che l'esposizione precede sempre l'effetto

  • Forza dell'associazione definita dall’ampiezza e dalla significatività statistica del rischio misurato.

  • Relazione dose- risposta significa che un incrementato livello di esposizione (quantità e/o tempo dell'esposizione) aumenta il rischio della malattia

  • Reversibilità/esperimento significa che una riduzione nell’esposizione è associata a tassi più bassi della malattia, e/o che la condizione può essere cambiata o prevenuta da un appropriato regime sperimentale.

  • Consistenza significa che i risultati sono replicati negli studi in diversi contesti o utilizzando metodi diversi e quindi l'associazione misurata è consistente.

  • Plausibilità biologica significa che la relazione ha senso in base alla comprensione principale dei processi patobiologici

  • Specificità è stabilita quando una singola ipotetica causa produce uno specifico effetto.

  • Analogia/Coerenza significa che la relazione di causa-effetto è già stabilita per una simile esposizione o malattia e/o che la relazione è coerente con le teorie esistenti

Assunzioni
Le assunzioni sono idee in cui si crede o presupposti dati per scontati. Sono fondamentali per una comunicazione effettiva. In assenza di assunzioni, ogni interazione avrebbe bisogno di cominciare con una esposizione dettagliata di tutto quello che è creduto o compreso da tutti coloro che sono coinvolti. Le assunzioni solitamente rimangono implicite, spesso invisibili, finché non vengono messi in discussione o sfidati. Tuttavia, l'invisibilità delle assunzioni può essere problematica quando, ad esempio, i collaboratori pensano in modo diverso ma usano lo stesso linguaggio o la stessa terminologia.

Sebbene lo scopo dell'utilizzare l'evidenza sia quello di introdurre chiarezza e maggiore obiettività alle decisioni sulla politice e sulla pratica, tutte le affermazioni basate sull'evidenza sono fondate su assunzioni. Le assunzioni modellano le domande che vengono poste, influenzano gli argomenti utilizzati, e determinano l'evidenza presentata per supportare questi argomenti. Questo spiega perché possiamo essere “resistenti a e non persuasi dall’evidenza che si basa su assunzioni divergenti o antagonistiche; mentre allo stesso tempo quella stessa evidenza conferma di poco quello che le persone già convinte di quelle assunzioni conoscono.”

Un modo per svelare le assunzioni è prevedere una serie di risultati ipotetici da un certo lavoro di ricerca, e discutere le implicazioni di questi risultati prima che i dati reali siano raccolti. Questo aiuterebbe a svelare le assunzioni e i pregiudizi che entrambi i decisori e i ricercatori includono nelle loro risposte e nelle loro interpretazioni dei risultati potenziali. (vedi anche “Utilizzo della valutazione focalizzata”).

Inquadramento

L’inquadramento di un problema si riferisce a come diverse persone la pensano in modo diverso riguardo a un problema, e al fatto che le loro varie prospettive sono incluse nel modo in cui definiscono, presentano ed esaminano il problema. Questo può avere un effetto su come concetti come eziologia, causalità, e evidenza sono discussi, descritti, e ricercati. Quindi, il come un problema è inquadrato determina le domande della ricerca e il tipo di evidenza che alla fine salta fuori. Per esempio, i ricercatori possono privilegiare spiegazioni genetiche degli andamenti della salute rispetto a spiegazioni ambientali; o analisi dei livelli individuali rispetto all'analisi dei livelli di gruppo o contestuali.

Il come un problema viene inquadrato dipende spesso dalle prospettive tipiche delle diverse discipline, dalle ideologie, o dai particolari contesti storici o politici (vedi anche “Paradigma”). Come le assunzioni, anche l’inquadramento è talvolta implicito piuttosto che esplicito. Quindi i ricercatori possono inconsapevolmente inquadrare le domande relative alle proprie ricerche, e i risultati, in modi che da non rendere il loro inquadramento visibile o discutibile.

Paradigma
Paradigma è il complesso di impegni, credo, assunzioni, valori, metodi, visioni, e filosofie di una particolare “visione del mondo.” Il termine fu reso popolare da Thomas Kuhn (1922-1996) il cui testo “Sulla struttura delle rivoluzioni scientifiche” esaminava la nozione che nel corso della storia, la ricerca scientifica è stata condotta secondo seguendo diversi paradigmi: e quindi quello che potrebbe essere considerato “scienza normale” in un certo periodo è soggetto a cambiare quando molte persone adotteranno un nuovo modo di guardare il mondo.

Alcune differenze d'opinione sull'evidenza in salute pubblica possono essere attribuite a differenze di paradigma. Per esempio, all’inizio di questo glossario abbiamo distinto tra evidenze basate su review (un processo tecnico che richiede una solida comprensione dei metodi di ricerca); la formulazione di raccomandazioni basate sull'evidenza (che richiedono una competenza tecnica pratica); e l’attuazione di un'azione di salute pubblica (negoziazioni sociali e politiche). A volte quelli che generano o rivedono l'evidenza e quelli che le interpretano utilizzano visioni diverse su aspetti fondamentali come la natura della ricerca, cosa sia una conoscenza affidabile, e cosa la renda sostanziale. Quindi, hanno diverse prospettive sulle seguenti cose:

Ontologia - lo studio della realtà o della vera natura di quello che è (definita anche metafisica);

Epistemologia - lo studio della conoscenza e della giustezza;

Metodologia - le teorie su come si dovrebbe procedere nella ricerca, o il principio e le procedure di un particolare campo di ricerca.

Paradigmi comunemente citati sono:

Positivismo - attualmente fuori moda perché basato su un “realismo naive” che assumeva che la realtà fosse completamente indipendente dall'osservatore, e quindi con un appropriato metodo scientifico si potesse misurarla e conoscerla come “verità oggettiva”.

Post positivismo - questo è il paradigma di molti metodi di ricerca scientifici e delle scienze sociali (conosciuto anche come “realismo critico”). Implica l’idea che esistano alcune forme indipendenti di realtà, accettando che esse possano essere conosciute solo parzialmente (in modo probabilistico) e che la comprensione della realtà è sempre soggetta a cambiare. La maggior parte delle premesse e dei principi di salute pubblica basati sull'evidenza ricadono nel paradigma post positivista.

Ci sono anche molti settori della ricerca e dell’azione di salute pubblica che riflettono paradigmi alternativi al post positivismo, per esempio, la teoria critica, il costruttivismo, il paradigma partecipativo. Questi paradigmi pongono un’enfasi maggiore sulle diverse realtà, su come queste siano modellate da valori sociali, politici, culturali, economici, etnici, e di genere. Si focalizzano anche su realtà costruite a livello locale, e danno peso a interpretazioni soggettive e di valore di queste realtà. La ricerca partecipativa evidenzia l'importanza di una ricerca basata su un'azione collaborativa. Alcuni aspetti di questi paradigmi si riflettono anche in alcune analisi critiche della pratica basata sull'evidenza.

Bibliografia

1.       Trumble WR, Stevenson A, eds. Shorter Oxford English dictionary on historical principles. Oxford: Oxford University Press, 2002.
2.       Detels R , Breslow. Current scope and concerns in public health. In: Detels R, McEwen J, Beaglehole R, et al, eds. Oxford textbook of public health. Vol 1. Oxford: Oxford University Press, 2002.
3.       Sackett DL, Rosenberg WM, Gray JA, et al. Evidence-based medicine: what it is and what it isn’t. BMJ 1996;312:71–2.[Free Full Text]
4.       Marston G , Watts R. Tampering with the evidence: a critical appraisal of evidence-based policy making. The drawing board: an Australian review of public affairs 2003;3:143–63 http://www.econ.usyd.edu.au/drawingboard/ (accessed 13 Aug 2003)(page152).
5.       Last JM. ed. A dictionary of epidemiology. 4th edn. New York: Oxford University Press, 2001.
6.       Schwandt TA. Qualitative inquiry; a dictionary of terms. Thousand Oaks, CA: Sage, 1997.
7.       Brownson RC, Gurney JG, Land GH. Evidence-based decision making in public health. Journal of Public Health Management Practice 1999;5:86–97.
8.       Brownson RC, Baker EA, Leet TL, et al. Evidence-based public health. Oxford: Oxford University Press, 2003:7.
9.       Oxford Centre for Evidence-based Medicine. Levels of evidence and grades of recommendation. Web site hosted by University Department of Psychiatry, Warneford Hospital, Headington, Oxford. http://www.cebm.net/levels_of_evidence.asp (accessed 2 Oct 2003).
10.    National Health and Medical Research Council. How to use the evidence: assessment and application of scientific evidence. Canberra: Commonwealth of Australia, 2000:10, 6.
11.    Popay J , Williams G. Public health research and lay knowledge. Soc Sci Med 1996;42:759–68.[CrossRef][Medline]
12.    Popay J , Thomas C, Williams G, et al. A proper place to live: health inequalities, agency and the normative dimensions of space. Soc Sci Med 2003;57:55–69.[CrossRef][Medline]

13.    Popay J , , Rogers A, Williams G. Rationale and standards for the systematic review of qualitative literature in health services research. Qualitative Health Research 1998;:341–51.[Medline]

14.    El Ansari W , Phillips CJ, Zwi AB. Narrowing the gap between academic professional wisdom and community lay knowledge: perceptions from partnerships. Public Health 2002;116:151–9.[Medline]

15.    Watkins F , Bendel N, Scott-Samuel A, et al. Through a glass darkly: what should public health observatories be observing? J Public Health Med 2002;24:160–4.[Abstract/Free Full Text]

16.    Little M . Assignments of meaning in epidemiology. Soc Sci Med 1998;47:1135–45.[CrossRef][Medline]

17.    Audi R . ed. The Cambridge dictionary of philosophy. Cambridge: Cambridge University Press, 1995.

18.    Delbridge A , Bernard JRL. The compact Macquarie dictionary. Sydney: The Macquarie Library and Macquarie University, 1994.

19.    Phelan P , Reynolds P. Argument and evidence; critical analysis for the social sciences. London: Routledge, 1996:12.

20.    Fletcher RH, Fletcher SW, Wagner EH. Clinical epidemiology; the essentials. 3rd edn. Baltimore: Williams and Wilkins, 1996:12.

21.    Annas GJ. Burden of proof: judging science and protecting public health in (and out of) the courtroom. Am J Public Health 1999;89:490–3.[Medline]

22.    Welch HG, Lurie JD. Teaching evidence-based medicine: caveats and challenges. Acad Med 2000;75:235–40.[Abstract/Free Full Text]

23.    Rothman KJ, Greenland S. Modern epidemiology. 2nd edn. Philadelphia: Lippincott-Raven, 1998:30, 662.

24.    Parascandola M , Weed DL. Causation in epidemiology. J Epidemiol Community Health 2001;55:905–12.[Abstract/Free Full Text]

25.    Sackett DL, Haynes RB, Guyatt GH, et al. Clinical epidemiology: a basic science for clinical medicine. 2nd edn. Boston: Little, Brown, 1991.

26.    Sackett DL, Richardson WS, Rosenberg W, et al. Evidence-based medicine; how to practice and teach EBM. New York: Churchill Livingstone, 1997

27.    Glasziou P , Longbottom H. Evidence-based public health practice. Aust N Z J Public Health 1999;23:436–40.[Medline]

28.    Frommer M , Rychetnik L. From evidence-based medicine to evidence-based public health. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:61.

29.    McLeroy K , Norton B, Kegler M, et al. Community-based intervention. Am J Public Health 2003;93:529–33.[Free Full Text]

30.    Suchman EA. Evaluative research. New York: Russell Sage, 1967

31.    Glasziou P , Irwig L, Bain C, et al. Systematic reviews in health care; a practical guide. Cambridge: Cambridge University Press, 2001.

32.    Patton MQ. Practical evaluation. Beverly Hills: Sage, 1982

33.    Baranowski T , Stables G. Process evaluation of the 5-a-day projects. Health Education and Behavior 2000;27:157–66.[Medline]

34.    Hawe P , Degeling D, Hall J. Evaluating health promotion; a health workers guide. Sydney: MacLennan and Petty, 1990.

35.    Patton MQ. Qualitative evaluation and research methods. 2nd edn. Newbury Park: Sage, 1990.

36.    Scanlon JW, Horst P, Jay JN, et al. Evaluability assessment: avoiding type III and type IV errors. In: Gilbert GR, Conklin PJ, eds. Evaluation management. A source book of readings. Charlottesville: US Civil Service Commission, 1977.

37.    Wholey JS. Evaluability assessment. In: Rutman L, ed. Evaluative research methods; a basic fuide. Beverly Hills: Sage, 1977.

38.    Scriven M . Prose and cons about goal free evaluation. Evaluation Comment 1972;3:1–7.

39.    Patton MQ. Utilization-focused evaluation. 2nd edn. Beverly Hills: Sage, 1986.

40.    Hawe P . Needs assessment must become more change-focused. Aust N Z J Public Health 1996;20:473–8.[Medline]

41.    Oxman AD, Sackett DL, Guyatt GH for the evidence based medicine working group. Users guides to the medical literature I. How to get started. JAMA 1993;270:2093–5.[CrossRef][Medline]

42.    The Cochrane Collaboration. The Cochrane reviewers handbook. Current version 4.2, last updated March 2003. http://www.cochrane.org/cochrane/hbook.htm (accessed 26 Sep 2003).

43.    NHS Centre for Reviews and Dissemination. Undertaking systematic reviews of research on effectiveness: CRD’s guidance for carrying out or commissioning reviews (CRD report 4; 2nd edn 2001). http://www.york.ac.uk/inst/crd/crdrep.htm  (accessed 26 Sep 2003).

44.    Rychetnik L , Frommer M. A schema for evaluating evidence on public health interventions—version 4. Melbourne: National Public Health Partnership, July 2002; http://www.nphp.gov.au/publications/phpractice/schemaV4.pdf  (accessed 2 Oct 2003).

45.    National Health and Medical Research Council. A guide to the development, implementation and evaluation of clinical practice guidelines. Canberra: Commonwealth of Australia, 1999.

46.    International Union for Health Promotion and Education. The evidence of health promotion effectiveness; shaping public health in a new Europe. Part one (core document) and part two (evidence book). 2nd edn. A report for the European Commission. Brussels. Luxembourg: European Commission, 2000.

47.    Canadian Task Force on the Periodic Health Examination. The periodic health examination: Canadian task force on the periodic health examination. Can Med Assoc J 1979;121:1193–54.

48.    Woolf SG, DiGuiseppi CG, Atkins D, et al. Developing evidence-based clinical practice guidelines: lessons learned by the US Preventive Services Task Force. Annu Rev Public Health 1996;17:511–38.[CrossRef][Medline]

49.    Briss PA, Zaza S, Pappaioanou M, et al. Developing an evidence-based guide to community preventive services—methods. Am J Prev Med 2000;18 (suppl 1) :35–43.[CrossRef][Medline]

50.    Report of the US Preventive Services Task Force. Guide to clinical preventive services. 3rd edn. Periodic updates. http://www.ahcpr.gov/clinic/ajpmsuppl/harris3.htm#codes  (accessed 7 Nov 2003).

51.    Flegg KM, Rowling YJ. Clinical breast examination. A contentious issue in screening for breast cancer. Aust Fam Physician 2000;29:343–6.[Medline]

52.    Harris R , Lohr KN. Screening for prostate cancer: an update of the evidence for the US Preventive Services Task Force. Ann Intern Med 2002;137:917–29.[Abstract/Free Full Text]

53.    Report of the US Preventive Services Task Force. Screening for prostate cancer; recommendations and rationale. Guide to clinical preventive services. 3rd edn. http://www.ahcpr.gov/clinic/3rduspstf/prostatescr/prostaterr.htm (accessed 7 Nov 2003).

54.    American Cancer Society. Cancer reference information; detailed guide: prostate cancer. http://www.cancer.org/docroot/CRI/content/CRI_2_4_3X_Can (accessed 7 Nov 2003).

55.    Chapman S . Advocacy in public health: roles and challenges. Int J Epidemiol 2001;30:1226–32.[Free Full Text]

56.    Canadian Health Services Research Foundation. Knowledge transfer in health. A report on a two-day conference jointly organised by the Canadian Research Transfer Network and the Health Research Transfer Network of Alberta. Calgary, 2002. http://www.chsrf.ca/docs/resource/index_e.shtml

57.    Lin V , Gibson G, eds. Evidence-based health policy; problems and possibilities: policy case studies. Melbourne: Oxford University Press, 2003:97–259.

58.    Shamasunder B , Bero L. Financial ties and conflicts of interest between pharmaceutical and tobacco companies. JAMA 2002;288:738–44.[Abstract/Free Full Text]

59.    Bero L . Implications of the tobacco industry documents for public health and policy. Annu Rev Public Health 2003;24:267–88.[CrossRef][Medline]

60.    Mackenbach JP. Tackling inequalities in health: the need for building a systematic evidence base. J Epidemiol Community Health 2003;57:162.[Free Full Text]

61.    Campbell K , Waters E, O’Meara S, et al. Interventions for preventing obesity in children. Cochrane Library. Issue 4. Oxford: Update Software, 2002.

62.    Davis P , Howden-Chapman P. Translating research findings into health policy. Soc Sci Med 1996;43:865–72.[CrossRef][Medline]

63.    Lomas J . Using ‘linkage and exchange’ to move research into policy at a Canadian Foundation. Health Aff 2000;19:236–40.[CrossRef]

64.    Moynihan R . Who pays for the pizza? Redefining the relationships between doctors and drug companies. 1: Entanglement. BMJ 2003;326:1189–92.[Free Full Text]

65.    Moynihan R . Who pays for the pizza? Redefining the relationships between doctors and drug companies. 2: Disentanglement. BMJ 2003;326:1193–6.[Free Full Text]

66.    Moynihan R . Cochrane plans to allay fears over industry influence. BMJ 2003;327:1005.[Free Full Text]

67.    Petticrew M . Systematic reviews from astronomy to zoology: myths and misconceptions. BMJ 2001;322:98–101.[Free Full Text]

68.    Thomson H , Petticrew M, Morrison D. Health effects of housing improvement: systematic review of intervention studies. BMJ 2001;323:187–90.[Abstract/Free Full Text]

69.    Farrington DP, Welsh BC. Improved street lighting and crime prevention. Justice Quarterly 2002;19:313–42.

70.    Oliver S . Exploring lay perspectives on questions of effectiveness. In: Maynard A, Chalmers I, eds. Non-random reflections on health services research. London: BMJ Books, 1997:272–91.

71.    Oliver S , Dezateux C, Kavanagh J, et al. Disclosing carrier status to parents following newborn screening. Cochrane Library. Issue 2. Oxford: Update Software, 2003.

72.    Popay J , Sowden A, Robert H, et al. Developing methods for the narrative synthesis of quantitative and qualitative data in systematic reviews of effectiveness. Economic and Social Research Council; research methods program. http://www.ccsr.ac.uk/methods/projects/posters/popay.shtml  (accessed 7 Nov 2003).

73.    Cook DJ, Mulrow CD, Haynes RB. Synthesis of best evidence for health care decisions. Mulrow CD, Cook DJ, eds. Systematic reviews; synthesis of best evidence for health care decisions. Philadelphia: American College of Physicians, 1998:7.

74.    Thomas R . School-based programmes for preventing smoking. Cochrane Library. Issue 3. Oxford: Update Software, 2003; (Most recent update May 2003, and last substantive update January 2003).

75.    Deeks JJ, Dinnes J, D’Amico R, et al. Evaluating non-randomised intervention studies. Health Technol Assess 2003;7 http://www.ncchta.org/execsumm/summ727.htm  (accessed 7 Nov 2003).

76.    Rychetnik L , Frommer M, Hawe P, et al. Criteria for evaluating evidence on public health interventions. J Epidemiol Community Health 2002;56:119–27.[Abstract/Free Full Text]

77.    Hill AB. The environment and disease: association or causation. Proc R Soc Med 1965;58:295–300.[Medline]

78.    Hill AB. A short textbook of medical statistics. London: Hodder and Stoughton, 1977:285–96.

79.    Susser MW. What is a cause and how do we know one? A grammar for pragmatic epidemiology. Am J Epidemiol 1991;133:635–48.[Abstract]

80.    Fletcher RH, Fletcher SW, Wagner EH. Clinical epidemiology; the essentials. 3rd edn. Baltimore: Williams and Wilkins, 1996.

81.    Entman RM. Framing: toward clarification of a fractured paradigm. Journal of Communication 1993;43:51–8.

82.    Schon DA. The reflective practitioner; how professionals think in action. New York: Basic Books, 1983.

83.    Lloyd B , Hawe P. Solutions forgone? How health professionals frame postnatal depression as a problem. Soc Sci Med 2003;57:1783–95.[CrossRef][Medline]

84.    Kuhn TS. The structure of scientific revolutions. 3rd edn. Chicago: University of Chicago Press, 1996.

85.    Lincoln YS, Guba EG. Paradigmatic controversies, contradictions, and emerging influences. 2nd edn. In: Denzin NK, Lincoln YS, eds. Handbook of qualitative research. Thousand Oaks: Sage, 2000.

86.    Sindall C . Health policy and normative analysis: ethics, evidence and politics. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:80–94.

87.    Willis E , White K. Evidence-based medicine, the medical profession and health policy. Evidence-based health policy; problems and possibilities. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:33–43.

88.    Willis K . Challenging the evidence—women’s health policy in Australia. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilitiessibilities. Melbourne: Oxford University Press, 2003:211–23.

 


 

trova dati