Journal of Epidemiology and Community Health 2004;58:538-545 © 2004 BMJ Publishing Group Ltd
(Traduzione a cura della redazione di EpiCentro)
Un glossario per l’evidence based public health (la salute pubblica basata
su prove di evidenza)
Lucie Rychetnik1, Penelope Hawe2, Elizabeth Waters3,
Alexandra Barratt4 and Michael Frommer1
1 Sydney Health Projects Group, School of Public Health, University of
Sydney, Australia
2 Alberta Heritage Foundation for Medical Research, Department of
Community Health Sciences, University of Calgary, Canada and School of
Public Health, LaTrobe University, Victoria, Australia
3 Centre for Community Child Health, University of Melbourne,
Murdoch Children’s Research Institute, Victoria, Australia, and Cochrane
Health Promotion and Public Health Field
4 Screening and Test Evaluation Program, School of Public Health,
University of Sydney, Australia
Questo glossario si sforza di definire e spiegare alcuni tra i principali
concetti che compongono l’evidence based public health, cioè la medicina
basata su prove di efficacia. Si basa sulla letteratura scientifica,
l’esperienza di parecchi anni di analisi dell’argomento e sulle discussioni
con operatori della sanità pubblica impegnati nella ricerca e nella pratica,
con policy makers e studenti.
Scarica il PDF
Evidenze
Nell’accezione più ampia, evidenza può essere definita come “fatti o
testimonianze a sostegno di una conclusione, affermazione o opinione” e
“qualcosa che può servire da prova”. Tale definizione generica è un utile
punto di partenza ma è troppo decontestualizzata e non indica specificamente
che cosa funziona come evidenza, quando e per chi.
Salute pubblica
E’ l’insieme di sforzi scientifici e tecnici, ma anche sociali e politici
volti a migliorare la salute e il benessere delle comunità o delle
popolazioni. Una definizione dell'Oxford Textbook of Publich Health
presenta modo conciso le sue multiple dimensioni: “salute pubblica è il
processo di mobilitazione e impegno a livello locale, nazionale, e
internazionale delle risorse per assicurare condizioni in cui le persone
possano mantenersi in salute. ... le azioni che possono essere avviate sono
determinate dalla natura della dimensione dei problemi che affliggono la
salute della comunità. Quello che si può fare sarà determinato dalla
conoscenza scientifica (efficacia) e dalle risorse disponibili
(fattibilità). Quello che viene effettivamente realizzato sarà determinato
dalla situazione sociale e politica esistente in quello specifico luogo e
tempo.”
Salute pubblica basata sull'evidenza
E’ lo sforzo di salute pubblica in cui si fa un uso informato, esplicito, e
giudizioso dell'evidenza derivata dai vari campi della ricerca scientifica,
da quello biomedico a quello sociale e dalle valutazioni empiriche.
La definizione evidenzia due aspetti della salute pubblica basata
sull'evidenza: (1) l'uso di un tipo particolare di evidenza che guidi le
decisioni in materia di sanità pubblica; e (2) l’enfatizzazione della
interpretazione razionale quando l’evidenza viene esaminata.
I tipi di ricerca che sono comunemente associati con la salute pubblica
basata sull'evidenza sono descritti di seguito.
Ricerca dell'evidenza
- La nostra definizione di salute pubblica basata sull'evidenza è
sufficientemente ampia da comprendere una estesa varietà di risultati della
ricerca fatta all’interno della sanità pubblica come fonte di evidenza. Gli
studi possono essere classificati a seconda delle domande cui cercano di
rispondere. Di seguito una possibile definizione dei tipi di studio
(definizioni adattate dal dizionario di epidemiologia e dal dizionario
dell'indagine qualitativa):
Descrittivi: identificano le qualità e le distribuzioni delle variabili;
-
Tassonomici: confrontano e classificano le variabili in gruppi o categorie correlate;
-
Analitici: esaminano le associazioni tra variabili – che possono essere causali, ipotetiche o terapeutiche;
-
Interpretativi: identificano e spiegano i significati, solitamente da una prospettiva particolare;
-
Esplicativi: fanno osservazioni comprensibili e intelligibili;
-
Valutativi: determinano la qualità e il valore - spesso stabilendo il grado di rilevanza, efficacia, e le conseguenze delle attività.
Alcuni promotori delle pratiche basate sull'evidenza adottano una
specificità anche più dettagliata sui tipi di ricerca che contribuiscono
alla salute pubblica basata sull'evidenza. Brownson et al. distingue
solo due tipi di evidenza: il tipo (1) è quella ricerca che descrive le
relazioni in merito al rischio di malattia, e identifica la dimensione,
severità, e prevenibilità dei problemi di salute pubblica. Quindi l'evidenza
di tipo 1 punta al fatto che “qualcosa dovrebbe essere fatto”. L'evidenza di
tipo (2) identifica l'efficacia relativa di specifici interventi che hanno
lo scopo di rispondere a un certo problema. Quindi l'evidenza di tipo 2 può
aiutare a individuare che “questo dovrebbe essere fatto”.
Per una evidenza che sia utile nel dare informazioni per le politiche e le
pratiche di salute pubblica, proponiamo una terza categoria che mette in
evidenza l'importanza delle informazioni descrittive e/o qualitative.
L'evidenza di tipo (3) potrebbe quindi includere i seguenti elementi:
informazione sul design e sullo svolgimento di un intervento; le circostanze
contestuali nelle quali l'intervento è stato portato a termine;
l'informazione su come l'intervento è stato recepito. L'evidenza di tipo (3)
ci dice “come qualcosa dovrebbe essere fatto”.
Ogni tipo di evidenza può comprendere varie combinazioni di tipi di studio.
Sebbene estremamente utile agli operatori e ai regolatori, il terzo tipo di
evidenza è spesso non disponibile nelle pubblicazioni e nei rapporti di
valutazione degli interventi. Un obiettivo importante per quelli impegnati
nella salute pubblica basata sull'evidenza è migliorare la qualità, la
disponibilità, e l'uso di tutti e tre i tipi di evidenza nelle decisioni di
salute pubblica.
Opinioni di esperti
La definizione “opinione degli esperti” solitamente si riferisce ai punti di
vista di professionisti che hanno un’esperienza e conoscenza rispetto a una
particolare forma di pratica o campo di ricerca, come ad esempio la pratica
clinica o le metodologie di ricerca. Opinione di esperti può essere quindi
il punto di vista di una singola persona o l’opinione comune di un gruppo di
esperti. Quando il concetto della pratica basata sull'evidenza è stato
introdotto per la prima volta, l'opinione di esperti veniva identificata
come la forma meno affidabile di evidenza sull’efficacia degli interventi, e
quindi era posizionata al livello più basso nella gerarchia dei “livelli di
evidenza”. Ulteriori studi hanno però messo in luce che mettere l'opinione
di esperti nella stessa scala di priorità dei livelli di evidenza non è
utile né appropriato perché l'opinione di esperti è qualitativamente diversa
dalle forme di evidenza derivate dalla ricerca. L'opinione può essere
identificata come un modo di giudicare la ricerca e di interpretarla
piuttosto che come una forma più debole di evidenza.
Saperi non esperti
I “saperi non esperti” sono quelli riferiti alla comprensione che i membri
del pubblico generico hanno di un problema o di un certo argomento. “Saperi
non esperti” sono ad esempio “l’insieme dei significati che salute,
malattia, disabilità e rischio hanno per le persone.” Il riconoscimento
formale e l'analisi dei saperi non esperti è condotta principalmente
attraverso forme qualitative di ricerca. Una adeguata attenzione alle
conoscenze non esperte è stata proposta come criterio per la valutazione
critica delle ricerche qualitative. Sono state espresse anche preoccupazioni
sul fatto che alcuni operatori della salute non diano il giusto valore alle
conoscenze dei non esperti. Queste conoscenze sono difficili da accedere e
da definire, e focalizzarsi solo su forme quantitative di evidenza può
portare i decisori a sottovalutare i saperi non esperti che provengono dalle
narrazioni e dalle storie.
Argomento e evidenza
Un principio fondamentale della salute pubblica basata sull'evidenza è lo
stretto legame tra un argomento solido e l'evidenza. A tal fine è importante
definire i termini seguenti:
Argomento
si riferisce a una sequenza di dichiarazioni nelle quali la premessa dà a
intendere che ci siano motivi validi per accettare le conclusioni. Quindi la
premessa è la proposizione dalla quale la conclusione è dedotta. Nel
dibattito scientifico o legale “investigare su intuizioni alla luce
dell'evidenza o difendere argomenti come irrazionali sono due elementi di
interesse fondamentali dell'analisi critica”.
Ragionare
si riferisce al processo di trarre delle inferenze o delle conclusioni da
premesse, fatti, o altre evidenze. È utile distinguere tra tre tipi di
ragionamento.
Induzione
si riferisce al ragionamento che procede dal particolare al generale. Quindi
l’induzione viene applicata per trarre conclusioni o teorie generali da dati
empirici, come osservazioni particolari o casi.
Deduzione
si riferisce al ragionamento che procede dal generale al particolare. Quindi
la deduzione si appoggia sulla teoria generale per trarre conclusioni
particolari.
Abduzione
si riferisce a un tipo di ragionamento che fa una inferenza verso la
migliore spiegazione disponibile; cioè, selezionando da un numero di
possibilità l'ipotesi che forniscono alla migliore spiegazione date le
evidenze disponibili.
Logica è la scienza del ragionare “corretto”. Se la logica di un argomento
ha a che fare con la validità, allora la questione chiave è se, quando le
premesse sono vere, abbiamo una ragione valida di accettare le conclusioni.
Il termine validità deriva dalla parola latina validus, che significa
forte. Si riferisce al grado in cui qualcosa è ben fondato, solido,
corretto. La validità è spesso utilizzata assieme a termini e aggettivi che
le attribuiscono significati specifici, come segue:
-
Validità delle misurazioni si riferisce al grado con cui si riesce a misurare effettivamente quanto si intende misurare. La validità delle misurazioni può essere di tre tipi. La validità del costrutto è il grado in cui la misurazione corrisponde ai concetti teorici o ai concetti elaborati; la validità del contenuto è il grado in cui le misurazioni inglobano lo scopo o il campo del fenomeno che s'intende studiare; e la validità dei criteri è la misura in cui il fenomeno si correla con un criterio esterno a sé stesso. La validità di criterio può essere può essere simultanea (misura e criterio si riferiscono a uno stesso momento temporale) o predittiva (l'abilità della misura di predire il criterio).
-
Validità dello studio si riferisce al grado in cui le inferenze tratte da uno studio sono avvallate quando si prendono in considerazione i metodi dello studio; la rappresentatività del campione; e la natura della popolazione dal quale è selezionato.
Ci sono due tipi di validità dello studio. La validità interna
esprime il grado di validità dei risultati di un certo studio all’interno
del campione di persone studiate. La validità esterna (generalizzabilità)
si riferisce invece alla validità dei risultati per una popolazione più
estesa rispetto ai soggetti contemplati dallo studio o che si trova in altri
contesti.
Affidabilità
è il grado in cui l'osservazione o le misure possono essere replicate,
quando ripetute sotto le stesse condizioni. L’affidabilità è necessaria ma
non è sufficiente per stabilire la validità di una proposizione. Una bassa
affidabilità può essere dovuta alla variabilità negli strumenti di
misurazione o nell'osservatore, oppure a una instabilità del fenomeno stesso
che si sta studiando.
Onere della prova
La prova è l'evidenza che fa sì che si creda alla “verità” espressa da una
proposizione o argomento. In una disputa, l'onere della prova spetta alla
parte responsabile per la produzione delle evidenze delle proprie
proposizioni, o a chi sposta una conclusione dalla sua posizione di default.
Per esempio, nel sistema legale di molti paesi una persona accusata è
presunto innocente (posizione default) finché non ne viene provata la
colpevolezza. L'onere della prova quindi spetta all’accusa. Domande tipiche
nell’ambito legale, come: “chi ha l'onere della prova?” “Cosa deve essere
provato?” e “Quali standard devono essere utilizzati per provarlo?” si
applicano anche al campo della salute pubblica. Tuttavia, ci sono spesso
significative differenze nel modo in cui si risponde a queste domande.
L'onere della prova della salute pubblica determina il modo in cui la
pratica basata sull'evidenza viene interpretata e applicata. Per esempio,
dovrebbero le strategie essere “considerate utili finché si dimostrano
non efficaci o si dovrebbe assumere che siano inutili finché risulta invece
che sono efficaci? Dovremmo decidere noi a chi spetta l'onere della prova.
Se questo onere si basa sulla dimostrazione di inefficacia, la posizione
default è quella di fare tutto; se invece si tratta di dimostrare
l'efficacia, il default è fare nulla.”
Frequenza e tasso
La dimensione e la severità dei problemi di salute pubblica sono spesso
espresse come misure della frequenza o proporzioni e tassi.
Per prevalenza si intende la proporzione di persone in una
popolazione che hanno a un certo punto nel tempo o durante un periodo di
tempo determinato presentano qualche attributo o condizione particolare.
Incidenza
(tasso di incidenza) è il numero di nuovi eventi (per esempio nuovi casi di
una malattia) in una certa popolazione, all'interno di un periodo di tempo
specificato.
Proporzione dell'incidenza
(incidenza cumulativa) è la proporzione di persone che sviluppa una certa
condizione all'interno di un periodo di tempo stabilito. Una proporzione di
incidenza è sinonimo di rischio. Per esempio la proporzione di persone che
sviluppa una certa condizione nel corso della propria vita rappresenta il
rischio di contrarre quella malattia nel corso della vita.
Causalità
La causalità è “il mettere in relazione le cause agli effetti prodotti”.
Generalmente, la causalità è relativa alla produzione nel senso che
una causa è qualcosa che produce o crea un effetto. Il concetto di causalità
è fondamentale per due aspetti della medicina pubblica basata sull'evidenza:
(1) dimostrare e capire le cause dei problemi di salute pubblica; (2)
stabilire la probabilità e la natura delle relazioni casuali tra un
intervento e i suoi effetti. Tradizionalmente, la ricerca nel campo della
salute pubblica si è focalizzata sul primo aspetto (l’ampiezza e l’eziologia
di una malattia), ma la letteratura scientifica relativa alle pratiche
basata sull'evidenza ha enfatizzato metodi e processi per generare,
valutare, e applicare una ricerca sugli interventi. (vedi anche “valutazione”
e “criteri di valutazione critica”).
Esistono diverse definizioni di causalità, e a seconda del punto di vista
assunto si possono trarre conclusioni differenti su come una certa relazione
causale è stata stabilita. Queste differenze generano anche aspettative
diverse rispetto a quello che costituisce una “buona” evidenza per le
decisioni di salute pubblica. Alcune formule alternative di causalità sono
descritte di seguito.
Le cause a volte sono descritte come necessarie o sufficienti.
Una causa è necessaria quando deve sempre precedere l'effetto
affinché quell'effetto si realizzi; senza la causa l'effetto non può
realizzarsi.
Alternativamente, una causa è sufficiente quando inevitabilmente
produce un effetto; se la causa è presente, l'effetto deve realizzarsi. In
una relazione tra una causa e un effetto, la causa può essere necessaria,
sufficiente, nessuna delle due o entrambe. Queste relazioni causali così
deterministiche e precise non sono comunemente osservate nella ricerca sulla
salute pubblica.
La causalità probabilistica o statistica è alternativa
rispetto al determinismo. Una causa probabilistica aumenta o riduce la
probabilità che un certo effetto si manifesti. Una definizione
probabilistica dà una informazione quantitativa sulla stima della forza e
della natura di quella relazione causa-effetto. Dà anche un'informazione
quantitativa su potenziali modifiche dell'effetto, e su qualunque relazione
dose-risposta che possa esistere tra la causa e il suo effetto.
L'applicazione della causalità probabilistica è una pietra angolare
dell’epidemiologia clinica, della medicina basata sull'evidenza, e della
salute pubblica basata sull'evidenza.
La causalità controfattuale si manifesta quando gli effetti osservati
differiscono in diverse condizioni. Una relazione di questo tipo può essere
descritta in termini deterministici e probabilistici, per dimostrare come
l'effetto (o la sua probabilità) differisce quando la causa è presente o
assente (mentre, idealmente, tutte le altre variabili sono costanti). Questo
tipo di causalità implica l'uso di gruppi di controllo nella ricerca.
Interventi di salute pubblica
Un intervento sottintende un’azione o un programma che ha l’obiettivo di
raggiungere obiettivi ben identificati. Un intervento di salute pubblica può
essere caratterizzato dal fatto che è applicato a molti, alla maggior parte,
o a tutti i membri di una comunità, con lo scopo di ottenere un netto
beneficio per la comunità o popolazione così come benefici per gli
individui. Gli interventi di salute pubblica includono politiche dei governi
e delle organizzazioni non governative; leggi e regolamenti; sviluppo delle
organizzazioni; sviluppo delle comunità; educazione degli individui e delle
comunità; sviluppi ingegneristici e tecnici; sviluppo dei servizi e della
capacità di offerta; e comunicazione, incluse le politiche di marketing
sociale.
Gli interventi di salute pubblica a volte danneggiano alcuni individui, ed è
importante che questi danni siano identificati in qualunque valutazione
dell'intervento. Questa valutazione permette una riflessione consapevole sul
fatto che il danno ad alcuni individui sia talmente ridotto (e/o così raro)
da essere controbilanciato dai benefici prodotti alle altre persone. Per
esempio i programmi di immunizzazione delle popolazioni beneficiano molte
persone che sono protette dall'effetto del vaccino, e l'intera comunità trae
beneficio se l'effetto gregge diventa così grande che l'organismo
infettivo fa fatica a sopravvivere. Tuttavia per ottenere questo beneficio,
molte persone subiscono dei disagi (per esempio, dolori alle braccia per
alcune ore) e pochissime persone possono essere danneggiate dagli effetti
laterali dei vaccini. Nella maggior parte dei paesi, tuttavia, il beneficio
netto dei programmi di immunizzazione selettiva è considerato sufficiente a
garantire un intervento a livello della popolazione.
Gli interventi di salute pubblica possono essere anche descritti a seconda
che la comunità al centro dell’intervento sia: (a) il contesto dove
l’intervento viene realizzato; (b) il target del cambiamento desiderato; (c)
una risorsa per l'intervento; o (d) l'agente del cambiamento. McLeroy et
al. distingue anche tra i livelli e obiettivi dell'intervento, cioè un
intervento può realizzarsi a un certo livello ma produrre cambiamenti anche
ad altri livelli. Queste distinzioni tra diversi tipi di intervento sono
utili nello specificare gli obiettivi di salute pubblica e possono guidare
una valutazione degli effetti dell'intervento. Possono aiutare a focalizzare
la ricerca per l'evidenza nella salute pubblica.
Valutazione
Il dizionario di epidemiologia definisce la valutazione come “un
processo che cerca di determinare il più sistematicamente e obiettivamente
possibile la rilevanza, l’efficacia, l’impatto delle attività alla luce dei
loro obiettivi.” La valutazione genera evidenze del tipo (2) e del tipo (3)
e quindi identifica quello che dovrebbe o potrebbe essere fatto per
rispondere a un certo problema di salute pubblica, e come dovrebbe essere
fatto. Il termine valutazione è utilizzato spesso in modo intercambiabile
con ricerca valutativa, e le valutazioni di interventi sono anche
definite
studi di intervento. Abbiamo osservato che il termine “valutazione” è
talvolta utilizzato per riferirsi solo a studi di controllo di qualità
“interni” o a audizioni interne, che, sfortunatamente, non godono dello
status (nel senso di supporto finanziario) della ricerca. La tendenza a
svalutare la valutazione può spiegare il perché ci sia poca evidenza del
tipo (3) nella letteratura pubblicata nonostante l'importanza di quest'evidenza
per i decisori.
Il termine valutazione non implica un particolare tipo di design di uno
studio. Una valutazione potrebbe essere un trial randomizzato controllato,
un design di serie temporali interrotte, o un caso studio. Le gerarchie dei
diversi tipi di studi sono relative al grado in cui questi studi sono
suscettibili di errore. Anche se sono state identificate fino a 32 diverse
categorie di valutazione, indichiamo di seguito quelle più comunemente
utilizzate nella valutazione dei programmi di salute pubblica.
La valutazione di processo è una valutazione che giudica il modo in
cui il programma viene realizzato. Per effettuare questo tipo di valutazione
possono essere prese in considerazione le seguenti caratteristiche:
arruolamento dei partecipanti e mantenimento della partecipazione (anche
conosciuta come raggiungimento del programma); il contesto nel quale
programma è condotto e valutato; le risorse richieste e utilizzate;
l'implementazione del programma rispetto al piano previsto; gli ostacoli e i
problemi incontrati; il grado di esposizione ai materiali e alle attività;
l'uso iniziale o il coinvolgimento in attività fin dall'inizio del
programma; l'uso continuativo di attività nel corso del tempo; il
mantenimento di standard di qualità.
La valutazione formativa si riferisce all'uso dei dati fatto dai
pianificatori del programma rispetto alla valutazione del processo condotta
nei primi tempi dello sviluppo di un intervento, così che se necessario sia
possibile apportare dei correttivi.
La valutazione di impatto esamina l'effetto iniziale di un programma
su una serie di target di cambiamento più immediati, come le politiche, i
comportamenti, o le attitudini. Quindi in questo caso vengono valutati gli
obiettivi iniziali del programma.
La valutazione del risultato si riferisce agli effetti osservati dopo
l'attuazione del programma in termini della salute delle popolazioni
coinvolte, rispetto agli obiettivi posti. Si può anche definire
valutazione sommatoria, perché una volta completata, un ricercatore o un
regolatore si troverebbe nella posizione di dare un giudizio complessivo sul
valore di un certo programma. Un tale giudizio implica che vengano
precedentemente svolte con successo le valutazioni del processo e
dell'impatto.
La valutazione della valutabilità è un processo sistematico per
controllare se un programma è ben teorizzato, pianificato, e finanziato, e
sufficientemente ben implementato, prima dello svolgimento di una
valutazione di impatto o di risultato. Questo termine è stato coniato per la
prima volta nei primi anni '80 con lo scopo di evitare valutazioni inutili
dei risultati; cioè prevenire l'investimento di fondi per cercare gli
effetti di programmi che erano così mal disegnati e implementati che uno non
si sarebbe aspettato alcun effetto.
La valutazione libera dagli obiettivi si focalizza su tutti gli
effetti del programma, previsti e non previsti. Gli effetti esaminati
all’interno di questo tipo di valutazione possono essere quelli che si
realizzano inizialmente dopo l'intervento (e cioè che corrispondono alla
valutazione di impatto) e/o gli effetti successivi (quelli corrispondenti
alla valutazione dei risultati).
La valutazione focalizzata sull'utilizzo prende il via quando il
valutatore richiede ai decisori che tipo di informazione (evidenza)
considererebbero più utile. Lo scopo è aumentare il trasferimento delle
evidenze verso le pratiche. Parte di questo tipo di valutazione consiste
nell’ipotizzare scenari in base ai risultati ipotetici derivati da uno
studio proposto per determinare come (o se) i decisori utilizzerebbero i
dati prodotti da quella ricerca. La valutazione focalizzata sull'utilizzo
può anche comprendere valutazioni di processo, impatto, o dei risultati;
dipende dai bisogni dell'utilizzatore. Nota: la valutazione libera dagli
obiettivi può anche focalizzarsi sull'utilizzo - cioè essere relativa agli
interessi di quelli che sono gli utilizzatori previsti proprio di quel tipo
di valutazione.
LOGICA DEGLI INTERVENTI BASATI SULL'EVIDENZA
La logica della pratica basata sull'evidenza identifica una relazione
ciclica tra valutazione, evidenza, pratica, e ulteriore valutazione. La
premessa è che le valutazioni permettono di determinare se gli effetti
attesi dell'intervento si realizzano davvero nella pratica, e identifica gli
effetti non attesi. I rapporti di queste valutazioni sono una risorsa
importante dell'evidenza per massimizzare i benefici, e ridurre i pericoli,
nelle politiche e nelle pratiche di salute pubblica. L'evidenza può anche
dare indicazioni per la pianificazione della valutazione, e quindi
migliorare la qualità e la rilevanza della nuova ricerca.
I vari livelli in questo ciclo tendono ad essere completati da gruppi
diversi secondo le differenti priorità e necessità. Per capire le sfide che
possono nascere nella salute pubblica basata sull'evidenza, vale la pena di
distinguere le seguenti componenti:
Review delle evidenze
Per interpretare e utilizzare la ricerca di valutazione, la ricerca
stessa deve passare un processo di valutazione che definisce fino a che
livello dà una informazione credibile (valida e affidabile), e se questa
informazione possa essere utile (rilevante e generalizzabile) in un diverso
contesto. Quindi una review delle evidenze è un processo di valutazione
critica della ricerca e un riassunto dei risultati che ha lo scopo di
rispondere a specifiche domande. Nel contesto della pratica basata
sull'evidenza, le review delle evidenze tendono a essere processi tecnici
che richiedono una buona comprensione dei metodi di ricerca guidati da
criteri standardizzati e da protocolli di revisione. (vedi anche “revisioni
sistematiche” e “criteri di valutazione critica”).
Raccomandazioni basate sull'evidenza
La formulazione di raccomandazioni basate sull'evidenza o di linee guida
si basa sulle review delle evidenze e usa i risultati per fare affermazioni
sulle implicazioni dell'evidenza sulla politica e la pratica attuale. Questo
richiede un input sostanziale da parte degli operatori, dei regolatori, dei
consumatori che possono integrare i risultati dell'evidenza con le
necessarie considerazioni pratiche e sociali.
Le linee guida basate sull'evidenza illustrano la natura e la forza
dell'evidenza sulla quale le raccomandazioni sono basate. In molti casi le
raccomandazioni sono ordinate per gradi: il grado della raccomandazione è
determinato dalla forza dell'evidenza. Le raccomandazioni basate
sull'evidenza possono essere anche ordinate in base al bilancio tra benefici
e rischi.
La considerazione del contesto nel quale le raccomandazioni devono essere
attuate (implicazioni di questa attuazione) inevitabilmente genera problemi
di interpretazione che non emergono quando si considerano solo le sintesi
delle evidenze. Questo può portare a un disaccordo sulle raccomandazioni;
una scarsa efficacia delle linee guida anche quando sono basate
sull'evidenza; o a linee guida conflittuali sullo stesso argomento da parte
di diverse organizzazioni.
Politica e pratica basata sull'evidenza (azione di salute pubblica)
L'azione di lobby e di pressione richieste per influenzare le politiche,
cambiare le pratiche, e ottenere un'azione di salute pubblica sono una
componente importante della salute pubblica. Riuscire a ottenere un certo
grado di influenza è spesso più difficile, e richiede negoziazioni sociali e
politiche più complesse, che non una valutazione critica dell'evidenza e la
formulazione di raccomandazioni. Nella promozione della salute pubblica, la
ricerca fornisce solo un tipo di evidenza, e in ogni caso qualsiasi tipo di
evidenza costituisce sono una delle considerazioni di cui si tiene conto.
Fattori sociali, politici, e commerciali spesso determinano l'uso delle
evidenze nei diversi contesti politici. Una caratteristica chiave delle
politiche e pratiche basate sull'evidenza è che si nutrono delle evidenze ma
al tempo stesso le decisioni prese dipenderanno da valori e priorità
prevalenti.
L'azione basata sull'evidenza è spesso inibita anche dalla discrepanza tra
la dimensione dell'importanza di un problema di salute pubblica e
l'adeguatezza dell'evidenza sui potenziali interventi per risolvere il
problema. Per es., nonostante il fatto che la disuguaglianza nello stato di
salute e l'obesità infantile siano problemi di salute pubblica enormi, di
alta priorità, mancano le evidenze per scegliere la politica più efficace
(efficace dal punto di vista dei costi) e le iniziative pratiche per
risolverli.
Strategie di connessione e scambio
Una sfida crescente nella salute pubblica è quella di chiudere il gap
tra ricerca e pratica. Per ‘Strategie di connessione e scambio’ si intendono
quindi le iniziative che cercano di promuovere l'utilizzo della ricerca in
contesti decisionali, e incoraggiare la ricerca che genera evidenze utili e
significative.
Strategie di distinzione
Il fatto che le proposte basate sull'evidenza hanno una priorità
rispetto alle altre può essere un reale incentivo a influenzare la creazione
e l'uso dell'evidenza da parte di chi ha interessi nelle politiche e nella
pratica. Una chiara distinzione tra quelli che producono o riesaminano
l'evidenza e quelli con interessi politici o commerciali è essenziale. Le
strategie di distinzione servono a stabilire strutture e sistemi che
proteggano la ricerca indipendente e le revisioni che sono libere
dall'influenza di interessi commerciali.
REVIEW SISTEMATICA
Una
review sistematica è un metodo per identificare, valutare criticamente,
e sintetizzare le evidenze provenienti dalla ricerca. Lo scopo è quello di
valutare e interpretare tutta la ricerca disponibile che è rilevante
rispetto a un certo problema posto. Una review sistematica differisce da
quella tradizionale della letteratura perché quest’ultima descrive e valuta
criticamente i lavori precedenti, ma non specifica i metodi che hanno
permesso di identificare, selezionare e valutare gli studi revisionati. In
una review sistematica lo scopo (per esempio, la domanda iniziale e tutte le
domande successive così come le sotto analisi) è definito in precedenza, e i
metodi che devono essere utilizzati ad ogni passaggio sono specificati. I
passaggi includono: una ricerca completa per trovare tutti gli studi
rilevanti; l'uso di criteri per includere o escludere gli studi;
l'applicazione di standard stabiliti per valutare la qualità degli studi.
Una review sistematica rende espliciti anche in metodi per estrarre e
sintetizzare i risultati degli studi.
Una review sistematica può essere condotta su qualunque tipo di ricerca: per
esempio, descrittiva, analitica (sperimentale e osservativa), e studi
qualitativi. I metodi di sintesi utilizzati in una review sistematica
possono essere quantitativi o narrativi/qualitativi (vedi “meta-analisi” e
review sistematica narrativa). Le review sistematiche sono utilizzate per
rispondere a un ampio range di domande, come ad esempio: il carico della
malattia, l'eziologia e il rischio, predittività e prognosi, l'accuratezza
diagnostica, l'efficacia degli interventi e dei costi, e fenomeni sociali.
Le review sistematiche di salute pubblica sono utilizzate sempre di più per
rispondere a questioni in materia di iniziative di salute pubblica, così
come su altre politiche sociali che influenzano la salute.
Il rilevante valore di una review di questo tipo è accresciuto dal fatto che
quelli che la utilizzano sono coinvolti in alcuni passaggi fondamentali del
processo. Per esempio, possono aiutare a far sì che le domande cui la review
cerca di rispondere siano rilevanti rispetto alle decisioni sulle pratiche e
le politiche; che la review prenda in considerazione tutte le misure
rilevanti e i risultati; e che i risultati della review e le raccomandazioni
siano presentate in un formato che sia agevole per l'utilizzatore.
La premessa delle review sistematiche è che un altro revisore
utilizzando lo stesso metodo per rispondere alle stesse domande iniziali
possa identificare gli stessi risultati. Sebbene questa ripetibilità si
ottenga sempre più facilmente nelle review quantitative e nelle
metanalisi, ci sono sviluppi nel miglioramento e nella standardizzazione
nei metodi della sintesi narrativa.
La metanalisi è un metodo specifico di sintesi statistica utilizzata
in qualche review sistematica, dove i risultati di diversi studi sono
combinati in modo quantitativo e riassunti. La stima complessiva
dell'effetto di una metanalisi è più precisa (cioè, a intervalli di
confidenza più stretti) rispetto ai risultati di ciascuno degli studi che
contribuiscono individualmente, perché il campione nel suo complesso ha una
forza statistico più grande.
La review narrativa è qualcosa di utilizzato per descrivere e quindi
è non sistematica. Il termine review narrativa sistematica è
utilizzata per review sistematiche di studi eterogenei, dove è più
appropriato descrivere il ventaglio di possibili evidenze disponibili che
non combinare i risultati in un risultato complessivo. Una review di questo
tipo può essere condotta sia con una ricerca quantitativa che con una
qualitativa.
Le review Cochrane sono di tipo sistematico, e sono condotte sotto
gli auspici della Cochrane Collaboration. I protocolli delle review sono
peer reviewed e pubblicati elettronicamente prima della compilazione
delle stesse review. Le review Cochrane sono anch'esse peer reviewed
per i metodi e il contenuto prima della pubblicazione, e l’impegno è quello
di aggiornarle ogni due anni.
Le distorsioni dovute alle pubblicazioni sono quelle distorsioni
generate in una review sistematica dal fatto che studi con risultati
statisticamente significativi hanno più probabilità di essere pubblicati
rispetto a quelli che dimostrano di non avere alcun effetto (particolarmente
per quanto riguarda gli studi di intervento). Queste distorsioni possono
essere minimizzate se si cerca di includere nella review sistematica tutti
gli studi rilevanti pubblicati e non. Questo processo può essere facilitato
dall'uso di registri internazionali dei trial.
L'eterogeneità è genericamente utilizzata per riferirsi a qualsiasi
tipo di variabilità significativa tra studi che contribuiscono a una
meta-analisi che fa sì che i dati non siano adatti a essere riuniti in un
unico risultato complessivo. Questo può significare eterogeneità nella
procedura diagnostica, nella strategia di intervento, nelle misure dei
risultati, nella popolazione, nei campioni di studio, o nei metodi di
studio. Il termine eterogeneità può anche riferirsi a differenze nei
risultati dello studio. Diversi test statistici possono essere utilizzati
per confrontare i risultati dello studio e determinare se le differenze tra
essi sono statisticamente significative. Per esempio, una eterogeneità
significativa tra le stime dell’impatto degli studi di intervento indica che
quegli studi non riescono a dare una stima di un singolo effetto comune. In
presenza di una significativa eterogeneità, è più appropriato descrivere le
variazioni nei risultati dello studio che cercare di combinare i risultati
in un'unica stima.
Criteri di valutazione critica
I criteri di valutazione critica sono vere e proprie liste di controllo o
standard utilizzati per valutare le evidenze. Possono essere applicati per
giudicare il valore di un singolo studio, o per esaminare diversi studi come
parte di un processo di revisione sistematica. Questi criteri utilizzano
diverse variabili, a seconda della natura e dello scopo della ricerca, e le
aspettative e le priorità dei revisori.
Il rigore metodologico si riferisce alla robustezza e credibilità dei
metodi utilizzati in uno studio, e al fatto che i metodi utilizzati siano
appropriati per rispondere alle domande poste nello studio stesso.
Un approccio esplicito e standardizzato alla valutazione critica dei metodi
di studio è una caratteristica importante della salute pubblica basata
sull'evidenza. Lo scopo è determinare se i risultati della ricerca siano
validi o credibili come prova di evidenza. Esistono ormai liste di
valutazione critica per giudicare il rigore metodologico relative a quasi
tutti tipi di problemi di ricerca e di design di uno studio.
Livelli di evidenza
si riferisce alla gerarchia dei diversi tipi di design di uno studio
raggruppati in base alla loro suscettibilità alle distorsioni. la gerarchia
indica quali studi dovrebbero avere più peso in una valutazione quando la
stessa domanda non è esaminata utilizzando diversi tipi di studio.
La forza della evidenza è spesso valutata come combinazione del
design di uno studio (livello di evidenza), della qualità dello studio (come
viene attuato), e della precisione statistica (valore p e intervalli
di confidenza).
Per dimensione
si intende la grandezza della stima degli effetti, la sua significatività
statistica e/o l'importanza (clinica o sociale) di un risultato
quantitativo. L'ampiezza della significatività statistica è data da calcoli
numerici, ma i giudizi sull'importanza di un effetto misurato non sono
relativi all'argomento e al contesto della decisione.
La
completezza indica se l'evidenza fornisce tutta l'informazione
richiesta. Per esempio, valutando un intervento di salute pubblica, i
revisori devono avere informazioni descrittive delle strategie
dell'intervento che sono state adottate; sullo stato di attuazione
dell'intervento e il livello cui è stato fatto; sul contesto e le
circostanze nel quale è stato attuato; su chi ha raggiunto (o non
raggiunto); e come è stato recepito. I revisori dovrebbero anche cercare
informazioni sugli effetti non previsti dell'intervento, sulle modifiche
dell'effetto, e sui potenziali rischi dell'intervento.
Rilevanza
si riferisce al fatto che la ricerca sia appropriata per rispondere alla
domanda posta e se i risultati dello studio sono trasferibili
(generalizzabili) alla popolazione o al contesto cui si riferisce la
domanda.
Criteri di causalità
indica il set di criteri utilizzati per valutare la forza della relazione
tra causa ed effetto. I criteri sono stati proposti inizialmente da Bradford
Hill per giudicare se la relazione tra un fattore di rischio identificato e
una malattia fosse di causalità, o semplicemente di associazione. I criteri
meglio definiti e ampiamente adottati sono i seguenti:
-
Temporalità quando che l'esposizione precede sempre l'effetto
-
Forza dell'associazione definita dall’ampiezza e dalla significatività statistica del rischio misurato.
-
Relazione dose- risposta significa che un incrementato livello di esposizione (quantità e/o tempo dell'esposizione) aumenta il rischio della malattia
-
Reversibilità/esperimento significa che una riduzione nell’esposizione è associata a tassi più bassi della malattia, e/o che la condizione può essere cambiata o prevenuta da un appropriato regime sperimentale.
-
Consistenza significa che i risultati sono replicati negli studi in diversi contesti o utilizzando metodi diversi e quindi l'associazione misurata è consistente.
-
Plausibilità biologica significa che la relazione ha senso in base alla comprensione principale dei processi patobiologici
-
Specificità è stabilita quando una singola ipotetica causa produce uno specifico effetto.
-
Analogia/Coerenza significa che la relazione di causa-effetto è già stabilita per una simile esposizione o malattia e/o che la relazione è coerente con le teorie esistenti
Assunzioni
Le assunzioni sono idee in cui si crede o presupposti dati per scontati.
Sono fondamentali per una comunicazione effettiva. In assenza di assunzioni,
ogni interazione avrebbe bisogno di cominciare con una esposizione
dettagliata di tutto quello che è creduto o compreso da tutti coloro che
sono coinvolti. Le assunzioni solitamente rimangono implicite, spesso
invisibili, finché non vengono messi in discussione o sfidati. Tuttavia,
l'invisibilità delle assunzioni può essere problematica quando, ad esempio,
i collaboratori pensano in modo diverso ma usano lo stesso linguaggio o la
stessa terminologia.
Sebbene lo scopo dell'utilizzare l'evidenza sia quello di introdurre
chiarezza e maggiore obiettività alle decisioni sulla politice e sulla
pratica, tutte le affermazioni basate sull'evidenza sono fondate su
assunzioni. Le assunzioni modellano le domande che vengono poste,
influenzano gli argomenti utilizzati, e determinano l'evidenza presentata
per supportare questi argomenti. Questo spiega perché possiamo essere
“resistenti a e non persuasi dall’evidenza che si basa su assunzioni
divergenti o antagonistiche; mentre allo stesso tempo quella stessa evidenza
conferma di poco quello che le persone già convinte di quelle assunzioni
conoscono.”
Un modo per svelare le assunzioni è prevedere una serie di risultati
ipotetici da un certo lavoro di ricerca, e discutere le implicazioni di
questi risultati prima che i dati reali siano raccolti. Questo aiuterebbe a
svelare le assunzioni e i pregiudizi che entrambi i decisori e i ricercatori
includono nelle loro risposte e nelle loro interpretazioni dei risultati
potenziali. (vedi anche “Utilizzo della valutazione focalizzata”).
Inquadramento
L’inquadramento di un problema si riferisce a come diverse persone la
pensano in modo diverso riguardo a un problema, e al fatto che le loro varie
prospettive sono incluse nel modo in cui definiscono, presentano ed
esaminano il problema. Questo può avere un effetto su come concetti come
eziologia, causalità, e evidenza sono discussi, descritti, e ricercati.
Quindi, il come un problema è inquadrato determina le domande della ricerca
e il tipo di evidenza che alla fine salta fuori. Per esempio, i ricercatori
possono privilegiare spiegazioni genetiche degli andamenti della salute
rispetto a spiegazioni ambientali; o analisi dei livelli individuali
rispetto all'analisi dei livelli di gruppo o contestuali.
Il come un problema viene inquadrato dipende spesso dalle prospettive
tipiche delle diverse discipline, dalle ideologie, o dai particolari
contesti storici o politici (vedi anche “Paradigma”). Come le assunzioni,
anche l’inquadramento è talvolta implicito piuttosto che esplicito. Quindi i
ricercatori possono inconsapevolmente inquadrare le domande relative alle
proprie ricerche, e i risultati, in modi che da non rendere il loro
inquadramento visibile o discutibile.
Paradigma
Paradigma
è il complesso di impegni, credo, assunzioni, valori, metodi, visioni, e
filosofie di una particolare “visione del mondo.” Il termine fu reso
popolare da Thomas Kuhn (1922-1996) il cui testo “Sulla struttura delle
rivoluzioni scientifiche” esaminava la nozione che nel corso della storia,
la ricerca scientifica è stata condotta secondo seguendo diversi paradigmi:
e quindi quello che potrebbe essere considerato “scienza normale” in un
certo periodo è soggetto a cambiare quando molte persone adotteranno un
nuovo modo di guardare il mondo.
Alcune differenze d'opinione sull'evidenza in salute pubblica possono essere
attribuite a differenze di paradigma. Per esempio, all’inizio di questo
glossario abbiamo distinto tra evidenze basate su review (un processo
tecnico che richiede una solida comprensione dei metodi di ricerca); la
formulazione di raccomandazioni basate sull'evidenza (che richiedono una
competenza tecnica pratica); e l’attuazione di un'azione di salute pubblica
(negoziazioni sociali e politiche). A volte quelli che generano o rivedono
l'evidenza e quelli che le interpretano utilizzano visioni diverse su
aspetti fondamentali come la natura della ricerca, cosa sia una conoscenza
affidabile, e cosa la renda sostanziale. Quindi, hanno diverse prospettive
sulle seguenti cose:
Ontologia
- lo studio della realtà o della vera natura di quello che è (definita anche
metafisica);
Epistemologia
- lo studio della conoscenza e della giustezza;
Metodologia
- le teorie su come si dovrebbe procedere nella ricerca, o il principio e le
procedure di un particolare campo di ricerca.
Paradigmi comunemente citati sono:
Positivismo
- attualmente fuori moda perché basato su un “realismo naive” che assumeva
che la realtà fosse completamente indipendente dall'osservatore, e quindi
con un appropriato metodo scientifico si potesse misurarla e conoscerla come
“verità oggettiva”.
Post positivismo
- questo è il paradigma di molti metodi di ricerca scientifici e delle
scienze sociali (conosciuto anche come “realismo critico”). Implica l’idea
che esistano alcune forme indipendenti di realtà, accettando che esse
possano essere conosciute solo parzialmente (in modo probabilistico) e che
la comprensione della realtà è sempre soggetta a cambiare. La maggior parte
delle premesse e dei principi di salute pubblica basati sull'evidenza
ricadono nel paradigma post positivista.
Ci sono anche molti settori della ricerca e dell’azione di salute pubblica
che riflettono paradigmi alternativi al post positivismo, per esempio, la
teoria critica, il costruttivismo, il paradigma partecipativo. Questi
paradigmi pongono un’enfasi maggiore sulle diverse realtà, su come queste
siano modellate da valori sociali, politici, culturali, economici, etnici, e
di genere. Si focalizzano anche su realtà costruite a livello locale, e
danno peso a interpretazioni soggettive e di valore di queste realtà. La
ricerca partecipativa evidenzia l'importanza di una ricerca basata su
un'azione collaborativa. Alcuni aspetti di questi paradigmi si riflettono
anche in alcune analisi critiche della pratica basata sull'evidenza.
Bibliografia
1.
Trumble WR, Stevenson A, eds. Shorter Oxford English dictionary on
historical principles. Oxford: Oxford University Press, 2002.
2.
Detels R , Breslow. Current scope and concerns in public health. In:
Detels R, McEwen J, Beaglehole R, et al, eds. Oxford textbook of
public health. Vol 1. Oxford: Oxford University Press, 2002.
3.
Sackett DL, Rosenberg WM, Gray JA, et al.
Evidence-based medicine: what it is and what it isn’t. BMJ 1996;312:71–2.[Free
Full Text]
4.
Marston G , Watts R. Tampering with the evidence: a critical
appraisal of evidence-based policy making. The drawing board: an
Australian review of public affairs 2003;3:143–63
http://www.econ.usyd.edu.au/drawingboard/
(accessed 13 Aug 2003)(page152).
5.
Last JM. ed. A dictionary of epidemiology. 4th edn. New York:
Oxford University Press, 2001.
6.
Schwandt TA.
Qualitative inquiry; a dictionary of terms. Thousand Oaks, CA: Sage,
1997.
7.
Brownson RC, Gurney JG, Land GH. Evidence-based decision making in
public health.
Journal of Public Health Management Practice 1999;5:86–97.
8.
Brownson RC, Baker EA, Leet TL, et al. Evidence-based
public health. Oxford: Oxford University Press, 2003:7.
9.
Oxford Centre for Evidence-based Medicine. Levels of evidence and
grades of recommendation. Web site hosted by University Department of
Psychiatry, Warneford Hospital, Headington, Oxford.
http://www.cebm.net/levels_of_evidence.asp
(accessed 2 Oct 2003).
10.
National Health and Medical Research Council. How to use the
evidence: assessment and application of scientific evidence. Canberra:
Commonwealth of Australia, 2000:10, 6.
11.
Popay J , Williams G. Public health research and lay knowledge.
Soc Sci Med
1996;42:759–68.[CrossRef][Medline]
12.
Popay J , Thomas C, Williams G, et al. A proper place to live:
health inequalities, agency and the normative dimensions of space. Soc
Sci Med
2003;57:55–69.[CrossRef][Medline]
13. Popay J , , Rogers A, Williams G. Rationale and standards for the systematic review of qualitative literature in health services research. Qualitative Health Research 1998;:341–51.[Medline]
14. El Ansari W , Phillips CJ, Zwi AB. Narrowing the gap between academic professional wisdom and community lay knowledge: perceptions from partnerships. Public Health 2002;116:151–9.[Medline]
15. Watkins F , Bendel N, Scott-Samuel A, et al. Through a glass darkly: what should public health observatories be observing? J Public Health Med 2002;24:160–4.[Abstract/Free Full Text]
16. Little M . Assignments of meaning in epidemiology. Soc Sci Med 1998;47:1135–45.[CrossRef][Medline]
17. Audi R . ed. The Cambridge dictionary of philosophy. Cambridge: Cambridge University Press, 1995.
18. Delbridge A , Bernard JRL. The compact Macquarie dictionary. Sydney: The Macquarie Library and Macquarie University, 1994.
19. Phelan P , Reynolds P. Argument and evidence; critical analysis for the social sciences. London: Routledge, 1996:12.
20. Fletcher RH, Fletcher SW, Wagner EH. Clinical epidemiology; the essentials. 3rd edn. Baltimore: Williams and Wilkins, 1996:12.
21. Annas GJ. Burden of proof: judging science and protecting public health in (and out of) the courtroom. Am J Public Health 1999;89:490–3.[Medline]
22. Welch HG, Lurie JD. Teaching evidence-based medicine: caveats and challenges. Acad Med 2000;75:235–40.[Abstract/Free Full Text]
23. Rothman KJ, Greenland S. Modern epidemiology. 2nd edn. Philadelphia: Lippincott-Raven, 1998:30, 662.
24. Parascandola M , Weed DL. Causation in epidemiology. J Epidemiol Community Health 2001;55:905–12.[Abstract/Free Full Text]
25. Sackett DL, Haynes RB, Guyatt GH, et al. Clinical epidemiology: a basic science for clinical medicine. 2nd edn. Boston: Little, Brown, 1991.
26. Sackett DL, Richardson WS, Rosenberg W, et al. Evidence-based medicine; how to practice and teach EBM. New York: Churchill Livingstone, 1997
27. Glasziou P , Longbottom H. Evidence-based public health practice. Aust N Z J Public Health 1999;23:436–40.[Medline]
28. Frommer M , Rychetnik L. From evidence-based medicine to evidence-based public health. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:61.
29. McLeroy K , Norton B, Kegler M, et al. Community-based intervention. Am J Public Health 2003;93:529–33.[Free Full Text]
30. Suchman EA. Evaluative research. New York: Russell Sage, 1967
31. Glasziou P , Irwig L, Bain C, et al. Systematic reviews in health care; a practical guide. Cambridge: Cambridge University Press, 2001.
32. Patton MQ. Practical evaluation. Beverly Hills: Sage, 1982
33. Baranowski T , Stables G. Process evaluation of the 5-a-day projects. Health Education and Behavior 2000;27:157–66.[Medline]
34. Hawe P , Degeling D, Hall J. Evaluating health promotion; a health workers guide. Sydney: MacLennan and Petty, 1990.
35. Patton MQ. Qualitative evaluation and research methods. 2nd edn. Newbury Park: Sage, 1990.
36. Scanlon JW, Horst P, Jay JN, et al. Evaluability assessment: avoiding type III and type IV errors. In: Gilbert GR, Conklin PJ, eds. Evaluation management. A source book of readings. Charlottesville: US Civil Service Commission, 1977.
37. Wholey JS. Evaluability assessment. In: Rutman L, ed. Evaluative research methods; a basic fuide. Beverly Hills: Sage, 1977.
38. Scriven M . Prose and cons about goal free evaluation. Evaluation Comment 1972;3:1–7.
39. Patton MQ. Utilization-focused evaluation. 2nd edn. Beverly Hills: Sage, 1986.
40. Hawe P . Needs assessment must become more change-focused. Aust N Z J Public Health 1996;20:473–8.[Medline]
41. Oxman AD, Sackett DL, Guyatt GH for the evidence based medicine working group. Users guides to the medical literature I. How to get started. JAMA 1993;270:2093–5.[CrossRef][Medline]
42. The Cochrane Collaboration. The Cochrane reviewers handbook. Current version 4.2, last updated March 2003. http://www.cochrane.org/cochrane/hbook.htm (accessed 26 Sep 2003).
43. NHS Centre for Reviews and Dissemination. Undertaking systematic reviews of research on effectiveness: CRD’s guidance for carrying out or commissioning reviews (CRD report 4; 2nd edn 2001). http://www.york.ac.uk/inst/crd/crdrep.htm (accessed 26 Sep 2003).
44. Rychetnik L , Frommer M. A schema for evaluating evidence on public health interventions—version 4. Melbourne: National Public Health Partnership, July 2002; http://www.nphp.gov.au/publications/phpractice/schemaV4.pdf (accessed 2 Oct 2003).
45. National Health and Medical Research Council. A guide to the development, implementation and evaluation of clinical practice guidelines. Canberra: Commonwealth of Australia, 1999.
46. International Union for Health Promotion and Education. The evidence of health promotion effectiveness; shaping public health in a new Europe. Part one (core document) and part two (evidence book). 2nd edn. A report for the European Commission. Brussels. Luxembourg: European Commission, 2000.
47. Canadian Task Force on the Periodic Health Examination. The periodic health examination: Canadian task force on the periodic health examination. Can Med Assoc J 1979;121:1193–54.
48. Woolf SG, DiGuiseppi CG, Atkins D, et al. Developing evidence-based clinical practice guidelines: lessons learned by the US Preventive Services Task Force. Annu Rev Public Health 1996;17:511–38.[CrossRef][Medline]
49. Briss PA, Zaza S, Pappaioanou M, et al. Developing an evidence-based guide to community preventive services—methods. Am J Prev Med 2000;18 (suppl 1) :35–43.[CrossRef][Medline]
50. Report of the US Preventive Services Task Force. Guide to clinical preventive services. 3rd edn. Periodic updates. http://www.ahcpr.gov/clinic/ajpmsuppl/harris3.htm#codes (accessed 7 Nov 2003).
51. Flegg KM, Rowling YJ. Clinical breast examination. A contentious issue in screening for breast cancer. Aust Fam Physician 2000;29:343–6.[Medline]
52. Harris R , Lohr KN. Screening for prostate cancer: an update of the evidence for the US Preventive Services Task Force. Ann Intern Med 2002;137:917–29.[Abstract/Free Full Text]
53. Report of the US Preventive Services Task Force. Screening for prostate cancer; recommendations and rationale. Guide to clinical preventive services. 3rd edn. http://www.ahcpr.gov/clinic/3rduspstf/prostatescr/prostaterr.htm (accessed 7 Nov 2003).
54. American Cancer Society. Cancer reference information; detailed guide: prostate cancer. http://www.cancer.org/docroot/CRI/content/CRI_2_4_3X_Can (accessed 7 Nov 2003).
55. Chapman S . Advocacy in public health: roles and challenges. Int J Epidemiol 2001;30:1226–32.[Free Full Text]
56. Canadian Health Services Research Foundation. Knowledge transfer in health. A report on a two-day conference jointly organised by the Canadian Research Transfer Network and the Health Research Transfer Network of Alberta. Calgary, 2002. http://www.chsrf.ca/docs/resource/index_e.shtml
57. Lin V , Gibson G, eds. Evidence-based health policy; problems and possibilities: policy case studies. Melbourne: Oxford University Press, 2003:97–259.
58. Shamasunder B , Bero L. Financial ties and conflicts of interest between pharmaceutical and tobacco companies. JAMA 2002;288:738–44.[Abstract/Free Full Text]
59. Bero L . Implications of the tobacco industry documents for public health and policy. Annu Rev Public Health 2003;24:267–88.[CrossRef][Medline]
60. Mackenbach JP. Tackling inequalities in health: the need for building a systematic evidence base. J Epidemiol Community Health 2003;57:162.[Free Full Text]
61. Campbell K , Waters E, O’Meara S, et al. Interventions for preventing obesity in children. Cochrane Library. Issue 4. Oxford: Update Software, 2002.
62. Davis P , Howden-Chapman P. Translating research findings into health policy. Soc Sci Med 1996;43:865–72.[CrossRef][Medline]
63. Lomas J . Using ‘linkage and exchange’ to move research into policy at a Canadian Foundation. Health Aff 2000;19:236–40.[CrossRef]
64. Moynihan R . Who pays for the pizza? Redefining the relationships between doctors and drug companies. 1: Entanglement. BMJ 2003;326:1189–92.[Free Full Text]
65. Moynihan R . Who pays for the pizza? Redefining the relationships between doctors and drug companies. 2: Disentanglement. BMJ 2003;326:1193–6.[Free Full Text]
66. Moynihan R . Cochrane plans to allay fears over industry influence. BMJ 2003;327:1005.[Free Full Text]
67. Petticrew M . Systematic reviews from astronomy to zoology: myths and misconceptions. BMJ 2001;322:98–101.[Free Full Text]
68. Thomson H , Petticrew M, Morrison D. Health effects of housing improvement: systematic review of intervention studies. BMJ 2001;323:187–90.[Abstract/Free Full Text]
69. Farrington DP, Welsh BC. Improved street lighting and crime prevention. Justice Quarterly 2002;19:313–42.
70. Oliver S . Exploring lay perspectives on questions of effectiveness. In: Maynard A, Chalmers I, eds. Non-random reflections on health services research. London: BMJ Books, 1997:272–91.
71. Oliver S , Dezateux C, Kavanagh J, et al. Disclosing carrier status to parents following newborn screening. Cochrane Library. Issue 2. Oxford: Update Software, 2003.
72. Popay J , Sowden A, Robert H, et al. Developing methods for the narrative synthesis of quantitative and qualitative data in systematic reviews of effectiveness. Economic and Social Research Council; research methods program. http://www.ccsr.ac.uk/methods/projects/posters/popay.shtml (accessed 7 Nov 2003).
73. Cook DJ, Mulrow CD, Haynes RB. Synthesis of best evidence for health care decisions. Mulrow CD, Cook DJ, eds. Systematic reviews; synthesis of best evidence for health care decisions. Philadelphia: American College of Physicians, 1998:7.
74. Thomas R . School-based programmes for preventing smoking. Cochrane Library. Issue 3. Oxford: Update Software, 2003; (Most recent update May 2003, and last substantive update January 2003).
75. Deeks JJ, Dinnes J, D’Amico R, et al. Evaluating non-randomised intervention studies. Health Technol Assess 2003;7 http://www.ncchta.org/execsumm/summ727.htm (accessed 7 Nov 2003).
76. Rychetnik L , Frommer M, Hawe P, et al. Criteria for evaluating evidence on public health interventions. J Epidemiol Community Health 2002;56:119–27.[Abstract/Free Full Text]
77. Hill AB. The environment and disease: association or causation. Proc R Soc Med 1965;58:295–300.[Medline]
78. Hill AB. A short textbook of medical statistics. London: Hodder and Stoughton, 1977:285–96.
79. Susser MW. What is a cause and how do we know one? A grammar for pragmatic epidemiology. Am J Epidemiol 1991;133:635–48.[Abstract]
80. Fletcher RH, Fletcher SW, Wagner EH. Clinical epidemiology; the essentials. 3rd edn. Baltimore: Williams and Wilkins, 1996.
81. Entman RM. Framing: toward clarification of a fractured paradigm. Journal of Communication 1993;43:51–8.
82. Schon DA. The reflective practitioner; how professionals think in action. New York: Basic Books, 1983.
83. Lloyd B , Hawe P. Solutions forgone? How health professionals frame postnatal depression as a problem. Soc Sci Med 2003;57:1783–95.[CrossRef][Medline]
84. Kuhn TS. The structure of scientific revolutions. 3rd edn. Chicago: University of Chicago Press, 1996.
85. Lincoln YS, Guba EG. Paradigmatic controversies, contradictions, and emerging influences. 2nd edn. In: Denzin NK, Lincoln YS, eds. Handbook of qualitative research. Thousand Oaks: Sage, 2000.
86. Sindall C . Health policy and normative analysis: ethics, evidence and politics. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:80–94.
87. Willis E , White K. Evidence-based medicine, the medical profession and health policy. Evidence-based health policy; problems and possibilities. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilities. Melbourne: Oxford University Press, 2003:33–43.
88. Willis K . Challenging the evidence—women’s health policy in Australia. In: Lin V, Gibson B, eds. Evidence-based health policy; problems and possibilitiessibilities. Melbourne: Oxford University Press, 2003:211–23.