Cursus Kwaliteitszorg en innovatie 1 Regulier AJ2025-2026-pages-2 (1).pdf
Summary
# Het stappenplan van evidence-based practice (EBP)
Evidence-Based Practice (EBP) is een systematische benadering die wetenschappelijke inzichten combineert met klinische expertise en patiëntvoorkeuren om de kwaliteit en veiligheid van zorg te verbeteren. Dit proces wordt begeleid door een gestructureerd stappenplan [1](#page=1).
## 1. Probleem identificeren
De eerste stap in EBP is het helder en concreet identificeren van een klinisch probleem of zorgvraag, voortkomend uit de praktijk. Dit probleem moet relevant zijn voor de zorgsituatie en onderzoekbaar met wetenschappelijk bewijs. Het meenemen van klinische observaties en ervaringen van patiënten en zorgverleners is hierbij essentieel [2](#page=2).
## 2. Onderzoeksvraag formuleren
Na het identificeren van het probleem, wordt een duidelijke en gerichte onderzoeksvraag geformuleerd. De PICO-structuur (Patiënt/Populatie, Interventie, Comparatie, Outcome) is hierbij een veelgebruikte methode. Voor studenten verpleegkunde is de 'Comparatie' vaak minder relevant, waardoor de PIO-structuur (Patiënt/Populatie, Interventie, Outcome) vaak wordt gebruikt [2](#page=2).
Een kwaliteitsvolle onderzoeksvraag kan beoordeeld worden met het RODECO-principe:
* **R**elevant: Bijdragend aan de verpleegkundige praktijk en kwaliteitsverbetering [3](#page=3).
* **O**nderzoekbaar: Beantwoordbaar en grammaticaal correct [3](#page=3).
* **D**uidelijk: Zonder onduidelijkheden of dubbelzinnigheden [3](#page=3).
* **E**nkelvoudig: Hoofdvraag met eventueel deelvragen [3](#page=3).
* **C**oncreet: Expliciet vermelden van interventie, doelgroep en uitkomst [3](#page=3).
* **O**pen en explorerend: Nodigt uit tot verkennen zonder antwoord te suggereren [3](#page=3).
## 3. Bewijs zoeken
Vervolgens wordt systematisch gezocht naar wetenschappelijk bewijs om de onderzoeksvraag te beantwoorden. Dit omvat zowel klassieke literatuursearch als het gebruik van Artificiële Intelligentie (AI) [3](#page=3).
### 3.1 Gebruik van zoekdatabanken
Kwaliteitsvolle evidence is te vinden in wetenschappelijke databanken zoals:
* PubMed [3](#page=3).
* CINAHL [3](#page=3).
* Cebam Digital Library for Health [3](#page=3).
* KCE-rapporten [3](#page=3).
* Google Scholar [3](#page=3).
Effectief zoeken vereist het gebruik van zoektermen, booleaanse operatoren (AND, OR, NOT) en filters [3](#page=3).
### 3.2 Gebruik van AI
AI-tools zoals Copilot, ChatGPT, SciSpace en Perplexity kunnen helpen bij het structureren en samenvatten van zoekopdrachten en artikelen, en het bieden van een eerste synthese van evidentie. Echter, AI screent vaak enkel open-access bronnen, voert geen kwaliteitsanalyse uit en kan details missen, waardoor het een hulpmiddel blijft en output altijd vergeleken moet worden met wetenschappelijke literatuur [3](#page=3).
Een moderne aanpak combineert wetenschappelijke bronnen, AI-ondersteuning en menselijke expertise, waarbij de verpleegkundige verantwoordelijk blijft voor de kritische beoordeling [4](#page=4).
## 4. Bewijs kritisch beoordelen
Het kritisch beoordelen van wetenschappelijke bronnen is essentieel om de betrouwbaarheid en relevantie van onderzoeksresultaten te onderscheiden. Dit proces omvat de beoordeling van [4](#page=4):
### 4.1 Globale beoordelingscriteria
* **Relevantie**: Sluit de inhoud aan bij de onderzoeksvraag [5](#page=5).
* **Betrouwbaarheid**: Mate van onafhankelijkheid en accuraatheid, let op belangenconflicten en reputatie van auteurs [5](#page=5).
* **Validiteit**: Meet het onderzoek wat het beweert te meten; beoordeel opzet, meetinstrumenten en robuustheid [5](#page=5).
* **Peer review**: Beoordeling door onafhankelijke experts [5](#page=5).
* **Impactfactor en citatieanalyse**: Indicator van erkenning binnen de wetenschappelijke gemeenschap [5](#page=5).
* **Transparantie**: Duidelijke methodologie, databronnen en beperkingen [5](#page=5).
* **Actualiteit**: Hoe recent is de publicatie [5](#page=5).
* **Ethische overwegingen**: Voldoen aan ethische richtlijnen en informed consent [5](#page=5).
* **Autoriteit van de auteur**: Geloofwaardigheid en expertise van de auteur [6](#page=6).
* **Originaliteit**: Draagt de bron nieuwe kennis bij [6](#page=6).
* **Volledigheid**: Is alle relevante informatie duidelijk beschreven [6](#page=6).
### 4.2 Veelvoorkomende methodologische hiaten
* **Selectiebias bij de steekproef**: Onderzoekspopulatie niet representatief voor doelpopulatie [6](#page=6).
* **Niet controleren voor confounding**: Verstorende variabelen die verbanden vertekenen [6](#page=6).
* **Geen blindering**: Ontbreken van kennis over toebedeelde interventie om bias te voorkomen [7](#page=7).
* **Geen randomisatie bij interventies**: Willekeurige toewijzing van deelnemers ontbreekt [7](#page=7).
* **Te kleine steekproef (onvoldoende power)**: Onvoldoende deelnemers om statistisch significante verschillen aan te tonen [8](#page=8).
* **Geen controlegroep gebruiken**: Vergelijking met de situatie zonder interventie ontbreekt [8](#page=8).
* **Beoordeling van effectiviteit door de onderzoeker zelf (allegiance bias)**: Overtuiging van de onderzoeker beïnvloedt resultaten [9](#page=9).
* **Te korte follow-up periode**: Onvoldoende tijd om lange termijn effecten te observeren [9](#page=9).
* **Meetfouten en gebrekkige meetinstrumenten**: Onnauwkeurige of systematisch verkeerde metingen [10](#page=10).
* **Selectief rapporteren van uitkomsten (outcome reporting bias)**: Alleen significante resultaten presenteren [10](#page=10).
* **P-hacking en data dredging**: Achteraf analyseren tot er iets statistisch significants gevonden wordt [11](#page=11).
* **Publicatiebias**: Positieve/significante resultaten vaker gepubliceerd dan negatieve/nulresultaten [11](#page=11).
* **Confirmatiebias en onderzoekerbias**: Neiging om bevestigende informatie te zoeken of eigen overtuigingen die data-interpretatie beïnvloeden [12](#page=12).
* **Beperkte externe validiteit (gebrekkige generaliseerbaarheid)**: Resultaten niet toepasbaar op andere populaties of contexten [13](#page=13).
* **Achteraf hypotheses aanpassen (HARKing)**: Hypotheses bijstellen na het zien van resultaten [13](#page=13).
* **Attrition bias (bias door uitval van proefpersonen)**: Selectieve uitval van deelnemers die analyse beïnvloedt [14](#page=14).
* **Correlatie als causaliteit interpreteren (overinterpretatie van resultaten)**: Causale conclusies trekken uit correlationele verbanden [15](#page=15).
### 4.3 Levels of evidence
Een veelgebruikte indeling van evidentieniveaus is:
* **A1**: Systematische reviews van meerdere onderzoeken van niveau A2 met consistente resultaten [16](#page=16).
* **A2**: Gerandomiseerde, gecontroleerde klinische onderzoeken van goede kwaliteit en voldoende omvang [16](#page=16).
* **B**: Vergelijkend onderzoek (cohortstudies, patiënt-controleonderzoeken) [16](#page=16).
* **C**: Niet-vergelijkend onderzoek [16](#page=16).
* **D**: Mening van deskundigen [16](#page=16).
### 4.4 GRADE-systeem
Het GRADE-systeem beoordeelt de kwaliteit van bewijs op vier niveaus: Hoog, Matig, Laag, Zeer laag [16](#page=16).
### 4.5 Criteria voor kwaliteitsbeoordeling van kwalitatief onderzoek
Bij kwalitatief onderzoek wordt gekeken naar:
* **Geloofwaardigheid (credibility)**: Verifiëren van bevindingen met deelnemers (member check), bespreken met collega's (peer debriefing), en combineren van methoden (triangulatie) [17](#page=17).
* **Overdraagbaarheid (transferability)**: Rijke beschrijving van de context en gedetailleerde analyses (thick description) [17](#page=17).
* **Betrouwbaarheid (reliability)**: Nauwkeurige documentatie van het onderzoeksproces (audit trail), standaardisatie van protocollen (consistentie), en externe controle [17](#page=17).
* **Bevestigbaarheid (neutrality)**: Expliciet maken van eigen vooroordelen (bracketing, reflectieve journaling) en baseren van bevindingen op ruwe data [17](#page=17).
Methodologieën zoals de Lincoln & Guba Trustworthiness Criteria, CASP-checklist en het Joanna Briggs Institute (JBI) model worden gebruikt om kwalitatief onderzoek te evalueren. Meta-syntheses en systematische reviews van kwalitatieve studies worden beschouwd als het sterkste niveau van evidentie binnen kwalitatief onderzoek [18](#page=18).
## 5. Synthetiseren van het bewijs
Synthese omvat het samenvoegen van de belangrijkste bevindingen uit verschillende bronnen om een gebalanceerd antwoord op de onderzoeksvraag te formuleren. Dit vereist het analyseren van overeenkomsten, verschillen, trends en patronen [18](#page=18) [19](#page=19).
Methoden van synthese zijn:
* **Narratieve synthese**: Beschrijven en vergelijken van resultaten in woorden [19](#page=19).
* **Systematische review**: Gestructureerd samenvatten van studies [19](#page=19).
* **Meta-analyse**: Statistisch combineren van kwantitatieve resultaten [19](#page=19).
In de verpleegkundige praktijk vindt synthese meestal narratief plaats, waarbij de kwaliteit van bewijs, inconsistenties en zowel positieve als negatieve bevindingen worden meegenomen [19](#page=19).
## 6. Integreren van klinische expertise en voorkeuren en waarden van de patiënt
EBP vereist de integratie van het beste wetenschappelijke bewijs, klinische expertise van de zorgverlener en de voorkeuren en waarden van de patiënt. Klinische expertise omvat kennis, vaardigheden en ervaring. Patiëntvoorkeuren en -waarden betreffen verwachtingen, wensen, levensstijl en culturele achtergrond [19](#page=19) [20](#page=20).
Gedeelde besluitvorming (shared decision-making) is een praktisch hulpmiddel waarbij zorgverleners en patiënten samen beslissingen nemen op basis van bewijs en persoonlijke voorkeuren [20](#page=20).
## 7. Implementeren en evalueren
Implementatie is het toepassen van de gekozen zorgbeleid of interventie in de praktijk. Dit vereist duidelijke afspraken, communicatie, training en het wegnemen van barrières [20](#page=20).
Evaluatie meet systematisch of de nieuwe aanpak de gewenste effecten heeft, zoals verbeterde zorgkwaliteit of patiënttevredenheid. Evaluatie kan kwalitatief of kwantitatief zijn, met vooraf vastgelegde criteria en meetmomenten. Deze cyclus zorgt voor voortdurende verbetering [20](#page=20) [21](#page=21).
## 8. Dissemineren en verankeren
Disseminatie is het actief verspreiden van nieuwe kennis en werkwijzen via mondelinge, schriftelijke of digitale middelen. Verankeren zorgt ervoor dat de nieuwe werkwijze een blijvend onderdeel wordt van de dagelijkse zorgpraktijk, bijvoorbeeld door opname in richtlijnen, scholing, monitoring en leiderschapsrol [21](#page=21).
---
# Kritische beoordeling van wetenschappelijk bewijs en methodologische hiaten
Dit deel behandelt de essentiële vaardigheid van het kritisch beoordelen van wetenschappelijk bewijs en identificeert veelvoorkomende methodologische hiaten en biases die de betrouwbaarheid van onderzoek kunnen ondermijnen.
## 2. Kritische beoordeling van wetenschappelijk bewijs en methodologische hiaten
In de zorg is het cruciaal om wetenschappelijk bewijs kritisch te beoordelen in plaats van het blindelings te vertrouwen. Dit proces stelt zorgprofessionals in staat om robuust bewijs te onderscheiden van resultaten die met voorzichtigheid geïnterpreteerd moeten worden [4](#page=4).
### 2.1 Globale beoordelingscriteria
Om de kwaliteit en geschiktheid van wetenschappelijke bronnen systematisch te evalueren, worden diverse criteria gehanteerd [4](#page=4):
* **Relevantie**: De mate waarin de inhoud van de bron aansluit bij de onderzoeksvraag of het doel van de studie [5](#page=5).
* **Betrouwbaarheid**: De onafhankelijkheid en accuraatheid van de bron, waarbij gelet wordt op belangenconflicten, reputatie van auteurs en transparantie van methoden [5](#page=5).
* **Validiteit**: De mate waarin het onderzoek meet wat het pretendeert te meten, beoordeeld aan de hand van de onderzoeksopzet, meetinstrumenten en robuustheid van resultaten [5](#page=5).
* **Peer review**: Controle of de bron door onafhankelijke experts is beoordeeld vóór publicatie, wat duidt op hogere standaarden [5](#page=5).
* **Impactfactor en citatieanalyse**: De impactfactor van een tijdschrift en het aantal citaties, wat bredere erkenning kan aangeven [5](#page=5).
* **Transparantie**: De mate waarin methodologie, databronnen en beperkingen expliciet worden gemaakt, cruciaal voor replicatie en evaluatie [5](#page=5).
* **Actualiteit**: De recentheid van de publicatie, omdat wetenschappelijke kennis snel evolueert [5](#page=5).
* **Ethische overwegingen**: Naleving van ethische richtlijnen en informed consent van deelnemers [5](#page=5).
* **Autoriteit van de auteur**: De geloofwaardigheid en expertise van de auteur, gebaseerd op kwalificaties, affiliaties en eerdere publicaties [6](#page=6).
* **Originaliteit**: De bijdrage van nieuwe kennis of inzichten [6](#page=6).
* **Volledigheid**: De duidelijke en gedetailleerde beschrijving van methoden, resultaten en beperkingen [6](#page=6).
### 2.2 Veelvoorkomende methodologische hiaten
Methodologische hiaten kunnen de validiteit of betrouwbaarheid van onderzoeksbevindingen ondermijnen. Enkele veelvoorkomende zijn [6](#page=6):
#### 2.2.1 Selectiebias bij de steekproef
Dit ontstaat wanneer de onderzoekspopulatie niet representatief is voor de doelpopulatie, door niet-toevallige of bevooroordeelde selectie van deelnemers. Dit beperkt de externe validiteit (generaliseerbaarheid) [6](#page=6).
> **Voorbeeld**: Durden et al. gebruikten een convenience sample van Medicaid-patiënten, wat door de auteurs zelf als beperking voor de generaliseerbaarheid werd aangegeven [6](#page=6).
#### 2.2.2 Niet controleren voor confounding
Een confounder is een variabele die zowel de onafhankelijke als de afhankelijke variabele beïnvloedt, wat leidt tot een schijnverband. Het niet corrigeren hiervoor kan ten onrechte causaliteit suggereren. Dit komt vooral voor in observationeel onderzoek [6](#page=6).
> **Voorbeeld**: Vroege studies naar hormonale substitutietherapie (HST) toonden een lager risico op hart- en vaatziekten, wat later werd verklaard door confounding (de HST-gebruikers waren gezonder) [7](#page=7).
#### 2.2.3 Geen blindering
Blindering houdt in dat deelnemers, onderzoekers en/of beoordelaars niet weten welke interventie wordt toegepast, om bias te voorkomen. Gebrek aan blindering kan leiden tot performance bias (patiëntverwachtingen) of detection bias (onderzoekerwaarneming), vooral bij subjectieve uitkomsten [7](#page=7).
> **Voorbeeld**: Een systematische review toonde aan dat niet-geblindeerde patiënten systematisch overdreven positieve effecten rapporteerden, gemiddeld een overschatting van ongeveer 0,56 in effectgrootte [7](#page=7).
#### 2.2.4 Geen randomisatie bij interventies
Randomisatie is het willekeurig toewijzen van deelnemers aan groepen, cruciaal om bekende en onbekende factoren gelijk te verdelen. Zonder randomisatie kunnen groepen al systematisch verschillen (allocation bias), wat de interne validiteit ondermijnt [7](#page=7).
> **Voorbeeld**: De COVID-19-studie naar hydroxychloroquine (HCQ) was niet-gerandomiseerd, waardoor de groepen bij aanvang verschilden en de vergelijking nauwelijks interpreteerbaar was [8](#page=8).
#### 2.2.5 Te kleine steekproef (onvoldoende power)
Een te kleine steekproef kan een reëel verschil of verband statistisch niet aantonen, wat leidt tot een vergrote kans op een Type II-fout en brede betrouwbaarheidsintervallen. Dit kan onterecht de conclusie “geen effect” rechtvaardigen en vermindert de betrouwbaarheid en generaliseerbaarheid [8](#page=8).
> **Voorbeeld**: Een systematische review over onderwijsinterventies merkte op dat veel studies beperkingen kenden door een klein aantal proefpersonen, wat de externe validiteit ondermijnt [8](#page=8).
#### 2.2.6 Geen controlegroep gebruiken
Een controlegroep is essentieel voor vergelijking om te bepalen of een verandering door de interventie komt of door andere factoren (spontaan herstel, placebo-effect). Zonder controlegroep kan elke verbetering ten onrechte aan de interventie worden toegeschreven [8](#page=8).
> **Voorbeeld**: Een vroege COVID-19-studie met hydroxychloroquine had geen controlegroep, waardoor de resultaten moeilijk te interpreteren waren en een rooskleuriger beeld gaven dan gerechtvaardigd [9](#page=9).
#### 2.2.7 Beoordeling van effectiviteit door de onderzoeker zelf (allegiance bias)
Wanneer onderzoekers zelf de effectiviteit beoordelen, kan allegiance bias optreden, waarbij hun overtuiging de opzet, uitvoering of interpretatie beïnvloedt. Dit kan leiden tot overschatting van de effectiviteit, vooral bij subjectieve uitkomstmaten [9](#page=9).
> **Voorbeeld**: Een meta-analyse toonde aan dat een sterke voorkeur van de onderzoeker voor een therapie significant geassocieerd was met grotere effectgroottes ten gunste van die therapie [9](#page=9).
#### 2.2.8 Te korte follow-up periode
Een te korte follow-up periode kan ertoe leiden dat het volledige effect van een interventie niet wordt geobserveerd, inclusief langetermijnverbeteringen, terugval of bijwerkingen. Dit kan leiden tot overschatting van het effect of onderschatting van risico's [9](#page=9).
> **Voorbeeld**: Veel klinische trials naar antidepressiva hadden een korte follow-up (meestal 8 weken of minder), wat de beoordeling van langetermijnwerkzaamheid en acceptatie beperkte [10](#page=10).
#### 2.2.9 Meetfouten en gebrekkige meetinstrumenten
Measurement bias ontstaat door onnauwkeurige of systematisch verkeerde metingen, door niet-gevalideerde instrumenten, onjuiste vragenlijsten of fouten in dataverzameling. Dit ondermijnt de conclusies [10](#page=10).
> **Voorbeeld**: Het gebruik van zelfgemaakte vragenlijsten die nooit op betrouwbaarheid of validiteit zijn getest, kan meetfouten introduceren. Suggestieve vragen, zoals "U bent vast wel erg tevreden over de zorg", sturen respondenten in een bepaalde richting [10](#page=10) [11](#page=11).
#### 2.2.10 Selectief rapporteren van uitkomsten (outcome reporting bias)
Dit houdt in dat onderzoekers alleen de meest interessante of significante gemeten uitkomsten presenteren, terwijl negatieve of niet-significante resultaten worden weggelaten. Dit kan leiden tot een vertekend beeld van de effectiviteit of veiligheid [10](#page=10).
> **Voorbeeld**: De beruchte "Study 329" over het antidepressivum paroxetine bij adolescenten toonde geen significant voordeel op de oorspronkelijke uitkomstmaten, maar concludeerde toch dat het middel effectief was door achteraf nieuwe uitkomstmaten te introduceren [11](#page=11).
#### 2.2.11 P-hacking en data dredging
Dit is het "spelen" met data door het uitproberen van meerdere analyses of subgroepen totdat iets statistisch significant wordt gevonden (p < 0,05). Dit verhoogt de kans op fout-positieve bevindingen (Type I-fout) en leidt tot flu kes [11](#page=11).
> **Voorbeeld**: Journalist John Bohannon toonde met een stunt aan hoe p-hacking tot schijnresultaten kon leiden: dagelijks chocolade eten leek gewichtsverlies te versnellen, wat echter een kunstmatig gevonden verband was door manipulatie van data [11](#page=11).
#### 2.2.12 Publicatiebias
Dit is het verschijnsel dat positieve of significante resultaten vaker worden gepubliceerd dan negatieve of nulresultaten, waardoor het totaalbeeld in de literatuur vertekend raakt. Dit kan leiden tot een overschat effect in systematische reviews [11](#page=11).
> **Voorbeeld**: Een onderzoek naar antidepressiva-trials toonde aan dat 31% van de geregistreerde trials niet werd gepubliceerd, en dat vooral studies met negatieve uitkomsten ongepubliceerd bleven of zodanig werden geschreven dat ze positief leken [12](#page=12).
#### 2.2.13 Confirmatiebias en onderzoekerbias
Confirmatiebias is de neiging om informatie te zoeken die eigen verwachtingen bevestigt, terwijl tegenstrijdige informatie wordt genegeerd. Onderzoekerbias treedt op wanneer persoonlijke overtuigingen, verwachtingen of betrokkenheid de dataverzameling of interpretatie beïnvloeden, vooral in kwalitatief onderzoek [12](#page=12).
> **Voorbeeld**: Een verpleegkundige-onderzoeker kan geneigd zijn sociaal wenselijke antwoorden uit te lokken door haar rol als zorgverlener, wat leidt tot onderzoekerbias [12](#page=12).
#### 2.2.14 Beperkte externe validiteit (gebrekkige generaliseerbaarheid)
Externe validiteit betreft de generaliseerbaarheid van onderzoeksresultaten naar andere populaties, contexten of tijden. Te brede conclusies trekken uit zeer specifieke studies, of wanneer de onderzoeksgroep of setting sterk afwijkt van de werkelijkheid, beperkt de toepasbaarheid [13](#page=13).
> **Voorbeeld**: Een studie met uitsluitend deelnemers uit één stedelijk gebied in de VS heeft beperkte generaliseerbaarheid naar andere demografische groepen of culturen. Een valpreventieprogramma effectief bij fitte 70-jarigen is mogelijk niet direct toepasbaar op 85-plussers in een verpleeghuis [13](#page=13).
#### 2.2.15 Achteraf hypotheses aanpassen (HARKing)
HARKing (Hypothesizing After the Results are Known) houdt in dat onderzoekers hun hypothese aanpassen na het analyseren van de data om beter aan te sluiten bij de gevonden resultaten. Dit ondermijnt de wetenschappelijke methode door het onderscheid tussen confirmatorisch en exploratief onderzoek te vertroebelen [13](#page=13).
> **Voorbeeld**: Een onderzoeker die aanvankelijk de effectiviteit van een educatief programma op stress wilde aantonen, maar geen effect vond, besluit de focus te verleggen naar kennisverbetering, alsof dit vanaf het begin het doel was [14](#page=14).
#### 2.2.16 Attrition bias (bias door uitval van proefpersonen)
Attrition bias ontstaat wanneer deelnemers non-random uitvallen, wat leidt tot een analysepopulatie die niet meer vergelijkbaar is met de oorspronkelijke groep. Dit kan gebeuren wanneer uitvallers (bijvoorbeeld door verslechtering) worden weggelaten, wat een te rooskleurig beeld geeft van de interventie [14](#page=14).
> **Voorbeeld**: In de HCQ-studie van Gautret et al. werden ernstig verslechterde patiënten uit de analyse weggelaten, wat de effectiviteit van HCQ overschatte [14](#page=14) .
#### 2.2.17 Correlatie als causaliteit interpreteren (overinterpretatie van resultaten)
Een correlatie of associatie tussen variabelen impliceert niet automatisch causaliteit. Het trekken van causale conclusies uit observationele verbanden, of het overdrijven van de implicaties van bevindingen, is gevaarlijk omdat het kan leiden tot beleidsbeslissingen op basis van onvoldoende bewijs [15](#page=15).
> **Voorbeeld**: Het vinden van een verband tussen overwerk van verpleegkundigen en medische fouten betekent niet direct dat overwerk de oorzaak is; er kunnen achterliggende factoren meespelen. De uitspraak "Correlation is not causation" benadrukt dat causale uitspraken een passend onderzoeksdesign vereisen [15](#page=15).
---
# De complementariteit van Evidence-Based Practice (EBP) en artificiële intelligentie (AI)
Dit onderwerp onderzoekt hoe artificiële intelligentie (AI) het proces van evidence-based practice (EBP) kan ondersteunen bij het zoeken en samenvatten van informatie, zonder de noodzaak van menselijke beoordeling en klinische wijsheid te vervangen [22](#page=22).
### 3.1 AI als hulpmiddel bij het zoeken in online databanken
Het systematisch zoeken naar betrouwbaar wetenschappelijk bewijs is een kernstap binnen EBP. Traditioneel wordt dit handmatig via databanken zoals PubMed, CINAHL en de Cochrane Library gedaan, maar AI-tools versnellen en vereenvoudigen dit proces aanzienlijk [22](#page=22).
AI kan ondersteunen bij het zoeken door:
* **Zoekstrategieën te optimaliseren:** AI-tools zoals Copilot, SciSpace en ResearchRabbit kunnen automatisch geschikte zoektermen en booleaanse combinaties voorstellen, gebaseerd op de PICO-structuur [22](#page=22).
* **Relevante literatuur te selecteren:** AI-systemen kunnen op basis van slimme algoritmen de meest relevante artikelen naar voren halen uit honderden resultaten [22](#page=22).
* **Samenvattingen en kernboodschappen te genereren:** AI kan in enkele seconden de belangrijkste inzichten uit een artikel samenvatten, wat tijdswinst oplevert tijdens de oriënterende zoekfase [22](#page=22).
#### 3.1.1 Voorbeelden van AI-tools voor verpleegkundigen en studenten
* **Copilot:** Een AI-assistent van Microsoft die geïntegreerd kan worden in toepassingen zoals Word en Excel. Het kan helpen bij het structureren van literatuuronderzoeken, het opstellen van samenvattingen en het analyseren van onderzoeksdata [22](#page=22).
* **ChatGPT:** Een conversational AI van OpenAI die kan helpen bij het verhelderen van informatievragen, het uitleggen van concepten of het herschrijven van complexe literatuur in begrijpelijke taal [22](#page=22).
* **SciSpace:** Dit platform is specifiek gericht op het vereenvoudigen van wetenschappelijke teksten. Het kan moeilijke artikelen samenvatten en vakjargon vertalen naar toegankelijker taalgebruik [23](#page=23).
* **Perplexity:** Een zoekmachine die AI gebruikt om in meerdere databanken tegelijk te zoeken en korte, brongebaseerde antwoorden te geven [23](#page=23).
* **Claude:** Een AI-chatbot van Anthropic die inzet op veiligheid, nauwkeurigheid en transparantie. Het kan helpen bij het samenvatten van documenten, het uitleggen van complexe onderwerpen en het kritisch analyseren van teksten [23](#page=23).
* **Elicit:** Ontworpen om onderzoek te ondersteunen, onder meer door te helpen bij het formuleren van onderzoeksvragen, het selecteren van relevante literatuur en het analyseren van data [23](#page=23).
* **NotebookLM:** Een AI-gestuurd notitieplatform van Google dat documenten samenvat, inzichten genereert en verbanden legt tussen verschillende bronnen [23](#page=23).
> **Tip:** Deze tools zijn continu in ontwikkeling. Het is belangrijk om op de hoogte te blijven van nieuwe functies en beperkingen om optimaal te profiteren van de mogelijkheden zonder de kritische houding te verliezen die essentieel is binnen EBP [23](#page=23).
Hoewel deze tools het zoeken vergemakkelijken, blijft kritisch denken essentieel, omdat AI vaak op open-access bronnen werkt en geen diepgaande kwaliteitsbeoordeling uitvoert. Elke verpleegkundige moet de gevonden informatie nog steeds kritisch evalueren op betrouwbaarheid, relevantie en validiteit [24](#page=24).
> **Samenvattend:** AI maakt het zoeken naar literatuur sneller en efficiënter, maar de rol van de verpleegkundige als kritische beoordelaar blijft onvervangbaar. AI ondersteunt, maar vervangt nooit de menselijke expertise binnen EBP [24](#page=24).
#### 3.1.2 Voorbeeld: Complementariteit PubMed en Copilot
Een voorbeeld van hoe AI kan helpen bij het formuleren van een zoekopdracht voor PubMed is door een prompt te geven aan Copilot.
> **Example:**
> **Prompt in Microsoft Copilot:**
> Je bent expert in het doeltreffend zoeken naar bronnen in online verpleegkundige zoekdatabanken zoals PubMed. Ik heb de volgende onderzoeksvraag: Wat is de doeltreffendheid van motiverende gespreksvoering in het bevorderen van medicatietrouw bij gebruikers van psychofarmaca? Geef mij een adequate en accurate booleaanse zoekcombinatie voor de zoekdatabank PubMed. Doel: Het verhogen van de medicatietrouw en het voorkomen van herval. Context: Het verhogen van het welzijn van zorgvragers die nood hebben aan psychofarmaca. Geef mij een kwaliteitsvolle booleaanse zoekcombinatie die mij een aanvaardbaar aantal zoekresultaten oplevert. Geef mij ook tips voor het verfijnen van mijn zoekopdracht.
> **Verkregen output in Microsoft Copilot (dd 09-12-2024):**
> Natuurlijk, ik help je graag met het opstellen van een booleaanse zoekcombinatie voor je onderzoeks-
> vraag. Hier is een voorbeeld van een zoekcombinatie die je kunt gebruiken in PubMed:
>
> **Booleaanse zoekcombinatie:**
> `("Motivational Interviewing"[Mesh OR "Motivational Interviewing"[tiab]) AND ("Medication Adherence"[Mesh OR "medication compliance"[tiab OR "medication adherence"[tiab]) AND ("Psychotropic Drugs"[Mesh OR "psychopharmacology"[tiab OR "psychotropic medication"[tiab])`
>
> **Tips voor het verfijnen van je zoekopdracht:**
> 1. Gebruik MeSH-termen: Medical Subject Headings (MeSH) zijn gestandaardiseerde termen die PubMed gebruikt om artikelen te indexeren. Dit helpt om relevantere resultaten te krijgen. Bijvoorbeeld, gebruik "Motivational Interviewing"[Mesh in plaats van alleen "motivational interviewing".
> 2. Specificeer de populatie: Als je je wilt richten op een specifieke groep, zoals volwassenen of ouderen, kun je dit toevoegen aan je zoekopdracht. Bijvoorbeeld, voeg "AND (adults[Mesh OR elderly[Mesh])" toe.
> 3. Beperk de publicatiedatum: Als je recente studies wilt, kun je de zoekopdracht beperken tot de laatste 5 of 10 jaar. Bijvoorbeeld, voeg "AND ("2014/01/01"[PDAT: "2024/12/31"[PDAT])" toe.
> 4. Gebruik synoniemen en variaties: Voeg synoniemen en variaties van termen toe om de zoekopdracht te verbreden. Bijvoorbeeld, gebruik "medication adherence" en "medication compliance".
> 5. Filter op studietype: Als je specifiek op zoek bent naar bijvoorbeeld gerandomiseerde gecontroleerde onderzoeken (RCT's), kun je dit toevoegen. Bijvoorbeeld, voeg "AND (randomized controlled trial[pt])" toe.
Deze AI-gegenereerde zoekcombinatie kan vervolgens direct in PubMed worden toegepast. Het toepassen van de voorgestelde zoekcombinatie leverde 25 artikelen op [25](#page=25).
### 3.2 EBP als toetsingsinstrument voor AI-output
Hoewel AI krachtige ondersteuning biedt bij het zoeken naar en samenvatten van informatie, is het essentieel om de resultaten kritisch te beoordelen. Evidence-Based Practice (EBP) fungeert hierbij als een onmisbaar toetsingsinstrument om de kwaliteit, betrouwbaarheid en toepasbaarheid van AI-gegenereerde output te evalueren [25](#page=25).
AI-systemen zoals ChatGPT, Copilot en SciSpace werken voornamelijk met bestaande online informatie en zijn niet altijd in staat om de methodologische kwaliteit van bronnen te beoordelen. Daarnaast kunnen AI-tools [25](#page=25):
* Verouderde of niet-peer-reviewed bronnen gebruiken [25](#page=25).
* Informatiehallucinaties genereren: antwoorden verzinnen die feitelijk niet correct zijn [25](#page=25).
* Bronnen verkeerd citeren of bestaande studies foutief samenvatten [25](#page=25).
Daarom is het noodzakelijk om AI-output altijd systematisch te toetsen aan de principes van EBP. Dit houdt in [25](#page=25):
* **Kritisch beoordelen van de bron:** Controleer of de bron afkomstig is uit een betrouwbare wetenschappelijke databank, peer-reviewed tijdschrift of evidence-based richtlijn [25](#page=25).
* **Validiteit en relevantie evalueren:** Onderzoek of de samenvatting of het antwoord gebaseerd is op methodologisch sterk onderzoek dat relevant is voor de klinische vraag [25](#page=25).
* **Transparantie checken:** Kijk of de AI-tool duidelijk aangeeft welke bronnen zijn gebruikt en of deze bronnen toegankelijk en verifieerbaar zijn [25](#page=25).
* **Consistentie en plausibiliteit beoordelen:** Vergelijk de AI-output met bestaande literatuur en eigen klinische kennis. Komen de antwoorden overeen met wat bekend is uit hoogwaardig onderzoek? [25](#page=25).
Een praktische werkwijze hierbij is om de klassieke EBP-beoordelingscriteria (zoals relevantie, betrouwbaarheid, actualiteit en transparantie) rechtstreeks toe te passen op de door AI aangedragen informatie. Op die manier blijft de verpleegkundige professional zelf verantwoordelijk voor de kwaliteit van de informatie die in de zorgpraktijk wordt gebruikt [25](#page=25).
> **Samenvattend:** AI kan het zoeken en samenvatten vergemakkelijken, maar alleen door de output systematisch te toetsen aan EBP-criteria kunnen verpleegkundigen garanderen dat de gebruikte kennis betrouwbaar en toepasbaar is. EBP blijft zo het kompas dat richting geeft in een steeds digitaler wordend kennislandschap [26](#page=26).
### 3.3 AI als hulpmiddel in het samenvatten van bronnen
Naast ondersteuning bij het zoeken naar literatuur kan AI ook een waardevolle rol spelen bij het samenvatten van wetenschappelijke bronnen. Voor verpleegkundigen in opleiding, die vaak veel informatie moeten verwerken in beperkte tijd, biedt dit belangrijke voordelen [26](#page=26).
AI-tools zoals SciSpace of NotebookLM kunnen complexe wetenschappelijke artikelen snel samenvatten door:
* De hoofdvraag en belangrijkste bevindingen uit de tekst te filteren [26](#page=26).
* Belangrijke cijfers of resultaten overzichtelijk weer te geven [26](#page=26).
* Kernboodschappen te destilleren in eenvoudige taal [26](#page=26).
* Vergelijkingen te maken tussen meerdere studies, bijvoorbeeld door systematische verschillen of overeenkomsten aan te geven [26](#page=26).
Hierdoor kunnen studenten en verpleegkundigen efficiënter inzicht krijgen in grote hoeveelheden literatuur en sneller een overzicht vormen van de belangrijkste trends in het veld [26](#page=26).
#### 3.3.1 Aandachtspunten bij het gebruik van AI voor samenvatten
Er zijn echter belangrijke aandachtspunten bij het gebruik van AI voor samenvatten [26](#page=26):
* **Informatieverlies:** AI kan details overslaan die voor jouw specifieke onderzoeksvraag wél belangrijk zijn [26](#page=26).
* **Verkeerde nadruk:** Sommige AI-tools leggen het accent op minder relevante aspecten van een studie [26](#page=26).
* **Gebrek aan kritische interpretatie:** AI geeft een oppervlakkige samenvatting, maar beoordeelt zelf niet de kwaliteit of de methodologische sterkte van de studie [26](#page=26).
Daarom blijft het belangrijk dat studenten na het lezen van een AI-samenvatting:
* De volledige bron raadplegen wanneer dat nodig is, zeker bij twijfel of belangrijke beslissingen [26](#page=26).
* De samenvatting toetsen aan hun eigen onderzoeksvraag en de kwaliteit van het onderliggende onderzoek beoordelen volgens de principes van EBP [26](#page=26).
* Kritisch blijven nadenken over wat er is samengevat, hoe het is gedaan, en welke nuance eventueel verloren is gegaan [26](#page=26).
> **Kortom:** AI kan een handige assistent zijn bij het verwerken van bronnen, maar is geen vervanging voor een zorgvuldige, kritische lezing en beoordeling door de verpleegkundige zelf. Door AI verstandig en gecontroleerd in te zetten, kunnen verpleegkundigen het literatuurproces versnellen zonder in te boeten op kwaliteit [26](#page=26).
---
# Beoordelingssystemen voor bewijskwaliteit
Beoordelingssystemen voor bewijskwaliteit beschrijven methoden en criteria om de betrouwbaarheid en relevantie van onderzoeksresultaten te evalueren.
## 4 Beoordelingssystemen voor bewijskwaliteit
### 4.1 Inleiding tot beoordelingssystemen
Beoordelingssystemen voor bewijskwaliteit zijn essentieel voor het kritisch evalueren van onderzoeksresultaten, met name in de medische en gezondheidszorg. Deze systemen helpen bij het bepalen van de betrouwbaarheid en toepasbaarheid van de bevindingen uit zowel kwantitatief als kwalitatief onderzoek [16](#page=16).
### 4.2 Beoordelingssystemen voor kwantitatief onderzoek
Bij kwantitatief onderzoek wordt vaak gebruik gemaakt van hiërarchieën die gebaseerd zijn op het onderzoeksontwerp.
#### 4.2.1 De A1-D indeling
Dit systeem categoriseert bewijs op basis van de sterkte van het onderzoeksontwerp [16](#page=16).
* **A1:** Systematische reviews van meerdere onderzoeken van niveau A2, met consistente resultaten [16](#page=16).
* **A2:** Gerandomiseerde, gecontroleerde klinische onderzoeken van goede kwaliteit en voldoende omvang [16](#page=16).
* **B:** Vergelijkend onderzoek, zoals cohortstudies of patiënt-controleonderzoeken [16](#page=16).
* **C:** Niet-vergelijkend onderzoek [16](#page=16).
* **D:** Mening van deskundigen, gebaseerd op klinische ervaring of beschrijvende studies [16](#page=16).
Deze indeling wordt onder andere gehanteerd in de Nederlandse Richtlijnendatabase [16](#page=16).
#### 4.2.2 Het GRADE-systeem
Het GRADE-systeem (Grading of Recommendations Assessment, Development and Evaluation) beoordeelt de kwaliteit van bewijs op vier niveaus [16](#page=16).
* **Hoog:** Zeer veel vertrouwen dat het werkelijke effect dicht bij de schatting ligt [16](#page=16).
* **Matig:** Redelijk vertrouwen in de schatting; het werkelijke effect kan afwijken [16](#page=16).
* **Laag:** Beperkt vertrouwen; het werkelijke effect kan aanzienlijk verschillen [16](#page=16).
* **Zeer laag:** Zeer weinig vertrouwen in de schatting; het werkelijke effect is waarschijnlijk anders [16](#page=16).
GRADE wordt wereldwijd toegepast door organisaties zoals de Wereldgezondheidsorganisatie en het Britse National Institute for Health and Care Excellence (NICE) [16](#page=16).
> **Tip:** Hoewel deze systemen waardevol zijn, is het belangrijk om kritisch te blijven en klinische expertise en context mee te nemen bij de interpretatie van onderzoeksresultaten [16](#page=16).
### 4.3 Beoordelingscriteria voor kwalitatief onderzoek
In tegenstelling tot kwantitatief onderzoek, kent kwalitatief onderzoek geen universele, strikte hiërarchie van evidentieniveaus. In plaats daarvan wordt gekeken naar de kwaliteit, transparantie en methodologische criteria. Enkele veelgebruikte benaderingen en criteria zijn gebaseerd op de Lincoln & Guba Trustworthiness Criteria [16](#page=16) [17](#page=17).
#### 4.3.1 Geloofwaardigheid (credibility)
Dit criterium richt zich op de mate waarin de bevindingen representatief zijn voor de werkelijkheid van de deelnemers [17](#page=17).
* **Member check:** Bevindingen worden teruggekoppeld naar deelnemers ter verificatie van interpretaties [17](#page=17).
* **Voorbeeld:** Een samenvatting van een interview wordt aan de deelnemer voorgelegd voor feedback [17](#page=17).
* **Peer debriefing:** Collega-onderzoekers bespreken analysemethoden en interpretaties [17](#page=17).
* **Voorbeeld:** Regelmatige intervisiemomenten waarin verschillende perspectieven worden gedeeld [17](#page=17).
* **Triangulatie:** Combineren van meerdere dataverzamelingsmethoden om de betrouwbaarheid te vergroten [17](#page=17).
#### 4.3.2 Overdraagbaarheid (transferability)
Dit criterium beoordeelt de mate waarin de bevindingen toepasbaar zijn in andere contexten [17](#page=17).
* **Rijke beschrijving van de context ("richness"):** Gedetailleerde beschrijvingen van de setting, deelnemers en omstandigheden [17](#page=17).
* **Voorbeeld:** 'In een psychiatrische crisisafdeling met kortdurende opnames van 3-5 dagen' [17](#page=17).
* **Thick description:** Grondige, beschrijvende analyses van de bevindingen, inclusief directe citaten en gedetailleerde observaties [17](#page=17).
* **Voorbeeld:** Het gebruik van verhalen en metaforen die de essentie van de ervaringen van deelnemers weergeven [17](#page=17).
#### 4.3.3 Betrouwbaarheid (reliability)
Dit criterium beoogt consistentie in het onderzoeksproces te waarborgen [17](#page=17).
* **Audit trail:** Nauwkeurige documentatie van alle stappen in het onderzoeksproces, inclusief data-analyse, beslissingen en wijzigingen [17](#page=17).
* **Voorbeeld:** Een logboek bijhouden waarin keuzes en overwegingen worden vastgelegd [17](#page=17).
* **Consistentie:** Standaardisatie van interview- of observatieprotocollen [17](#page=17).
* **Externe controle:** Een onafhankelijke onderzoeker controleert het onderzoeksproces en de analyses op consistentie [17](#page=17).
#### 4.3.4 Bevestigbaarheid (neutrality)
Dit criterium focust op het minimaliseren van subjectiviteit en de invloed van de onderzoeker [17](#page=17).
* **Bracketing:** De onderzoeker maakt eigen vooroordelen en aannames expliciet vóór aanvang van het onderzoek [17](#page=17).
* **Voorbeeld:** Het bijhouden van een reflectief dagboek [17](#page=17).
* **Reflectieve journaling:** Continue reflectie door de onderzoeker op de eigen rol en invloed om onbewuste beïnvloeding te beperken [17](#page=17).
* **Voorbeeld:** Noteren hoe persoonlijke emoties of observaties de interpretatie kunnen sturen [17](#page=17).
* **Gebruik van citaten:** Bevindingen expliciet baseren op ruwe data (bijv. letterlijke citaten uit interviews) om transparantie te bieden en subjectiviteit te verminderen [17](#page=17).
### 4.4 Hiërarchieën specifiek voor kwalitatief onderzoek
Hoewel er geen universele hiërarchie is, hebben sommige onderzoekers pogingen gedaan om een meer gestructureerde aanpak te ontwikkelen voor kwalitatief onderzoek.
#### 4.4.1 Aangepaste Sackett-hiërarchie
Een voorbeeld van een aangepaste hiërarchie is de Sackett-hiërarchie voor kwalitatief onderzoek [18](#page=18).
* **Meta-syntheses ⭐⭐⭐:** Systematische reviews van kwalitatieve studies gericht op het synthetiseren van bevindingen [18](#page=18).
* **Individuele kwalitatieve studies met een sterke methodologie ⭐⭐:** Studies met een helder beschreven methode (sampling, dataverzameling, analyse) [18](#page=18).
* **Rapporten van kwalitatieve gegevens ⭐:** Verslagen zonder volledige methodologische verantwoording [18](#page=18).
#### 4.4.2 CASP checklist
De Critical Appraisal Skills Programme (CASP)-checklist wordt gebruikt om de kwaliteit van kwalitatief onderzoek te beoordelen, waarbij aspecten zoals onderzoeksdoelstelling, geschiktheid van de methode, sampling, en transparantie van dataverzameling en -analyse worden geëvalueerd [18](#page=18).
#### 4.4.3 JBI (Joanna Briggs Institute) model
Het Joanna Briggs Institute biedt richtlijnen voor het beoordelen van kwalitatieve evidentie, met een focus op methodologische rigiditeit, diepgang en rijkdom van data, en bruikbaarheid van bevindingen in de praktijk [18](#page=18).
> **Samenvatting:** Kwalitatief onderzoek gebruikt, in plaats van traditionele evidentiehiërarchieën, kwaliteitscriteria en frameworks (zoals Lincoln & Guba, CASP, JBI) om de betrouwbaarheid en toepasbaarheid te beoordelen. Meta-syntheses van kwalitatieve studies worden vaak beschouwd als het sterkste niveau van bewijs [18](#page=18).
### 4.5 Synthetiseren van het bewijs
Na het kritisch beoordelen van de literatuur volgt de stap van het synthetiseren van het bewijs. Dit houdt in dat de belangrijkste bevindingen uit verschillende bronnen worden samengevoegd om een gebalanceerd antwoord te formuleren op de onderzoeksvraag. Synthese vereist analyse van overeenkomsten en verschillen tussen studies, herkenning van trends en patronen, en verklaring van inconsistenties [18](#page=18).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Evidence-Based Practice (EBP) | Een systematische benadering in de gezondheidszorg die klinische besluitvorming onderbouwt met het best beschikbare bewijs, klinische expertise en de voorkeuren en waarden van de patiënt. |
| PICO-structuur | Een gestructureerde methode om klinische onderzoeksvragen te formuleren, bestaande uit Patiënt/Populatie, Interventie, Comparatie (vergelijking) en Outcome (uitkomst). |
| PIO-structuur | Een vereenvoudigde versie van de PICO-structuur, vaak gebruikt door studenten verpleegkunde, waarbij de focus ligt op Patiënt/Populatie, Interventie en Outcome, omdat de comparatie vaak minder relevant is. |
| RODECO-principe | Een acroniem dat helpt bij het beoordelen van de kwaliteit van een onderzoeksvraag: Relevant, Onderzoekbaar, Duidelijk, Enkelvoudig, Concreet en Open/explorerend. |
| PubMed | Een wereldwijde databank die gespecialiseerd is in medische literatuur en een uitgebreide bron is voor wetenschappelijk bewijs. |
| CINAHL | Een databank die zich richt op verpleegkunde en paramedische wetenschappen, en een belangrijke bron is voor literatuur op dit gebied. |
| Cebam Digital Library for Health | Een databank die evidence-based richtlijnen uit België verzamelt en beschikbaar stelt voor zorgprofessionals. |
| KCE-rapporten | Rapporten van het Federaal Kenniscentrum voor de Gezondheidszorg in België, die beleidsadviezen en onderzoeksresultaten bevatten over gezondheidszorgonderwerpen. |
| Google Scholar | Een open academische zoekmachine die wetenschappelijke literatuur uit diverse disciplines indexeert en toegankelijk maakt. |
| Booleaanse operatoren | Logische operatoren (zoals AND, OR, NOT) die worden gebruikt om zoekopdrachten in databanken te combineren en te verfijnen, waardoor de relevantie van de resultaten toeneemt. |
| MeSH-termen | Medical Subject Headings, gestandaardiseerde termen die PubMed gebruikt om artikelen te indexeren, wat helpt bij het verkrijgen van relevantere zoekresultaten. |
| Confounding | Een factor die zowel de onafhankelijke als de afhankelijke variabele beïnvloedt, waardoor een vertekenend verband kan ontstaan en causaliteit onjuist wordt verondersteld. |
| Selectiebias | Bias die ontstaat wanneer de geselecteerde onderzoekspopulatie niet representatief is voor de doelpopulatie, waardoor de resultaten mogelijk niet generaliseerbaar zijn. |
| Peer review | Het proces waarbij wetenschappelijke artikelen worden beoordeeld door onafhankelijke experts op het vakgebied voordat ze worden gepubliceerd, wat de kwaliteit en betrouwbaarheid van de publicatie waarborgt. |
| GRADE-systeem | Een internationaal systeem voor het beoordelen van de kwaliteit van bewijs en de sterkte van aanbevelingen, waarbij bewijs wordt ingedeeld in vier niveaus: hoog, matig, laag en zeer laag. |
| Kwalitatief onderzoek | Een onderzoeksmethode die zich richt op het begrijpen van de diepere betekenis en context van menselijke ervaringen, meningen en gedragingen, vaak door middel van interviews en observaties. |
| Meta-synthese | Een systematische review die de resultaten van meerdere kwalitatieve studies synthetiseert om een dieper begrip te ontwikkelen van een fenomeen. |
| CASP checklist | Een tool voor kritische beoordeling van wetenschappelijke literatuur, ontworpen om te helpen bij het evalueren van de validiteit en toepasbaarheid van onderzoeksstudies. |
| JBI (Joanna Briggs Institute) model | Een reeks richtlijnen en tools die worden gebruikt om de kwaliteit van kwalitatief onderzoek te beoordelen, met een focus op methodologische rigiditeit, gegevensdiepte en praktische bruikbaarheid. |
| Synthetiseren | Het proces van het samenvoegen en integreren van bevindingen uit meerdere onderzoeksbronnen om een samenhangend en gebalanceerd antwoord te formuleren op een onderzoeksvraag. |
| Narratieve synthese | Een methode om bewijs te synthetiseren door bevindingen in woorden te beschrijven en te vergelijken, vooral nuttig wanneer studies te heterogeen zijn voor statistische combinatie. |
| Meta-analyse | Een statistische techniek die kwantitatieve resultaten uit meerdere vergelijkbare studies combineert om een samengevoegde effectgrootte te berekenen, wat leidt tot een krachtiger bewijs. |
| Gedeelde besluitvorming (shared decision-making) | Een proces waarbij zorgverleners en patiënten samenwerken om beslissingen te nemen over de zorg, waarbij informatie over opties, voor- en nadelen wordt gedeeld. |
| Implementeren | Het proces van het daadwerkelijk toepassen van een gekozen zorgbeleid of interventie in de praktijk. |
| Evalueren | Het systematisch meten en beoordelen of een nieuwe aanpak de gewenste effecten heeft bereikt, met behulp van vooraf vastgestelde criteria. |
| Dissemineren | Het actief verspreiden van onderzoeksresultaten en ervaringen binnen een organisatie of breder, om kennisuitwisseling te bevorderen. |
| Verankeren | Het zorgen dat een nieuwe werkwijze een blijvend onderdeel wordt van de dagelijkse praktijk, door officiële vastlegging, scholing en monitoring. |
| Artificiële Intelligentie (AI) | Technologie die machines in staat stelt taken uit te voeren die normaal menselijke intelligentie vereisen, zoals leren, probleemoplossing en besluitvorming. |
| Copilot | Een AI-assistent van Microsoft die helpt bij het structureren van literatuuronderzoeken, het opstellen van samenvattingen en het analyseren van data. |
| ChatGPT | Een conversationele AI van OpenAI die kan helpen bij het verhelderen van informatievragen, het uitleggen van concepten en het herschrijven van complexe literatuur in begrijpelijke taal. |
| SciSpace | Een platform dat specifiek gericht is op het vereenvoudigen van wetenschappelijke teksten door artikelen samen te vatten en vakjargon te vertalen. |
| Perplexity | Een AI-gestuurde zoekmachine die in meerdere databanken tegelijk zoekt en korte, brongebaseerde antwoorden geeft. |
| Claude | Een AI-chatbot van Anthropic die inzet op veiligheid, nauwkeurigheid en transparantie, en kan helpen bij het samenvatten, uitleggen en kritisch analyseren van teksten. |
| Elicit | Een AI-tool ontworpen om onderzoek te ondersteunen, met functies voor het formuleren van onderzoeksvragen, selecteren van literatuur en analyseren van data. |
| NotebookLM | Een AI-gestuurd notitieplatform van Google dat documenten samenvat, inzichten genereert en verbanden legt tussen bronnen. |
| Informatiehallucinaties | Door AI gegenereerde antwoorden die feitelijk onjuist zijn, maar als waar worden gepresenteerd, wat een risico is bij het gebruik van AI-tools. |
| P-hacking (data dredging) | Het manipuleren van data door meerdere analyses of subgroepen uit te proberen totdat een statistisch significant resultaat wordt gevonden, wat leidt tot fout-positieve bevindingen. |
| Publicatiebias | Het verschijnsel dat positieve of significante onderzoeksresultaten vaker worden gepubliceerd dan negatieve of nulresultaten, wat leidt tot een vertekend beeld in de literatuur. |
| Attrition bias | Bias die ontstaat door non-random uitval van deelnemers tijdens een studie, waardoor de geanalyseerde groep niet meer representatief is voor de oorspronkelijke toewijzing. |
| HARKing (Hypothesizing After the Results are Known) | Het aanpassen van de hypothese of onderzoeksvraag na het analyseren van de data om deze beter te laten aansluiten bij de gevonden resultaten. |
| Correlatie | Een statistische maat die aangeeft in welke mate twee variabelen met elkaar samenhangen, maar niet noodzakelijk een causaal verband impliceert. |
| Externe validiteit | De mate waarin onderzoeksresultaten generaliseerbaar zijn naar andere populaties, contexten of tijden dan de specifieke omstandigheden van het onderzoek. |