Cover
Start now for free les 2
Summary
# Vrijheid van meningsuiting en digitale technologieën
Dit onderwerp verkent de complexe wisselwerking tussen vrijheid van meningsuiting en de opkomst van digitale technologieën, met aandacht voor de impact van sociale media, censuur, desinformatie en de relevante internationale en Europese regelgeving.
## 1. Vrijheid van meningsuiting en digitale technologieën
Vrijheid van meningsuiting vormt de essentiële pijler van een democratische samenleving, cruciaal voor vooruitgang en individuele ontwikkeling. Digitale technologieën, met name sociale media, bieden ongekende mogelijkheden voor het delen van gedachten en ideeën, wat democratische deelname en informatietoegang kan bevorderen. Echter, deze digitale ruimte brengt ook aanzienlijke uitdagingen met zich mee, zoals de verspreiding van illegale content, desinformatie, en de potentiële impact van algoritmes op de informatievoorziening.
### 1.1 Het belang van vrijheid van meningsuiting in het digitale tijdperk
De opkomst van het internet heeft de mogelijkheid gecreëerd om ideeën en meningen wereldwijd te delen, wat een positieve impuls kan geven aan democratie en de vrijheid van meningsuiting. Het biedt toegang tot diverse perspectieven en informatiebronnen. Echter, deze voordelen gaan gepaard met significante risico's.
> **Tip:** Beschouw de digitale ruimte niet alleen als een communicatiemiddel, maar ook als een platform dat actief bijdraagt aan de vorming van publieke opinie en democratisch debat.
### 1.2 Uitdagingen in de digitale omgeving
De digitale omgeving stelt de vrijheid van meningsuiting voor diverse uitdagingen:
* **Illegale en schadelijke content:** Verspreiding van haatzaaiende taal, materiaal met kindermisbruik, en content die eetstoornissen of zelfbeschadiging promoot.
* **Desinformatie en fake news:** Het bewust verspreiden van valse of misleidende informatie kan significante impact hebben op democratische processen en publieke percepties.
* **Moderatie door platforms:** Bedrijven die platforms beheren, bepalen welke content wordt verwijderd. Dit kan leiden tot censuur, waarbij legitieme uitingen worden beperkt.
* **Algoritmische curatie en filterbubbels:** Algoritmes kunnen bepalen welke content gebruikers te zien krijgen, wat kan resulteren in een verlies aan diversiteit aan informatie en het versterken van bestaande overtuigingen (filterbubbels).
* **Chilling effect:** De angst voor surveillance door platforms en overheden kan journalisten en individuen ontmoedigen zich vrijelijk te uiten.
### 1.3 Internationale en Europese kaders
Verschillende internationale en Europese instrumenten erkennen en beschermen de vrijheid van meningsuiting in de digitale context:
#### 1.3.1 Verenigde Naties
* De VN Handvest van de rechten van de mens en het Internationaal Verdrag inzake Burgerrechten en Politieke Rechten (IVBPR) bieden een basis voor de bescherming van vrijheid van meningsuiting, die van toepassing is op alle vormen van expressie, inclusief online uitingen.
* De VN Mensenrechtenraad benadrukt dat offline rechten ook online moeten worden beschermd en veroordeelt maatregelen die het zoeken, ontvangen of verspreiden van informatie online belemmeren, zoals internetonderbrekingen en online censuur.
* De VN Speciale Rapporteur voor vrijheid van meningsuiting publiceert rapporten over thema's als desinformatie, online haatzaaiende taal, surveillance en de regulering van online content.
> **Tip:** Let op de uitbreiding van bestaande mensenrechtenverdragen naar de digitale sfeer. Het IVBPR erkent dat vrijheid van meningsuiting niet absoluut is en onderworpen kan zijn aan beperkingen onder specifieke voorwaarden.
#### 1.3.2 Raad van Europa
* Het Europees Verdrag voor de Rechten van de Mens (EVRM) stelt dat alle rechten, inclusief de vrijheid van meningsuiting, volledig geldig blijven in het digitale tijdperk.
* Het Europees Hof voor de Rechten van de Mens (EHRM) heeft talrijke uitspraken gedaan over vrijheid van meningsuiting online, onder meer inzake internetblokkering, hyperlinks, online haatzaaiende taal en de impact van surveillance op journalisten.
* De EHRM benadrukt dat het internet een primair middel is geworden voor het uitoefenen van de vrijheid van meningsuiting en informatie, essentieel voor deelname aan politieke en maatschappelijke discussies.
> **Voorbeeld:** In de zaak *Ahmet Yildirim v. Turkije* oordeelde het EHRM dat het blokkeren van een gehele websitehostingservice, zoals Google Sites, vanwege de aanwezigheid van illegale content op een enkele site, een schending inhield van artikel 10 EVRM. Dit benadrukt de noodzaak van proportionele maatregelen en de bredere impact op de vrijheid van meningsuiting.
#### 1.3.3 Europese Unie
* Het Handvest van de grondrechten van de Europese Unie garandeert het recht op vrijheid van meningsuiting en informatie (artikel 11).
* De Europese Verklaring over digitale rechten en beginselen voor het Digitale Decennium benadrukt de rol van online platforms bij het ondersteunen van democratisch debat en de noodzaak om risico's zoals desinformatie te mitigeren, met respect voor fundamentele rechten.
* **Digitale Diensten Verordening (DSA):** Deze verordening stelt regels op voor de aansprakelijkheid van platforms voor door gebruikers geüploade content, contentmoderatie, en maatregelen tegen desinformatie en illegale content. Platforms kunnen vrijgesteld worden van aansprakelijkheid indien zij aan bepaalde voorwaarden voldoen, zoals het handelen op kennisname van illegale content en het verwijderen daarvan, met inachtneming van fundamentele rechten.
* **Audiovisuele Mediadienstenrichtlijn:** Reguleert illegale en schadelijke content op videoplatforms.
* **Algemene Verordening Gegevensbescherming (AVG):** Bevat uitzonderingen voor journalistieke, academische, artistieke of literaire expressie met betrekking tot gegevensbescherming.
> **Tip:** Begrijp het risicogebaseerde karakter van de DSA. Grote online platforms hebben meer verplichtingen dan kleinere dienstverleners.
### 1.4 Nationale regelgeving (België)
* De Belgische Grondwet bevat bepalingen inzake de vrijheid van meningsuiting (artikel 19) en de persvrijheid (artikel 25). Hoewel de terminologie gedateerd is, worden deze rechten geïnterpreteerd om ook online uitingen te omvatten.
* **Persmisdrijven:** De definitie van een persmisdrijf, oorspronkelijk gericht op gedrukte geschriften, is door het Hof van Cassatie uitgebreid naar digitale media. Echter, de berechting van dergelijke misdrijven door een volksjury (Hof van Assisen) kan een obstakel vormen voor effectieve handhaving.
* Het Hof van Cassatie heeft geoordeeld dat de vermenigvuldiging van strafbare mondelinge of audiovisuele meningsuitingen via digitale media weliswaar geen persmisdrijf meer oplevert, maar wel kan vallen onder de algemene strafwet.
* Er bestaat kritiek op artikel 150 van de Grondwet met betrekking tot persmisdrijven, omdat de procedure voor het Hof van Assisen langdurig en belastend is, wat kan leiden tot de facto straffeloosheid.
> **Voorbeeld:** Het Hof van Cassatie heeft in recente arresten bevestigd dat ook online uitingen die een strafbare mening verspreiden, onder de noemer van persmisdrijven kunnen vallen, mits de gebruikelijke voorwaarden voor persmisdrijven vervuld zijn.
### 1.5 Aansprakelijkheid van online tussenpersonen
De aansprakelijkheid van online tussenpersonen (platforms die content hosten) voor illegale content die door gebruikers wordt geüpload, is een cruciaal aspect van de vrijheid van meningsuiting.
* **Delfi v. Estonia en MTE & Index v. Hungary (EHRM):** Deze zaken tonen aan dat nieuwsportals aansprakelijk kunnen worden gesteld voor het niet tijdig verwijderen van duidelijk illegale commentaren van gebruikers. Echter, het aansprakelijk stellen voor slechts "vulgare en offensieve" commentaren werd als een schending van artikel 10 EVRM beschouwd.
* **Aanbeveling van het Comité van Ministers van de Raad van Europa:** Benadrukt dat maatregelen genomen door tussenpersonen die de vrijheid van meningsuiting beperken, moeten voldoen aan de voorwaarden van artikel 10, lid 2 EVRM. Transparantie en verantwoording voor contentmoderatie zijn essentieel.
* **Digitale Diensten Verordening (DSA):** Biedt een kader voor de aansprakelijkheid van hostingdiensten, waarbij vrijstelling van aansprakelijkheid mogelijk is onder strikte voorwaarden. Dit omvat het ontbreken van daadwerkelijke kennis van illegale activiteit en het snel handelen bij het verkrijgen van dergelijke kennis. De "Good Samaritan"-clausule faciliteert vrijwillige inspanningen om illegale content te detecteren, mits dit te goeder trouw en proportioneel gebeurt.
> **Tip:** Het onderscheid tussen verschillende soorten tussenpersonen (bv. nieuwsportals versus pure social media platforms) kan van invloed zijn op de beoordeling van hun aansprakelijkheid.
### 1.6 Desinformatie en manipulatie
* **VN Mensenrechtenraad:** Erkent het belang van het tegengaan van uitingen die een negatieve impact kunnen hebben, zoals de verspreiding van opzettelijk misleidende of valse informatie.
* **EU Verklaring over digitale rechten:** Belooft maatregelen om burgers te beschermen tegen desinformatie en manipulatie.
* **EU Digitale Diensten Verordening (DSA):** Bevat specifieke verplichtingen voor zeer grote online platforms om risico's van desinformatie te mitigeren.
De opkomst van kunstmatige intelligentie (AI) brengt nieuwe vormen van manipulatie met zich mee, met name ten aanzien van kwetsbare groepen zoals kinderen. AI-systemen kunnen worden ingezet om gedrag te beïnvloeden op manieren die de autonomie en vrije keuze ondermijnen. De EU Artificial Intelligence Act verbiedt AI-systemen die de kwetsbaarheden van kinderen uitbuiten om hun gedrag te verstoren op een manier die aanzienlijke schade kan veroorzaken. Daarnaast zijn er serieuze zorgen over de betrouwbaarheid en potentiële discriminerende effecten van AI-systemen voor emotieherkenning, met name in onderwijsinstellingen.
---
# Aansprakelijkheid van online tussenpersonen
Dit onderwerp onderzoekt de aansprakelijkheid van online platforms voor illegale inhoud die door gebruikers wordt geüpload, en de uitdagingen rond moderatie en regelgeving zoals de Digital Services Act.
## 2.1 Introductie tot de aansprakelijkheid van online tussenpersonen
Online platforms functioneren vaak als tussenpersonen die inhoud hosten die door gebruikers wordt geüpload. Dit roept de vraag op in hoeverre deze platforms aansprakelijk kunnen worden gesteld voor illegale inhoud of gedragingen die door hun gebruikers worden geplaatst. De enorme hoeveelheid geüploade content, de impact op de vrijheid van meningsuiting, de neiging tot 'oververwijdering' (het verwijderen van legitieme inhoud uit angst voor aansprakelijkheid) en de rol van private actoren in het beslissen over wat wel en niet mag, vormen belangrijke uitdagingen.
### 2.1.1 Juridisch kader en jurisprudentie
De jurisprudentie van het Europees Hof voor de Rechten van de Mens (EHRM) heeft hierover enkele belangrijke uitspraken gedaan. In de zaak *Delfi v. Estonia* oordeelde het Hof dat een online nieuwsportaal aansprakelijk kon worden gesteld voor duidelijk onrechtmatige reacties van gebruikers die aanzetten tot haat of geweld, indien deze niet zonder verwijl werden verwijderd nadat het portaal ervan op de hoogte was gesteld. Dit gold zelfs zonder expliciete melding van slachtoffers of derden.
In de zaak *MTE & Index v. Hungary* daarentegen, oordeelde het Hof dat een nieuwsportaal niet aansprakelijk gesteld kon worden voor vulgaire en aanstootgevende reacties van gebruikers die niet neerkwamen op duidelijk onrechtmatige uitingen zoals haatspraak. Het Hof benadrukte dat een nieuwsportaal verschilt van een sociaal mediaplatform en dat een algemene aansprakelijkheid voor alle reacties niet houdbaar is.
De Commissie van Ministers van de Raad van Europa heeft in 2018 een aanbeveling aangenomen betreffende de rollen en verantwoordelijkheden van internet tussenpersonen. Deze aanbeveling benadrukt dat maatregelen genomen door tussenpersonen die leiden tot beperking van de vrijheid van meningsuiting, moeten voldoen aan de voorwaarden van artikel 10, lid 2 van het EVRM (wettelijk voorgeschreven, legitiem doel, noodzakelijk in een democratische samenleving). Transparantie en verantwoording bij contentmoderatie zijn cruciaal.
> **Tip:** Het onderscheid tussen een nieuwsportaal en een sociaal mediaplatform is belangrijk in de beoordeling van aansprakelijkheid. Nieuwsportalen hebben mogelijk een hogere zorgplicht voor reacties op hun eigen artikelen dan algemene sociale mediaplatforms voor alle content.
### 2.1.2 De Digital Services Act (DSA) van de Europese Unie
De Digital Services Act (DSA) van de EU beoogt de aansprakelijkheid van online tussenpersonen te reguleren en te harmoniseren. De wet maakt onderscheid tussen verschillende soorten diensten:
* **Pure doorgeefdiensten (mere conduit):** Deze diensten faciliteren enkel de doorgifte van informatie via een netwerk en hebben geen controle over de ontvanger. Zij zijn over het algemeen niet aansprakelijk, mits zij de informatie niet zelf initiëren.
* **Caching diensten:** Deze diensten slaan informatie tijdelijk op om de efficiëntie van de gegevensoverdracht te verbeteren. Zij zijn eveneens niet aansprakelijk, mits zij de oorspronkelijke informatie niet wijzigen en voldoen aan bepaalde technische normen.
* **Hosting diensten:** Dit betreft diensten die informatie opslaan die door gebruikers wordt verstrekt, zoals sociale mediaplatforms, online marktplaatsen en videoplatforms. Hostingdiensten zijn vrijgesteld van aansprakelijkheid voor illegale inhoud indien zij:
* geen *werkelijke kennis* hebben van de illegale activiteit of informatie, en
* zodra zij deze kennis of bewustzijn verkrijgen, *onverwijld* handelen om de toegang tot de informatie te verwijderen of te deactiveren.
De verwijdering of deactivering van toegang moet gebeuren met inachtneming van de fundamentele rechten van de dienstontvangers, inclusief de vrijheid van meningsuiting en informatie. Kennis kan worden verkregen via meldingen van gebruikers ('rapporteren' of 'flaggen') of via eigen onderzoek door het platform, bijvoorbeeld met behulp van geautomatiseerde middelen.
#### 2.1.2.1 De 'Good Samaritan'-clausule van de DSA
De DSA bevat ook een 'Good Samaritan'-clausule (Artikel 7) die vrijwillige activiteiten van hostingproviders om illegale inhoud te detecteren, identificeren en aan te pakken, niet ongeldig maakt voor aansprakelijkheidsvrijstellingen. Deze activiteiten moeten te goeder trouw en op zorgvuldige wijze worden uitgevoerd, objectief, niet-discriminatoir en proportioneel, met inachtneming van de rechten van alle betrokken partijen. Er moeten waarborgen zijn tegen ongerechtvaardigde verwijdering van legale inhoud.
#### 2.1.2.2 Algemene monitoringverplichtingen en orders
De DSA verbiedt lidstaten om aanbieders van tussenpersonen een *algemene verplichting* op te leggen om de informatie die zij doorgeven of opslaan te monitoren of actief te zoeken naar feiten of omstandigheden die wijzen op illegale activiteiten. Dit zou een onaanvaardbare inbreuk maken op de vrijheid van meningsuiting en privacy.
Nationale rechterlijke of administratieve autoriteiten kunnen echter wel *specifieke orders* uitvaardigen aan tussenpersonen om op te treden tegen één of meerdere specifieke items van illegale inhoud (bijvoorbeeld verwijdering) of om specifieke informatie over gebruikers te verstrekken. De Artikelen 9 en 10 van de DSA harmoniseren de voorwaarden waaraan dergelijke orders moeten voldoen en stellen aanvullende eisen aan de verwerking ervan.
> **Tip:** De DSA probeert een balans te vinden tussen het bestrijden van illegale inhoud en het beschermen van de vrijheid van meningsuiting, door specifieke voorwaarden te stellen aan de aansprakelijkheid van hostingdiensten en het verbieden van algemene monitoringverplichtingen.
### 2.1.3 Overmatige verwijdering en censuur
Een significant probleem dat voortvloeit uit de aansprakelijkheidsdruk op online tussenpersonen is de neiging tot 'oververwijdering' (over-removal). Uit angst voor juridische gevolgen en boetes, verwijderen platforms inhoud die mogelijk legaal is, maar die zij als risicovol inschatten. Dit kan leiden tot feitelijke censuur en een beperking van de vrijheid van meningsuiting, vooral wanneer deze beslissingen worden genomen door private entiteiten zonder transparante procedures of beroepsmogelijkheden.
De rol van algoritmes bij contentmoderatie draagt bij aan dit probleem. Hoewel algoritmes efficiënt kunnen zijn in het verwerken van grote hoeveelheden data, kunnen ze ook fouten maken en legale inhoud onterecht verwijderen, mede door de complexiteit en het 'black box'-karakter van veel AI-systemen.
> **Voorbeeld:** Een platform verwijdert een satirische post die mogelijk als beledigend kan worden opgevat, uit angst voor klachten of juridische stappen. Hierdoor gaat legitieme kritiek of humor verloren.
### 2.1.4 Rol van regelgeving
Regelgeving zoals de Digital Services Act is essentieel om online tussenpersonen te verplichten tot redelijke maatregelen ter bestrijding van illegale inhoud, zonder daarbij de vrijheid van meningsuiting excessief te beknotten. De wet beoogt een evenwicht te creëren door duidelijke regels op te stellen voor contentmoderatie, transparantievereisten en klachtenprocedures, en door tegelijkertijd de aansprakelijkheid van tussenpersonen te beperken onder bepaalde cumulatieve voorwaarden. De focus ligt op het aanpakken van *specifieke* illegale inhoud na kennisgeving, in plaats van een algemene monitoringsplicht.
---
# Digitale discriminatie
Hier is een gedetailleerde samenvatting van "Digitale discriminatie", opgesteld als een studiehandleiding, gebaseerd op de verstrekte documentatie.
## 6. Digitale discriminatie
Dit onderwerp behandelt hoe technologie, met name kunstmatige intelligentie en algoritmen, bestaande ongelijkheden kan versterken en nieuwe vormen van discriminatie kan creëren, met de nadruk op de oorzaken en mogelijke oplossingen vanuit een mensenrechtenperspectief.
### 6.1 Oorzaken van digitale discriminatie
Digitale discriminatie ontstaat voornamelijk door twee hoofdoorzaken:
* **Vooroordelen in datasets:** Algoritmen leren van de data waarmee ze worden getraind. Als deze datasets onvolledig zijn of bepaalde groepen ondervertegenwoordigen, kunnen algoritmen systematisch discriminerende voorspellingen doen voor ondervertegenwoordigde groepen. Dit geldt met name voor vooroordelen die reeds bestaan in de maatschappij, zoals gender- of etniciteitsvooroordelen.
* **Ontwerpkeuzes van ontwikkelaars:** De achtergrond, perspectieven of onbewuste vooroordelen van de ontwikkelaars kunnen onbedoeld worden ingebed in het ontwerp van algoritmen. Beslissingen over de parameters en de werking van een algoritme kunnen zo biases introduceren die leiden tot discriminerende uitkomsten, zelfs als de data zelf representatief lijkt.
> **Tip:** Het is cruciaal om te begrijpen dat digitale technologie niet neutraal is. De data die het voedt en de keuzes van de makers beïnvloeden de uitkomst en kunnen bestaande maatschappelijke ongelijkheden weerspiegelen en versterken.
### 6.2 Vormen van digitale discriminatie
Digitale discriminatie kan zich op verschillende manieren manifesteren:
* **Directe discriminatie:** Een algoritme behandelt bijvoorbeeld mannelijke en vrouwelijke sollicitanten anders zonder een gerechtvaardigde professionele reden.
* **Indirecte discriminatie:** Een algoritme gebruikt neutrale parameters die echter tot discriminerende resultaten leiden. Een voorbeeld hiervan is het gebruik van postcodegegevens in een algoritme voor criminaliteitsprognoses, waarbij bepaalde wijken – vaak bewoond door specifieke etnische groepen – onevenredig zwaar worden getroffen.
### 6.3 De 'black box' als uitdaging
Een significant probleem bij het vaststellen van digitale discriminatie is het "black box"-effect. Dit verwijst naar de inherente complexiteit en ondoorzichtigheid van veel moderne machine learning- en kunstmatige intelligentie-algoritmen.
* **Moeilijk te interpreteren resultaten:** Het is vaak moeilijk of zelfs onmogelijk om te achterhalen welke specifieke informatie in de data de voorspellingen van een algoritme heeft beïnvloed en op welke manier. Dit maakt het voor getroffen groepen uiterst lastig om het bewijs te leveren dat discriminatie heeft plaatsgevonden, wat de juridische procedure bemoeilijkt.
> **Tip:** Het "black box"-probleem vormt een aanzienlijke hindernis voor de bewijslast bij het aantonen van discriminatie, omdat de causale verbanden tussen input en output van een algoritme verborgen blijven.
### 6.4 Mensenrechtelijk kader en oplossingen
Verschillende internationale en regionale kaders benadrukken de noodzaak om digitale discriminatie aan te pakken:
* **Internationale mensenrechtwetgeving:** Verdragen zoals de Universele Verklaring van de Rechten van de Mens (Artikel 2) en het Internationaal Verdrag inzake Burgerrechten en Politieke Rechten (Artikel 2/26) verbieden discriminatie. Deze principes moeten ook van toepassing zijn op technologie.
* **VN Special Rapporteur inzake hedendaagse vormen van racisme:** Rapporten wijzen op het verergeren van bestaande ongelijkheden door opkomende digitale technologieën, en roepen op tot maatregelen tegen expliciete, indirecte en structurele vormen van raciale discriminatie.
* **Raad van Europa:** De Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (2024) benadrukt de risico's van discriminatie door AI en vereist dat partijen maatregelen nemen om gelijkheid, inclusief gendergelijkheid, te waarborgen en discriminatie te verbieden in de gehele levenscyclus van AI-systemen.
* **Europese Unie:**
* De **EU Charter of Fundamental Rights** (Artikelen 21 en 23) garandeert non-discriminatie en gelijkheid tussen mannen en vrouwen.
* De **General Data Protection Regulation (GDPR)** bevat bepalingen (Artikel 22) die volledig geautomatiseerde beslissingen met een discriminerend effect, gebaseerd op persoonsgegevens, verbieden zonder menselijke tussenkomst.
* De **Digital Services Act (DSA)** verbiedt advertenties gebaseerd op profilering met gebruik van gevoelige persoonsgegevens van minderjarigen.
* De **AI Act** vereist dat AI-systemen zo worden ontwikkeld en gebruikt dat ze inclusief zijn, gelijke toegang en gendergelijkheid bevorderen, en discriminerende effecten en oneerlijke vooroordelen vermijden. Voor risicovolle systemen zijn strikte regels voor gegevensbeheer en biasdetectie van kracht.
> **Voorbeeld:** De EU AI Act classificeert AI-systemen op basis van risico. Systemen die bijvoorbeeld gezichtsherkenning gebruiken of worden ingezet voor sociale scoring, worden als hoog risico beschouwd en onderwerpen aan strenge data governance-praktijken, waaronder de noodzaak om mogelijke vooroordelen te detecteren en te mitigeren.
### 6.5 Maatregelen en verantwoordelijkheden
Om digitale discriminatie tegen te gaan, zijn diverse maatregelen nodig:
* **Data Governance:** Zorgen voor adequate en representatieve datasets die vrij zijn van vooroordelen en fouten.
* **Ontwerpinclusiviteit:** Ontwikkelaars moeten zich bewust zijn van hun eigen vooroordelen en inclusieve ontwerpprincipes toepassen.
* **Transparantie en verklaarbaarheid:** Streven naar meer transparantie in algoritmische besluitvorming, waar mogelijk.
* **Menselijke supervisie:** Implementeren van menselijke controle op beslissingen die fundamentele rechten raken, met name bij hoog-risico AI-systemen.
* **Regulering en wetgeving:** Nationale en internationale wetgeving, zoals de eerder genoemde EU-wetgeving en specifieke anti-discriminatiewetten, moet ook online en op technologieën van toepassing zijn.
> **Tip:** Het is essentieel dat er mechanismen zijn om discriminatie door AI te melden en te onderzoeken, zelfs als het proces van besluitvorming niet volledig transparant is. Initiatieven zoals die van UNIA in België richten zich specifiek op AI en discriminatie.
---
# Kinderrechten in de digitale omgeving
Dit onderwerp verkent de kansen en risico's van digitale technologieën voor kinderen, met nadruk op de bescherming tegen cyberpesten, commerciële exploitatie, manipulatie, en de implementatie van kinderrechten in het digitale tijdperk, inclusief wetgeving op EU-niveau.
### 4.1 De digitale omgeving en kinderrechten
De digitale omgeving wordt steeds belangrijker in het leven van kinderen, zowel in normale tijden als tijdens crisissituaties, omdat maatschappelijke functies zoals onderwijs, overheidsdiensten en handel steeds meer afhankelijk worden van digitale technologieën. Dit biedt nieuwe mogelijkheden voor de realisatie van kinderrechten, maar brengt ook risico's met zich mee voor schending of misbruik.
#### 4.1.1 Rol van Staten en bedrijven
Staten hebben de plicht om wetgevende en administratieve maatregelen te nemen ter bescherming van kinderen in de digitale omgeving. Dit omvat het beschermen tegen online kindermisbruik, cyberpesten, commerciële exploitatie en manipulatie die hun recht op vrijheid van gedachten en overtuiging kan beïnvloeden, bijvoorbeeld door middel van emotionele analyse of inferentie. Staten moeten ervoor zorgen dat bedrijven hun verantwoordelijkheden nakomen en kindvriendelijke maatregelen nemen.
> **Tip:** De naleving van kinderrechten in het digitale tijdperk vereist een gecoördineerde aanpak waarbij zowel staten als bedrijven actief betrokken zijn.
### 4.2 Bescherming tegen online gevaren
#### 4.2.1 Online kindermisbruik
Online kindermisbruik, waaronder kindermisbruikmateriaal (CSAM) en grooming (online aanmoediging tot seksueel misbruik), vormt een ernstig probleem. De opkomst van online communicatie en specifieke technologieën heeft het verspreiden van dergelijk materiaal en het leggen van contact met kinderen met seksuele bedoelingen vergemakkelijkt. Hoewel er op internationaal, EU- en nationaal niveau wetgeving is om deze praktijken te criminaliseren, blijft de effectieve bestrijding ervan een uitdaging voor wetshandhavingsinstanties.
> **Example:** De herziening van EU-richtlijnen, zoals Richtlijn 2011/93/EU, is cruciaal om de wetgeving up-to-date te houden met technologische ontwikkelingen, zoals AI-gegenereerd CSAM en live-streaming.
#### 4.2.2 Gegevensbescherming
Kinderen worden beschouwd als een kwetsbare groep met betrekking tot gegevensbescherming. De Algemene Verordening Gegevensbescherming (AVG) bevat specifieke bepalingen die aandacht besteden aan de verwerking van persoonsgegevens van kinderen, met name voor marketingdoeleinden of het creëren van persoonlijkheidsprofielen. Er moet kindvriendelijke informatie over gegevensverwerking worden verstrekt, en risicovolle gegevensverwerking vereist een Data Protection Impact Assessment (DPIA).
> **Tip:** Het beschermen van de privacy van kinderen online vereist extra voorzorgsmaatregelen vanwege hun kwetsbaarheid en beperkte commerciële geletterdheid.
#### 4.2.3 Commerciële exploitatie
Het recht van kinderen om beschermd te worden tegen commerciële exploitatie is relevant in de digitale context, zelfs buiten de traditionele definitie van kinderarbeid. Mechanismen op sociale mediaplatforms die de gegevens van kinderen commercieel exploiteren, moeten worden aangepakt. Consumentenbeschermingswetgeving, zoals de UCPD, wordt geïnterpreteerd in het licht van digitale praktijken, zoals influencers en reclame. De Digital Services Act (DSA) verbiedt profilering-gebaseerde advertenties die gebruikmaken van de gegevens van minderjarigen.
> **Example:** Reclame gericht op kinderen mag niet direct oproepen tot aankoop, en het moet duidelijk zijn voor de kijker wanneer commerciële content wordt gedeeld, bijvoorbeeld door betaling of gratis producten.
#### 4.2.4 Manipulatie en emotieherkenning
AI-technologieën kunnen manipulatietechnieken gebruiken om het gedrag van personen, inclusief kinderen, te beïnvloeden en hun autonomie en vrije keuze te ondermijnen. De EU Artificial Intelligence Act (AI Act) verbiedt specifiek AI-systemen die kwetsbaarheden van kinderen exploiteren om hun gedrag te vervormen op een manier die aanzienlijke schade veroorzaakt. Er zijn ook serieuze zorgen over de betrouwbaarheid en potentiële discriminatoire effecten van AI-systemen die emoties van personen proberen te identificeren of af te leiden op basis van biometrische gegevens. De AI Act verbiedt emotieherkenning in onderwijsinstellingen.
> **Tip:** De ontwikkeling van AI-systemen die gericht zijn op kinderen vereist bijzondere aandacht voor potentiële manipulatieve technieken en de ethische implicaties van emotieherkenning.
### 4.3 Specifieke EU-regelgeving voor bescherming van minderjarigen
De EU Digital Services Act (DSA) bevat specifieke bepalingen voor de online bescherming van minderjarigen. Online platformaanbieders moeten passende maatregelen nemen om een hoog niveau van privacy, veiligheid en beveiliging voor minderjarigen op hun dienst te waarborgen. Het presenteren van advertenties op basis van profilering van persoonsgegevens van minderjarigen is verboden.
De Europese Commissie heeft richtlijnen gepubliceerd om platformaanbieders te helpen bij de toepassing van deze bepalingen. Deze richtlijnen moedigen maatregelen aan zoals:
* Het instellen van accounts van minderjarigen op standaard privé.
* Het aanpassen van aanbevelingssystemen om de blootstelling aan schadelijke inhoud te verminderen.
* Het verlenen van de mogelijkheid aan kinderen om gebruikers te blokkeren of te dempen.
* Het verbieden van het downloaden of maken van screenshots van inhoud die door minderjarigen is geplaatst.
* Het uitschakelen van functies die excessief gebruik bevorderen.
* Het beschermen van kinderen tegen commerciële praktijken die manipulatief zijn.
* Het verbeteren van moderatie- en rapportagetools en ouderlijk toezicht.
Deze maatregelen zijn bedoeld om platforms veiliger te maken voor kinderen en een belangrijke stap te vertegenwoordigen in de bescherming van kinderrechten in de digitale omgeving.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Mensenrechten | Fundamentele rechten die inherent zijn aan alle menselijke wezens, ongeacht hun nationaliteit, verblijfplaats, geslacht, nationale of etnische oorsprong, kleur, religie, taal of enige andere status. |
| Vrijheid van meningsuiting | Het recht om ideeën en meningen te uiten zonder inmenging, beperkingen of angst voor represailles. Dit omvat ook de vrijheid om informatie te zoeken, te ontvangen en te verspreiden via alle media en onafhankelijk van grenzen. |
| Digitale discriminatie | Ongelijke behandeling van personen of groepen op basis van hun kenmerken, zoals ras, geslacht of etniciteit, veroorzaakt door of verergerd door het gebruik van digitale technologieën, zoals algoritmen en kunstmatige intelligentie. |
| Online tussenpersonen | Entiteiten die gebruikersinformatie hosten, zoals sociale mediaplatforms, nieuwswebsites en online marktplaatsen, en die een rol spelen bij het faciliteren van online communicatie en contentdeling. |
| Aansprakelijkheid | De wettelijke verplichting om verantwoordelijk te worden gehouden voor schade of onrechtmatige daden, in de context van online tussenpersonen, kan dit betrekking hebben op inhoud die door gebruikers is geplaatst. |
| Desinformatie | Onjuiste of misleidende informatie die opzettelijk wordt verspreid om schade te berokkenen of economisch of politiek gewin te behalen. |
| Filterbubbel | Een staat van intellectuele isolatie die ontstaat wanneer een website of sociale-mediaplatform alleen informatie weergeeft die overeenkomt met de eerdere interesses of overtuigingen van de gebruiker. |
| Censuur | De onderdrukking of beperking van publicaties, toespraken of andere vormen van expressie die als ongepast, bedreigend, gevoelig of politiek ongewenst worden beschouwd. |
| Algoritme | Een set van regels of instructies die een computer volgt om een probleem op te lossen of een taak uit te voeren. In de context van digitale technologieën bepalen algoritmen hoe informatie wordt verwerkt, aanbevolen of gepresenteerd. |
| Kunstmatige Intelligentie (AI) | Het vermogen van een computersysteem om taken uit te voeren die normaal gesproken menselijke intelligentie vereisen, zoals leren, probleemoplossing, patroonherkenning en besluitvorming. |
| Black box-model | Een systeem waarvan de interne werking zo complex is dat het moeilijk of onmogelijk is om te begrijpen hoe een bepaald resultaat tot stand is gekomen, zelfs voor de ontwikkelaars. |
| Kinderrechten | De rechten die specifiek zijn toegekend aan kinderen, gebaseerd op de principes van het VN-Verdrag inzake de Rechten van het Kind, die hun welzijn, bescherming en participatie garanderen. |
| Commerciële exploitatie | Het misbruik maken van de kwetsbaarheid van kinderen voor commerciële doeleinden, zoals gerichte reclame, het verzamelen van gegevens voor profielen of het promoten van producten en diensten. |
| Manipulatie | Het beïnvloeden van iemands gedrag, gedachten of emoties op een misleidende of oneerlijke manier, vaak om een persoonlijk voordeel te behalen. |
| Emotion recognition | AI-systemen die ontworpen zijn om menselijke emoties te detecteren en te interpreteren op basis van biometrische gegevens zoals gezichtsuitdrukkingen, stemintonatie of lichaamstaal. |
| EU Digital Services Act (DSA) | Een Europese verordening die regels vaststelt voor online platforms om illegale inhoud aan te pakken, transparantie te bevorderen en gebruikersrechten te beschermen, met specifieke verplichtingen voor zeer grote online platforms. |
| EU Artificial Intelligence Act (AI Act) | Een voorgestelde Europese verordening die een risicogebaseerde aanpak hanteert voor AI-systemen, met verboden, verplichtingen en eisen voor verschillende risiconiveaus om de veiligheid en fundamentele rechten te waarborgen. |