Cover
Jetzt kostenlos starten 9. L&T_2025-26_Digital Services.pptx
Summary
# De Regulering van Elektronische Handel en Digitale Diensten
Dit onderwerp behandelt de uitdagingen en regelgevende initiatieven rond e-commerce en digitale diensten, met een focus op de juridische aspecten van de digitale economie.
## 1. Problematieken rond elektronische handel en digitale diensten
De digitale economie kent diverse uitdagingen die om specifieke regulering vragen:
* **Grensoverschrijdendheid:** Digitale diensten opereren vaak over nationale grenzen heen. Verschillende nationale regels kunnen leiden tot complexiteit en belemmeringen voor bedrijven die in meerdere lidstaten actief zijn. Een geharmoniseerde aanpak op EU-niveau is daarom wenselijk.
* **Platformisering:** Grote digitale platforms (zoals marktplaatsen, app stores, zoekmachines) hebben aanzienlijke marktmacht verkregen. Dit leidt tot "gatekeeper"-posities, waarbij deze bedrijven controleren hoe andere bedrijven toegang krijgen tot consumenten. Dit kan concurrentie belemmeren en kleinere spelers benadelen.
* **Bedrijfsmodellen en convergentie:** Veel grote techbedrijven bieden een breed scala aan diensten aan (bijvoorbeeld een webshop, streamingdiensten, cloudopslag). De convergentie van diensten bemoeilijkt een specifieke regulering per dienstcategorie.
* **Macht van grote technologiebedrijven:** De dominante positie van grote technologieconcerns leidt tot zorgen over oneerlijke concurrentie, datagebruik en de impact op fundamentele rechten.
* **Illegale content en activiteiten:** De online omgeving kan worden gebruikt voor de verspreiding van illegale content en de ontplooiing van illegale activiteiten.
* **Andere praktijken die rechten en waarden kunnen schenden:** Naast illegale content kunnen ook andere online praktijken in strijd zijn met fundamentele rechten, vrijheden en maatschappelijke waarden.
## 2. De Digital Markets Act (DMA)
De Digital Markets Act (Verordening (EU) 2022/1925) is gericht op het waarborgen van eerlijke en open digitale markten door specifieke verplichtingen op te leggen aan grote online platformen die als "poortwachter" (gatekeeper) worden aangemerkt.
### 2.1 Poortwachters (Gatekeepers)
Ondernemingen worden aangemerkt als poortwachter indien zij voldoen aan de volgende criteria:
* **Financiële omvang:** Een jaarlijkse omzet van ten minste €7,5 miljard binnen de EU in de afgelopen drie jaar, of een beurswaardering van ten minste €75 miljard.
* **Gebruikersbasis:** Minimaal 45 miljoen maandelijkse eindgebruikers en 10.000 zakelijke gebruikers gevestigd in de EU.
* **Kernplatformdiensten:** Controle over één of meer kernplatformdiensten in ten minste drie lidstaten. Kernplatformdiensten omvatten onder meer:
* Online marktplaatsen en app stores
* Zoekmachines
* Sociale netwerkdiensten
* Cloudcomputingdiensten
* Online advertentiediensten
* Spraakassistenten
* Webbrowsers
### 2.2 Verplichtingen voor poortwachters
De DMA stelt zowel positieve als negatieve verplichtingen aan poortwachters:
#### 2.2.1 Toegestane activiteiten (DO allow)
* **Gegevensinzicht voor zakelijke gebruikers:** Zakelijke gebruikers krijgen toegang tot de gegevens die zij genereren bij het gebruik van het platform van de poortwachter.
* **Onafhankelijke advertentieverificatie:** Bedrijven die adverteren op het platform krijgen de tools en informatie die nodig zijn voor onafhankelijke verificatie van hun advertenties.
* **Externe bedrijfsvoering:** Zakelijke gebruikers mogen hun aanbod promoten en contracten sluiten met hun klanten buiten het platform van de poortwachter.
* **App store flexibiliteit (Apple voorbeeld):** App-ontwikkelaars moeten gebruikers kunnen informeren over alternatieve aanbiedingen buiten de app store, gebruikers daarheen kunnen leiden en aankopen buiten de app store mogelijk maken.
#### 2.2.2 Verboden activiteiten (DON'T treat)
* **Zelfpromotie:** Poortwachters mogen diensten en producten die zij zelf aanbieden niet gunstiger behandelen in de ranking dan vergelijkbare diensten of producten van derden op hun platform.
* **Consumentenafscherming:** Poortwachters mogen consumenten er niet van weerhouden contact te leggen met bedrijven buiten hun platforms.
* **App-verwijdering beperkingen (Apple voorbeeld):** Poortwachters mogen gebruikers niet verhinderen vooraf geïnstalleerde software of apps te verwijderen.
* **Gerichte advertenties zonder toestemming:** Het volgen van eindgebruikers buiten de kernplatformdienst van de poortwachter voor gerichte advertenties is verboden zonder expliciete toestemming.
* **Gegevenscombinatie zonder keuze (Meta voorbeeld):** Poortwachters moeten gebruikers een keuze geven om hun persoonlijke gegevens tussen diensten te combineren. Gebruikers die geen toestemming geven, moeten toegang krijgen tot een minder gepersonaliseerde, maar gelijkwaardige alternatieve dienst.
### 2.3 Niet-naleving en sancties
* **Boetes:** Boetes kunnen oplopen tot 10 procent van de totale wereldwijde jaaromzet, verdubbeld bij herhaaldelijke overtredingen.
* **Marktonderzoek en remedies:** Bij herhaaldelijke overtredingen kan de Europese Commissie een marktonderzoek instellen en, indien nodig, gedragsmatige of structurele remedies opleggen.
## 3. De Digital Services Act (DSA)
De Digital Services Act (Verordening (EU) 2022/2065) creëert een geharmoniseerd regelgevend kader voor digitale diensten om een veilige, voorspelbare en betrouwbare online omgeving te waarborgen, illegale content te bestrijden en fundamentele rechten te beschermen.
### 3.1 Doelstellingen en reikwijdte
* **Harmonisatie:** Uniforme regels voor alle tussenpersonen in de interne markt.
* **Veilige online omgeving:** Aanpakken van illegale content, desinformatie en maatschappelijke risico's.
* **Fundamentele rechten:** Effectieve bescherming van fundamentele rechten.
* **Innovatie:** Faciliteren van innovatie.
* **Materiële reikwijdte:** De DSA is van toepassing op aanbieders van bepaalde informatie-maatschappij diensten. Een informatie-maatschappij dienst is elke dienst die normaal gesproken tegen vergoeding, op afstand, langs elektronische weg en op individueel verzoek van de afnemer van de dienst wordt verleend.
* **Territoriale reikwijdte:** De verordening is van toepassing op tussenpersonen die diensten verlenen aan ontvangers die hun vestigingsplaats of woonplaats in de EU hebben, ongeacht de vestigingsplaats van de aanbieders. Dit is een brede reikwijdte, vergelijkbaar met de AVG.
### 3.2 Verplichtingen afhankelijk van het type dienst
De DSA kent verschillende verplichtingen, afhankelijk van het type tussenpersoon:
* **Netwerkinfrastructuurdiensten:** Voldoen aan een minimum aan verplichtingen.
* **Hostingdiensten:** Voldoen aan meer verplichtingen.
* **Online platformen:** Voldoen aan de meest ingrijpende verplichtingen, aangezien zij gebruikers toestaan informatie te uploaden en gebruikers met elkaar verbinden.
* **Zeer grote online platformen (VLOPs) en zeer grote online zoekmachines (VLOSEs):** Deze hebben de meest stringente verplichtingen, gebaseerd op hun grote gebruikersaantal (gemiddeld 45 miljoen maandelijkse actieve ontvangers in de EU).
#### 3.2.1 Zeer grote online platformen (VLOPs) en zeer grote online zoekmachines (VLOSEs)
Voorbeelden van VLOPs zijn onder andere AliExpress, Amazon Store, Facebook, Google Play, Instagram, TikTok, X (voorheen Twitter) en YouTube. Voorbeelden van VLOSEs zijn Bing en Google Search.
### 3.3 Due diligence verplichtingen
De DSA legt een reeks gedragsverplichtingen op aan aanbieders van tussenpersonen:
* **Inhoudsmoderatie:**
* **Algemene voorwaarden:** Aanbieders moeten duidelijke en begrijpelijke informatie verstrekken over de beperkingen die zij opleggen aan door gebruikers verstrekte informatie, inclusief de gebruikte procedures voor inhoudsmoderatie.
* **Diligente, objectieve en proportionele toepassing:** Beperkingen moeten op een zorgvuldige, objectieve en proportionele manier worden toegepast, met respect voor fundamentele rechten.
* **Melding-en-actiemechanismen (Notice-and-action mechanisms):**
* **Toegankelijke meldingsprocedures:** Gebruikers moeten illegale content eenvoudig kunnen melden.
* **Respons en motivatie:** Aanbieders moeten gebruikers informeren over hun beslissing met betrekking tot de melding en een duidelijke verklaring van de redenen (statement of reasons) verstrekken, met informatie over beroepsmogelijkheden.
* **Geloofwaardige melders (Trusted flaggers):** Meldingen van aangewezen "trusted flaggers" met specifieke expertise krijgen voorrang en worden sneller behandeld.
* **Transparantierapporten:** Aanbieders moeten jaarlijks in een machine-leesbaar formaat publiekelijk toegankelijke rapporten publiceren over hun inhoudsmoderatieactiviteiten, inclusief het aantal meldingen, genomen acties en de tijdsduur hiervan.
* **Bescherming van minderjarigen:**
* **Veiligheid en privacy:** Online platformen die toegankelijk zijn voor minderjarigen moeten passende maatregelen nemen om hun privacy, veiligheid en beveiliging te waarborgen.
* **Advertenties op basis van profilering:** Advertenties die gebaseerd zijn op profilering met persoonsgegevens van minderjarigen zijn verboden.
* **Risicoanalyse en leeftijdverificatie:** Bij bepaalde risico's voor minderjarigen op een platform moeten platforms een risicoanalyse uitvoeren en eventueel leeftijdsverificatiemechanismen implementeren. Zelfverklaring van leeftijd is niet langer voldoende voor risicovolle diensten.
* **AI-chatbots en deepfakes:** De interactie van minderjarigen met AI-functies, zoals chatbots, moet veilig zijn en mag niet automatisch geactiveerd worden. Deze functies mogen niet worden gebruikt om minderjarigen te beïnvloeden richting commerciële content.
* **Aanbevelingssystemen (Recommender systems):**
* **Transparantie:** Aanbieders moeten in hun algemene voorwaarden uitleggen welke parameters hun aanbevelingssystemen gebruiken en opties bieden voor gebruikers om deze parameters aan te passen.
* **Optie zonder profilering:** VLOPs en VLOSEs moeten ten minste één optie bieden voor hun aanbevelingssystemen die niet is gebaseerd op profilering (bv. een chronologische feed).
* **Risicobeoordeling en -mitigatie (voor VLOPs/VLOSEs):**
* **Systeemrisico's:** VLOPs en VLOSEs moeten systematische risico's die voortvloeien uit het ontwerp, de werking en het gebruik van hun diensten beoordelen en aanpakken. Dit omvat risico's zoals de verspreiding van illegale content, negatieve effecten op fundamentele rechten, de beïnvloeding van publiek debat en verkiezingsprocessen, gendergerelateerd geweld, volksgezondheid, en de fysieke en mentale welzijn van personen.
* **Mitigatiemaatregelen:** De geïdentificeerde risico's moeten worden beperkt door middel van passende maatregelen, zoals aanpassing van de diensten, algemene voorwaarden, inhoudsmoderatie, algoritmische systemen, en samenwerking met bevoegde autoriteiten en vertrouwde melders.
* **AI-gegenereerde content:** AI-gegenereerde of gemanipuleerde beelden, audio of video die waarheidsgetrouw lijken, moeten duidelijk gemarkeerd worden en gebruikers moeten de mogelijkheid krijgen dit aan te geven.
### 3.4 Samenwerking en handhaving
* **Europese Commissie:** De Commissie speelt een centrale rol in de handhaving van de DSA, met name voor VLOPs en VLOSEs.
* **Coördinatoren van digitale diensten:** Lidstaten hebben nationale coördinatoren die toezicht houden op de naleving.
* **Complex regelgevend landschap:** De interactie tussen de DSA en andere EU-wetgeving creëert een complex, maar over het algemeen wederzijds versterkend, regelgevend kader.
> **Tip:** De DMA en DSA zijn twee cruciale verordeningen die de digitale economie in de EU vormgeven. De DMA richt zich op marktconcentratie en eerlijke concurrentie tussen grote spelers, terwijl de DSA focust op de veiligheid en transparantie van online diensten voor gebruikers en de bestrijding van illegale content.
> **Voorbeeld:** Een VLOP zoals TikTok moet niet alleen transparant zijn over zijn aanbevelingsalgoritmes (DSA), maar ook voorkomen dat het zichzelf bevoordeelt ten opzichte van adverteerders op zijn platform (DMA).
---
# De Digital Markets Act (DMA)
De Digital Markets Act (DMA) is een Europese verordening die tot doel heeft eerlijke en open digitale markten te waarborgen door de macht van grote technologiebedrijven, aangeduid als 'gatekeepers', te reguleren.
### 2.1 Doelstellingen en Scope van de DMA
De DMA beoogt de marktdominantie van een klein aantal grote ondernemingen die kerndiensten op digitale markten aanbieden, te beperken. Deze ondernemingen, "gatekeepers" genoemd, hebben aanzienlijke economische macht en kunnen hun voordelen, zoals toegang tot grote hoeveelheden data, benutten om markten te controleren. De regulering is bedoeld om deze structureel moeilijk te beconcurreren markten open en eerlijk te maken, zelfs voor innovatieve concurrenten. De DMA is een verordening, wat betekent dat deze direct bindend is in alle lidstaten van de Europese Unie zonder dat nationale implementatie nodig is.
> **Tip:** De DMA is bedoeld om de machtsbalans in het digitale ecosysteem te herstellen ten gunste van kleinere spelers en consumenten, door te voorkomen dat grote platforms hun dominante positie misbruiken.
### 2.2 Definitie van een Gatekeeper
Een onderneming wordt aangemerkt als een gatekeeper indien zij aan de volgende criteria voldoet:
* **Financiële drempels:** Een jaaromzet van ten minste zeven miljard vijf honderd miljoen euro binnen de Europese Unie in de afgelopen drie jaar, of een marktwaardering van ten minste zeven en vijftig miljard euro.
* **Gebruikersbereik:** Ten minste vierenveertig miljoen maandelijkse eindgebruikers en ten minste tien duizend zakelijke gebruikers gevestigd in de Europese Unie.
* **Kerndiensten:** Controle over één of meer kerndiensten op het gebied van digitale markten. Dit omvat onder meer:
* Online marktplaatsen en app stores
* Zoekmachines
* Sociale netwerken
* Cloud computing diensten
* Online reclamediensten
* Spraakassistenten
* Webbrowsers
### 2.3 Verplichtingen en Verboden voor Gatekeepers
De DMA legt specifieke verplichtingen op aan gatekeepers en verbiedt bepaalde praktijken om concurrentie en eerlijkheid te bevorderen.
#### 2.3.1 Verplichtingen (DO ALLOW)
Gatekeepers moeten:
* **Gegevenstoegang voor zakelijke gebruikers:** Zakelijke gebruikers toestaan om toegang te krijgen tot de gegevens die zij genereren bij het gebruik van het platform van de gatekeeper.
* **Ondersteuning voor adverteerders:** Bedrijven die adverteren op het platform de tools en informatie verstrekken die nodig zijn voor onafhankelijke verificatie van hun advertenties.
* **Externe handel faciliteren:** Zakelijke gebruikers in staat stellen hun aanbod te promoten en contracten te sluiten met hun klanten buiten het platform van de gatekeeper.
> **Voorbeeld:** Een app-ontwikkelaar die via de App Store van een gatekeeper zijn apps distribueert, moet in staat zijn om klanten te informeren over alternatieve aanbiedingen buiten de App Store en hen naar die aanbiedingen te leiden.
#### 2.3.2 Verboden (DON'T)
Gatekeepers mogen niet:
* **Zelfvoorkeur:** Eigen diensten en producten beter bevoordelen in de ranking dan vergelijkbare diensten of producten van derden op hun platform.
* **Klantafscherming:** Consumenten beletten om contact te leggen met bedrijven buiten hun platform.
* **Vooraf geïnstalleerde software:** Gebruikers beletten vooraf geïnstalleerde software of apps te verwijderen indien zij dit wensen.
* **Gerichte advertenties buiten het platform:** Eindgebruikers volgen buiten de kerndiensten van de gatekeeper voor gerichte advertenties, tenzij hiervoor expliciete toestemming is verkregen.
> **Voorbeeld:** Meta (voorheen Facebook) kreeg kritiek op een model waarbij gebruikers moesten kiezen tussen het toestaan van gegevenscombinatie voor gepersonaliseerde advertenties of het betalen voor een advertentievrije service. Volgens de DMA moeten gebruikers die geen toestemming geven, toegang hebben tot een minder gepersonaliseerd, maar wel gelijkwaardig alternatief.
### 2.4 Handhaving en Sancties
Niet-naleving van de DMA kan leiden tot aanzienlijke boetes.
* **Boetes:** Boetes kunnen oplopen tot tien procent van de totale wereldwijde omzet van de gatekeeper. Bij herhaaldelijke overtredingen kan dit percentage verdubbelen.
* **Marktonderzoeken en remedies:** Indien een gatekeeper de regels minimaal drie keer binnen acht jaar schendt, kan de Europese Commissie een marktonderzoek starten en, indien nodig, gedragsmatige of structurele remedies opleggen. Dit kan variëren van het aanpassen van bedrijfsprocessen tot het afsplitsen van onderdelen van het bedrijf.
> **Tip:** De handhaving van de DMA is in handen van de Europese Commissie, wat zorgt voor een uniforme toepassing binnen de gehele EU.
### 2.5 Impact op Specifieke Bedrijven
De DMA heeft direct invloed op grote technologiebedrijven zoals Apple en Meta:
* **Apple:** Moet app-ontwikkelaars toestaan klanten te informeren over en te leiden naar alternatieve distributiekanalen buiten de App Store en aankopen buiten de App Store toe te staan.
* **Meta:** Moet ervoor zorgen dat gebruikers die geen toestemming geven voor gegevenscombinatie voor gepersonaliseerde advertenties, toegang krijgen tot een gelijkwaardig alternatief zonder gepersonaliseerde advertenties.
De DMA is ontworpen om het ecosysteem te democratiseren, waardoor kleinere bedrijven en consumenten meer keuze en eerlijkere voorwaarden krijgen in de digitale economie.
---
# De Digital Services Act (DSA)
Hier is een gedetailleerde studiehandleiding over de Digital Services Act (DSA).
## 3. De Digital Services Act (DSA)
De Digital Services Act (DSA) heeft tot doel een veilige, voorspelbare en vertrouwde online omgeving te creëren door illegale inhoud aan te pakken, fundamentele rechten te beschermen en gelijke speelvelden te bevorderen, met specifieke aandacht voor de verplichtingen van verschillende soorten online tussenpersonen, met name zeer grote online platforms (VLOPs) en zeer grote online zoekmachines (VLOSEs).
### 3.1 Doelstellingen en reikwijdte van de DSA
De DSA (Verordening (EU) 2022/2065) harmoniseert de regels voor intermediaire diensten binnen de interne markt om een veiligere, voorspelbaardere en vertrouwde online omgeving te waarborgen. Belangrijke doelstellingen zijn:
* Het aanpakken van de verspreiding van illegale inhoud online.
* Het beheersen van maatschappelijke risico's die voortvloeien uit de verspreiding van desinformatie en andere inhoud.
* Het effectief beschermen van de in het Handvest van de grondrechten van de Europese Unie verankerde grondrechten.
* Het stimuleren van innovatie.
De verordening is van toepassing op intermediaire diensten die worden aangeboden aan ontvangers van de dienst die gevestigd zijn of verblijven in de Unie, ongeacht de vestigingsplaats van de aanbieders van deze diensten. Dit zorgt voor een brede territoriale reikwijdte, vergelijkbaar met de AVG.
#### 3.1.1 Materieel toepassingsgebied
Het materiële toepassingsgebied omvat aanbieders van bepaalde informatiemaatschappijdiensten. Een informatiemaatschappijdienst is elke dienst die normaal gesproken tegen vergoeding, op afstand, langs elektronische weg en op individueel verzoek van een dienstontvanger wordt verleend. De verplichtingen onder de DSA verschillen naargelang het type dienst dat wordt aangeboden.
* **Netwerkinfrastructuurdiensten:** Moeten voldoen aan een minimum aan verplichtingen.
* **Hostingdiensten:** Moeten voldoen aan iets meer verplichtingen. Dit omvat diensten zoals cloud computing, webhosting en diensten die het delen van informatie en inhoud online mogelijk maken.
* **Online platforms:** Moeten voldoen aan meer verplichtingen. Dit zijn hostingdiensten die, op verzoek van een dienstontvanger, informatie opslaan en openbaar maken, tenzij deze activiteit een bijkomstige functie is van een andere dienst. Online platforms verbinden gebruikers met elkaar.
* **Zeer Grote Online Platforms (VLOPs) en Zeer Grote Online Zoekmachines (VLOSEs):** Moeten voldoen aan de meest stringente verplichtingen. Deze categorie omvat online platforms en zoekmachines met gemiddeld 45 miljoen of meer maandelijkse actieve ontvangers van de dienst in de Unie.
VLOPs en VLOSEs worden aangewezen door de Commissie en hebben een belangrijke rol bij het vormgeven van het publieke debat, economische transacties en de informatievoorziening online. Voorbeelden van VLOPs zijn AliExpress, Amazon Store, Facebook, Google Play, Instagram, TikTok en YouTube. Voorbeelden van VLOSEs zijn Bing en Google Search.
#### 3.1.2 De Digital Markets Act (DMA) in context
De Digital Markets Act (DMA) is een aanvullende verordening die zich specifiek richt op 'gatekeepers' – grote digitale ondernemingen met aanzienlijke economische macht. De DMA legt specifieke verplichtingen op aan deze gatekeepers om eerlijkere en beter te betwisten digitale markten te waarborgen. Hoewel de DMA zich richt op marktgedrag en concurrentie, vullen de doelstellingen van de DSA op het gebied van veiligheid en grondrechten de DMA aan.
> **Tip:** Begrijp het onderscheid tussen de DSA, die zich richt op inhoud en risico's, en de DMA, die zich richt op marktstructuren en concurrentie. Beide verordeningen zijn cruciaal voor de regulering van digitale diensten in de EU.
### 3.2 Due diligence verplichtingen
De DSA legt een reeks gedifferentieerde due diligence verplichtingen op aan aanbieders van intermediaire diensten om een veiligere online omgeving te garanderen, fundamentele rechten te beschermen en transparantie te vergroten. Deze verplichtingen zijn gericht op vier hoofdpijlers: content moderatie, bescherming van minderjarigen, aanbevelingssystemen en risicobeoordeling en -mitigatie door VLOPs/VLOSEs.
#### 3.2.1 Content moderatie
Content moderatie onder de DSA omvat zowel de transparantie over de voorwaarden als de mechanismen voor het omgaan met illegale inhoud.
##### 3.2.1.1 Algemene voorwaarden en transparantie
* **Artikel 14:** Aanbieders van intermediaire diensten moeten in hun algemene voorwaarden informatie opnemen over de beperkingen die zij opleggen aan door gebruikers verstrekte informatie. Dit omvat:
* Beleid, procedures, maatregelen en instrumenten voor content moderatie, inclusief algoritmische besluitvorming en menselijke beoordeling.
* De procedurele regels van hun interne klachtenafhandelingssysteem.
* Deze informatie moet duidelijk, eenvoudig, begrijpelijk en ondubbelzinnig worden geformuleerd en openbaar beschikbaar zijn in een gemakkelijk toegankelijk en machinaal leesbaar formaat.
* Indien de dienst voornamelijk op minderjarigen is gericht, moeten de voorwaarden op een voor hen begrijpelijke manier worden uitgelegd.
* Voor VLOPs en VLOSEs geldt een extra verplichting om een beknopte, toegankelijke en machinaal leesbare samenvatting van de algemene voorwaarden te verstrekken, inclusief de beschikbare rechtsmiddelen en verhaalmechanismen, in de officiële talen van alle lidstaten waarin zij hun diensten aanbieden.
* **Diligente, objectieve en proportionele toepassing:** Aanbieders moeten de opgelegde beperkingen op een zorgvuldige, objectieve en evenredige manier toepassen en handhaven, met inachtneming van de grondrechten van de dienstontvangers, zoals de vrijheid van meningsuiting en mediavrijheid.
##### 3.2.1.2 Kennisgeving- en actiemechanismen (Notice-and-action)
* **Doel:** Het creëren van geharmoniseerde, transparante en duidelijke regels voor het melden en afhandelen van illegale inhoud, met waarborgen voor alle betrokken partijen.
* **Artikel 16:** Hostingdienstaanbieders moeten gemakkelijk toegankelijke en gebruiksvriendelijke mechanismen bieden waarmee individuen of entiteiten specifieke informatie die zij als illegale inhoud beschouwen, kunnen melden.
* **Vereisten voor meldingen:** Meldingen moeten voldoende nauwkeurig en onderbouwd zijn (waarom, waar, wie).
* **Verplichtingen van de aanbieder:**
* Bevestiging van ontvangst van de melding zonder ongerechtvaardigde vertraging.
* Informeren van de melder over de beslissing met betrekking tot de gemelde informatie, inclusief de mogelijkheden voor verhaal.
* Meldingen tijdig, zorgvuldig, niet-willekeurig en objectief verwerken en beslissingen nemen.
##### 3.2.1.3 Verklaring van redenen
* **Artikel 17:** Bij het opleggen van bepaalde beperkingen vanwege illegale inhoud of onverenigbaarheid met algemene voorwaarden, moet een duidelijke en specifieke verklaring van redenen worden verstrekt aan de getroffen dienstontvangers. Dit geldt voor:
* Beperkingen van de zichtbaarheid van informatie (bijv. verwijderen, ontoegankelijk maken, demoten).
* Opschorting, beëindiging of andere beperking van betalingen.
* Opschorting of beëindiging van de dienstverlening.
* Opschorting of beëindiging van het account van de dienstontvanger.
* **Inhoud van de verklaring:** De verklaring moet informatie bevatten over het type beperking, de feiten en omstandigheden, het gebruik van geautomatiseerde middelen, de juridische of contractuele grondslag, en de mogelijkheden voor verhaal.
##### 3.2.1.4 Vertrouwde melders (Trusted flaggers)
* **Artikel 22:** Meldingen die worden ingediend door vertrouwde melders krijgen prioriteit en moeten zonder ongerechtvaardigde vertraging worden verwerkt.
* **Status van vertrouwde melder:** Toegekend door de Digitale Diensten Coördinator van de lidstaat waarin de aanvrager is gevestigd.
* **Criteria:** De aanvrager moet specifieke expertise en competentie hebben voor het detecteren, identificeren en melden van illegale inhoud, onafhankelijk zijn van online platforms en zijn activiteiten zorgvuldig, nauwkeurig en objectief uitvoeren.
##### 3.2.1.5 Transparantierapporten
* **Artikel 15(1):** Aanbieders van intermediaire diensten moeten jaarlijks, in een machinaal leesbaar en gemakkelijk toegankelijk formaat, duidelijke en begrijpelijke rapporten publiceren over hun content moderatie-activiteiten.
* **Inhoud:** Rapporten kunnen onder andere informatie bevatten over het aantal meldingen, de genomen acties, de gemiddelde tijd voor het nemen van beslissingen, het gebruik van geautomatiseerde tools, training van personeel, en het aantal verzoeken van autoriteiten.
* **Database van de Commissie:** De Commissie onderhoudt een database met beslissingen en verklaringen van redenen van online platforms bij het verwijderen of beperken van toegang tot informatie, wat transparantie en controle mogelijk maakt.
#### 3.2.2 Bescherming van minderjarigen
De DSA bevat specifieke bepalingen ter bescherming van minderjarigen in de online omgeving.
* **Artikel 28:** Aanbieders van online platforms die toegankelijk zijn voor minderjarigen moeten passende en evenredige maatregelen nemen om een hoog niveau van privacy, veiligheid en beveiliging van minderjarigen te waarborgen.
* **Verboden reclame:** Het is niet toegestaan om advertenties aan te bieden op basis van profilering met gebruik van persoonsgegevens van een minderjarige, wanneer de aanbieder met redelijke zekerheid weet dat de ontvanger een minderjarige is.
* **Verdere maatregelen (kan worden verduidelijkt door richtsnoeren van de Commissie):**
* **Registratie:** Vermijden van het aanmoedigen van te jonge gebruikers om zich aan te melden, uitleggen van belangrijke veiligheidsfuncties.
* **Accountinstellingen:** Standaard uitschakelen van risicovolle functies (bv. geolocatie, autoplay), verminderen van excessief gebruik door functies zoals like-tellingen uit te schakelen.
* **Interface design:** Vermijden van oneindig scrollen, notificaties, autoplay; duidelijke waarschuwingen bij interactie met AI-functies.
* **Aanbevelingssystemen en zoekfuncties:** Alleen leeftijdsgeschikte inhoud tonen, beperkte gegevensverzameling, prioriteren van gebruikerskeuzes en feedback.
* **Commerciële praktijken:** Transparantie over kosten van in-app aankopen, vermijden van 'koop nu'-berichten, blokkeren van lootboxes.
* **Moderatie:** Trainen van moderatoren om bedreigingen voor kinderen te herkennen, illegale en schadelijke inhoud onmiddellijk verwijderen.
* **Rapportage:** Eenvoudige manieren bieden om te rapporteren, gebruikers toestaan inhoud te blokkeren of te dempen.
* **Tools voor ouders/voogden:** Respecteren van de privacy van kinderen en tieners.
##### 3.2.2.1 AI-chatbots en metgezellen
De toenemende integratie van AI-chatbots en -metgezellen kan bestaande risico's voor minderjarigen verergeren en nieuwe creëren. De DSA benadrukt dat:
* AI-functies niet automatisch mogen worden geactiveerd en minderjarigen niet mogen worden aangemoedigd deze te gebruiken.
* AI-systemen moeten aansluiten bij de ontwikkelingscapaciteiten van minderjarigen en veilig zijn ontworpen.
* AI-functies mogen pas op platforms voor minderjarigen worden aangeboden na een risicoanalyse.
* AI-chatbots mogen niet prominent worden weergegeven of worden gegroepeerd met contacten van de minderjarige.
* Gebruikers en hun voogden moeten opties hebben om AI-chatbots te weigeren, en mogen niet worden aangemoedigd deze te gebruiken.
* Deze functies mogen niet worden gebruikt om minderjarigen te beïnvloeden richting commerciële inhoud of aankopen.
#### 3.2.3 Aanbevelingssystemen
Aanbevelingssystemen, die bepalen welke informatie gebruikers te zien krijgen, zijn onderworpen aan transparantievereisten.
* **Artikel 27:** Aanbieders van online platforms die aanbevelingssystemen gebruiken, moeten in hun algemene voorwaarden in duidelijke taal de belangrijkste parameters van hun aanbevelingssystemen uitleggen, evenals de opties voor gebruikers om deze parameters te wijzigen.
* **Opties voor gebruikers:** Als er meerdere opties zijn, moet er een functionaliteit zijn waarmee de gebruiker zijn voorkeursoptie op elk moment kan selecteren en wijzigen.
* **Artikel 38 (voor VLOPs/VLOSEs):** VLOPs en VLOSEs die aanbevelingssystemen gebruiken, moeten ten minste één optie aanbieden die niet gebaseerd is op profilering (bijvoorbeeld een chronologische feed).
#### 3.2.4 Risicobeoordeling en -mitigatie door VLOPs/VLOSEs
VLOPs en VLOSEs worden geconfronteerd met de zwaarste verplichtingen vanwege hun omvang en potentieel maatschappelijk bereik.
##### 3.2.4.1 Beoordeling van systemische risico's
* **Artikel 34:** VLOPs en VLOSEs moeten de systemische risico's beoordelen die voortvloeien uit het ontwerp, de werking en het gebruik van hun diensten, evenals uit potentieel misbruik door gebruikers.
* **Systemische risico's omvatten:**
* De verspreiding van illegale inhoud.
* Negatieve effecten op de uitoefening van grondrechten (bv. menselijke waardigheid, privacy, vrijheid van meningsuiting, mediavrijheid, non-discriminatie, rechten van het kind, consumentenbescherming).
* Negatieve effecten op maatschappelijk debat, verkiezingsprocessen en openbare veiligheid.
* Negatieve effecten met betrekking tot gendergerelateerd geweld, volksgezondheid en minderjarigen, en ernstige negatieve gevolgen voor het fysieke en mentale welzijn.
* De beoordeling moet rekening houden met de ernst van de potentiële impact, de waarschijnlijkheid van risico's, het aantal betrokken personen, de potentiële onomkeerbaarheid en de moeilijkheid om de situatie te herstellen.
##### 3.2.4.2 Mitigatiemaatregelen
* **Artikel 35:** Op basis van de risicobeoordeling moeten VLOPs en VLOSEs passende maatregelen nemen om de geïdentificeerde risico's te mitigeren.
* **Voorbeelden van mitigatiemaatregelen:**
* Aanpassen van het ontwerp, de functies of de werking van hun diensten.
* Aanpassen van hun algemene voorwaarden en de handhaving daarvan.
* Verbeteren van content moderatieprocessen (snelheid, kwaliteit, efficiëntie).
* Testen en aanpassen van algoritmische systemen, inclusief aanbevelingssystemen.
* Aanpassen van advertentiesystemen en gerichte maatregelen om de presentatie van advertenties te beperken.
* Versterken van interne processen, middelen en toezicht.
* Samenwerken met vertrouwde melders en instellen van buitengerechtelijke geschillenbeslechtingsorganen.
* Samenwerken met andere online platforms en zoekmachines via gedragscodes en crisisprotocollen.
* Ondernemen van bewustmakingsmaatregelen en aanpassen van de online interface om gebruikers meer informatie te geven.
* Gerichte maatregelen ter bescherming van de rechten van het kind, inclusief leeftijdsverificatie en ouderlijk toezicht.
* Zorgen dat gegenereerde of gemanipuleerde beelden, audio of video (deepfakes) herkenbaar zijn door duidelijke markeringen en dat gebruikers deze gemakkelijk kunnen identificeren.
> **Tip:** VLOPs en VLOSEs moeten proactief risico's identificeren en aanpakken in plaats van alleen te reageren op meldingen. De naleving van deze artikelen vereist een substantiële investering in processen en middelen.
### 3.3 Handhaving, samenwerking en sancties
De handhaving van de DSA wordt verzekerd door nationale autoriteiten (Digitale Diensten Coördinatoren) en de Europese Commissie, met een systeem van samenwerking en aanzienlijke sancties bij niet-naleving.
* **Handhaving door nationale autoriteiten:** Lidstaten wijzen nationale autoriteiten (Digitale Diensten Coördinatoren) aan die toezicht houden op de naleving van de DSA door intermediaire dienstaanbieders die in hun lidstaat zijn gevestigd.
* **Samenwerking:** Er is een Europees Comité van Digitale Diensten ingesteld om de samenwerking tussen de nationale autoriteiten te vergemakkelijken en de coherente toepassing van de DSA te waarborgen. De Commissie speelt een centrale rol bij de aanwijzing van VLOPs/VLOSEs en het toezicht op hun verplichtingen.
* **Sancties:**
* Voor niet-VLOPs/VLOSEs: De handhaving is voornamelijk in handen van de nationale autoriteiten.
* Voor VLOPs/VLOSEs: De Europese Commissie is direct verantwoordelijk voor het toezicht en de handhaving. Bij niet-naleving kunnen boetes worden opgelegd tot maximaal 6% van de wereldwijde jaaromzet. Bij herhaaldelijke overtredingen kan de Commissie een marktonderzoek instellen en zo nodig gedrags- of structurele corrigerende maatregelen opleggen.
#### 3.3.1 Interactie met andere rechtsakten
De DSA is ontworpen om aan te vullen en te interageren met andere EU-wetgeving, zoals de DMA, de Algemene Verordening Gegevensbescherming (AVG) en andere sectorale wetgeving. De verordening streeft naar een wederzijds versterkende werking met andere juridische instrumenten. Dit creëert echter ook een complex juridisch landschap dat zorgvuldige navigatie vereist.
> **Tip:** De DSA is een onderdeel van een breder EU-initiatief om de digitale ruimte te reguleren. Houd rekening met de interactie met andere belangrijke wetgeving zoals de DMA en AVG bij het bestuderen van de DSA.
---
# Bescherming van Minderjarigen en Risicobeoordeling
Dit onderwerp verkent de specifieke bepalingen binnen de Digital Services Act (DSA) die gericht zijn op de bescherming van minderjarigen online, inclusief risicobeoordeling, leeftijdsverificatie, interface-ontwerp, aanbevelingssystemen en de aanpak van AI-chatbots, teneinde hun privacy, veiligheid en beveiliging te waarborgen.
### 4.1 De rol van de Digital Services Act (DSA) in de bescherming van minderjarigen
De Digital Services Act (DSA) streeft ernaar een veilige, voorspelbare en betrouwbare online omgeving te creëren door middel van geharmoniseerde regels voor internetdienstverleners. Een cruciaal aspect hiervan is de bescherming van fundamentele rechten, waaronder de rechten van kinderen. De DSA erkent dat digitale diensten zowel voordelen als risico's met zich meebrengen, en beoogt deze risico's aan te pakken, met speciale aandacht voor kwetsbare gebruikers zoals minderjarigen.
### 4.2 Due diligence-verplichtingen met betrekking tot de bescherming van minderjarigen
De DSA legt een reeks "due diligence"-verplichtingen op aan aanbieders van internetdiensten. Vier kernpunten van deze verplichtingen zijn: contentmoderatie, bescherming van minderjarigen, aanbevelingssystemen en risicobeoordeling door Very Large Online Platforms (VLOPs) en Very Large Online Search Engines (VLOSEs).
#### 4.2.1 Algemene beschermingsmaatregelen voor minderjarigen
Online platforms die toegankelijk zijn voor minderjarigen moeten passende en evenredige maatregelen nemen om een hoog niveau van privacy, veiligheid en beveiliging voor minderjarigen te waarborgen. Dit omvat specifiek het verbod op het aanbieden van advertenties op basis van profilering met behulp van persoonsgegevens van de dienstontvanger wanneer het redelijkerwijs zeker is dat deze ontvanger een minderjarige is.
> **Tip:** De Europese Commissie kan richtsnoeren opstellen om de interpretatie en toepassing van deze bepalingen te verduidelijken, aangezien artikel 28 van de DSA vrij vaag kan zijn in zijn formulering.
#### 4.2.2 Specifieke vereisten voor online platforms die toegankelijk zijn voor minderjarigen
Online platforms moeten specifieke maatregelen implementeren om de bescherming van minderjarigen te waarborgen. Deze maatregelen omvatten onder andere:
* **Registratie:** Vermijden van het aanmoedigen van gebruikers die te jong zijn om zich aan te melden, uitleggen van belangrijke veiligheidsfuncties.
* **Accountinstellingen:** Standaard uitschakelen van risicovolle functies zoals geolocatie en autoplay, verminderen van excessief gebruik door functies zoals "vind-ik-leuks" en reactietellers, "is aan het typen"-functies en leesbevestigingen uit te schakelen.
* **Interfaceontwerp:** Vermijden van oneindig scrollen, notificaties en autoplay. Duidelijke waarschuwingen bieden wanneer kinderen interageren met AI-functies.
* **Aanbevelingssystemen en zoekfuncties:** Alleen leeftijdsgeschikte content tonen, beperkte gegevensverzameling, prioriteren van gebruikerskeuzes en feedback, uitleggen waarom content wordt aanbevolen.
* **Commerciële praktijken:** Transparant zijn over de kosten en implicaties van in-app aankopen, virtuele valuta's, etc. Vermijden van afteltimers of "koop nu"-berichten. Blokkeren van lootboxes.
* **Moderatie:** Moderators trainen om bedreigingen voor kinderen te herkennen, illegale en schadelijke content onmiddellijk te verwijderen.
* **Rapportage:** Eenvoudige manieren bieden om te rapporteren, gebruikers toestaan content te blokkeren of te dempen.
* **Tools voor ouders en voogden:** De privacy van kinderen en tieners respecteren.
#### 4.2.3 Risicobeoordeling en leeftijdsverificatie
Platforms moeten beoordelen welke risico's er op hun platform aanwezig zijn voor kinderen. Op basis van deze risicobeoordeling moeten ze beslissen of het noodzakelijk is om mechanismen voor leeftijdsverificatie te implementeren voor diensten met een hoog risico.
> **Tip:** Het gebruik van zelfverklaring (gebruikers delen hun geboortedatum om een account aan te maken) zal naar verwachting niet langer geaccepteerd worden voor risicovolle diensten. De ontwikkeling van een app voor leeftijdsverificatie, die rekening houdt met privacy en gegevensbeschermingsprincipes, wordt belangrijk geacht voor de toekomst.
#### 4.2.4 Spotlight op AI-chatbots en -begeleiders
De toenemende integratie van AI-chatbots en -begeleiders, evenals AI-gegenereerde deepfakes, kan de interactie van minderjarigen met online platforms beïnvloeden, bestaande risico's verergeren en nieuwe risico's creëren die nadelig kunnen zijn voor de privacy, veiligheid en beveiliging van minderjarigen.
* AI-functies mogen niet automatisch worden geactiveerd en minderjarigen mogen niet worden aangemoedigd of verleid om ze te gebruiken. Deze systemen moeten in lijn zijn met hun ontwikkelingscapaciteiten en veilig zijn ontworpen.
* AI-functies mogen pas op online platforms toegankelijk voor minderjarigen worden gemaakt na een risicobeoordeling. Ze moeten gemakkelijk uit te schakelen zijn en het moet duidelijk zijn wanneer ze actief zijn.
* AI-chatbots mogen niet prominent worden weergegeven, geen deel uitmaken van voorgestelde contacten of worden gegroepeerd met gebruikers waarmee de minderjarige verbonden is.
* Minderjarigen en hun voogden moeten opties krijgen om zich af te melden voor het gebruik van AI-chatbots, zonder hiernaartoe te worden geduwd.
* AI-functies mogen niet worden gebruikt om minderjarigen te beïnvloeden of te sturen naar commerciële content of aankopen.
### 4.3 Aanbevelingssystemen en de bescherming van minderjarigen
Voor aanbieders van online platforms die aanbevelingssystemen gebruiken, gelden specifieke verplichtingen:
* De belangrijkste parameters die in hun aanbevelingssystemen worden gebruikt, en de opties voor dienstontvangers om deze parameters te wijzigen of te beïnvloeden, moeten in duidelijke en begrijpelijke taal worden uitgelegd in de algemene voorwaarden.
* Als er meerdere opties beschikbaar zijn, moet er een functionaliteit zijn waarmee de dienstontvanger te allen tijde zijn voorkeursoptie kan selecteren en wijzigen.
Voor VLOPs en VLOSEs die aanbevelingssystemen gebruiken, geldt een aanvullende verplichting:
* Zij moeten voor elk van hun aanbevelingssystemen ten minste één optie bieden die niet gebaseerd is op profilering, zoals een chronologische feed.
### 4.4 Risicobeoordeling en mitigatie door VLOPs en VLOSEs
Zeer grote online platforms (VLOPs) en zeer grote online zoekmachines (VLOSEs) hebben bredere verantwoordelijkheden vanwege hun omvang en invloed. Zij moeten:
* Systemische risico's die voortvloeien uit het ontwerp, de werking en het gebruik van hun diensten, evenals uit potentieel misbruik door dienstontvangers, beoordelen.
* Deze risico's mitigeren met passende maatregelen, met inachtneming van fundamentele rechten.
#### 4.4.1 Systemische risico's
Enkele voorbeelden van systemische risico's zijn:
* De verspreiding van illegale content.
* Negatieve effecten op fundamentele rechten, waaronder menselijke waardigheid, respect voor privé- en gezinsleven, bescherming van persoonsgegevens, vrijheid van meningsuiting en informatie, vrijheid en pluriformiteit van de media, non-discriminatie, rechten van het kind en een hoog niveau van consumentenbescherming.
* Negatieve effecten op maatschappelijk debat en verkiezingsprocessen, en openbare veiligheid.
* Negatieve effecten met betrekking tot gendergerelateerd geweld, bescherming van de volksgezondheid en minderjarigen, en ernstige negatieve gevolgen voor het fysieke en mentale welzijn van personen.
> **Tip:** Aanbevelingssystemen worden genoemd als een risicofactor die de verspreiding van schadelijke content kan versterken. Dit geldt met name voor content die algoritmisch aan jonge gebruikers wordt aanbevolen, wat door de cumulatieve effecten schadelijk kan worden.
#### 4.4.2 Mitigerende maatregelen
VLOPs en VLOSEs moeten een breed scala aan mitigerende maatregelen implementeren, waaronder:
* Aanpassing van het ontwerp, de functies of de werking van hun diensten.
* Aanpassing van hun algemene voorwaarden en de handhaving daarvan.
* Aanpassing van contentmoderatieprocessen, inclusief snelheid, kwaliteit en spoedige verwijdering van illegale content, met name in het geval van illegale haatzaaiende uitlatingen of cybergeweld.
* Testen en aanpassen van hun algoritmische systemen, inclusief aanbevelingssystemen.
* Aanpassing van hun advertentiesystemen en het nemen van gerichte maatregelen om de presentatie van advertenties te beperken of aan te passen.
* Versterking van interne processen, middelen, testen en documentatie, met name met betrekking tot de detectie van systemische risico's.
* Samenwerking met vertrouwde melders en implementatie van beslissingen van instanties voor buitengerechtelijke geschillenbeslechting.
* Samenwerking met andere aanbieders van online platforms of zoekmachines via gedragscodes en crisisprotocollen.
* Het nemen van bewustmakingsmaatregelen en het aanpassen van hun online interface om dienstontvangers meer informatie te geven.
* Het nemen van gerichte maatregelen ter bescherming van de rechten van het kind, inclusief leeftijdsverificatie en ouderlijk toezicht.
* Zorgen dat door AI gegenereerde of gemanipuleerde beelden, audio of video's die sterk lijken op bestaande personen, objecten, plaatsen of gebeurtenissen, en die de indruk wekken authentiek of waar te zijn, prominent worden gemarkeerd en dat er een eenvoudige functionaliteit beschikbaar is om dergelijke informatie aan te geven.
> **Tip:** De DSA en de daarin opgenomen artikelen over risicobeoordeling en mitigatie bevinden zich nog in een vroeg stadium van implementatie.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Platformisering | Het proces waarbij grote bedrijven zich ontwikkelen tot centrale platforms die een breed scala aan diensten aanbieden en daardoor aanzienlijke marktmacht vergaren. |
| Convergentie | De neiging van grote technologiebedrijven om verschillende soorten diensten aan te bieden, zoals een online winkel die ook audiovisuele content en clouddiensten aanbiedt, wat leidt tot complexiteit in regelgeving. |
| Gatekeeper | Een grote onderneming die kernplatformdiensten aanbiedt en aanzienlijke economische macht bezit, gekenmerkt door het vermogen om veel zakelijke gebruikers te verbinden met veel eindgebruikers en door het benutten van voordelen zoals toegang tot grote hoeveelheden data. |
| Digital Markets Act (DMA) | Een verordening van de Europese Unie gericht op het waarborgen van concurrerende en eerlijke markten in de digitale sector, met specifieke regels voor 'gatekeepers' om machtsmisbruik te voorkomen. |
| Digital Services Act (DSA) | Een verordening van de Europese Unie die een kader schept voor een veilige, voorspelbare en vertrouwde online omgeving, met regels voor tussenpersonen met betrekking tot illegale inhoud, desinformatie en de bescherming van fundamentele rechten. |
| Informatiesamenleving service | Elke dienst die normaal gesproken tegen vergoeding, op afstand, elektronisch en op individueel verzoek van een dienstontvanger wordt verleend. |
| Kernplatformdiensten | Essentiële digitale diensten die door gatekeepers worden aangeboden, zoals online marktplaatsen, app-winkels, zoekmachines, sociale netwerken, cloudservices, advertentiediensten, spraakassistenten en webbrowsers. |
| VLOPs (Very Large Online Platforms) | Zeer grote online platforms met een gemiddeld aantal maandelijkse actieve gebruikers in de EU van 45 miljoen of meer, die onderworpen zijn aan de strengste verplichtingen van de DSA. |
| VLOSEs (Very Large Online Search Engines) | Zeer grote online zoekmachines met een gemiddeld aantal maandelijkse actieve gebruikers in de EU van 45 miljoen of meer, die onderworpen zijn aan de strengste verplichtingen van de DSA. |
| Due diligence verplichtingen | Geharmoniseerde verplichtingen voor aanbieders van tussenpersonen om te zorgen voor een veilig en transparant online milieu, waarbij rekening wordt gehouden met openbaar beleid, fundamentele rechten en de verantwoordingsplicht van aanbieders. |
| Contentmoderatie | Het proces waarbij online platforms en diensten inhoud beoordelen en beheren op basis van hun gebruiksvoorwaarden, met als doel illegale of schadelijke inhoud te verwijderen of de zichtbaarheid ervan te beperken. |
| Notice-and-action mechanismen | Systemen die het voor gebruikers mogelijk maken om illegale inhoud te melden aan hostingproviders, waarna de provider beslist of actie wordt ondernomen, zoals het verwijderen van de inhoud. |
| Statement of reasons | Een duidelijke en specifieke uitleg die een provider moet geven wanneer de toegang tot of de zichtbaarheid van door een gebruiker verstrekte informatie wordt beperkt of verwijderd, inclusief de juridische of contractuele grondslag en mogelijkheden tot verhaal. |
| Trusted flagger | Een entiteit met specifieke expertise in het detecteren en melden van illegale inhoud, die prioriteit krijgt bij de verwerking van meldingen onder de DSA. |
| Transparantierapportage | Verplichte jaarlijkse rapporten die door aanbieders van tussenpersonen openbaar moeten worden gemaakt, met daarin informatie over hun contentmoderatieactiviteiten, zoals het aantal meldingen, genomen acties en het gebruik van geautomatiseerde tools. |
| Recommender systemen | Algoritmische systemen die worden gebruikt door online platforms om inhoud aan te bevelen aan gebruikers, gebaseerd op parameters zoals gebruikersprofielen en interacties, en waarvoor de DSA specifieke transparantie- en keuzemogelijkheden vereist. |
| Systemische risico's | Potentiële negatieve effecten die voortkomen uit het ontwerp, de werking en het gebruik van digitale diensten, met name door VLOPs en VLOSEs, die de fundamentele rechten, de openbare orde, de volksgezondheid en de economische stabiliteit kunnen beïnvloeden. |
| Beperkingsmaatregelen | Maatregelen die VLOPs en VLOSEs moeten nemen om systemische risico's te mitigeren, zoals het aanpassen van het ontwerp van hun diensten, contentmoderatieprocessen, algoritmische systemen en advertentiesystemen. |