Siegel neu_935x561

Neues Internetgesesetz vor Verabschiedung

Der Digital Services Act (DSA)

Mit dem Digital Services Act DSA steht auf EU-Ebene ein wichtiges neues Gesetz kurz vor der Verabschiedung. An der Rechtswissenschaftlichen Fakultät forscht Prof. Matthias C. Kettemann mit seinem Team am Institut für Theorie und Zukunft des Rechts zu Rechtsfragen der Plattformregulierung. 

 

Was bringt der neue Rechtsakt? 

Am 22. April 2022 haben das Europäische Parlament und der Rat eine vorläufige Einigung über das Gesetz über digitale Dienste (Digital Services Act DSA) erzielt. Zusammen mit dem Gesetz über digitale Märkte (Digital Markets Act DMA) wird der DSA in den kommenden Jahren die Standards für den digitalen Raum substanziell verändern. 

 

Wie beurteilen Sie den DSA und seinen Stellenwert generell?

Mit dem DSA legt die EU einen bedeutsamen neuen Rechtsakt vor, der in vielen Bereichen der Internetkommunikation für mehr Fairness, Rechtssicherheit und Rechenschaftspflicht führen wird.  Onlineplattformen werden verstärkt in die Pflicht genommen. Dabei ist der Rechtsakt – besonders für österreichische Nutzer*innen, die schon jetzt unter dem Schutz des Kommunikationsplattformen-Gesetzes stehen –  nicht in allen Bereichen revolutionäre.

Dennoch sind vor allem drei Neuerungen hervorzuheben:  

  1. Die Plattformen müssen besser moderieren, ihre Regeln müssen klarer werden, sie müssen professioneller mit Beschwerden umgehen. Auch wichtig: Mit dem DSA ist ein Zugriff auf die Algorithmen der (großen) Plattformen jetzt möglich; diese müssen über die Logiken ihren automatisierten Empfehlungssysteme informieren.
  2. Mehr Schutz für Verbraucher*innen: Online-Plattformen müssen illegale Produkte, Dienstleistungen oder Inhalte umgehend entfernen, nachdem sie gemeldet wurden  
  3. Mehr Schutz für Kinder und Jugendliche, besonders mit Blick auf den Datenschutz: es kommen Verbote gezielter Werbung für Minderjährige sowie Targeting auf Basis sensibler Daten.

 

Welche Mehrwerte bietet der DSA? 

Entscheidende Mehrwerte bietet auch, dass sehr große Online-Plattformen nun eine Rechenschaftspflicht für die eingesetzten Algorithmen haben; sie müssen informieren, worauf diese optimiert sind. Ein schnelles „Melde- und Abhilfeverfahren“ kommt: Plattformen müssen schneller löschen – sowohl bei illegalen Inhalten als auch bei Produkte. Die internen Regeln müssen besser werden und der Grundrechtsschutz muss sichergestellt sein, auch bei der Reaktion auf Meldungen und der Governance von Inhalten: keine Diskriminierung, keine Willkür. Wer Opfer von digitaler (sexueller) Gewalt wird, hat schneller Zugang zu plattforminternen Schutzmechanismen (wie schnelles Deaktivieren von Seiten mit Revenge Porn). Recommender-Systeme müssen besser erklärt werden; mindestens eine Option zur Inhaltepriorisierung muss gewählt werden können, die nicht auf Profiling basiert. 

 

Was nicht mehr erlaubt ist:

Gezielte Werbung auf Grundlage sensibler Daten ist verboten; hinsichtlich Minderjährigen ist gezielte Werbung überhaupt verboten. Dark Patterns werden verboten. Nutzer*innen werden vor der Manipulation durch irreführende Designs geschützt. Nervende Pop-Ups werden verboten; das Kündigen eines Abonnements für einen Dienst muss so einfach sein wie das Abonnieren. Wenn Plattformen Schäden bei Nutzer*innen verursachen, haben diese ein Recht auf Entschädigung. Sehr große Online-Plattformen müssen systemische Risiken bewerten und mindern und jedes Jahr unabhängige Audits durchführen.

 

Wie schaut die neue Aufsichtsstruktur aus? 

Die neue Aufsichtsstruktur muss erst in der Praxis beweisen, was sie kann. Noch letzte Woche haben etwa die deutschen Landesmedienanstalten darauf hingewiesen, dass die Aufsicht „erhebliche Webfehler“ aufweist. So werde das Prinzip der Staatsferne für die Medienaufsicht nicht eingehalten und bereits funktionierende Aufsichtsstrukturen werde die Arbeit erschwert. In der Tat wird die Aufsplittung der Exekutivfunktionen zwischen nationalen Medienaufsichten, den nationalen Koordinatoren und dem Digital Board komplex.

 

Recht kurzfristig kamen noch letzte Entwicklungen:

Es scheint, dass explizite Schutzvorschriften gegen Uploadfilter im Text nun nicht vorkommen, allerdings sind diese nach der Judikatur des EuGH ohnedies größtenteils verboten. Eine allgemeine Delistungspflicht für illegale Inhalte für Suchmaschinen wird nicht kommen; diese wäre sehr breit und wohl unverhältnismäßig gewesen. In Krisenfällen kann die Kommission, nach entsprechender Empfehlung und zeitlich begrenzt, auf Daten der Plattformen zur Krisenbekämpfung zugreifen. Die zwischenzeitlich angedachten Registrierungspflichten für Mobiltelefone werden nicht kommen. Stark verkürzt wurde auch die Liste der verbotenen „dark patterns“, also der verpönten, irreführenden Plattformdesigns, die kognitive Shortcuts von Nutzer*innen ausnützen.

Der Text wird jetzt von den Rechts- und Sprachsachverständigen überprüft. Dann stimmen Parlament und Rat noch einmal zu, aber das ist eine Formalität. Dann kann das Gesetz im EU-Amtsblatt veröffentlicht werden. Frühestens in Kraft treten werden die Regeln im Sommer 2023 bzw. zum 1.1.2024.

(Matthias C. Kettemann)

Links
Nach oben scrollen