Was müssen Plattformen löschen?

Zukunftsrecht-Forscherteam analysiert in der Computer Law & Security Review rechtliche Grundlagen für Moderationsentscheidungen 

Unsere Institutsmitglieder Matthias C. Kettemann und Felicitas Rachinger haben in Zusammenarbeit mit Ben Wagner, Anna Sophia Tiedeke und Marie-Therese Sekwenz soeben einen peer revietwen Artikel mit dem Titel "Mapping Interpretations of the Law in Online Content Moderation in Germany"  in der angesehenen Technikrechtzeitschrift Computer Law & Security Review veröffentlicht. Der Beitrag gewinnt besondere Relevanz angesichts des Inkrafttretens des Digital Services Act (DSA), der die Regulierung von Online-Plattformen in Europa grundlegend verändert. Die Untersuchung analysiert, wie Plattformen in Deutschland die rechtlichen Vorgaben zur Moderation von Inhalten interpretieren und umsetzen, und beleuchtet dabei die komplexe Wechselwirkung zwischen gesetzlichen Anforderungen und freiwilligen Moderationsentscheidungen.

Eine der zentralen Erkenntnisse der Studie ist, dass es erhebliche Divergenzen zwischen den Interpretationen der Plattformen und den tatsächlichen rechtlichen Vorgaben gibt. Plattformen entfernen häufig legale Inhalte, die sie fälschlicherweise als illegal einstufen – ein Phänomen, das als „Overblocking“ bezeichnet wird. Gleichzeitig wird festgestellt, dass illegale Inhalte oftmals nicht ausreichend moderiert werden („Underblocking“). Diese Fehlinterpretationen des Gesetzes können erhebliche Auswirkungen auf die Meinungsfreiheit und die Qualität der Online-Diskurse haben, da sie entweder zu einer übermäßigen Einschränkung oder einer unzureichenden Kontrolle von Inhalten führen.

Der Artikel unterstreicht außerdem die Komplexität der rechtlichen Grundlagen, die den Moderationsentscheidungen zugrunde liegen. Plattformen müssen nicht nur nationale und internationale gesetzliche Vorgaben beachten, sondern auch ihre eigenen Nutzungsbedingungen und Community-Standards in die Entscheidungsprozesse einbeziehen. Dies erschwert es, klare und konsistente Kriterien für die Moderation zu entwickeln, was in der Praxis häufig zu Unsicherheiten führt.

Besonders wertvoll ist die methodische Herangehensweise der Autor*innen, die eine empirische Untersuchung der Moderationspraxis ermöglicht. Indem sie die Entscheidungen einer mittelgroßen deutschen Plattform detailliert analysieren, schaffen sie neue Ansätze, um die Qualität der Moderation zu bewerten und Empfehlungen für zukünftige Moderationssysteme zu entwickeln. Diese Empfehlungen sind vor dem Hintergrund des DSA von großer Bedeutung, da sie dazu beitragen können, bessere Standards für die Moderation von Inhalten zu etablieren und sicherzustellen, dass gesetzliche Anforderungen korrekt umgesetzt werden, ohne die Meinungsäußerungsfreiheit unnötig einzuschränken.

Mehr zum Artikel finden Sie hier.

Nach oben scrollen