Onlineplattformen – DSA braucht starke Durchsetzung
Große Onlineplattformen und Suchmaschinen haben über Newsfeeds, Werbung und Onlineshops einen enormen Einfluss auf die Meinungsbildung und darauf, was Menschen kaufen. Seit Freitag, dem 25. August, gelten für Netflix, Instagram, Google & Co. neue Regeln. Für diese sogenannten VLOPS (very large online platforms) und VLOSE (very large online search engines) gelten strengere Regeln als für die kleineren und sie müssen den „Digital Services Act“ (DSA) nun als erste umsetzen. Kleinere Plattformen haben für die Umsetzung noch bis zum 17. Februar 2024 Zeit.
Doch was ändert sich nun mit dem DSA konkret für mich als Nutzer:in? Wird er die versprochene Verbesserung bei Transparenz- und Rechenschaftspflichten bzw. beim Schutz von (u.a. minderjährigen) Nutzer:innen und ihren Grundrechten bringen? Wir haben die wichtigsten Punkte für euch zusammengetragen.
Rückgrat für Melde- und Beschwerdemechanismen
Für Nutzer:innen müssen Plattformen wie X (vormals Twitter), Facebook und Co. z.B. leichtere Möglichkeiten bieten, illegale Inhalte zu melden. Das war zwar auch bisher möglich, allerdings war dabei bis zu einem gewissen Grad den Unternehmen überlassen, wie sie mit den Meldungen umgehen, und ein Flickenteppich an Regelungen in verschiedenen Mitgliedsstaaten zu finden. Der DSA schafft hier Verbesserung, indem er klarere Regeln aufstellt und eine sorgfältige Prüfung von Meldungen durch die Plattformen vorschreibt. Wenn ein Antrag auf Löschung demnach gerechtfertigt ist und das betreffende Unternehmen den Post trotzdem nicht löscht, können Nutzer:innen auch Kompensation vom Unternehmen fordern. Auf der anderen Seite müssen Nutzer:innen, deren Posts gelöscht werden, darüber informiert werden und eine Begründung erhalten. Sind sie mit der Löschung nicht einverstanden, können sie sich im Rahmen eines Beschwerdemechanismus dagegen wehren. Das ist z.B. wichtig, wenn willkürlich und ungerechtfertigter Weise bestimmte Inhalte gelöscht werden. Bei ordentlicher Durchsetzung könnten diese Maßnahmen zusammen mit einer ernsthaften Risikoanalyse (siehe unten) zumindest den tiefsten Abgründen der kommerziellen sozialen Medien vorbeugen.
Der DSA schreibt also nicht nur erleichterte Meldungen inkl. ordentlicher Prüfung vor, sondern versieht auch die Beschwerdememöglichkeiten gegen Löschungen mit einem Rückgrat: Nutzer:innen können künftig nämlich nicht nur intern beim jeweiligen (Social-Media-) Unternehmen Beschwerde einreichen, sondern auch in einem außergerichtlichen Prozess, der aber erst noch näher ausgestaltet werden muss. Wenn das alles nichts nützt, können Nutzer:innen immer noch zu ihrem „nationalen Koordinator für digitale Dienste“ gehen, den alle EU-Mitgliedsstaaten bis Februar 2024 einrichten müssen. Das bedeutet, dass es für Nutzer:innen einfacher ist, ihre Rechte geltend zu machen, da sie nicht Beschwerde in einem anderen Mitgliedsstaat einreichen müssen.
Maria Lohmann erklärt in der ZIB 3, was der DSA für Nutzer:innen ändert:
Der DSA soll so z.B. die Verbreitung von Hassrede und Desinformation verhindern, aber nicht die Meinungsfreiheit einschränken. Deshalb wird auch übermäßiges Löschen von Inhalten sanktioniert. Ebenso dürfen keine automatischen Kontrollen eines jeden Posts stattfinden, sei es durch Menschen oder Algorithmen – auch nicht durch die „vertrauenswürdigen Hinweisgeber:innen“ („trusted flaggers“). Ihre Meldungen werden zwar bevorzugt angesehen, jedoch genauso einer Prüfung unterzogen, wie alle anderen.
Mehr Transparenz, weniger Profiling
Wir begrüßen außerdem, dass der DSA die Transparenz erhöhen soll. So müssen die Unternehmen jährlich berichten, wie viele und welche Art von Inhalten gelöscht wurden. Auf der anderen Seite müssen die Aufsichtsbehörden offenlegen, wie viele Beschwerden es über vermeintlich ungerechtfertigte Löschungen gab. Systematische Manipulation und Diskriminierung sollten so leichter aufgedeckt werden können.
Zusätzlich haben Nutzer:innen das Recht zu erfahren, warum ihnen bestimmte Inhalte angezeigt werden. Wer keine Inhalte von Empfehlungsalgorithmen sehen will, die auf Profilen über die eigene Persönlichkeit beruhen, hat künftig ein Recht auf Opt-Out aus diesen Systemen.
Außerdem darf keine Werbung mehr aufgrund besonders sensibler persönlicher Daten ausgespielt werden. Das umfasst z.B. politische Meinung, ethnische Herkunft, Gesundheitsdaten oder sexuelle Vorlieben. Werbung muss grundsätzlich gekennzeichnet werden und Nutzer:innen müssen eine Information darüber enthalten, wer sie finanziert. Plattformen müssen auch Archive all ihrer Werbeanzeigen bereitstellen und über die Löschung von Anzeigen berichten. Werbung darf auch nicht mehr speziell an Minderjährige gerichtet werden. Damit fallen zumindest einige der schlimmsten Einflüsse von Werbung weg.
Mehr Transparenz bedeutet auch ein Verbot von „Dark Pattern“, d.h. einer irreführenden Gestaltung von Plattformen, die Nutzer:innen im Verhalten beeinflusst. Bspw. müssen Countdowns abgeschafft werden, die Kund:innen zum Kaufen drängen („nur noch 3 Stück verfügbar“, „in 10 min. läuft das Angebot ab“). Auch subtilere Gestaltungen, die z.B. mit Farbgebung Nutzer:innen dazu bringen sollen, eher eine bestimmte Sache anzuklicken, gehören der Vergangenheit an. Zudem müssen die Unternehmen nun leicht verständliche AGB in allen Sprachen der Mitgliedsstaaten bereitstellen, in denen sie tätig sind. Neu ist auch die Rückverfolgbarkeit von gewerblichen Nutzer:innen, damit Kund:innen vor illegalen Waren geschützt werden.
Verpflichtende Risikominimierung
Die sehr großen Plattformen und Suchmaschinen müssen aufgrund ihrer Funktionsweise und ihres Einflussbereichs ihre systemischen Risiken analysieren und Gegenmaßnahmen treffen. Das sind z.B. Maßnahmen zum Schutz der Meinungs- und Medienfreiheit, gegen die Verstärkung von illegalen Inhalten und Desinformation, Hetze gegen Minderheiten oder geschlechtsspezifische Gewalt. Die Gesundheit von Minderjährigen müssen sie hierbei besonders schützen. Die EU-Kommission kann die Wirksamkeit dieser Maßnahmen prüfen lassen und Korrekturen bzw. teils hohe Strafen anordnen.
Das ist prinzipiell begrüßenswert und hat ein hohes Verbesserungspotenzial, doch hat die Kommission leider keine Leitlinien für die Bewertung der Gegenmaßnahmen herausgegeben. Gemeinsam mit anderen Technikexpert:innen und Vertreter:innen der Zivilgesellschaft fordern wir daher Plattformen und Kommission auf, bei Risikoanalyse und Bewertung der Gegenmaßnahmen nach einheitlichen und effektiven Kategorien vorzugehen und diese auch durchzusetzen. Denn nur so kann der DSA zu echten Verbesserungen führen. Außerdem sollten Zivilorganisationen und Forscher:innen schon frühzeitig Einblick in diese Analysen erhalten, um mehr über die Technik dahinter zu lernen und ggf. Verbesserungsvorschläge bei der Umsetzung des DSA durch die Plattformen zu machen.
In einem anderen Brief fordern wir die EU-Kommission mit 55 weiteren zivilgesellschaftlichen Organisationen auf, den DSA auch in Hinblick auf die zahlreichen nationalen und EU-Wahlen effektiv durchzusetzen. Das bedeutet, sicherzustellen, dass die Plattformen besonders auch in Bezug auf Desinformation, Microtargeting und politische Inhalte eine ordentliche Risikominimierung einführen.
Nur eine starke Durchsetzung realisiert das Potenzial
Der DSA hat das Potenzial, die Welt der kommerziellen Onlineplattformen zumindest ein bisschen demokratischer und weniger gefährlich zu machen. Das hängt aber zu einem signifikanten Teil davon ab, wie die EU-Kommission das Gesetz inkl. Transparenzpflichten, Risikominimierung, Melde- und Beschwerdemechanismen durchsetzt. Denn sie ist in erster Linie für die sehr großen Plattformen zuständig und kann auch empfindliche Strafen verhängen. Neben der großen Verantwortung der Kommission braucht es aber auch eine effektive Zusammenarbeit mit den nationalen Aufsichtsbehörden. Über die nötigen Schritte in Österreich haben wir bereits im November ausführlich berichtet.
Am grundlegenden Geschäftsmodell von Big-Tech-Unternehmen wird aber auch der DSA nicht viel verändern. Zum Glück gibt es aber abgesehen davon bereits jetzt echte Unabhängigkeit von großen Unternehmen, z.B. im Fediverse – ganz ohne toxische Algorithmen und die Willkür einiger weniger Konzerne. Schaut vorbei, z.B. auf Mastodon, wir sind schon da!
Da du hier bist!
… haben wir eine Bitte an dich. Wenn Regierungen laufend neue Überwachungsmaßnahmen fordern, immer mehr Daten über uns sammeln, oder Konzerne auf unsere Kosten ihre Profite steigern, dann starten wir Kampagnen, schreiben Analysen oder fordern unsere Rechte vor Gerichten ein. Dafür brauchen wir deine Unterstützung. Hilf uns, eine starke Stimme für die Zivilgesellschaft zu sein!
Spenden