Im Vergleich zur Wahl 2019 gelten mehr EU-Plattformregeln.
Im Juni dieses Jahres werden rund 365 Millionen Menschen bei den EU-Wahlen wahlberechtigt sein, darunter viele junge Wähler, für die soziale Medien eine wichtige Ressource für den Wahlkampf sind. Vier Länder – Belgien, Deutschland, Malta und Österreich – erlauben 16-Jährigen das Wahlrecht, in Griechenland beträgt das Mindestwahlalter 17 Jahre.
Vor fünf Jahren, als die letzte EU-Abstimmung stattfand, sah die Regulierungslandschaft für Online-Plattformen noch ganz anders aus: Es gab weniger Regeln zur Bekämpfung von Fehlinformationen und das KI-Gesetz gab es noch nicht. Wir werfen einen Blick darauf, wie sich die Plattformregulierung in der EU im Jahr 2024 im Vergleich zur letzten Wahl im Jahr 2019 verändert hat und welche Auswirkungen sie auf Social-Media-Unternehmen hat.
1. TikTok
Plattformen spielten bereits im Wahlkampf 2019 eine Rolle, doch TikTok ist ein echter Game Changer. Während Facebook und Twitter (heute Meta übertrifft diese Zahl immer noch mit etwa 408 Millionen monatlichen Nutzern in Europa.
In einem Bericht des Wissenschaftlichen Dienstes des Europäischen Parlaments heißt es, dass die Wahlbeteiligung im Jahr 2019 50,6 % erreichte, hauptsächlich aufgrund der Beteiligung junger Menschen, die durch eine Parlamentskampagne und die Nutzung von Plattformen wie Snapchat ausgelöst wurde. TikTok mit seiner hohen Zahl an jungen Nutzern könnte dieses Mal eine ähnlich wichtige Rolle spielen, obwohl die Plattform in den letzten Monaten in regulatorische Turbulenzen verwickelt war.
Die Europäische Kommission und das Parlament haben ihre Mitarbeiter aufgefordert, die App aus Gründen der Cybersicherheit auf Arbeitstelefonen zu verbieten. Es wird außerdem „dringend empfohlen“, dass Gesetzgeber und ihre Assistenten TikTok von ihren persönlichen Geräten entfernen. Einige der politischen Gruppen, wie die sozialdemokratische S&D-Fraktion und die Linke (GUE/NGL), nutzen die App tatsächlich für ihre Kampagnen. Doch in den letzten Tagen verstärkten Sicherheits- und Datenschutzbedenken gegenüber dem beliebten Unternehmen ein anderes Licht. Die Kommission leitete im Februar und April zwei Compliance-Untersuchungen zum Online-Kinderschutz im Rahmen der EU-Plattformverordnung ein.
2. KI-Gesetz
Europa war der erste Kontinent, der Regulierungen eingeführt hat: Mit seinem KI-Gesetz versucht es strenge Regeln für hochriskante maschinelle Lernsysteme einzuführen, und es fügt Transparenzanforderungen für generative KI-Tools (GenAI) wie ChatGPT hinzu. Das KI-Gesetz wird voraussichtlich im Juni in Kraft treten, allerdings zu spät, um Auswirkungen auf die EU-Wahl zu haben.
Dennoch ist das Bewusstsein für die Risiken der Tools gewachsen. Wähler in der EU sind zunehmend besorgt über die Auswirkungen von KI auf demokratische Prozesse, etwa über die Möglichkeit, die Verbreitung falscher Informationen und Deep Fakes zu erhöhen, wodurch es schwierig wird, das Echte vom Scheinhaften zu unterscheiden, wie Umfragen zeigen.
Um diesen Risiken zu begegnen, haben sich Plattformen wie Microsoft, Google und Meta bereits in einem KI-Wahlabkommen, das im vergangenen Februar beim Münchner Sicherheitsrat vorgelegt wurde, dazu verpflichtet, Wahleinmischungen durch KI zu verhindern. „Da die Gesellschaft die Vorteile der KI annimmt, haben wir die Verantwortung, dazu beizutragen, dass diese Tools bei Wahlen nicht als Waffe eingesetzt werden“, sagte Brad Smith, stellvertretender Vorsitzender und Präsident von Microsoft, bei der Unterzeichnung.
Gemäß den Leitlinien der Kommission zu GenAI müssen große Online-Plattformen beispielsweise Wasserzeichen verwenden, um sicherzustellen, dass die Informationen im Zusammenhang mit Wahlprozessen offiziell sind. Meta sagte, dass es bereits sichtbare und unsichtbare Wasserzeichen für Bilder enthält, die mit seiner GenAI-Plattform erstellt wurden.
3. DSA
Nach dem von der Europäischen Kommission im Jahr 2020 vorgeschlagenen Digital Services Act (DSA) sind Online-Plattformen mit mehr als 45 Millionen monatlichen Durchschnittsnutzern – darunter Facebook und TikTok – verpflichtet, Maßnahmen gegen Desinformation und Wahlmanipulation zu ergreifen. Die Regeln gelten seit August letzten Jahres für diese großen Big-Tech-Unternehmen.
Die Unternehmen müssen außerdem über Tools zur Inhaltsmoderation verfügen, die die Möglichkeit bieten, Entscheidungen anzufechten, wenn Benutzerinhalte entfernt oder eingeschränkt werden, und die Transparenz für Benutzer in Bezug auf Geschäftsbedingungen und die Art und Weise, wie Algorithmen Inhalte empfehlen, erhöhen.
EU-Kommissionsvizepräsidentin Margarethe Vestager sagte, dass viele Wahldebatten online stattfinden werden und die DSA Tools für die Zusammenarbeit mit Online-Plattformen bereitstelle. „Wir können die aufkommenden Online-Risiken für Wahlprozesse, wie zum Beispiel Deep Fakes, angehen.“ So können wir es den Menschen ermöglichen, sich auf sichere Weise zu engagieren, zu diskutieren und ihre Entscheidungen zu treffen, ohne dass illegale Eingriffe erforderlich sind“, sagte sie.
Um Unternehmen die Möglichkeit zu geben, die Regeln zu testen, hat die Kommission kürzlich (24. April) einen Stresstest zu den DSA-Wahlrichtlinien organisiert.
Die gemeinnützigen Organisationen Mozilla und CheckFirst sagten in einer diesen Monat (16. April) veröffentlichten Studie, dass Online-Plattformen vor der EU-Wahl im Juni nicht genügend Einblick in bezahlte Einflussnahme und kommerzielle Werbung bieten. Zivilgesellschaftliche Gruppen bezweifeln auch den Mangel an Inhaltsmoderatoren für einige EU-Sprachen wie Maltesisch, Niederländisch und Estnisch; und daher die Fähigkeit von Plattformen, in diesen Ländern veröffentlichte Fehlinformationen wirklich zu stoppen. Darüber hinaus gibt es im DSA keine Informationen darüber, wie nichtamtliche EU-Sprachen moderiert werden und wie Inhalte beispielsweise in Russisch oder Arabisch in der EU moderiert werden.
4. Politische Werbung
Eine weitere regulatorische Änderung besteht in strengeren Regeln für politische Werbung. Im vergangenen Februar verabschiedete das Europäische Parlament Regeln für solche Anzeigen, die darauf abzielen, ausländische Einflussnahme, insbesondere im Internet, einzuschränken. Demnach können Sponsoren aus Drittstaaten im Zeitraum von drei Monaten vor einer Wahl oder einem Referendum nicht für politische Werbung in der EU aufkommen.
Auch politische Werbung, die auf Profilerstellung und der Verwendung von Daten Minderjähriger basiert, ist verboten. Darüber hinaus muss jede politische Anzeige deutlich als solche gekennzeichnet sein und Informationen enthalten, z. B. wer sie bezahlt hat und wie viel sie gekostet hat.
Die Pläne wurden 2021 von der Europäischen Kommission vorgelegt, um die Transparenz politischer Werbung im Rahmen von Maßnahmen zum Schutz der Wahlintegrität zu erhöhen. Allerdings sind zivilgesellschaftliche Gruppen, darunter Access Now, besorgt, dass die Regeln zu spät kamen, um die bevorstehende EU-Abstimmung zu schützen; Darüber hinaus werden Informationen, etwa darüber, wer die Anzeige bezahlt, nur durch Selbstauskünfte der Fraktionen übermittelt.
„Während die Transparenzmaßnahmen des neuen Gesetzes in den kommenden Jahren hoffentlich Wählermanipulationen verhindern und die persönlichen Daten der Menschen vor Missbrauch schützen werden, werden sie keine großen Auswirkungen auf die Europawahlen 2024 haben – was sie zu einer verpassten Chance macht, wenn auch mit Potenzial für die Zukunft.“ “, hieß es in einer Pressemitteilung.
Die Social-Media-Unternehmen TikTok und Meta kündigten ihrerseits diesen Monat ihre Maßnahmen zur Bekämpfung von Fehlinformationen an. Beispielsweise sagte Meta, dass es sicherstellen wird, dass Werbetreibende, die damit Wahlanzeigen schalten, offenlegen müssen, ob sie KI oder gefälschte Bilder verwenden.