93 Prozent der EU-Bürger machen sich Sorgen um die psychische Gesundheit von Kindern. Laut dem State of the Digital Decade Eurobarometer 2025 bezeichnen 92 Prozent Cybermobbing als die größte Online-Bedrohung.
Brüssel hat eine härtere Haltung zur Online-Kindersicherheit eingenommen.
Letzte Woche gab EU-Kommissionspräsidentin Ursula von der Leyen bekannt, dass eine neue „Altersverifizierungs-App technisch bereit und bald für die Nutzung durch die Bürger verfügbar“ sei.
Das System verlangt von Bürgern, ihr Alter zu überprüfen, um auf Online-Plattformen zugreifen zu können, ohne persönliche Daten weiterzugeben.
Die EU-Mitgliedsstaaten ergreifen bereits entschlossene Maßnahmen. Frankreich hat ein Verbot für Benutzer unter 15 Jahren erlassen. Spanien, Österreich, Griechenland, Irland, Dänemark und die Niederlande bereiten sich darauf vor, bald ähnliche Regeln einzuführen.
Christel Schaldemose, Mitglied der Fraktion der Progressiven Allianz der Sozialisten & Demokraten im Europäischen Parlament und Berichterstatterin des nichtlegislativen Berichts über ein EU-weites Mindestalter für soziale Medien, spürt Zögerlichkeit im Vorgehen der Kommission.
„Ich weiß nicht, ob sie (Maßnahmen) absichtlich verzögern, aber ich denke, dass sie zu langsam sind. So entsteht am Ende ein fragmentierter Binnenmarkt, weil so viele Länder bereits eine Altersgrenze vorgeschlagen haben.“
Kinder und Online-Plattformen
Soziale Medien sind für Kinder zu einer allgegenwärtigen und riskanten Umgebung geworden, vor allem aufgrund süchtig machender Designs, ständiger Konnektivität, starker Personalisierung und KI-Tools.
Im Jahr 2022 waren 96 Prozent der 15-Jährigen in den sozialen Medien aktiv, 37 Prozent verbrachten mehr als 3 Stunden am Tag auf diesen Plattformen. Laut einer Studie des Joint Research Center (JRC) aus dem Jahr 2025 nutzen weibliche Teenager tendenziell häufiger soziale Medien, nämlich 42 Prozent im Vergleich zu 32 Prozent ihrer männlichen Kollegen.
Bei 9- bis 15-Jährigen beträgt die tägliche Nutzung häufig die Drei-Stunden-Marke; 78 Prozent der Teenager im Alter von 13 bis 17 Jahren überprüfen ihre Geräte mindestens einmal pro Stunde; Ein Viertel gibt zu, mit dysfunktionalen Internetgewohnheiten zu kämpfen, wie im nichtlegislativen Bericht des Europäischen Parlaments vom November 2025 dargelegt.
Laut Eurobarometer beteiligten sich im Jahr 2025 fast 99 Prozent der Jugendlichen im Alter von 16 bis 17 Jahren aktiv an sozialen Medien (Erstellung von Benutzerprofilen, Posten von Nachrichten, Nutzung von Facebook, X usw.).
Für Schaldemose ist das Gremium der Kommission zum Thema Kindersicherheit im Internet ein positiver erster Schritt. Das umfassende Wissen der Experten werde die Maßnahmen der Kommission effizient beraten, sagte sie.
Die GFS warnt davor, dass die unkontrollierte Nutzung sozialer Medien die psychische Gesundheit von Kindern schädigt und zu Depressionen und Angstzuständen führt. Schädliche Inhalte wie gewalttätiges, sexualisiertes und essstörungsförderndes Material können die Gehirnentwicklung und das Sozialverhalten von Kindern beeinträchtigen.
60 Prozent der jungen Frauen zeigen Depressionssymptome im Vergleich zu 35 Prozent der Männer, und 65 Prozent leiden unter Angstzuständen, im Gegensatz zu 41 Prozent der Männer, wie die GFS-Studie zeigt.
Da sich viele Internetplattformen in erster Linie an Erwachsene richten, haben ihre werbegetriebenen Geschäftsmodelle schwerwiegende Auswirkungen auf jüngere Nutzer und fördern die Abhängigkeit.
36 Prozent der Jugendlichen in Europa, Zentralasien und Kanada halten ständigen Kontakt über soziale Medien. 11 Prozent zeigen eine problematische Nutzung sozialer Medien, wobei Mädchen (13 Prozent) höhere Raten melden als Jungen (9 Prozent), so ein Bericht der Weltgesundheitsorganisation (WHO) aus dem Jahr 2024.
Verbote, eine nationale Zuständigkeit
Am 8. April 2026 kündigte der griechische Premierminister Kyriakos Mitsotakis ein Social-Media-Verbot für Kinder unter 15 Jahren an. Das Gesetz, das im Januar 2027 in Kraft tritt und noch auf die Zustimmung des Parlaments wartet, blockiert Minderjährige von Social-Media-Konten und verpflichtet Plattformen, eine strenge Altersüberprüfung durchzusetzen, andernfalls drohen finanzielle Strafen.
Der Schritt wurde durch Daten ausgelöst, die zeigen, dass 75 % der griechischen Grundschulkinder in sozialen Medien aktiv waren, während etwa 48 % der Teenager negative Auswirkungen auf die psychische Gesundheit meldeten.
Auch die öffentliche Stimmung erreichte ihren Höhepunkt: 80 Prozent befürworteten ein Verbot, nachdem im März 2026 ein US-Urteil ergangen war, das große Technologieplattformen für süchtig machendes App-Design haftbar machte. Aufbauend auf dem Erfolg des griechischen Smartphone-Verbots für Schulen im Jahr 2024 nannte die Regierung „leblose“ Schüler und Schlafmangel als Auslöser der Beschränkung.
Griechenland schließt sich anderen EU-Ländern an: Frankreich verabschiedete im Januar 2026 einen Gesetzentwurf zum Verbot sozialer Medien für unter 15-Jährige und verwies auf einen „Gesundheitsnotstand“ und die Notwendigkeit, Minderjährige vor Cybermobbing und psychischen Schäden zu schützen. Im Februar 2026 kündigte Spanien Pläne für ein Verbot für Kinder unter 16 Jahren an, um „den digitalen Wilden Westen zu zähmen“, während Österreich, Dänemark und Slowenien Verbote für Kinder unter 14, 15 bzw. 15 Jahren ausarbeiten.
Italien und Irland prüfen Verbote für unter 15- bzw. unter 16-Jährige, während Deutschland und andere Staaten über Altersgrenzen oder „Jugendversionen“ von Plattformen diskutieren. Sie sind motiviert durch die Zunahme psychischer Gesundheitsprobleme und wollen Technologiegiganten für süchtig machende Plattformdesigns zur Rechenschaft ziehen, indem sie dem Präzedenzfall folgen, der durch Australiens weltweit erstes Verbot für unter 16-Jährige im Jahr 2025 geschaffen wurde.
Selbst angegebene Geburtsdaten sind unwirksam. Die Umsetzung erfolgte über Systeme wie digitale Geldbörsen oder Identitäts-Tokens, aber die brandneue Altersverifizierungs-App der Europäischen Kommission „erlaubt Benutzern, ihr Alter nachzuweisen, wenn sie auf Online-Plattformen zugreifen, so wie Geschäfte einen Altersnachweis verlangen, wenn Menschen (Alkohol) kaufen“, so von der Leyen.
Die Hauptverantwortung liegt bei den Plattformen, und die nationalen Regulierungsbehörden setzen die Einhaltung durch Aufsicht und Bußgelder durch. Während EU-weite Vorschriften wie das Digital Services Act (DSA) und die Datenschutz-Grundverordnung (DSGVO) grundlegende Schutzmaßnahmen für Minderjährige festlegen, gehen nationale Verbote noch weiter, indem sie strenge Altersgrenzen festlegen und die Rechenschaftspflicht von Technologieunternehmen erhöhen.
Oppositionelle politische Persönlichkeiten wie Mitglieder der spanischen Vox-Partei und italienische Gesetzgeber halten diese Verbote jedoch für übertriebene staatliche Eingriffe und argumentieren, dass Bildung, Kindersicherung und digitale Kompetenz wirksamer wären als völlige Beschränkungen.
Diese Sichtweise wird auch von Verbraucherschützern geteilt; Olivia Brown, Policy Officer bei der globalen Verbrauchergruppe Euroconsumers, hält pauschale Verbote für eine politische Abkürzung, die Plattformen vom Haken lässt.
„Das Verbot sozialer Medien macht das Internet nicht sicherer. Es verschiebt das Problem lediglich aus dem Blickfeld. Was Minderjährige brauchen, ist Sicherheit, die von Natur aus in die Plattformen integriert ist, echte Benutzerkontrollen und Algorithmen, die sie selbst gestalten können, und keine Türen, die einfach zugeschlagen werden, nur um mit 18 Jahren weit aufgerissen zu werden.“
Schritte hin zu einer EU-weiten Regulierung
Das Thema ist politisch heikel und ein EU-weites Verbot birgt die Gefahr einer Verschärfung der Polarisierung. Stattdessen veröffentlicht die Kommission zunächst die Altersverifizierungs-App als Instrument für die Mitgliedstaaten, um ihre eigenen nationalen Verbote umzusetzen.
Die erstmals im Jahr 2025 konzipierte App ist als technisches Framework konzipiert, das in nationale digitale Geldbörsen oder separate Anwendungen integriert werden kann, um das Alter der Benutzer zu überprüfen. Um ihr Alter zu bestätigen, müssen Benutzer eine App herunterladen, der Datennutzung zustimmen, ein Ausweisdokument (einschließlich seines Chips) scannen und eine Gesichtserkennung durchführen. Dieser Vorgang muss möglicherweise regelmäßig wiederholt werden, und Plattformen erfordern möglicherweise jedes Mal eine Überprüfung, wenn Benutzer auf altersbeschränkte Dienste zugreifen.
Bedenken bestehen aufgrund der Komplexität, der Auswirkungen auf den Datenschutz, der einfachen Umgehung (z. B. über VPNs) und der Befürchtung, dass es im Gegensatz zu anderen EU-weiten Regulierungsinstrumenten die Verantwortung von den Plattformen verlagern könnte.
Eine davon ist die DSGVO, die 2016 verabschiedet und bis 2018–2020 umgesetzt wurde und strenge Regeln für die Daten von Kindern festlegt. Das Standardalter für die digitale Einwilligung liegt bei 16 Jahren (mit einer Flexibilität bis 13 Jahre) und erfordert für jüngere Benutzer die Zustimmung der Eltern.
Mit der überarbeiteten Richtlinie über audiovisuelle Mediendienste, die ab 2020 in Kraft tritt, wurden Alterseinstufungssysteme und Kindersicherungen auf Streaming-Plattformen eingeführt sowie strikte Verbote schädlicher Inhalte wie Material zur Ausbeutung von Kindern. Im Jahr 2021 startete die EU dann ihre umfassendere Online-Sicherheitsstrategie für Kinder, die Finanzierung, Forschung und freiwillige Verhaltenskodizes kombiniert, um Risiken wie Grooming und Desinformation entgegenzuwirken.
In jüngerer Zeit hat die Kommission praktische Maßnahmen vorgeschlagen, wie etwa standardmäßig private Konten für Minderjährige und Beschränkungen für süchtig machende Funktionen wie Autoplay und unendliches Scrollen. Teile des KI-Gesetzes, dessen Verbote ab Februar 2025 gelten, verbieten insbesondere Systeme, die unterschwellige Techniken nutzen oder die Schwachstellen von Kindern ausnutzen, um ihr Verhalten zu verzerren. Der Digital Fairness Act, dessen formeller Vorschlag Ende 2026 erwartet wird, wird die Regeln für das Plattformdesign verschärfen, indem er „dunkle Muster“ und süchtig machende Funktionen wie unendliches Scrollen verbietet.
Im Mittelpunkt dieses Rahmenwerks steht das DSA, eine bahnbrechende Verordnung zur Überarbeitung von Online-Plattformen. Es wurde 2020 von der Kommission vorgeschlagen, 2022 vom Europäischen Parlament und dem Rat angenommen und trat nach einer schrittweisen Einführung im Februar 2024 in Kraft.
Das DSA verlangt von Plattformen, Benutzer zu schützen, wobei Minderjährige Vorrang haben. Dazu gehören sicherere Standardeinstellungen, Inhaltsmoderation und Einschränkungen für gezielte Werbung. Außerdem wird ein neues Durchsetzungssystem mit nationalen Koordinatoren für digitale Dienste und einer Aufsicht auf EU-Ebene eingeführt.
Nach dem DSA sahen die EU-Bürger mehr Transparenz, stärkere Nutzerrechte und Einschränkungen bei schädlichen oder ausbeuterischen Praktiken. Nutzer haben jetzt klarere Möglichkeiten, Inhaltsentscheidungen zu melden und Einspruch einzulegen, während Minderjährige von einem strengeren Datenschutz und einer geringeren Gefährdung durch zielgerichtete Werbung profitieren.
Die Auswirkungen auf digitale Plattformen
Altersbeschränkungen in den sozialen Medien wirken sich erheblich auf die Reichweite von Teenagern aus: Unternehmen verlieren eine wichtige soziale Gruppe, die die Online-Aktivitäten vorantreibt, was zu geringeren Anzeigenimpressionen und Traffic-Einnahmen führt.
Online-Plattformen sind für ihre Werbeeinnahmen stark auf Jugendliche und Kinder angewiesen. Altersgrenzen in sozialen Medien können dies verringern, da sie die Zahl junger Nutzer verringern und es schwieriger machen, sie mit Anzeigen anzusprechen.
Die Compliance-Kosten können steigen, da Unternehmen ihre Alterssicherungssysteme und die Einverständniserklärung der Eltern verbessern müssen. Diese sind kostspielig und komplex, da fortschrittliche Technologien zur Identitätsprüfung und zum Datenschutz erforderlich sind.
Ein Verbot süchtig machender Designfunktionen und Interaktionsalgorithmen in sozialen Medien erfordert eine Neugestaltung der Produkte, erhöht die Entwicklungskosten und verzögert die Markteinführung in der EU. Eine Verlagerung hin zu sichereren Inhalten kann die Budgets belasten.
Laut Schaldemose müssen große Unternehmen „neue Plattformen mit einem völlig anderen Geschäftsmodell entwickeln, das Kinder schützt“.
Zudem drohen Unternehmen im Falle eines Regelverstoßes mit verschärften rechtlichen Risiken. Das Parlament schlug vor, Plattformeigentümer für schwere und wiederholte Verstöße gegen Bagatellschutzbestimmungen persönlich zur Verantwortung zu ziehen.
„Sie sind diejenigen, die die Plattformen zur Verfügung stellen. Wenn wir uns auf eine Altersgrenze einigen, liegt die Verantwortung bei Verstößen definitiv bei den Unternehmen“, sagte Schaldemose gegenüber Euronews.
Europa muss schneller werden
Für Schaldemose handelt die Kommission zu langsam. Das Gremium wurde im September angekündigt, seine Arbeit begann jedoch erst im März.
Berichten zufolge lehnen einige Mitgliedstaaten die App bereits ab. „Je länger es dauert, bis die Kommission einen Vorschlag vorlegt, desto wahrscheinlicher ist es, dass wir einen fragmentierten Markt und Schlupflöcher haben“, behauptete sie.
„Ich bin gegenüber der Kommission ungeduldig geworden. Es sieht so aus, als ob die Mitgliedstaaten auch etwas ungeduldig sind, weil sie auch Druck machen“, sagte Schaldemose.
Datenschutz- und Datenaustauschprobleme können keine Entschuldigung mehr sein. „In den letzten zwei Jahren haben wir Tools entwickelt, die persönliche Daten und Sicherheit nicht gefährden“, fügte sie hinzu.
Das Parlament wird weiter Druck ausüben, bis die Kommission eine vernünftige Lösung findet. „Wir müssen auf europäischer Ebene handeln, und das Parlament ist sich darüber im Klaren“, schloss Schaldemose.
