Ein Autorinnenpapier von Verena Schäffer MdL, Ministerin für Kinder, Jugend, Familie, Gleichstellung, Flucht und Integration des Landes Nordrhein-Westfalen, und Alexandra Geese MdEP, Digitalpolitikerin der Grünen/EFA-Fraktion im Europäischen Parlament. In dieser Funktion hat sie maßgeblich am Digital Services Act zur Regulierung von Online-Plattformen mitgewirkt.
Hass und Hetze, Gewalt und Desinformation auf Social Media sind kein Problem einzelner Nutzerinnen und Nutzer. Sie gefährden das Zusammenleben in unserer demokratischen Gesellschaft. Plattformbetreiber müssen endlich wirksam gegen strafbare Inhalte vorgehen und ihre Algorithmen so ändern, dass Nutzerinnen und Nutzer wieder selbst entscheiden, welche Inhalte in ihren Timelines erscheinen.
Besonders Kinder und Jugendliche sind auf Social-Media-Plattformen erheblichen Risiken ausgesetzt: suchtverstärkende Algorithmen, auf Eskalation und Empörung optimierte Inhalte sowie zielgenaues Targeting auf Basis umfassender Datenprofile treffen sie besonders. Als Erwachsene tragen wir die Verantwortung, sowohl das Grundrecht auf digitale Teilhabe von Kindern und Jugendlichen zu sichern als auch ihr gesundes Aufwachsen zu schützen.
Statt immer neuer Debatten über zusätzliche Instrumente sollte die Europäische Kommission zunächst konsequent anwenden, was bereits gilt. Mit dem Digital Services Act (DSA) hat die EU Plattformen verpflichtet, eine sichere Online-Umgebung für Kinder und Jugendliche zu gewährleisten. Ergänzend hat die Europäische Kommission konkrete Jugendschutzrichtlinien verabschiedet. Doch viele Plattformen halten sich nicht daran – und die Kommission setzt diese Regeln bislang nicht konsequent durch.
Das ist eine politische Entscheidung. Große Plattformen wie Meta oder X sind amerikanische Unternehmen mit enormem wirtschaftlichem und politischem Gewicht. In einer Zeit, in der US-Präsident Donald Trump Zölle als Druckmittel nutzt, scheut die Europäische Kommission den Konflikt – nach dem Motto: lieber keine Durchsetzung als ein Handelsstreit. Eine solche Haltung ist eine Kapitulation vor dem eigentlichen Problem. Wenn Europa seine eigenen Regeln nicht durchsetzt, verliert es an Glaubwürdigkeit – und Kinder und Jugendliche bleiben ungeschützt.
Schon heute haben Plattformen wie TikTok oder Instagram eigene Altersgrenzen festgelegt. Doch diese werden von den Plattformbetreibern weder technisch ernsthaft kontrolliert noch wirksam durchgesetzt. Wir schlagen vor, die Altersgrenze einheitlich und für die Plattformbetreiber verbindlich auf 14 Jahre anzuheben. Zudem sollen für Jugendliche zwischen 14 und 16 Jahren nur solche Plattformen zugänglich sein, die den Jugendschutzanforderungen des DSA entsprechen.
Plattformen, die gegen diese Vorgaben verstoßen, müssen für diese Altersgruppe gesperrt werden – und gleichzeitig nach den Regeln des DSA sanktioniert werden. Beides gilt so lange, bis die Verstöße beseitigt sind und Jugendlichen der Zugang ohne Gefährdung ihrer psychischen Gesundheit wieder ermöglicht werden kann. Die Alterskontrolle muss datenschutzkonform umgesetzt werden. Dazu dürfen keine biometrische Daten erhoben werden. Denn über deren potenziell gefährliche weitere Verwendung hätten Jugendliche und ihre Familien keine Kontrolle.
Dieses mehrgleisige Instrument – Verlust von Nutzerinnen und Nutzern, finanzielle Sanktionen und klare Auflagen – schafft einen starken Anreiz für Plattformen, endlich ihre Hausaufgaben zu machen: Algorithmen zu entschärfen, Datensammlungen über Minderjährige zu stoppen und suchtfördernde Mechanismen abzubauen. Anders als viele Vorschläge in der aktuellen Debatte verlagern wir die Verantwortung nicht auf Kinder und Jugendliche, sondern setzen dort an, wo die eigentliche Verantwortung liegt: bei den Plattformen. Und die Einschränkungen bei der Altersgruppe der 14- bis 16-Jährigen enden auch wieder, sobald die Verstöße behoben sind.
Auch das häufig diskutierte Definitionsproblem – was eigentlich unter „Social Media“ fällt – verliert damit an Bedeutung. Entscheidend ist nicht eine abstrakte Kategorie, sondern das Verhalten konkreter Plattformen und ihre Einhaltung der geltenden Regeln.
Kinder und Jugendliche haben gemäß der UN-Kinderrechtskonvention ein Recht auf digitale Teilhabe. Auch für sie gelten Grundrechte wie Informations- und Meinungsfreiheit. Social Media sind für viele längst ein zentraler Kommunikationsraum geworden. Hier findet Austausch statt, hier werden politische Meinungen gebildet und Demonstrationen organisiert. Und trotz aller Risiken können Social Media für junge Menschen, die im Alltag Diskriminierung erleben, eine wichtige Informationsquelle sein.
Das Spannungsfeld zwischen Schutz und Teilhabe wollen wir deshalb produktiv auflösen, wie oben beschrieben durch eine Altersgrenze von 14 Jahren. Für Jugendliche zwischen 14 und 16 Jahren sollen nur jene Plattformen, die dem Jugendschutz nach DSA entsprechen, zugänglich sein. Plattformen, die gegen die Jugendschutz-Richtlinien im Rahmen des DSA verstoßen, werden für Jugendliche gesperrt – und gleichzeitig nach DSA sanktioniert. Parallel dazu wollen wir die Entwicklung kindgerechter digitaler Angebote für Kinder unter 14 Jahren voranbringen – unter Beteiligung von Kindern und Jugendlichen.
Darüber hinaus braucht Europa eigene Plattformen, die ohne Suchtmechanismen, gesundheitsgefährdende Inhalte und umfassende Datenprofile auskommen. Für die bereits existierenden oder im Entstehen begriffenen europäischen Plattformen sollte schnellstmöglich eine Anschubfinanzierung sichergestellt werden.
Mit der Einführung von Altersbeschränkungen ist das Thema „Social Media Nutzung durch junge Menschen“ noch nicht beendet. Medienkompetenz und Medienbildung für Kinder, Jugendliche und ihre Eltern bleibt weiterhin relevant. Aber klar ist auch, für die Finanzierung von Programmen, Projekten und Qualifizierung von pädagogischem Personal in Kitas, Schulen und Jugendeinrichtungen können nicht die Steuerzahlerinnen und Steuerzahler allein herangezogen werden, während die Tech-Konzerne dreistellige Milliardenumsätze erzielen und kaum Steuern in Europa zahlen. Eine faire Besteuerung dieser Konzerne muss das erste Ziel sein.
Parallel zu den Maßnahmen im Social-Media-Bereich muss der analoge Raum für Kinder und Jugendliche gestärkt werden – vom Sportverein bis zum Karneval. Für alles gilt: Gute Politik für Kinder und Jugendliche kann nicht ohne Kinder und Jugendliche gemacht werden. Ihre Beteiligung ist keine Kür, sondern Pflicht.
Neuste Artikel
„Herzlichen Glückwunsch zu diesem großartigen Ergebnis!”
Zu den ersten Hochrechnungen nach der Landtagswahl in Baden-Württemberg sagen Yazgülü Zeybek und Tim Achtermeyer, Landesvorsitzende der GRÜNEN NRW: „Lieber Cem, liebe Grüne in Baden-Württemberg: Herzlichen Glückwunsch zu diesem großartigen Ergebnis! Heute ist ein guter Tag für Baden-Württemberg und ein guter Tag für die Grünen. Cem Özdemir und die Grünen im Land haben einen herausragenden…
Deine Spende für unsere Ideentour durch NRW!
Wir GRÜNE wollen von den Menschen in NRW wissen: Was ist eure Idee für Nordrhein-Westfalen? Was soll besser werden, was soll bleiben, was muss dringend angepackt werden? Wir touren durch NRW und machen Halt in 13 Städten und Gemeinden, um Ideen einzusammeln, wie unser Land noch besser werden kann. Doch die Tour kostet Geld! Wir…
Endlagersuche: “Carsten Schneider hat offenbar das Arbeiten eingestellt”
Das Bundesumweltministerium will einem Bericht des Deutschlandfunks zufolge das zeitliche Ziel für ein geplantes Atommüllendlager streichen. Ursprünglich sollte der Standort für ein Endlager spätestens im Jahr 2031 festgelegt werden. Tim Achtermeyer, Landesvorsitzender der Grünen NRW, sagt dazu: „Carsten Schneider hat offenbar das Arbeiten eingestellt. Statt die Endlagersuche wirksam zu beschleunigen, setzt er auf einen Verschiebebahnhof…
Ähnliche Artikel