| Veranstaltung: | Frühjahrs-Landesmitgliederversammlung 2026 der GRÜNEN JUGEND NRW |
|---|---|
| Tagesordnungspunkt: | 8 Verschiedene Anträge |
| Antragsteller*in: | Lena Vogel, Ida Holschbach, Maximilian Vogel |
| Status: | Eingereicht |
| Eingereicht: | 01.04.2026, 13:02 |
V11: Haltung der GJ NRW zu einem Verbot sozialer Medien für Kinder und Jugendliche
Antragstext
Die Grüne Jugend NRW spricht sich klar gegen die Einführung einer generellen
Altersgrenze für Social‑Media aus. Ungesundes Medienverhalten, negative
Auswirkungen auf die psychische Gesundheit, Cyber‑Grooming, Cyber‑Mobbing, Hass
im Netz und Falschinformationen sind ernstzunehmende Probleme – ein pauschaler
Ausschluss junger Menschen ist jedoch nicht der richtige Weg.
Die Grüne Jugend NRW positioniert sich klar gegen die Einführung einer
Altersgrenze für die Nutzung von Social-Media-Plattformen.
Ungesundes Medienverhalten, ein negativer Einfluss auf die psychische und
mentale Gesundheit, Cybergrooming, Cybermobbing, Hass im Netz und
Falschinformationen machen uns Sorgen.
Eine Altergrenze und damit ein pauschaler Ausschluss von jungen Menschen von
Social Media ist jedoch nicht der richtige Weg.
Die Probleme, vor die uns die sozialen Medien stellen sind vielfältig, und
erfordern statt einem pauschalen Verbots differenzierte Lösungen. Stattdessen
fordern wir passgenaue, differenzierte Lösungen, die bestehende
Regulierungsinstrumente stärken, Medienkompetenz fördern und einen
verantwortungsvollen Umgang mit sozialen Medien ermöglichen.
Unsere Forderungen:
1. Plattformen in die Verantwortung nehmen:
Statt jungen Menschen den Zugang zu sozialen Medien zu verwehren sollten die
Anbieter von Social Media effektiv vepflichtet werden, ihre Dienste
rechtskonform zu gestalten. Die Unternehmen hinter Social Media wissen, dass
ihre Algorithmen unangebrachte Inhalten enthalten und gefährliches Verhalten
fördern, nehmen dies aber für höhere Profite in Kauf. Suchterzeugende
Desigmuster, manipulative Empfehlungsalgorithmen und radikalisierende
Inhaltesteuerung müssen reguliert oder verboten werden.
2. Privacy-by-default:
Für alle sozialen Medien sollte das sogenannte "Privacy-by-default"-Prinzip
verpflichtend werden. Damit ist die standardmäßige Aktivierung von
Datenschutzeinstellungen und Kontaktbeschränkungen von privaten Nachrichten
anderer Nutzenden gemeint. Statt einem Opt-out Design wird so ein Opt-in Modell
geschaffen, dass alle Nutzenden von sozialen Medien standardmäßig einen
besonderen Schutz gewährt solange die Einstellungen nicht explizit deaktiviert
werden.
3. Politische Neutralität:
Politische Inhalte sollten, unabhängig vom Einzelfall, über alle Nutzenden
hinweg keine politischen Parteien, Extreme oder Populismus bevorzugen oder
benachteiligen.
4. Effektive Durchsetzung:
Für eine sichere Nutzung der sozialen Medien ist neben effektiven Gesetzen zur
Regulierung der Plattformen vor allem deren Durchsetzung relevant. Statt unter
dem Druck der USA einzuknicken sollten existierende europäische Regelungen
durchgesetzt werden und der volle Rahmen der Strafzahlungen ausgeschöpft werden.
Nationale Sicherheitskräfte sind um Umgang mit digitalen Straftaten zu schulen.
Die Möglichkeiten zum Melden von unangebrachten Inhalten müssen verbessert
werden und unangebrachte Inhalte zeitnah entfernt werden.
Plattformen sind verpflichtet, ihre Nutzer*innen zu schützen und gefährliche
Inhalte und Nutzungsverhalten zu unterbinden.
5. Medienbildung:
Ein verantwortungsbewusster Medienkonsum muss gefördert und vorgelebt werden.
Dazu gehört die Aufklärung und Sensibilisierung in der Schule, die
Thematisierung problematischer Inhalte und Hinweise zu einem bewussten Konsum.
Dabei sollen insbesondere die von sozialen Medien hervorgerufenen Probleme im
Vordergrund stehen und jungen Menschen transparent gemacht werden, um eine
Einordnung der Inhalte zu ermöglichen. Medienbildung muss auch in der
Erwachsenenbildung, in der außerschulischen Jugendarbeit und der
Familienberatung angeboten werden.
Begründung:
Seit der Einführung einer Altersgrenze von 16 Jahren für soziale Medien in
Australien wird intensiv über eine ähnliche Altersgrenze für Social Media in
Deutschland diskutiert. CDU und SPD haben sich bereits positioniert, und auch
bei den Grünen regt sich Befürwortung. Diese Debatte wird jedoch vielseits über
die Köpfe junger Menschen geführt. Statt auf dem Wissen von Expert*innen und
technischem Sachverstand basiert die Diskussion auf gefühlten Wahrheiten und der
Enttäuschung über den eigenen Medienkonsum.
Als Grüne Jugend NRW positionieren wir uns wie auch das Fachforum Digitales &
Medien klar gegen die Einführung von Alterskontrollen für soziale Medien. Nicht
nur halten wir Alterskontrollen für wenig effektiv in der Umsetzung, sondern
auch grundsätzlich für falsch und mit negativen Folgen verbunden.
1. Ausschluss aus einem Ort des gesellschaftlichen Lebens
Die sozialen Medien sind ein wichtiger Bestandteil des gesellschaftlichen
Lebens. Nicht nur sind sie Debattenraum in der Demokratie, sondern auch ein
wichtiger Raum für die Entfaltung der eigenen Fähigkeiten und Erkundung der
eigenen Identität. Werden Heranwachsende ausgeschlossen, nimmt man der
öffentlichen Debatte junge Stimmen, und jungen Menschen das Recht, sich zu
entfalten.
a. Demokratischer Debattenraum
Die sozialen Medien haben sich zum Debattenraum der Gesellschaft entwickelt.
Instagram; X (ehemals Twitter) und Discord sind nicht nur zentrale Quellen für
Nachrichten und Meinungsbildung für eine Mehrheit der Jugendlichen, sondern für
die Gesamtbevölkerung. Viele politische Bewegungen nehmen heutzutage ihren
Ursprung in den sozialen Medien.
Dies ist auch grundsätzlich zu begrüßen, denn die sozialen Medien geben Stimmen,
die sonst nicht gehört werden, einen Raum. Inbesondere junge Menschen, aber auch
diskriminierte Menschen und Minderheiten, die in den traditionellen Medien
strukturell kaum vertreten sind, können auf sozialen Medien einen wichtigen
Beitrag zum demokratischen Diskurs leisten. Eine Altersgrenze hingegen würde
Jugendliche systematisch aus dieser demokratischen Teilhabemöglichkeit
verdrängen. Wichtige junge Stimmen würden fehlen.
b. Entfaltung der eigenen Persönlichkeit
Soziale Medien sind trotz der negativen Schlagzeilen ein zentraler Bestandteil
im Alltag von Jugendlichen. Sie sind Ort des Austauschs und der Gemeinsamkeit,
der Bildung und Selbstentfaltung.
Viele Jugendliche nutzen z.B. Instagram oder Discord, um Freundschaften trotz
örtlicher Distanz zu knüpfen und aufrechtzuerhalten. Unter anderem für queere
oder anderweitig diskriminerte Jugendliche können soziale Medien ein Ort sein,
um die eigene Identität zu entdecken, eine Community zu finden und sich
gegenseitig zu bestärken.
Soziale Medien haben sich zudem zu einem Ort des Austauschs von Inspirationen
und Kreativität entwickelt. Heranwachsende teilen Memes und Kunstwerke, üben
Tänze und nehmen eigene Videos auf. Soziale Medien sind ein Ort, um die eigene
Persönlichkeit zu entfalten und mit einem breiten Publikum zu teilen.
c. Rechtliche Bedenken
Heranwachsende haben ein Recht auf digitale Teilhabe und darauf, digitale
Lebensräume sicher zu erkunden; ein
völliges Verbot von Social Media für unter 16-Jährige halte er für zu
weitgehend.
Kinder haben gemäß Art. 17 UN-KRK ein Recht auf Teilhabe an Medien, wozu auch
soziale Medien gehören. Soziale Medien sind auch Orte der Meinungsäußerung und
der Persönlichkeitsentfaltung, womit eine Verbot für Heranwachsende einen
Eingriff in Grundrechte bedeuten könnte, der angesichts der leichten
Umgehbarkeit der Alterskontrolle und den mit ihr einhergehenden Gefahren nicht
zu rechtfertigen ist.
2. Eine Alterskontrolle schafft neue Probleme
Mit Alterskontrollen in sozialen Medien gehen verschiedene neue Gefahren für
Kinder und Jugendliche einher. Dazu kommen Probleme, die auch alle restlichen
Nutzer*innen betreffen.
a. Datenschutz und Datensicherheit
Ein Social-Media-Verbot setzt eine zuverlässige Altersverifikation voraus. Das
bedeutet, dass nicht nur Heranwachsende, sondern auch alle anderen Nutzenden von
sozialen Medien ihr Alter nachweisen müssen. Damit verbunden sind
Einschränkungen des Datenschutzes und signifikante Risiken in der
Datensicherheit. Ausweisdaten und biometrische Daten sind besonders
schützenwert. Muss sich jede*r Nutzende der sozialen Medien ausweisen, droht das
Risiko eines Verlusts von Anonymität im Internet. Anonymität im Internet ist ein
schützenswertes Gut. Der Schutz von Kindern darf nicht als vorgeschobener Grund
für eine anlasslose Überwachung dienen.
Auch die Datensicherheit gestaltet sich schwierig, denn in vergleichenbaren
Anwendungsfällen kam es bereits zu Sicherheitslücken: Discord, eine
Chatplattform, musste eine geplante Alterskontrolle verschieben, weil eklatante
Sicherheitslücken und ein grob fahrlässiger Umgang mit den persönlichen Daten
der Nutzer*innen durch den beauftragten Dienstleisters bekannt wurden. (Quelle:
Discord)
Für Altersnachweise können auch algorithmische Prozesse eingesetzt werden:
Ein Altersnachweis per Gesichtserkennung wurde etwa in Australien eingesetzt.
Nicht nur ist dieser Altersnachweis leicht zu umgehen, sondern es werden auch
bei dieser Art des Altersnachweises besonders schützenswerte biometrische Daten
gesammelt. Zudem handelt es sich nicht um neutrale Technologie: Unter anderem
funktioniert gesichtserkennungsgestützte Alterserkennung bei schwarzen Menschen
schlechter als bei weißen Menschen. (Quelle: Mozilla Foundation)
Auch eine Altersverifikation basierend auf einer Analyse des Nutzungsverhaltens
ist invasiv und kann durch die Erzeugung von "false positives", also dem
Nichtbestehen der Alterskontrolle bei tatsächlich nicht minderjährigen Personen,
benachteiligen.
Auch hinsichtlich der Barrierefreiheit einer Alterskontrolle bestehen Bedenken.
So könnten nicht nur Heranwachsende, sondern auch Senior*innen und Menschen, die
aufgrund von Behinderungen eingeschränkt sind ausgeschlossen werden. (Quelle:
Bundesfachstelle Barrierefreiheit)
b. Die Gefahren einer Umgehung
Es ist zu erwarten, dass bei Einführung eines Social-Media-Verbots junge
Menschen innerhalb kürzester Zeit Wege finden das Verbot zu umgehen.
In Australien hat sich gezeigt, dass 7 von 10 Heranwachsenden trotz des Verbots
immer noch einen Account auf den verbotenen Plattformen haben, was sich auf
einfache Umgehungsmöglichkeiten und fehlende Meldemöglichkeiten zurückführen
lässt. (Quelle: The Register)
Ein Social-Media-Verbot kann zudem bestehende Probleme ins Verborgene
verschieben. Jugendliche und Kinder, die verbotenerweise soziale Medien nutzen,
werden höhere Hemmungen haben, ihren Eltern und Freunden von nicht
altersgerechten Inhalten und unangebrachtem Verhalten zu erzählen. Statt offen
problematische Inhalte zu besprechen, werden diese so verschwiegen.
Es besteht die Gefahr, dass Straftaten durch Dritte von Heranwachsenden weniger
angezeigt und nachverfolgt werden. Ist die Nutzung von Sozialen Medien für
Heranwachsende verboten, könnte es auch weniger Angebote und Stellen geben, die
auf digitale Gewalt und Hass sowie gesundheitliche Hilfe für junge Menschen
spezialisiert sind.
C. Verschiebung und Aufschiebung gesellschaftlicher Probleme
Das Problem der Abhängigkeit von sozialen Medien besteht nicht nur bei Kindern
und Jugendlichen sondern auch bei Erwachsenen. Eine Altersgrenze ist eine
Scheinlösung, die Heranwachsenden kaum hilft, und gleichzeitig suggeriert, die
mit den sozialen Medien verbundenen Problem wären gelöst.
3. Lösungen existieren, wir müssen sie nur durchsetzen
Die eigentlichen Verursacher des Problems, die Anbieter und Betreiber der
Social-Media-Apps selbst, müssen in Verantwortung genommen werden: Existierende
rechtliche Möglichkeiten wie der europäische Digital Services Act (DSA) und die
Jugendschutzrichtlinien der Europäischen Kommission werden bislang nicht
konsequent durchgesetzt. Bereits jetzt sind Unternehmen verpflichtet,
insbesondere minderjährigen Nutzer*innen zu schützen. Vernachlässigen sie
nachweislich diese Pflicht, sind sie in die Verantwortung zu nehmen. Statt
nationalen Alleingängen ist dabei auf die Markt- und Regelungsmacht der
Europäischen Union zu setzen und existierende Regelungen gegen den Widerstand
der Tech-Lobby durchsetzen.
a. Reale Probleme
Soziale Medien sind ein Ort für das gezielte Einsetzen sogenannter "Dark
Patterns", dem Versuch Nutzende zu einer ihren Interessen widersprechenden
Interaktion zu bringen. Durch die algorithmische Steuerung der angezeigten
Inhalte nehmen Plattformen unter anderem durch sozialen Druck Einfluss auf die
Interessen und damit ultimativ auf die Kaufentscheidungen der Nutzenden. Diese
Auswirkungen der Plattformen auf das reale Leben gibt es nicht zufällig. Die
meisten Plattformen verdienen vor allem durch die ausgespielte Werbung. Das
Hauptinteresse der intransparenten Algorithmen ist es, möchlichst wirksame
Werbung anzuzeigen. Das Geschäftsmodell der kommerziellen sozialen Medien ist
es, Menschen so lange wie möglich auf der Plattform zu halten und somit eine
maximale Reichweite von Werbung in Form expliziter Anzeigen oder versteckter
Produktplatzierungen zu erzielen. Problematische Inhalte wie Gewalt,
pornographisches oder suchtförderndes Material erregen und halten insbesondere
die Aufmerksamkeit von Heranwachsenden. Die Unternehmen hinter den sozialen
Medien spielen also nachweislich gefährliche Inhalte aus, um ihre Profite zu
steigern.
b. Durchsetzung
Mit dem 2017 erlassenen Netzwerkdurchsetzungsgesetz sind Plattformen in der
Verantwortung Rechenschaft über die rechtswiedrigen Inhalte abzulegen,
Verantwortliche klar zu benennen und Meldeportale zu eröffnen.
Mit dem Digital Services Act hat die EU bereits einen regulatorischen Rahmen
geschaffen, der Plattformbetreiber verpflichtet, geeignete und verhältnismäßige
Maßnahmen für ein hohes Maß an
Privatsphäre, Sicherheit und Schutz von Minderjährigen zu ergreifen. Dazu
gehören etwa die Reduzierung des endlosen Scrollens und von Push-Notifications.
Der EU Digital Markets Act (DMA) scheint zwar nicht direkt relevant, reguliert
jedoch wettbewerbswidrige Praktiken und verhindert den Missbrauch ihrer
Marktmacht. Damit können sichere Alternativen zu den existieren Sozialen Medien
geschaffen werden.
Mit existierenden Instrumtenten können bereits viele Probleme reduziert werden.
Bisher ist die EU allerdings gegenüber Trump und den USA zu zurückhaltend
gewesen. Wir fordern, geltendes Recht umzusetzen.
c. Europäische Lösungen statt nationale Alleingänge
Der Digital Services Act ist ein Instrument zur vollständigen Harmonisierung,
also der Vereinheitlichung der rechtlichen Regeln in der Europäischen Union. Das
bedeutet, dass die Mitgliedstaaten keine zusätzlichen nationalen Anforderungen
in Bezug auf Angelegenheiten, die in den Anwendungsbereich des DSA fallen,
erlassen oder beibehalten sollten. Ein nationaler Alleingang schwächt also die
europäischen Regelungen bereits intern (Quelle: Lievens/Shala/Verdoodt).
Zusätzlich aber schwächt ein nationaler Alleingang auch die Position der
Europäischen Union in der Durchsetzung des Rechts gegenüber den USA und den
Tech-Unternehmen. Die EU als zweitgrößte Volkswirtschaft der Welt mit ca. 450
Millionen Einwohner*innen hat eine große Verhandlungs- und Regelungsmacht, die
durch nationale Alleingänge geschwächt wird.