Blog Marcel Fratzscher vom 6. März 2026
Jugendliche vor Social-Media-Gefahren zu schützen, ist richtig. Doch sie auszusperren, ist Symbolpolitik. Europa muss endlich spürbare Plattformregulierung durchsetzen.
Die Forderung nach einem Social-Media-Verbot für Kinder und Jugendliche bis zum Alter von 16 Jahren klingt erst einmal nach gesundem Menschenverstand. Wer würde nicht zustimmen, wenn es um Schutz vor Cybermobbing, sexualisierten Inhalten oder exzessiver Nutzung geht? Jedoch werden soziale Medien immer mehr zu zentralen Orten des sozialen, gesellschaftlichen und politischen Lebens. Ein pauschales Verbot für Kinder und Jugendliche unter 16 Jahren alleine wäre zwar eine bequeme Lösung, könnte sich jedoch als wenig effizient und schwer umsetzbar erweisen und ist zudem nicht mit den Teilhaberechten Jugendlicher vereinbar.
Diese Kolumne von Marcel Fratzscher und Christian Hunkler erschien am 6. März 2026 in der ZEIT in der Reihe Fratzschers Verteilungsfragen.
Die Risiken der Nutzung sozialer Medien sind gut belegt. Die Forschung beschreibt, wie "unregulierte und schädliche" soziale Medien Teil eines Bündels von Belastungen für die psychische Gesundheit junger Menschen sein können. Ein Experiment zeigt beispielsweise, dass eine reduzierte Nutzung bei jungen Erwachsenen Einsamkeit und depressive Symptome teilweise deutlich senkt.
Wer daraus jedoch den Schluss zieht, man müsse den Zugang zu sozialen Medien pauschal bis zum Alter von 16 Jahren sperren, macht es sich zu einfach. Digitale Teilhabe mit Austausch- und Vernetzungsmöglichkeiten ist an sich nicht das Problem. Vielmehr sind es die Geschäftsmodelle der erfolgreichen Plattformen, die Aufmerksamkeit in Gewinn verwandeln – und dafür Reiz, Empörung, Dauerscrollen und soziale Vergleichsdynamiken systematisch verstärken. Es sind die Plattformen, die zu wenig Aufwand in die Entfernung schädlicher Inhalte stecken und die Verbreitung solcher Beiträge durch ihre Algorithmen oft noch fördern.
Zu diesem Schluss kommt auch eine von der Leopoldina eingesetzte Kommission von Expertinnen und Experten aus der Wissenschaft: Für Kinder unter 13 Jahren werden soziale Medien als grundsätzlich ungeeignet eingestuft. Für 13- bis 17-Jährige werden altersgemäße Einschränkungen von Plattformfunktionen vorgeschlagen. Dadurch werden sie einerseits vor Risiken geschützt, erhalten aber auch die Chance, einen reflektierten und selbstbestimmten Umgang damit zu entwickeln. Auch das Europäische Parlament fordert nicht nur Altersgrenzen, sondern auch Eingriffe in "addictive practices" und Engagement-Algorithmen.
Wenn Politik jetzt vor allem über Verbote für Kinder und Jugendliche spricht, wirkt das wie Symbolpolitik: laut, aber am Kern vorbei. Besser wäre, die Anbieter in die Pflicht zu nehmen – mit klarer Haftung, Sicherheit von Anfang an und Transparenz darüber, warum bestimmte Beiträge empfohlen werden und andere nicht. Auch muss es echte Auditrechte für Aufsichtsbehörden und Sanktionen bei systematischem Versagen geben. Instrumente existieren bereits: in Europa etwa DSA und DMA (seit 2022). Der DSA verpflichtet Plattformen zu mehr Sicherheit und Transparenz, der DMA begrenzt die Marktmacht großer Gatekeeper zugunsten fairen Wettbewerbs.
Konkret hieße das: Plattformen müssten Risiken nicht nur verwalten, sondern spürbar senken; manipulative Wachstumstricks bei Minderjährigen wären tabu. Der Standard wäre ein chronologischer Feed, Empfehlungen gäbe es nur auf Wunsch. Das Alter würde datensparsam und verlässlich geprüft – und unabhängige Forschung sowie Aufsicht bekämen Zugriff auf Daten, damit Regulierung auf Wirkung statt auf Bauchgefühl basiert.
Warum passiert das so selten? Ein Teil der Antwort ist unbequem – vor allem, weil Europa sich bei digitaler Souveränität bis heute zu oft kleinmacht. Nicht zufällig droht Donald Trump Ländern mit Zöllen, wenn sie US-Techkonzerne durch digitale Regeln oder Abgaben "diskriminieren".
Und selbst wenn man den Mut hätte: Wie erfolgreich wäre ein Verbot bis zum Alter von 16 Jahren in der Praxis? Die ehrliche Antwort lautet: begrenzt und ungewiss. Forschung zur Altersverifikation zeigt, wie leicht Selbstangaben, Wegwerf-E-Mails oder einfache Umgehungen Altersgrenzen aushebeln können – und dass ohne robuste, zugleich datenschutzfreundliche Verfahren ein Vollzugslücken-System entsteht. Die Nutzung wandert stärker in die Privatsphäre junger Menschen – dorthin, wo Schule, Jugendarbeit und teilweise auch Eltern sie noch schwerer begleiten können.
Zudem ist die Evidenz zu Verboten ambivalent. Es ist noch zu früh, mögliche Effekte des im letzten Jahr in Australien eingeführten Social-Media-Verbots verlässlich zu messen. Studien zu Handyverboten an Schulen zeigen jedoch, dass sich Leistungen verbessern können – besonders bei zuvor schwächeren Schülerinnen und Schülern. Das spricht dafür, dass Regeln in klar definierten Kontexten wirken und Ungleichheit verringern können. Gleichzeitig finden andere Studien keine Hinweise, dass restriktive Telefonregeln in Schulen die mentale Gesundheit verbessern oder die Gesamtnutzung spürbar senken. Effekte von Smartphoneverboten existieren zwar offenbar, sind aber eher klein und hängen stark von Umsetzung und Begleitmaßnahmen ab.
Und genau deshalb ist ein pauschales Verbot für unter 16-Jährige inkonsequent: Soziale Medien schaden nicht nur Teenagern, sondern auch Erwachsenen – und dem öffentlichen Diskurs. Wer nur Jugendliche adressiert, tut so, als ließe sich das Problem mit einer Altersgrenze lösen.
Eine neue DIW-Studie bestätigt, dass die Bevölkerung dieses Spannungsfeld deutlich differenzierter sieht, als manche politische Debatte suggeriert. In der Soep-Kurzbefragung (vom September 2025) sehen 90 Prozent der Menschen Risiken sozialer Medien für Kinder und Jugendliche, gleichzeitig erkennen 63 Prozent Chancen; mehr als die Hälfte sieht beides zugleich (57 Prozent). Ein Verbot bis zwölf Jahre findet eine klare Mehrheit (71 Prozent), ein Verbot bis 16 dagegen nur etwa ein Drittel; eine knappe Mehrheit lehnt es ab. Das ist keine Gleichgültigkeit – das ist Abwägung.
Bemerkenswert ist, wofür es in der Studie breite Zustimmung gibt: nicht für die große Verbotskeule, sondern für differenzierte Schutzmaßnahmen. Über 90 Prozent befürworten mehr Medienkompetenz und stärkere elterliche Begleitung. Ähnlich viele unterstützen Pflichten für Plattformen, problematische oder beleidigende Inhalte rasch zu erkennen und zu entfernen – oder gegenzusteuern, wenn Kinder und Jugendliche wiederholt solche Inhalte sehen. Fast 90 Prozent sprechen sich zudem für Accounts aus, die nur eine Basisfunktion haben und etwa Kontaktaufnahmen durch Fremde gar nicht zulassen.
Dazu gehört auch, dass wir Erwachsene uns nicht aus der Verantwortung stehlen. Medienkompetenz ist keine nette Zusatzqualifikation, sondern Teil moderner Bildung. Schulen brauchen Zeit, Fortbildungen und Unterstützung, um digitale Resilienz aufzubauen – genauso wie Kinder- und Jugendhilfe Anlaufstellen für Onlinegewalt, Mobbing und Suchtverhalten braucht. Eltern benötigen einfach zugängliche Beratung statt moralischer Appelle.
Ein striktes Verbot kann Risiken senken, nimmt aber auch Chancen – Information, Kreativität, Gemeinschaft, Lernen, Orientierung. Viele sehen beides: Risiken und Nutzen. Die Menschen wollen Schutz, nicht Abschottung. Ein Verbot bis zum Alter von 16 Jahren reicht nicht, ist schwer durchsetzbar und kostet digitale Teilhabe. Besser ist eine konsequente Plattformregulierung plus Bildung, Begleitung und Aufklärung – und Europa muss Regeln nicht nur beschließen, sondern auch durchsetzen, selbst wenn Washington droht.
Themen: Bildung , Digitalisierung , Familie , Gesundheit