In Österreich steht ein Social-Media-Verbot für Kinder und Jugendliche unter 14 Jahren kurz vor der Präsentation. Laut Kurier sind die technische Umsetzbarkeit und die rechtlichen Rahmenbedingungen jedoch noch offen. Diese Maßnahme wird als Reaktion auf die zunehmende Sorge um die Sicherheit und psychische Gesundheit junger Menschen in den sozialen Medien betrachtet.
Eine Studie der Hochschule für Medien hat ergeben, dass 12- und 13-Jährige im Schnitt 83 Minuten täglich online sind. Experten warnen, dass der Konsum von Inhalten auf sozialen Medien gesundheitsschädlich sein und beispielsweise Depressionen auslösen kann. In Australien plant man ein Social-Media-Verbot für unter 16-Jährige, während die Bundesbildungsministerin Karin Prien (CDU) in Deutschland ebenfalls Interesse an Altersbeschränkungen zeigt.
Die Entstehung von Wedium
Ein Berliner Unternehmen hat die Social-Media-Plattform Wedium entwickelt, um eine sichere Alternative zu bestehenden Plattformen wie TikTok, Instagram und Facebook anzubieten. Die Betreibenden betonen, dass sie keine „Milliardäre“ oder „Tech-Bros“ sind. Ein Team aus Eltern, Programmierern, Medienexperten, Unternehmern und Angestellten hat sich zusammengeschlossen, um eine Plattform zu schaffen, die unabhängig von US-amerikanischen und chinesischen Technologie-Konzernen operiert und sich an europäischen Datenschutz- und Demokratiestandards orientiert.
Wedium soll ein sicheres Umfeld für Heranwachsende schaffen und negative Auswirkungen wie psychische Belastungen oder Suchtverhalten vermeiden. Die Plattform wird mit mehreren Funktionen ausgestattet sein, darunter ein eingebauter Jugendschutz und verpflichtende Identitätsprüfungen. Maßnahmen gegen Falschinformationen und ein ausbalancierter Algorithmus sind ebenfalls geplant.
Geplante Funktionen und Starttermin
Die Beta-Version von Wedium wurde am 25. März 2026 gestartet, während der reguläre Vollstart für Juli 2026 geplant ist. Nutzer können sich bereits für eine Warteliste für den Vollstart eintragen. Beiträge auf der Plattform können nur von verifizierten Personen veröffentlicht werden, sodass nicht verifizierte Nutzer lediglich Inhalte konsumieren können.
Zudem müssen Werbeeinnahmen transparent monetarisiert werden, wobei ein Teil der Einnahmen den Nutzern zur Verfügung steht. Ein Ethikrat, der auch eine Jugendschutzexpertin umfasst, berät die Betreiber der App, um sicherzustellen, dass die Plattform verantwortungsbewusst für junge Nutzer gestaltet wird.
Während die Debatte um Altersbeschränkungen und Jugendschutz in sozialen Medien weitergeht, gibt es zahlreiche rechtliche Hürden zu beachten. Die geltenden Regelungen des Digital Service Act (DSA) der EU verlangen geeignete Maßnahmen zum Schutz von Minderjährigen, und nationale Regelungen sind möglicherweise nicht zulässig. Somit birgt die Suche nach einem passenden Umgang mit sozialen Medien für Kinder und Jugendliche einige Herausforderungen, die je nach EU-Land unterschiedlich angegangen werden.


