TikTok. Amnesty International warnt vor schädlichen Inhalten

Amnesty International warnte am Sonntag, dass die Videoplattform TikTok die schwerwiegenden Risiken für die geistige und körperliche Gesundheit junger Nutzer auch fast 18 Monate nach der Aufdeckung dieser Risiken durch eine Untersuchung der Organisation weiterhin nicht berücksichtigt.
Diese Untersuchung aus dem Jahr 2023 kam zu dem Schluss, dass Kinder und junge Nutzer auf TikToks „Für Dich“ -Feed Gefahr laufen, in ein toxisches „schwarzes Loch“ von Inhalten im Zusammenhang mit Depressionen und Selbstmord hineingezogen zu werden, ein Problem, das das Unternehmen bisher weder anerkannt noch konkrete Lösungen dafür angeboten hat, erklärte Amnesty International (AI) in einer Erklärung.
Die Organisation warnt sogar vor möglichen Auswirkungen auf das psychische Wohlbefinden, insbesondere jüngerer Nutzer, die mit konzentrierten Inhalten im Zusammenhang mit extremen Diäten und Inhalten zum Thema Körperbild verbunden sind.
Die Untersuchung, bei der mithilfe von Konten 13-Jährige im Internet simuliert wurden, ergab, dass innerhalb von 20 Minuten nach der Erstellung eines Kontos und der Signalisierung eines Interesses an psychischer Gesundheit mehr als die Hälfte der Videos im „Für Dich“ -Feed von TikTok mit psychischen Gesundheitsproblemen in Zusammenhang standen.
„Mehrere dieser innerhalb einer Stunde empfohlenen Videos romantisierten, normalisierten oder förderten Selbstmord“, sagt er und betont, dass dies eine der wichtigsten Schlussfolgerungen des im November 2023 veröffentlichten Forschungsprojekts über die Risiken für die Rechte von Kindern und Jugendlichen auf einer der beliebtesten Social-Media-Plattformen sei.
Auf die Frage von AI, welche Änderungen seit der Untersuchung umgesetzt wurden, listete TikTok bereits bekannte Maßnahmen zum Wohlbefinden auf, von denen die meisten zum Zeitpunkt der Untersuchung bereits in Kraft waren, ohne das „Schwarze Loch“-Problem der App einzuräumen oder Beweise für konkrete neue Maßnahmen vorzulegen.
Der Untersuchung zufolge verfolgt das invasive Geschäftsmodell von TikTok alles, was ein Benutzer auf der Plattform tut. Es versucht, seine Interessen, seinen emotionalen Zustand und sein Wohlbefinden vorherzusagen, um im „Für dich“-Feed personalisiertere Inhalte anzuzeigen, damit er weiter surft, auch wenn die Inhalte schädlich sind.
AI plädiert für wirksame Schutzmaßnahmen, um insbesondere zu verhindern, dass gefährdete Nutzer in süchtig machende Nutzungsmuster verfallen und in gefährliche und schädliche Inhaltsfallen tappen.
observador