Auf Discord kommen „Fortnite“-Fans zum Zocken zusammen, Schülerinnen und Schüler zum Tratschen über die Klasse, Fußballfans zum gemeinsamen Mitfiebern beim Auswärtsspiel ihres Vereins. Einst als Chatdienst für Gamerinnen und Gamer vorgesehen, ist Discord längst zu einer Plattform zum Plaudern für alle geworden. In erster Linie ist Discord ein Ort, den viele Menschen gern nutzen – schließlich bietet die Plattform viele Möglichkeiten sowie ein Gefühl von Anonymität und Privatsphäre. Doch genau das macht Discord zu einem geeigneten Ziel für Kriminelle – und mitunter zur Gefahr für Kinder und Jugendliche. Umso wichtiger ist es, dass sich Eltern mit der Plattform auskennen.
Gamingfans sind die Hauptzielgruppe. Inzwischen gibt es zudem unzählige Interessengruppen. Heute zählt der Messagingdienst weltweit mehr als 154 Millionen Nutzerinnen und Nutzer, wie er Anfang Januar mitteilte. Der Chatdienst ist kinderleicht bedienbar, jedoch ist Discord „nicht auf die sichere Nutzung durch Kinder und Jugendliche ausgelegt“, warnt die EU-Initiative klicksafe.de, die über eine sichere Nutzung des Internets aufklärt. Das erklärt sich allein schon dadurch, dass die Registrierung bei Discord in Deutschland eigentlich erst ab 16 Jahren erlaubt ist – und unter 18-Jährige zudem die Zustimmung ihrer Eltern benötigen. Der Grund, warum sich dort trotzdem so viele Kinder tummeln, ist einfach: Discord überprüft das Alter und die Identität nicht.
Das wissen auch Täterinnen und Täter, die Kinder und Jugendliche sexuell belästigen und missbrauchen. Es ist eine bekannte Gefahr, dass sie auf Plattformen wie TikTok, Snapchat und eben auch Discord nach Minderjährigen suchen und sich dort ihnen annähern. Das Phänomen nennt sich Cybergrooming: Erst verwickeln sie sie in harmlose Gespräche, fragen später nach ihrer privaten Nummer oder Adresse. Sie bauen Vertrauen auf, drängen Kinder im Laufe des Kontakts schlimmstenfalls dazu, gemeinsame Treffen abzumachen oder sich vor der Webcam auszuziehen.
Der Chatdienst ist sich dieser Gefahr bewusst und geht gegen Täterinnen und Täter vor: Im jüngsten Transparenzbericht von Discord, der Ende 2022 veröffentlicht wurde, berichtet der Dienst, dass von Oktober bis Dezember mehr als 153 000 Accounts gesperrt wurden – unter anderem wegen Kindesbelästigung, Hassnachrichten und Mobbing. Discord ergreift auch weitere Maßnahmen bei Verstößen gegen die Richtlinien: Das Unternehmen meldet Inhalte der Kategorie „sexueller Kindesmissbrauch“ den Behörden.
Doch der beste Schutz ist Prävention. In den Einstellungen lässt sich im Bereich „Privatsphäre & Sicherheit“ beispielsweise festlegen, ob das Kind Nachrichten von Unbekannten – also Userinnen und Usern, die sie nicht als Freundinnen und Freunde hinzugefügt haben – in Servern erhalten darf. Außerdem können Direktnachrichten auf Inhalte gescannt werden, die nicht jugendfrei sind. Eltern sind zudem gut darin beraten, mit ihren Kindern über sichere und nicht sichere Server zu reden. Grundsätzlich erlaubt Discord zum Beispiel pornografische Darstellungen; die entsprechenden Chaträume müssen allerdings mit der Abkürzung „NSFW“ (Not Safe For Work) gekennzeichnet werden. In öffentlichen Servern oder privaten, die von Fremden gesteuert werden, kursieren schlimmstenfalls gewaltverherrlichende, rassistische und verschwörungsideologische Inhalte, die zwar verboten sind, aber oft genug trotzdem gepostet werden. Private Server unter Freundinnen und Freunden, die einen Einladungslink für den Zutritt benötigen, sind in der Regel unbedenklich. Allerdings sollten alle Mitglieder darauf achten, keine Einladungen an Fremde zu schicken.
Damit Kinder einen guten Umgang mit Discord und jeder anderen Plattform im Netz erlernen, können Mütter und Väter vor allem eines tun: offen mit ihnen darüber reden. „Bleiben Sie mit Ihrem Kind im Austausch. Reden Sie darüber, was auf der Plattform passiert, und signalisieren Sie, dass Sie bei Problemen zur Seite stehen“, betont die Initiative „Schau Hin“. Zudem rät sie dazu, dass Eltern mit ihren Kindern Nutzungsregeln aufstellen.