https://theconversation.com/teen...ard-of-it-277460
Teenager und jüngere Kinder lernen online verschlüsselte Pädophilenphrasen wie „MAP“, lange bevor ihre Eltern überhaupt davon wissen.
Als ich Anfang Februar 2026 die TikTok-Nachrichten meiner zehnjährigen Tochter las, erwartete ich die übliche Mischung aus Tanz-Challenges, Schulwitzen und Anime-Clips. Stattdessen fragte sie ein Fremder: „Magst du Kinder?“ Ihre Antwort: „Ich bin kein MAP.“
Ich hatte den Begriff noch nie gehört. Auf meine Frage, was „MAP“ bedeutet, erklärte sie nur, es stehe für „Person, die sich zu Minderjährigen hingezogen fühlt“. In diesem Moment wurde mir etwas Beunruhigendes, aber Wichtiges klar: Kinder begegnen online verschlüsselter Sprache, lange bevor viele Eltern überhaupt davon wissen.
Warum ich darüber schreibe?
In meiner umfassenderen Forschung zu Online-Gefahren für Kinder und Jugendliche untersuche ich, wie Design und Regulierung von Websites und Apps die Sicherheit in der realen Welt beeinflussen.
Meine demnächst erscheinende Studie erforscht, inwiefern soziale Medien, Messenger-Apps und Gaming-Communities junge Menschen vor Anbahnungsversuchen, unerwünschtem Kontakt und anderen Formen der Online-Ausbeutung schützen – und inwiefern nicht.
Deshalb hat mich die Antwort meiner Tochter so erschüttert.
Trotz monatelanger Recherche darüber, wie große digitale Plattformen wie TikTok, Instagram und YouTube die Online-Sicherheit beeinflussen, war mir der Begriff MAP (My Associates of the Year) noch nie begegnet. Meine Freundin hingegen kannte ihn bereits nach nur zwei Monaten Chatten auf TikTok.
Eltern sollten den Begriff MAP kennen
. Er taucht in einigen wissenschaftlichen Publikationen zu Kinderschutzrichtlinien und Prävention von sexueller Ausbeutung sowie in Online-Bereichen wie Foren, Reddit-Communities und Nischengruppen in sozialen Medien auf. Vielen Eltern und Erziehungsberechtigten ist er jedoch unbekannt.
Faktencheck-Organisationen wie Snopes haben den Begriff MAP wiederholt thematisiert, da er häufig ohne Erklärung auftaucht.
MAP ist Teil eines größeren Ökosystems von Euphemismen und verschlüsselten Anspielungen. Eltern, die diese Begriffe frühzeitig erkennen, können potenziell gefährliche Interaktionen besser einschätzen und verstehen, wann jemand online versucht, schädliche Absichten zu verschleiern. Das Wissen um diese Sprache hilft Erwachsenen, besser zu entscheiden, wann sie eingreifen und die Sicherheit ihrer Kinder in den sozialen Medien unterstützen sollten.
Eltern und ihre Kinder können diese Begriffe auf beliebten Apps und Websites wie TikTok, YouTube, Instagram, Discord und Reddit sehen oder hören. Diese Begriffe umfassen:
• NOMAP/Nicht-pädophiler MAP und Anti-Kontakt-MAP: Bezeichnungen, die von Personen verwendet werden, die sich als minderjährig angezogen identifizieren und behaupten, ihre Anziehung zu Kindern nicht auszuleben, aber dennoch nach Anerkennung oder Zugehörigkeit suchen.
• 764 oder 7 6 4: Ein Zahlencode, der in bestimmten Foren, darunter Nischen-Threads auf Reddit und spezialisierte Messageboards, verwendet wird, um die Anziehung zu Minderjährigen zu signalisieren, ohne explizite Sprache zu verwenden.
• Anziehungsalter oder AOA: Ein Begriff, der von MAPs verwendet wird, um ihre Alterspräferenz auszudrücken – typischerweise ab 11 Jahren.
• Sexueller Kontakt zwischen Erwachsenen und Minderjährigen (AMSC): Ein Begriff, der von Menschen verwendet wird, die der Ansicht sind, Kinder sollten sexuelle Autonomie besitzen und selbst entscheiden können, ob sie sexuelle Handlungen mit einem Erwachsenen vornehmen möchten – eine Position, die von Kinderschutzexperten weitgehend abgelehnt wird.
• Erwachsener Freund und junger Freund (AF/YF): Bezeichnet Personen in MAP-Beziehungen (Adult Friend/Young Friend).
Warum Kinder zuerst mit dieser Sprache in Berührung kommen:
Kinder und Jugendliche verbringen viel Zeit online. Eine Umfrage des Pew Research Center aus dem Jahr 2025 ergab, dass etwa jeder fünfte US-amerikanische Teenager angibt, fast ständig auf Plattformen wie TikTok und YouTube unterwegs zu sein. YouTube, TikTok, Instagram und Snapchat gehören zu den am weitesten verbreiteten Plattformen.
Junge Menschen sind bemerkenswert gut darin, Bedeutungen aus dem Kontext zu erfassen. Sie achten auf Tonfall, Wiederholungen und die Reaktionen anderer. Sie verstehen vielleicht nicht vollständig, woher ein Begriff stammt, aber sie verstehen seine soziale Funktion, seine Bedeutung, wann er als Witz und wann als Warnung gemeint ist.
Journalisten und Linguisten bezeichnen dieses Phänomen als Algospeak: Sprache, die eher durch algorithmische Moderation als durch Klarheit oder Transparenz geprägt ist.
Erwachsene hingegen stoßen oft erst auf diese Begriffe, nachdem etwas Beunruhigendes passiert ist. Bis dahin kann die Sprache für Kinder bereits normal erscheinen.
Wie schädliche Interaktionen die Moderation umgehen:
Die meisten großen Social-Media-Plattformen setzen stark auf automatisierte Moderationssysteme. Diese Systeme erkennen zwar effektiv explizite Wörter oder zuvor markierte Ausdrücke.
Studien und Berichte zeigen jedoch, dass schädliche Interaktionen – insbesondere solche, bei denen Erwachsene den Kontakt zu Kindern oder Jugendlichen suchen – oft einem vorhersehbaren Muster folgen, wenn die Moderation mit der sich entwickelnden Terminologie nicht Schritt hält:
Zunächst verwenden die Nutzer Euphemismen anstelle expliziter Begriffe. „MAP“ wird seltener moderiert oder zur Löschung markiert als das Wort „Pädophiler“, das es oft ersetzt.
Häufig werden auch Zahlen oder Emojis verwendet, um die Bedeutung indirekt zu vermitteln. Codes wie „764“ oder bestimmte Emoji-Kombinationen können Bedeutungen signalisieren, ohne erkennbare Wörter zu verwenden.
Manche Nutzer betten Begriffe in Memes, Witze oder ironische Kommentare ein. Dadurch wirkt schädliche Sprache harmlos oder lustig.
Andere nutzen ästhetische Tarnung, beispielsweise Anime-Avatare, Pastellfarben oder niedliche Benutzernamen, um harmlos oder jugendfreundlich zu wirken.
Auch Erwachsene verlagern Gespräche mitunter in private Nachrichten. Der erste Kontakt findet oft in öffentlichen Kommentaren statt, die eigentliche Unterhaltung verlagert sich jedoch in private Direktnachrichten (DMs).
Ein weiteres Warnsignal ist die Erstellung von Zweitaccounts. Wird ein Account verdächtigt, taucht schnell ein neuer auf.
Proaktive elterliche Aufklärung ist daher unerlässlich.
Die meisten Ratschläge zur Online-Sicherheit sind reaktiv: Erwachsene werden dazu angehalten, erst zu reagieren, wenn ein bestimmter Begriff auftaucht oder sich ein Kind unwohl fühlt.
Studien zeigen jedoch zunehmend, dass effektiver Schutz oft schon früher beginnt, indem Eltern ihren Kindern helfen, die Funktionsweise digitaler Umgebungen zu verstehen. Untersuchungen zur digitalen Kompetenz von Jugendlichen legen nahe, dass Kinder davon profitieren, zu verstehen, dass Algorithmen Aufmerksamkeit, Wiederholung und Engagement belohnen, nicht aber Sicherheit.
Zu wissen, dass die App annimmt, dass einem etwas gefällt, wenn man stehen bleibt und es ansieht, hilft jungen Nutzern zu verstehen, dass Inhalte ihnen aufgedrängt werden und nicht etwas, das sie selbst gesucht haben.
Manche Familien führen bereits im späten Grundschulalter oder frühen Sekundarschulalter allgemeine Gespräche über verschlüsselte Sprache. Die Diskussion darüber, warum Menschen online Euphemismen verwenden, bereitet Kinder darauf vor, innezuhalten und Fragen zu stellen, wenn unbekannte Begriffe auftauchen. Studien zur elterlichen Mediation zeigen außerdem, dass eingeübte Antworten Kindern helfen, sich aus unangenehmen Situationen zu lösen. Einfache Formulierungen wie „Ich möchte nicht darüber reden“, „Ich blockiere dich“ oder „Ich melde mich jetzt ab“ können helfen, Zögern abzubauen.
Eltern, die Zeit mit ihren Kindern verbringen, während diese Apps und Websites nutzen – nicht um sie zu kontrollieren, sondern um zu verstehen, was sie sehen –, können Kindern und Jugendlichen helfen, digitales Verhalten genauso zu analysieren wie Gruppenzwang im realen Leben.
Studien zeigen außerdem, dass Kinder und Jugendliche, die verstehen, dass sie Fremden weder Höflichkeit noch persönliche Daten oder ein fortgesetztes Gespräch schulden, weniger anfällig für Manipulation sind.
Achtsamkeit, nicht Panik, ist ein wichtiges Instrument für Familien, die sich in der Online-Welt bewegen, wo schädliche Sprache und Absichten oft offensichtlich sind. Wenn Erwachsene engagiert und proaktiv handeln, sind Kinder besser gerüstet, um zu erkennen, wenn etwas nicht stimmt, und mit vertrauten Personen darüber zu sprechen.