¿Existe un dialecto secreto en redes sociales para burlar a los algoritmos que moderan el contenido? Todo indica que sí: un lenguaje en clave que ya está transformando la forma en que hablamos en internet, entre la censura preventiva y la invención constante de nuevos códigos.
Por Aldo Vidal Neira
En el mundo de las redes sociales hay un secreto a voces que parecen conocer todos los creadores de contenido: hay palabras que ya no se pueden decir en internet. Esa, al menos, es la creencia que comparten millones de usuarios. Así en lugar de decir que alguien fue asesinado o que se suicidó, los usuarios afirman que lo “desvivieron” o que esa persona se “desuscribió de la vida”. El “sexo” se nombra como “el delicioso” y el porno como “nopor”.
A primera vista, suena bastante ridículo: adultos hablando como si estuvieran tratando de engañar a una especie de inspector de colegio digital. Sin embargo, el fenómeno no es tan trivial como parece. Detrás de ese lenguaje artificioso hay algo muy interesante: el intento constante de los usuarios por descifrar la lógica invisible de los algoritmos. Porque nadie sabe exactamente cómo funcionan.
Las grandes plataformas tecnológicas, como TikTok, Instagram o YouTube, han repetido con insistencia que no existe una lista secreta de palabras prohibidas. El contexto, dicen, es lo que importa. Sus sistemas analizan millones de registros para recomendar contenido relevante, y las publicaciones solo se eliminan cuando violan reglas claras.
En teoría, es un modelo casi científico de moderación y recomendación de contenidos. En la práctica, se parece más a una caja negra.
Porque cuando un video fracasa en redes sociales, nadie sabe exactamente por qué. ¿El algoritmo lo penalizó? ¿O simplemente era un mal video? Existen innumerables denuncias en las que se afirma que el punto en común entre estos contenidos es que pueden herir sensibilidades, generar debate o “perjudicar a poderosos”.
En concreto lo que produce este tipo de incertidumbre es un comportamiento bastante paradójico (sobre todo si consideramos la promesa que hizo internet de libertad para para decir cualquier cosa): autocensura preventiva. Los creadores evitan ciertas palabras, ciertos temas o ciertas combinaciones de ambos por miedo a molestar a una máquina cuyo funcionamiento no comprenden del todo.
Gracias a esto nació un dialecto nuevo propio de las redes sociales. Los lingüistas lo llaman algospeak, una jerga digital formada por sustituciones, eufemismos y códigos que intentan sortear las posibles reglas de los algoritmos. Es un lenguaje construido sobre la sospecha. Cada palabra es una pequeña apuesta: tal vez el algoritmo la detecte, tal vez no.
En este contexto, pareciera que hoy hablar en internet es como recorrer una casa llena de sensores de movimiento. Nadie sabe exactamente dónde están, pero todos se mueven con cuidado.
A veces los resultados pueden ser cómicos. Adultos discutiendo temas serios con un vocabulario ridículo o debates políticos que terminan llenos de metáforas absurdas porque ciertas palabras parecen demasiado arriesgadas. Pero lo más absurdo es que, muchas veces, ni siquiera está claro si esas precauciones son necesarias.
En 2025, por ejemplo, miles de usuarios comenzaron a hablar en redes sociales sobre un supuesto festival de música en Los Ángeles. Videos entusiastas describían las luces, la multitud y el ambiente. El único problema era que el festival no existía.
En realidad, se trataba de protestas contra redadas migratorias en Estados Unidos. Algunos usuarios estaban convencidos de que las plataformas ocultaban las noticias sobre esas manifestaciones, así que comenzaron a usar “festival de música” como una forma codificada de referirse a ellas.
El código se propagó rápidamente. Otros usuarios lo adoptaron, algunos por convicción, otros por simple imitación. Durante unos días, internet habló de un evento musical imaginario que en realidad era una protesta. Lo curioso es que no había evidencia clara de que las plataformas estuvieran censurando esas noticias de manera premeditada.

Este tipo de fenómenos ha llevado a algunos investigadores a hablar de lo que llaman “el imaginario algorítmico”: la idea que los usuarios tienen sobre cómo funcionan los algoritmos, independientemente de si esa idea es correcta o no. En otras palabras, no importa tanto lo que los algoritmos hacen realmente, sino lo que creemos que hacen.
Y esas creencias cambian nuestro comportamiento. Si muchos usuarios creen que una palabra está prohibida, la dejarán de usar. Si creen que cierto tema perjudica la visibilidad de un video, lo evitarán. Así, la cultura digital, en la que todos estamos inmersos, empieza a reorganizarse alrededor de reglas invisibles.
De esta forma, ya no sería la censura clásica de un gobierno la que prohíbe términos concretos. Tampoco, necesariamente, la moderación formal de contenidos que aplican las plataformas. Sería algo más difuso: un ecosistema donde millones de personas intentan anticiparse a las decisiones de un sistema automático.
Un sistema que, además, cambia constantemente.
A nivel de lenguaje, lo que han hecho las redes sociales, que durante años han sido acusadas de simplificarlo todo, es producir una proliferación de expresiones, metáforas y palabras inventadas. Un idioma lleno de sustituciones.
El resultado final es que internet, el espacio donde supuestamente cualquiera podía decir cualquier cosa, se ha convertido también en una especie de “laboratorio lingüístico”. Un lugar donde el vocabulario evoluciona no solo por creatividad o moda, sino por la necesidad de adaptarse a reglas invisibles.
A luz de este escenario, el poder de los algoritmos, no sería solo lo que pueden censurar, sino el nuevo idioma que lograron crear sin proponérselo.
Compartir este contenido:







Publicar comentario