Vamos directo al grano: TikTok sabe lo que está haciendo, y lo hace demasiado bien. Todo el asunto de esta red social, en especial con los jóvenes, es como si fuera un atractivo irresistible. Todo el mundo lo quiere probar, pero nadie se da cuenta de las consecuencias hasta que ya está atrapado. Hace poco se destapó un gran escándalo: TikTok sabe que su algoritmo es adictivo y que está provocando estragos en la salud mental de los más jóvenes. Y no solo eso, sino que hace muy poco, realmente poco, para evitarlo.
14 Estados, 14 Demandas y un Algoritmo Sin Control
El pasado martes, 14 fiscales generales de Estados Unidos demandaron a TikTok. Argumentan que TikTok ha violado las leyes de protección al consumidor de manera significativa. Además, no podían dejar pasar cómo este algoritmo contribuye a una crisis de salud mental juvenil que ya es evidente. Imagínate, 14 demandas juntas, todas con sus documentos llenos de partes censuradas, como esos informes que ves con montones de líneas negras.
Pero espera, porque el drama no acaba ahí. Un documento defectuoso dejó expuesto todo lo que TikTok quería tapar. El resumen de la investigación es algo que ya todos sospechábamos: TikTok sabe que su app genera adicción y, además, sus medidas para prevenirlo son pésimas. Vamos, que lo saben, pero a la hora de actuar, poco y nada.
¿Cuántos Videos Necesitas Para Volverte Adicto? Solo 260

La investigación sacó a la luz algo que me dejó medio pasmado: TikTok solo necesita que veas 260 videos para engancharte. Así de sencillo. Y si piensas que 260 es un número alto, mejor piénsalo otra vez. Los videos de TikTok pueden durar unos 8 segundos, y se reproducen en sucesión automática. Haz cuentas. En menos de 35 minutos ya te tienen atrapado.
Las autoridades de Kentucky lo explican de manera bastante clara: «Por cada video de 8 segundos, en menos de 35 minutos, el usuario medio se vuelve adicto». O sea, en lo que te acabas un café. Y TikTok sabe esto. Sabe perfectamente que ese uso compulsivo está relacionado con problemas en la salud mental. Los documentos internos hablan de pérdida de habilidades analíticas, dificultad para formar memorias, y aumento de la ansiedad. En resumen, todo mal.
«El uso compulsivo también interfiere con cosas básicas, como dormir bien, estudiar, trabajar y, lo peor, desconectar de todo y conectar con los tuyos». Este es un punto en el que TikTok parece no querer profundizar demasiado.
Las Herramientas de Prevención No Funcionan
¿Y las herramientas que ofrece TikTok para que controles tu tiempo en la app? Pues otra mentira disfrazada de buena intención. Resulta que las mismas investigaciones de la empresa determinaron que esas herramientas solo logran reducir el uso promedio en 1,5 minutos al día. De 108,5 minutos, el promedio baja a 107 minutos. Esta diferencia, en realidad, no tiene un impacto significativo.
Pero lo peor no es eso. Lo peor es cómo miden el éxito de estas herramientas. No les interesa tanto cómo reducir el tiempo en pantalla. Lo que buscan es que la prensa hable bien de ellos. De hecho, un ejecutivo lo dejó clarito en un documento: «Nuestro objetivo no es reducir el tiempo invertido». Claridad aplastante, ¿no? Como quien dice, «no queremos que salgas, queremos que sigas, pero que la gente crea que estamos haciendo algo bueno por ti».
La Cámara Prefiere Gente Guapa
Hablemos de otro tema que también salió a la luz con estos documentos. Resulta que TikTok se dio cuenta de que aparecía «demasiada gente no atractiva» en el feed. ¡En serio! Y, claro, decidieron retocar el algoritmo para darle prioridad a lo que consideran «gente atractiva». ¿Sabes qué significa esto? Pues que TikTok está promoviendo un estándar de belleza que, queramos o no, afecta a los usuarios jóvenes. Y todos sabemos cómo terminan estos juegos con la autoestima: mal, muy mal.
Las autoridades de Kentucky también fueron claras en este punto. Dijeron que, al modificar el algoritmo para mostrar menos «sujetos no atractivos», TikTok tomó medidas activas para promover una belleza normativa. Esto, evidentemente, puede derivar en problemas personales importantes para los adolescentes, como el desarrollo de problemas de autoestima, trastornos alimenticios, y la creencia de que su valor depende únicamente de su apariencia. Porque, al final, si no encajas en ese molde de «belleza», acabas sintiéndote menos. Y así empiezan los problemas, con consecuencias a largo plazo en su salud mental y bienestar emocional.
Moderación Pobre y Filtros Que No Funcionan
Vamos a tocar otro punto, porque esto va de mal en peor. TikTok no está haciendo mucho por moderar el contenido que debería estar prohibido. Hacen algo, pero se quedan cortos. Supuestamente tienen un sistema de inteligencia artificial que filtra contenido inadecuado: ya sabes, pornografía, violencia, temas políticos sensibles. Y sí, esa IA filtra, pero no es perfecta.
Los videos con contenido de autolesiones, por ejemplo, pasan muchas veces el filtro, y no se eliminan hasta que ya tienen unas 75.000 reproducciones. ¿Te imaginas cuánto daño puede hacer un video así con tantas visualizaciones antes de ser eliminado? Y eso que TikTok asegura que toma medidas para proteger a sus usuarios. Sí, claro.
Cuentas de Menores y Directos Sin Control
El problema con los menores es otro escándalo. Supuestamente, TikTok tiene políticas estrictas para evitar que los menores de 13 años tengan cuentas. Pero no es tan así. En la práctica, los moderadores tienen que ser «cuidadosos» antes de eliminar una cuenta sospechosa de ser de un menor. Es decir, TikTok prefiere evitar problemas y permitir que menores sigan activos.
Y los directos… bueno, esa es otra historia complicada. TikTok permite que los menores transmitan en vivo y reciban regalos virtuales. Sí, regalos que son dinero real. Y ahí está el problema: estos regalos aumentan el riesgo de que depredadores adultos se acerquen a usuarios adolescentes para explotarlos. En la demanda de Kentucky, se menciona claramente que esto promueve la explotación sexual de menores. Y TikTok, según parece, está haciendo caso omiso a esta situación.
¿Y Qué Dice TikTok Sobre Todo Esto?
Desde TikTok, como era de esperarse, se defendieron. Dijeron que es irresponsable que NPR haya publicado información confidencial, y que los documentos se sacaron de contexto. Según TikTok, ellos están comprometidos con la seguridad de su comunidad y tienen medidas «sólidas» para proteger a los menores. Habría que ver qué consideran sólido. Porque, hasta ahora, todo lo que hemos visto apunta a lo contrario.
También mencionan que tienen medidas de seguridad activas por defecto, como límites de tiempo y sincronización familiar. Suena bien, pero luego ves los documentos internos y te das cuenta de que es puro teatro para quedar bien en la prensa. En la práctica, esos límites y esas medidas apenas mueven la aguja.
Resumen Rápido
- 14 estados demandaron a TikTok por violar leyes de protección al consumidor y afectar la salud mental juvenil.
- 260 videos son suficientes para que el algoritmo enganche a los usuarios, especialmente a los jóvenes.
- Las herramientas para reducir el tiempo en pantalla no funcionan; solo reducen 1,5 minutos de uso al día.
- El algoritmo de TikTok prioriza a la gente atractiva, promoviendo un estándar de belleza perjudicial para los jóvenes.
- Falta de moderación efectiva: contenido sensible pasa los filtros y se elimina tras miles de visualizaciones.
- TikTok no controla bien las cuentas de menores, permitiendo directos donde los adolescentes son vulnerables a explotación.
Preguntas Frecuentes
- ¿Por qué TikTok es tan adictivo?
TikTok usa un algoritmo que personaliza el contenido según tus intereses, lo que te mantiene enganchado por más tiempo. Solo necesitas ver unos 260 videos para volverte adicto. - ¿Cuáles son los riesgos para la salud mental asociados con TikTok?
TikTok puede contribuir a la ansiedad, la pérdida de habilidades analíticas, y afectar la formación de la memoria y el pensamiento profundo. - ¿Funciona la moderación de contenido en TikTok?
No muy bien. La IA a menudo deja pasar contenido sensible, que solo se elimina tras alcanzar miles de visualizaciones. - ¿Qué hace TikTok para proteger a los menores?
TikTok tiene medidas que supuestamente protegen a los menores, pero en la práctica, la moderación es poco efectiva y permite que menores sigan activos con cuentas estándar. - ¿Cómo afecta el algoritmo de TikTok a los estándares de belleza?
El algoritmo favorece a la «gente atractiva», promoviendo un estándar de belleza normativo que puede afectar la autoestima de los jóvenes. - ¿Las herramientas de control de tiempo de TikTok son efectivas?
No realmente. Las herramientas solo han logrado reducir el uso promedio en 1,5 minutos al día, lo cual no es suficiente para hacer una diferencia significativa.