La Radio Pública de EU (NPR) comprobó lo que todos temíamos: TikTok sabe que es adictiva y no le importa perjudicar tu salud mental.
Fabián Vega
TikTok sabe que su plataforma es adictiva para las personas, e incluso tiene un número preciso de visualizaciones que se necesitan para que sus usuarios más jóvenes se enganchen al tan criticado scroll infinito.
A través de investigaciones y comunicaciones internas de ByteDance, la Radio Pública de Estados Unidos (NPR por sus siglas en inglés) y la Radio Pública del estado de Kentucky (KPR), han expuesto documentos secretos donde ejecutivos de TikTok admiten saber de los potenciales daños a la salud mental que podría llegar a causar en adolescentes e infantes el uso extensivo de TikTok.
Te podría interesar: Demandan en EU a plataformas por dañar la salud mental de menores
Y aunque la compañía se aseguró de mantener bajo una estricta confidencialidad sus estudios, presentados como parte de las 13 demandas en su contra en EU, por considerarla peligrosamente tóxica y adictiva, el proceso legal de la Fiscalía General de Kentucky tuvo problemas en su redacción. Los cuales fueron aprovechados por una reportera de la KPR para filtrar hasta 30 páginas de información secreta sobre TikTok usando Microsoft Word.
¿Cuántos videos se necesitan ver para hacerse adicto a TikTok?
En la información obtenida por NPR, se revela que, según el estudio interno de TikTok, tras provocar “una necesidad constante e irresistible de seguir abriendo la aplicación”, a la popular plataforma de video le basta con que consumas 260 videos de formato corto (de un par de segundos), de forma consecutiva para que te vuelvas adicto a.
Tras determinar “la cantidad precisa de visualizaciones” para que las personas se obsesionen con la aplicación, algunos de los efectos nocivos en el cerebro que tienen bien identificados son:
- Pérdida de habilidades analíticas
- Afectaciones en la formación de la memoria
- Daños en el pensamiento contextual
- Reducción de la capacidad de tener una conversación profunda
- Pérdida de empatía
- Aumento de la ansiedad
“También interfiere con responsabilidades personales esenciales como dormir lo suficiente, las responsabilidades laborales y escolares y la conexión con los seres queridos”.
El algoritmo de TikTok apoya más a las personas que considera “bellas”
De acuerdo con Bobby Allyn, corresponsal de tecnología en NPR, la plataforma también impulsa más a aquellos usuarios que el algoritmo encuentra más atractivos que otros. Penalizando a las personas por no ser “guapas”:
“Los documentos de TikTok mostraron que en realidad cambió su algoritmo para degradar a las personas que consideraba poco atractivas”.
TikTok ya había asegurado que trabajaba en herramientas para limitar el tiempo que niñas, niños y adolescentes pasan frente a la plataforma. Sin embargo, ninguno de sus mecanismos de protección buscaba realmente establecer un límite entre 40 y 120 minutos al día, sino que fue creado para medir “cómo estaba mejorando la confianza del público en la plataforma a través de la cobertura de los medios”:
“TikTok concluyó que la función tuvo poco impacto. Redujo aproximadamente 1:30 minutos en el uso. Según la denuncia del fiscal general, [la app] no volvió a abordar este problema”.
A TikTok no le interesa proteger de la pedofilia a las infancias y adolescencias
En el documento también se aborda la protección de menores de edad frente a temas como la pedofilia, la violencia o el abuso y aunque hasta en Europa, la Comisión Europea ha exigido desde abril a TikTok que cambie esto.
La realidad es que 35 por ciento del contenido que normaliza la pedofilia sigue llegando a las pantallas de menores de edad, una cifra que hasta los ejecutivos conocen. Así como el 33 por ciento de publicaciones que incitan a abusos de menores, 39 por ciento de videos que promueven el abuso a jóvenes y hasta un 50 por ciento que enaltecen de alguna forma la agresión sexual a menores de 18 años.
Todo esto se debe en gran medida a que no hay una persona encargada de forma directa del filtrado del contenido que llega hasta las pantallas de los usuarios, sino ¡una máquina!:
“La primera ronda suele utilizar inteligencia artificial para marcar el contenido sensible, violento o político. Las etapas siguientes utilizan moderadores humanos, pero solo si el video tiene una cierta cantidad de vistas, según los registros. Las revisiones adicionales no suelen tener en cuenta algunos tipos de información o reglas específicas para ciertas edades”.
TikTok responde: el documento fue sacado de contexto
Al respecto, un portavoz de TikTok acusó que era irresponsable haber filtrado la documentación y alegó que la información contenida en sus documentos internos fue sacada de contexto y que se trata de documentación obsoleta para tratar de desprestigiar su compromiso con la seguridad de las personas usuarias.
¿#TikTok 📲 vetada de #EU? 🇺🇸
— IMER Noticias (@IMER_Noticias) October 13, 2024
Conoce todas las demandas en su contra por ser considerada adictiva, tóxica y hasta dañina para las infancias 👦👧 y cómo respondieron los de #ByteDance.
▶️https://t.co/0oSZ5yibRF pic.twitter.com/k5H1NZ46J8
Te recomendamos:
UE pide a TikTok y YouTube explicar cómo funcionan y afectan sus algoritmos





