Dos niños, conectados a internet con una tablet. / Carolina Santos

La AUC pide que las redes sociales regulen sus contenidos como las plataformas convencionales

Solo un 5,5% de los contenidos perjudiciales para los menores en internet llevan alguna advertencia sobre la edad | La Asociación de Usuarios de la Comunicación entiende que los vídeos deben estar calificados por edades

Iker Cortés
IKER CORTÉS Madrid

La Asociación de Usuarios de la Comunicación (AUC) quiere poner límites a las escasas obligaciones que tienen plataformas como YouTube o Vimeo y redes sociales como Facebook, Twitter o Tik Tok a la hora de difundir contenidos con el fin de proteger a los menores, dado que el 94,5% de los contenidos perjudiciales para menores no presentan advertencia alguna sobre la edad, y para defender también los intereses del grueso de los consumidores ante las comunicaciones comerciales ilícitas.

Para acabar con este todo vale que parece fluir por internet, proponen, ahora que la nueva Ley General de Comunicación Audiovisual se encuentra en plena tramitación parlamentaria, que este tipo de plataformas se acojan a las mismas reglas a las que están sometidas las televisiones lineales, que deben ajustarse a una normativa concreta en lo referente a las comunicaciones comerciales y que están obligadas no solo calificar por edades los contenidos que difunden, sino a restringir los contenidos adultos a determinadas franjas horarias. Del mismo modo, piden regular la figura de los usuarios generadores de contenidos, más conocidos como 'influencers', que deberían ajustarse a esas mismas obligaciones en lo referente a los menores y a la publicidad. «Hay que tener en cuenta que sus seguidores, especialmente entre menores y jóvenes, superan a la audiencia de muchos programas de televisión», apuntan desde la asociación.

«El tema tiene dificultades porque hay que conciliar dos normativas que son la Ley de Servicios de la Sociedad de la Información y la Ley General de la Comunicación Audiovisual, pero creo que casi todo el mundo entiende que el objetivo es que los ciudadanos deben tener el mismo nivel de protección, independientemente de dónde decidan ver un contenido. No puede ser que yo vea el mismo contenido en la televisión y en internet, y en un caso esté protegido y en otro no. A partir de ahí, se trata de encontrar la forma mas realista de hacerlo viable», expone Alejandro Perales, presidente de la Asociación de Usuarios de la Comunicación.

Un tercio de los mensajes publicitarios son encubiertos

Son las conclusiones a las que han llegado tras analizar cerca de 4.000 contenidos audiovisuales, entre programas generados y difundidos por las propias plataformas y vídeos generados por sus usuarios. El estudio revela que, en el libre acceso de los menores a contenidos inadecuados, solo un 1,1% de los contenidos analizados presenta algún tipo de señal o advertencia de edad y que en el caso de los contenidos perjudiciales solo un 5,5% presenta estas advertencias. Esas señales, revela el trabajo, se concentran en las plataformas de vídeo, pero «prácticamente no existen en las redes sociales». Destaca, además, que aunque estas plataformas rara vez alojan pornografía o violencia extrema, su acceso para los menores sigue siendo «total» en internet.

En lo que respecta a la publicidad, el informe señala que un tercio de los mensajes publicitarios y promocionales detectados son comunicaciones comerciales encubiertas y que estas se registran fundamentalmente entre los influencers (un 84,6% de los casos). Se queja también la asociación, de la saturación publicitaria a la que se ven sometidos los espectadores. En el caso de los programas difundidos por las plataformas, un 37,4% de los contenidos presentaba cuatro o más cortes publicitarios por cada 30 minutos, algo que además de aumentar la percepción invasiva de la publicidad, «menoscaba la integridad de los contenidos», explica Perales.

Las comparaciones siguen siendo odiosas en lo referente a los formatos publicitarios y promocionales. Las plataformas y las redes sociales se benefician de la falta de regulación frente a las restricciones de las televisiones. Así, en un 73% de los patrocinios, hay mensajes directos a la incitación de la compra y en los emplazamientos de marca, en un 100% de los casos, no hay señalización ni advertencia y de nuevo proliferan los mensajes directos incitando a la compra. Pero hay más, es fácil ver, por ejemplo, cómo se ofertan productos de salud sin evidencia científica ni autorización alguna, bebidas alcohólicas de forma encubierta, tabaco, autopromociones o medicamentos. Cabe decir, eso sí, que tras la aprobación del Real Decreto de desarrollo de la Ley del Juego, las comunicaciones comerciales de juegos y apuestas han desaparecido de las plataformas y las redes sociales no especializadas, aunque hay alguna presencia puntual 0,2%.

El último punto en el que hace hincapié el informe es en las comunicaciones comerciales dirigidas especialmente a los menores. En este punto, la asociación ha visto incitación directa a los menores a la compra en un 8,9% de los mensajes publicitarios. También ponen el foco en la prescripción de productos por parte de influencers «que explotan la confianza y credulidad de los menores», incitándoles a la compra y en el acceso de los menores a contenidos de estética que «imponen cánones de belleza estrictos y excluyentes», así como comunicaciones de productos «ricos en grasas». En ambos casos, las televisiones cuentan con reglas que restringen el acceso a los menores.

Así las cosas, está claro que los sistemas de control parental que se implementan desde las casas no funcionan del todo bien. «Tienen dos problemas. Muchos de ellos están basados en terminología y la terminología es muy engañosa. Lo que sucede es que en algunos casos van más allá, bloqueando contenidos que no se deberían bloquear, y en otros dejando acceso total. Ocurre con la pornografía, a determinadas palabras responden bloqueando, pero otros términos más metafóricos pasan perfectamente cualquier filtro», explica Perales. «Nosotros creemos que lo que funciona, aparte de sistemas de doble verificación para conocer la identidad del usuario y determinar si es menor o no, es la calificación de los contenidos como paso previo a su almacenamiento y difusión, porque permite que haya un baremo armonizado con unos criterios que todo el mundo utilice que sean similares y que permitan que de forma automática un control parental funcione», concluye.