España ha declarado que prohibirá el acceso a redes sociales a menores de 16 años. No hay mucha más información, pero encuentro mucho consenso social respecto a la medida. Puedo entenderlo. Los que trabajamos en el ámbito de la tecnología y la educación vemos cada día los riesgos y peligros de las redes, pero creo que muchos se han lanzado a celebrarla asumiendo que, por sí sola, resolverá problemas que son mucho más profundos. Como si fijar una edad y activar un bloqueo bastara para afrontar todos los riesgos, cuando en realidad estamos ante un fenómeno muy complejo que exige educación y una regulación mucho más ambiciosa que lo que se plantea hasta el momento.

No tengo claro a qué edad es adecuado que una persona acceda a redes sociales. Probablemente muchos podamos coincidir en que aquella etapa en la que se regalaba un móvil a los ocho años por la comunión ha quedado atrás (o debería haberlo hecho). Sin embargo, cuando entramos en la adolescencia, el acuerdo se diluye y ya no está tan claro en qué momento concreto una persona está preparada para tener un dispositivo con acceso a redes. En este sentido, conviene recordar que la edad, por sí sola, es solo uno de los muchos factores que influyen en la forma en que alguien se relaciona con el entorno digital. La madurez emocional, la capacidad de autorregulación, el contexto familiar, el acompañamiento adulto, la educación digital previa e incluso el propio diseño de las plataformas pesan tanto o más que el número de años cumplidos. La investigación y la evidencia actual nos dice que son muchos los factores contextuales que influyen en un buen o mal uso de las redes.

Por eso, fijar una edad mínima puede ser una herramienta regulatoria necesaria y comprensible, pero no suficiente. En España, la edad mínima legal de acceso está fijada en los 14 años y, sin embargo, sabemos que en la práctica el contacto con redes sociales se produce bastante antes. Y el principal problema es que las prohibiciones generales simplifican un problema que es muy complejo, se pueden retrasar el acceso formal, pero al cumplir los 16 años no se garantiza mágicamente que se tenga en ese momento una experiencia segura ni responsable en redes.

La diferencia clave de la regulación de edad es que va a acompañada de medidas que trasladan a las plataformas la responsabilidad directa. Es decir, si alojan contenido no adecuado para menores, estas deben garantizar que estos no accedan a esos espacios. La idea es interesante porque pone el foco en quienes diseñan y monetizan los espacios digitales, no solo en las familias o en los propios menores. Pero también abre varios interrogantes: cómo se implementará esa verificación, qué datos se recogen, quién los gestiona y si la solución tecnológica puede acabar generando nuevos problemas de privacidad, exclusión o desplazamiento hacia espacios menos regulados.
Veamos qué ha pasado en Australia y Reino Unido.

El caso de Australia

Australia aprobó recientemente una ley que prohíbe a los menores de 16 años acceder a redes sociales. Como decíamos, la responsabilidad recae en las plataformas, que deben verificar la edad de sus usuarios e impedir el acceso a quienes no cumplan el requisito. La norma afecta a aplicaciones como Facebook, Instagram, TikTok, Snapchat, X, YouTube, Reddit, Twitch, Kick y Threads, que se enfrentan a multas millonarias si no bloquean a los menores. Leído así, parece difícil cuestionar la medida. Pero vamos a analizarlo desde una perspectiva crítica.

  • Primero: la fundamentación científica.
    No existe, hasta el momento, evidencia sólida que respalde que una prohibición generalizada reduzca los problemas de salud mental o mejore de forma significativa el bienestar de los adolescentes. La relación entre redes sociales y malestar psicológico es compleja, multicausal y todavía objeto de debate académico. La medida se apoya más en una intuición social ampliamente compartida que en la investigación.
  • Segundo: el marketing político.
    La ley australiana se tramitó con gran rapidez, dejando un margen mínimo para alegaciones. La Sociedad Australiana de Psicología, por ejemplo, renunció a presentar aportaciones por el escaso plazo concedido. Entre las principales críticas figura la falta de consulta a los propios jóvenes, quienes son directamente afectados por la norma. Además, la iniciativa vino acompañada de mensajes simplificados y campañas de tono sensacionalista que sugieren que prohibir el acceso resolverá automáticamente los problemas de salud mental.
  • Tercero: la efectividad de la medida
    En las primeras semanas se han retirado casi 5 millones de cuentas, pero no está claro si esto implica que haya 5 millones de jóvenes menos en redes. De hecho, la descarga de aplicaciones VPN aumentó en torno a un 400%, y algunos menores han recurrido a herramientas de inteligencia artificial para «envejecer» su rostro en los sistemas de verificación. Es cierto que el hecho de que haya quien intente eludir una norma no la convierte automáticamente en innecesaria, porque ninguna regulación es infalible. Sin embargo, si la evasión se vuelve masiva y relativamente sencilla, conviene preguntarse si el diseño de la medida está atacando al núcleo del problema o solo a su superficie.
  • Tercero: el riesgo de desplazamiento.
    Preocupa especialmente que adolescentes que dependen de las redes sociales para conectarse, expresarse o encontrar espacios de inclusión (por ejemplo, jóvenes LGTBIQ+, con intereses minoritarios o en contextos rurales) terminen migrando a espacios digitales no regulados, plataformas menos visibles, foros cerrados o aplicaciones alternativas donde la supervisión es menor y la protección, aún más débil.

El caso de Reino Unido

Las propuestas regulatorias que trasladan a las plataformas la responsabilidad del acceso a redes sociales y otros contenidos son, en principio, interesantes. Pero no siempre son tan eficaces ,ni tan inocuas, como parecen sobre el papel. En Reino Unido llevan unos años tratando de regular este aspecto. La Online Safety Act impone nuevas obligaciones a empresas de redes sociales y servicios de búsqueda, haciéndolas más responsables de la seguridad de los usuarios en sus plataformas. El regulador británico, Ofcom, lidera la implementación de la ley y ha optado por una entrada en vigor gradual de sus disposiciones.

Entre otras medidas, esto significa que los sitios que alojen contenido no adecuado para menores deben aplicar procedimientos rigurosos de verificación de edad. Es decir: no basta con una casilla que diga “tengo más de 18 años”. Se exige tecnología capaz de comprobarlo con mayor fiabilidad. En este sentido, plataformas como Reddit y Discord ya han comenzado a aplicar sistemas de verificación en determinados foros o espacios con contenido para adultos. En algunos casos utilizan tecnología desarrollada por Persona, una empresa especializada en verificación de identidad digital.

El asunto es que entre los inversores destacados de Persona figura Peter Thiel, cofundador de PayPal y de Palantir Technologies. Peter Thiel es fundador de Palantir y de PayPal. Vinculado a Epstein, cercano a Trump y conocido por comercializar herramientas utilizadas con fines bélicos o de control de población. Una de sus frases más conocidas es que «la libertad y la democracia ya no son compatibles» y ha creado el software de control y vigilancia que usa el ICE para perseguir y deportar inmigrantes en EEUU.

Es decir, estamos exigiendo sistemas de verificación de edad que deberían ser extremadamente seguros, y sin embargo podríamos estar introduciendo herramientas de identificación más invasivas y peligrosas. En palabras de Juan García, esto sería «poner al zorro a cargo de las gallinas». Esto es, básicamente, el hecho de confiar la protección de menores a tecnologías financiadas o impulsadas por actores cuyo negocio se basa, en última instancia, en la explotación intensiva de datos.

Es importante destacar que en un ecosistema digital profundamente interconectado dominado por algunas grandes empresas (lo que algunos llaman tecnofeudalismo) es difícil encontrar herramientas completamente ajenas a estas dinámicas. Además, no todas las tecnológicas son iguales ni todas tienen los mismos estándares éticos. Pero precisamente por eso, las regulaciones que buscan proteger a menores deberían extremar el cuidado en transparencia y garantías de privacidad.

Que debemos aprender de estos casos

Los casos analizados demuestran algo importante: trasladar la responsabilidad a las plataformas por sí mismo no resolverá el problema. Dependerá de cómo se diseñen los sistemas, quién los controle, qué datos recojan y qué salvaguardas existan. En este sentido, la autonomía tecnológica en los sistemas de identificación de edad serán clave. Por ello, la Unión Europea está explorando el desarrollo de soluciones propias de verificación de edad con mayor control público. Aun así, tampoco están exentas de críticas en términos de privacidad y eficacia, pero son pasos necesarios que se han de ir dando.

También podemos aprender que un discurso centrado exclusivamente en la edad no es suficiente. El foco no puede limitarse a impedir el acceso, como si el riesgo desapareciera por decreto tecnológico. Estamos ante un problema estructural que exige asumir responsabilidades compartidas. Ninguna herramienta sustituye a la formación crítica. Y ningún sistema de verificación, por sofisticado que sea, puede reemplazar la capacidad de los jóvenes para comprender, cuestionar y gestionar el entorno digital en el que viven.

Las consecuencias

Las decisiones regulatorias no son neutras. Cada medida que se adopta redefine el ecosistema en el que crecen y se relacionan los jóvenes. Por eso conviene detenerse no solo en la intención, sino en otros elementos que quizás no estamos valorando en este debate:

  • Se eliminan los riesgos, pero también las posibilidades: Cuando decimos simplemente «no», no estamos rechazando solo una herramienta, en cierta medida también estamos negando un espacio donde se construyen vínculos, se ensayan versiones de uno mismo y se articulan formas de participación cultural que forman parte de la identidad de los jóvenes.
  • La lógica de la prohibición. Cuando el acceso a las redes se vive como algo prohibido o clandestino, el margen para pedir ayuda si pasa algo se reduce. El miedo a la reprimenda puede pesar más que la necesidad de apoyo. Y eso puede dejar a muchos menores más solos precisamente cuando más protección necesitan.
  • El solucionismo tecnológico. El solucionismo tecnológico es pensar que por prohibir o dejar que se use una herramienta, todo va a solucionarse automáticamente. Por eso, el riesgo del solucionismo es que genera una falsa sensación de control por parte de la sociedad de un problema que es más multidimensional, y por lo tanto, no hablamos de otros factores que influyen y son clave, además de la edad.
  • La banca siempre gana. Resulta cuanto menos curioso, que en varios lugares, las mismas empresas y el mismo ecosistema que han construido el modelo de negocio basado en la extracción de datos y la maximización de la atención participen ahora en la provisión de las soluciones. Eso obliga, como mínimo, a exigir transparencia, garantías y una supervisión realmente independiente.

Tenemos poca información para valorar, pero otras propuestas planteadas por el gobierno también han sido cuestionadas. Las medidas contra el anonimato generan preocupación, porque aunque el anonimato puede facilitar abusos (todos hemos sufrido a los trolls anónimos), también protege a activistas, periodistas y personas vulnerables en red, y no podemos olvidarlo. También sabemos de la importancia de combatir las fake news en el mundo actual, pero cuando las categorías no están delimitadas con claridad jurídica, existe el temor de que puedan utilizarse para restringir discursos incómodos. Por lo tanto, el dilema no es si regular o no regular, creo que está claro que tal y como está todo, hay que hacer algo, sino cómo protegernos sin erosionar los derechos fundamentales.

Me gustaría que no se malinterpretara este mensaje: esto no es una defensa irreflexiva de las redes ni una negación de los riesgos. No estoy defendiendo que un niño o niña tenga que estar en determinados espacios o que tenga que tener un teléfono móvil a los 10 años. No es eso. Es una llamada a no simplificar un problema complejo y a apostar por educación y regulación con sentido, no por soluciones populistas que no se basan en la evidencia. Hasta ahora, solo hemos tenido simplificación del discurso, evidencia sesgada y populismo.

Sí, la regulación es necesaria.
Y, sí, las plataformas deben responder. Y es un cambio de paradigma interesante enfocar en que asuman esta responsabilidad.
Pero junto a ello hacen falta transparencia real, supervisión independiente y, sobre todo, educación digital. Y de eso, no estamos hablando.

Esperaremos a ver la redacción y la regulación concreta en nuestro país para poder valorar en profundidad cómo se aplicará en la práctica, qué garantías incorporará y los efectos reales que tendrá. Desde luego, va a ser todo un reto.

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *