¿Quién protege a las infancias y adolescencias frente a la IA? Retos éticos y derechos en la era digital
Universidad de las Ciencias
Cada vez más, la inteligencia artificial, forma parte de la vida cotidiana de niñas, niños y adolescentes. En México, más de la mitad de los jóvenes (52%) utilizan activamente herramientas de IA como ChatGPT o Gemini, lo que coloca al país en el tercer lugar a nivel global en adopción de estas tecnologías. De acuerdo con datos de The Competitive Intelligence Unit, su uso es más común entre jóvenes menores de 21 años, pues el 53% la utiliza frecuentemente. Este escenario plantea interrogantes importantes acerca de quién protege a las infancias y adolescencias frente a los riesgos asociados al uso de estas tecnologías. La incorporación de la IA en su vida cotidiana proyecta retos sobre la protección de datos personales, la privacidad, la no discriminación y el interés superior de la niñez.
Entre los beneficios y los riesgos
Hoy en día, la IA ofrece oportunidades sin precedentes para mejorar algunos aspectos de nuestra vida. Por ejemplo, en el ámbito educativo, el uso de herramientas basadas en IA abre oportunidades relevantes para el aprendizaje personalizado, el acompañamiento académico y el acceso a la información. No obstante, también genera desafíos relacionados con la vigilancia, la dependencia tecnológica y las desigualdades en su acceso. Para las infancias y adolescencias, estas tensiones pueden afectar su autonomía, el derecho a la privacidad y su desarrollo integral.
Parga-Belinkie (2024) señalan que la recopilación masiva de datos personales, que muchas veces se llevan a cabo sin un consentimiento plenamente informado, expone a las infancias a prácticas de vigilancia, perfilamiento y uso indebido de su información. Asimismo, los sistemas de recomendación pueden favorecer la exposición a contenidos inadecuados, reforzar estereotipos o generar dinámicas de dependencia tecnológica. Otro riesgo es la reproducción de sesgos y discriminaciones en sistemas automatizados, lo que puede afectar de manera diferenciada a las infancias en contextos de desigualdad social, económica o cultural.
Por otra parte, muchas plataformas utilizan algoritmos diseñados para maximizar el tiempo de pantalla, aprovechando mecanismos psicológicos de recompensa que generan dependencia. Los cerebros en desarrollo son especialmente susceptibles a estos estímulos, con implicaciones para la salud mental, el sueño y el desarrollo social. De igual manera, las herramientas educativas basadas en IA prometen personalización del aprendizaje, pero también pueden ampliar las brechas y perpetuar las desigualdades de personas en desventaja social, especialmente, en comunidades marginadas (Eduevidence.org., 2024).
Avances y limitaciones en la protección de derechos
A pesar del avance acelerado de la inteligencia artificial, existen muchos vacíos en los marcos normativos y en las políticas públicas orientadas a la protección de niñas, niños y adolescentes en entornos digitales. En muchos contextos, la regulación de la IA se encuentra en sus primeras etapas o se centra en la población en general, y no considera las condiciones particulares de las infancias y adolescencias (Eduevidence.org., 2024). Además, la falta de lineamientos claros en instituciones educativas, plataformas tecnológicas y familias dificulta la implementación de prácticas éticas y responsables.
Respecto a las normativas, la Convención sobre los Derechos del Niño de las Naciones Unidas, adoptada en 1989, establece principios fundamentales que deben extenderse al entorno digital, como el derecho a la no discriminación, el interés superior de la niñez, el derecho a la vida y al desarrollo, y el derecho a la participación. Sin embargo, estos derechos fueron creados antes de la revolución digital, lo que crea vacíos en su aplicación. Ante este reto, algunos países o regiones han avanzado en la creación de legislación específica:
- El estado de California ha promulgado una legislación con el objetivo de reducir los riesgos que enfrentan niñas, niños y adolescentes al interactuar con chatbots de inteligencia artificial. La norma obliga a las empresas tecnológicas a informar de manera reiterada a los usuarios menores de edad que están interactuando con un sistema automatizado y no con una persona real. En concreto, las plataformas deberán emitir advertencias explícitas cada tres horas. Además, la ley exige que, ante posibles situaciones de crisis de salud mental, las empresas activen mecanismos de atención y canalización hacia servicios especializados.
- El Código de Diseño Apropiado para la Edad, también conocido como Children’s Code, es un marco normativo surgido en el Reino Unido. Este documento establece que las plataformas digitales deben priorizar la privacidad y la seguridad de los menores desde la fase de diseño de sus servicios, en lugar de aplicar ajustes posteriores. Entre sus principales disposiciones se encuentran la configuración de altos niveles de privacidad, la reducción de recolección de datos, la desactivación de la geolocalización y la prohibición de los llamados dark patterns, es decir, diseños engañosos que inducen a niñas y niños a compartir más información de la necesaria.
- En el ámbito europeo, el Reglamento General de Protección de Datos (RGPD) reconoce una protección especial para los menores de edad. Establece que el tratamiento de sus datos personales solo es lícito con el consentimiento de madres, padres o tutores hasta una edad mínima que varía entre los 13 y 16 años. Asimismo, el reglamento exige que las empresas utilicen un lenguaje claro y comprensible acorde con la edad de los usuarios, que implementen medidas razonables de verificación de identidad y garanticen el derecho al olvido. De igual forma, limita de manera estricta el uso de los datos de menores para fines comerciales o de elaboración de perfiles.
Cierre: retos actuales y responsabilidades compartidas
El principal reto frente al avance de la inteligencia artificial es garantizar que la innovación tecnológica no se imponga sobre los derechos de niñas, niños y adolescentes. Esto implica desarrollar marcos legales actualizados, políticas públicas con enfoque de derechos y edad, así como fortalecer el papel de las instituciones educativas como espacios de formación crítica y protección (Eduevidence.org., 2024).
Asimismo, resulta indispensable promover una educación digital ética, que no se limite al uso instrumental de la IA, sino que fomente la reflexión sobre sus impactos sociales, culturales y políticos. La protección de las infancias y adolescencias en la era digital requiere de una responsabilidad compartida entre el Estado, las instituciones educativas, las empresas tecnológicas y la sociedad en su conjunto, con el objetivo de construir entornos digitales más seguros, inclusivos y respetuosos de los derechos humanos (Parga-Belinkie, 2024).
¡Cuidado! El objetivo no es aislar a los más jóvenes de la inteligencia artificial, sino crear un ecosistema digital donde puedan explorar, aprender y crecer con dignidad, seguridad y autonomía. En última instancia, proteger a las infancias en la era digital es proteger nuestro futuro, garantizando que la tecnología esté al servicio del desarrollo humano y no al revés.
Referencias:
Parga-Belinkie, J. (27 de agosto de 2024). How AI Chatbots Affect Kids: Benefits, Risks & What Parents Need to Know. HealthyChildren.org. https://www.healthychildren.org/English/family-life/Media/Pages/are-ai-chatbots-safe-for-kids.aspx
Eduevidence.org. (15 de diciembre de 2024). How Do The Latest AI Developments Influence Children’s Right to Education? Edtech Partnerships. https://edtechpartnerships.substack.com/p/how-do-the-latest-ai-developments

Comentarios
Publicar un comentario