El Instituto de Transparencia, Acceso a la Información Pública, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México (INFO CDMX) aprobó una propuesta de ley para la regulación de la inteligencia artificial (IA), específicamente su uso en el ámbito gubernamental. La iniciativa, que será presentada ante el Congreso local, establece principios y lineamientos para que los datos personales sean manejados de manera ética y segura en los sistemas de IA utilizados por las instituciones públicas.
La propuesta está compuesta de 75 artículos que abordan la seguridad de los datos personales, la prevención de discriminación algorítmica y la transparencia en las decisiones automatizadas, e involucra a instituciones de los poderes Ejecutivo, Legislativo y Judicial de la CDMX, así como a partidos políticos y otros organismos que empleen sistemas de IA. Además, integra recomendaciones de organismos internacionales como la OCDE y la UNESCO y contempla auditorías algorítmicas y sanciones para quienes hagan mal uso de los datos personales.
El comisionado Julio César Bonilla Gutiérrez señaló que la regulación es necesaria dado el riesgo potencial que representa la IA si no se usa correctamente. Además subrayó que el Estado debe proteger los derechos de los ciudadanos sin limitar sus libertades y que las instituciones deben evaluar regularmente el impacto de sus sistemas de IA e informar de forma clara sobre el uso de los datos.
Por su parte, la comisionada Laura Lizette Enríquez consideró la propuesta como una legislación de vanguardia, mientras la comisionada María del Carmen Nava Polina enfatizó la importancia de que la regulación se extienda a nivel nacional para garantizar un estándar de protección.
Retos y oportunidades para la regulación de la IA en México
Esta propuesta de ley fue tema central durante el Metaworld Congress Latam, en el que expertos discutieron las complejidades tecnológicas, éticas y sociales de su regulación.
Desde una perspectiva regulatoria, Arístides Rodrigo Guerrero, comisionado presidente del INFO CDMX, enfatizó que México necesita actualizar su legislación de protección de datos personales, ya que han pasado 14 años sin modificaciones a pesar de los avances tecnológicos.
Guerrero García mencionó ejemplos de otros países como Francia y Estados Unidos que han implementado regulaciones avanzadas para proteger a sus ciudadanos frente a la IA y sugirió que México debería seguir esos pasos.
Por su parte, Alejandra Lagunes Soto Ruíz, exsenadora de la República, recordó que en 2017 México lanzó una estrategia nacional de IA, misma que se detuvo en los últimos años. Sin embargo, destacó que el nearshoring y el creciente interés de empresas tecnológicas extranjeras presentan una oportunidad para que el país recupere su liderazgo en este sector. Lagunes también señaló la necesidad de capacitar a los graduados en áreas STEAM para cubrir la demanda laboral en IA.
La IA solamente es parte de la solución
Aunque la iniciativa en la Ciudad de México es un avance en la regulación de la inteligencia artificial, el debate sobre los alcances y limitaciones de esta tecnología continúa. Los especialistas coinciden en que, si bien la IA aporta importantes beneficios para la eficiencia y personalización de servicios, requiere de un marco normativo sólido que garantice la protección de los derechos ciudadanos en un entorno digital cada vez más complejo.
Juan Augusto Montes, experto en transformación digital, resaltó la necesidad de que los sistemas automatizados estén preparados para interactuar entre sí y alertó sobre los sesgos en los algoritmos si las bases de datos no son precisas.
Montes advirtió que, con la creciente digitalización, los usuarios pueden sentirse invadidos si no se regulan adecuadamente sus datos personales. También mencionó que, aunque algunas plataformas solicitan consentimiento, el proceso es confuso pues los términos y condiciones suelen ser documentos de 20 páginas que pocas personas leen, lo que obliga a los usuarios a aceptar.
Joel Cano, socio fundador de Visionaria, insistió en que los humanos deben mantener el control de la tecnología, subrayando la importancia de una supervisión constante para evitar que los usuarios dependan totalmente de las recomendaciones algorítmicas.
En ese sentido, Zeus Portillo, director de marketing en NTP Media Group, señaló que la IA no es infalible y que las respuestas de los sistemas como ChatGPT pueden tener un margen de error del 20% al 30%, lo que subraya la necesidad de verificar la información que producen estas tecnologías