El Gobierno peruano publicó el reglamento que establece el marco para el desarrollo, implementación y uso de sistemas basados en inteligencia artificial (IA), un documento que busca equilibrar la innovación tecnológica con la protección de los derechos fundamentales.

La norma, impulsada por la Secretaría de Gobierno y Transformación Digital (SGTD), plantea un ecosistema regulado que incluye desde la creación de entornos de prueba controlados hasta la clasificación de riesgos, la transparencia algorítmica y principios éticos en el uso de la IA.

El reglamento tiene como finalidad fomentar el desarrollo de la IA en todos los sectores, promoviendo su aplicación con criterios de transparencia. Entre los temas destacados está la obligación de prevenir sesgos algorítmicos, proteger los datos personales y garantizar la supervisión humana en los sistemas automatizados.

Apoyo a emprendedores

Uno de los pilares de la regulación es el entorno de experimentación y prueba controlada, conocido como sandbox de IA, donde las empresas, startups y entidades públicas podrán desarrollar y validar tecnologías en un espacio seguro y flexible. Este mecanismo permitirá evaluar los impactos de los sistemas antes de ser implementados a gran escala, con prioridad en áreas estratégicas como salud, educación, seguridad y defensa nacional.

Además, la norma fomenta la participación de MiPymes y emprendimientos innovadores, quienes contarán con apoyo en financiamiento, visibilidad y mentoría a través de ferias, desafíos y mecanismos impulsados junto con PRODUCE y CONCYTEC.

Computación en la nube 

La SGTD también podrá habilitar el uso de recursos de nube pública para que investigadores, estudiantes y entidades estatales accedan a infraestructura de alto rendimiento destinada a proyectos de IA con impacto social.

En materia técnica, la regulación promueve la adopción de estándares nacionales e internacionales, en coordinación con el INACAL, para garantizar buenas prácticas en el manejo de datos, algoritmos y procesos asociados a la IA.

La norma también alienta el desarrollo de comunidades de código abierto en IA, incentivando que los desarrolladores publiquen voluntariamente proyectos en la Plataforma Nacional de Software Colaborativo. Además, contemplan reconocimientos para quienes liberen modelos, algoritmos o datos de manera ética y transparente.

Clasificación de riesgos y usos prohibidos

Uno de los puntos más sensibles del reglamento es la clasificación de riesgos. La norma distingue tres niveles:

  • Uso indebido (prohibido): incluye sistemas que manipulen decisiones humanas de manera engañosa, que generen capacidades letales autónomas, vigilancia masiva sin base legal o identificación biométrica en tiempo real en espacios públicos (salvo excepciones en delitos graves). También se prohíbe la predicción de delitos basada en perfiles personales.
  • Riesgo alto: sistemas que afecten derechos fundamentales en sectores como salud, educación, trabajo, programas sociales, seguridad y servicios críticos como energía o banca. Estos podrán usarse, pero bajo estrictas condiciones de supervisión y transparencia.
  • Riesgo aceptable: todos los demás usos, siempre que cumplan con la ley y el reglamento.

Transparencia y ética

Para los sistemas de riesgo alto, se establecen mecanismos de transparencia algorítmica que obligan a informar a los usuarios sobre el funcionamiento y propósito de la IA, así como garantizar explicaciones claras cuando las decisiones impacten en derechos humanos.

En paralelo, la regulación refuerza el cumplimiento de la Ley de Protección de Datos Personales y subraya la necesidad de una ética aplicada a la IA, basada en equipos diversos, respeto a los derechos humanos, mitigación de sesgos y consideración del impacto social y ambiental.

Un aspecto clave de la norma es la protección de grupos vulnerables. Se establece que todos los servicios digitales soportados en IA deben garantizar inclusión, accesibilidad y seguridad para mujeres, niños, adultos mayores, personas con discapacidad y comunidades en situación de vulnerabilidad.

Gobernanza de la IA

Asimismo, se precisan las entidades responsables de la gobernanza de la IA. La Presidencia del Consejo de Ministros (PCM), a través de la Secretaría de Gobierno y Transformación Digital (SGTD), será la autoridad técnico-normativa encargada de dirigir, evaluar y supervisar su desarrollo e implementación. También se reconoce el papel de actores privados, la academia y la sociedad civil como aliados en este proceso.

El reglamento incorpora una lista de instrumentos estratégicos, como la Estrategia Nacional de Inteligencia Artificial (ENIA), el Centro Nacional de Innovación Digital e Inteligencia Artificial (CNIDIA) y el Centro Nacional de Datos, que funcionarán como pilares para el diseño, desarrollo y entrenamiento de sistemas basados en IA.

Con esta regulación, Perú busca posicionarse como referente en América Latina en el desarrollo responsable de la IA, promoviendo un equilibrio entre la innovación tecnológica y la confianza ciudadana. La SGTD será la entidad encargada de coordinar con ministerios, entes reguladores, academia y sector privado la implementación de esta norma.

 

***************************

¡Reciba gratuitamente el boletín de Mobile Time Latinoamérica y manténgase bien informado sobre tecnología móvil y negocios! Regístrese aquí.