
En ese contexto, en septiembre último se aprobó el Reglamento de la Ley de Inteligencia Artificial, una norma de alcance transversal que empezará a desplegar sus principales efectos a partir de 2026, al cumplirse el plazo de 90 días hábiles desde su publicación en El Peruano (9 de septiembre de 2025).
Aunque el reglamento aborda diversos ámbitos, algunos de los cambios más sensibles se darán en consumo y publicidad, donde el uso de algoritmos incide directamente en la relación entre empresas y consumidores.
Su entrada en vigencia plantea interrogantes sobre cuáles serán los límites al uso de la IA en prácticas comerciales, quién fiscalizará su aplicación y cómo podría impactar en la protección del consumidor.
LEA TAMBIÉN: Trump anuncia que prohibirá a los estados regular la inteligencia artificial
Prevenir resultados discriminatorios o sesgados
El reglamento incorpora, como principio rector, la no discriminación: exige que en el desarrollo, implementación y uso de sistemas basados en IA se adopten medidas para prevenir, mitigar y corregir resultados discriminatorios o sesgados, evitando que la tecnología genere o refuerce desigualdades.
En esa línea, Fabricio Sánchez, socio del área de Competencia y Propiedad Intelectual de Benites, Vargas & Ugaz Abogados, sostiene que la regla apunta a trasladar al entorno algorítmico los estándares que ya rigen en el mercado.
En particular, advierte que los proveedores que utilizan IA para vender, ofrecer productos o segmentar públicos deben cuidar que el entrenamiento del modelo no derive en sesgos que, en la práctica, puedan convertirse en infracciones al Código de Protección y Defensa del Consumidor, donde ya existe una prohibición expresa de discriminación y de tratos diferenciados ilícitos.
El abogado precisa que la segmentación comercial no está prohibida por sí misma, pero puede cruzar la línea cuando se traduce en exclusiones injustificadas o en un “cerrado de puerta” a determinados grupos de consumidores.
Para reducir ese riesgo, menciona herramientas que el propio reglamento impulsa en términos preventivos: evaluaciones ex ante cuando corresponda, auditorías de sesgo, verificación de resultados y ajustes al entrenamiento para mejorar la calidad y representación de los datos.

Segmentación, perfiles y la prueba: el reto de detectar la discriminación algorítmica
Alex Sosa, socio del estudio Muñiz, coincide en que la segmentación del “target” es una práctica legítima en marketing, pero advierte que el problema se produce cuando la IA incorpora criterios que no deberían definir el acceso a una oferta comercial o a la publicidad, como el color de piel, creencias religiosas u orientación sexual, entre otros. En esos escenarios, señala, ya no se trataría de segmentación, sino de discriminación.
La discusión, sin embargo, no solo es conceptual. Sosa subraya que el principal cuello de botella será la capacidad de detección y fiscalización: probar un acto discriminatorio ya es complejo en el mundo offline, y puede ser aún más difícil cuando la exclusión se produce por decisiones automatizadas, con criterios opacos o no evidentes para el consumidor.
LEA TAMBIÉN: Cooperativas de Inteligencia Artificial, ¿qué son y qué potencial tienen?
Cuando la IA decide, el usuario debe entender
Además de la no discriminación, el reglamento desarrolla exigencias de transparencia algorítmica.
Entre sus medidas, plantea que, cuando sea relevante para la interacción o la toma de decisiones, puede exigirse un etiquetado visible que informe al usuario —con antelación— que un producto, servicio o contenido opera con base en IA.
Si el sistema toma decisiones que impactan derechos, el reglamento exige mecanismos de explicación de resultados en lenguaje accesible, para que el usuario comprenda los criterios y factores clave utilizados en decisiones automatizadas.
Sosa advierte que, en el terreno publicitario, esto abre un debate que aún no tiene “manual” operativo: el reglamento exige transparencia cuando haya contenido generado con IA, pero no define todavía el “cómo”, ni el umbral de participación de IA que gatille la obligación.
En paralelo, Sánchez añade que la trazabilidad y la forma de explicar también cumplen una función defensiva: permiten sostener, en caso de cuestionamientos, que una diferenciación fue objetiva y no un trato diferenciado ilícito.

¿Quién vigila y cómo se activan los casos?
El reglamento prevé un canal digital para alertas y denuncias, y establece que cualquier persona puede alertar sobre uso indebido o incumplimientos.
Si se advierte afectación a derechos fundamentales, la información puede trasladarse a las autoridades competentes.
Entre las entidades mencionadas para comunicar o denunciar figuran el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (Indecopi) y la Autoridad Nacional de Protección de Datos Personales, entre otras, según el ámbito de competencia.
En paralelo, el propio marco refuerza que, en el desarrollo e implementación, deben evitarse resultados injustos o discriminatorios y aplicarse buenas prácticas para identificar y minimizar sesgos en algoritmos o bases de datos.
LEA TAMBIÉN: Inteligencia artificial en la oficina: las tareas que ya dependen de esta tecnología
Qué deberían revisar las empresas antes de 2026
De cara a la entrada en vigencia, ambos abogados plantean una agenda preventiva para empresas y agencias que usan IA en marketing, segmentación o publicidad:
- Políticas internas claras
- Revisión humana efectiva
- Trazabilidad del entrenamiento y del contenido
- Controles sobre herramientas usadas por colaboradores
- Evaluaciones de impacto (en especial cuando hay tratamiento de datos personales)
Sosa agrega que programas de cumplimiento y capacitación ayudarán a reducir contingencias en un escenario en el que el estándar regulatorio se vuelve más exigente.
Con la vigencia general del reglamento en 2026, el debate sobre IA en el mercado deja de ser solo tecnológico. Pasa a ser, también, un asunto de cumplimiento, con potenciales impactos directos en el consumidor: qué publicidad ve, qué ofertas recibe y bajo qué criterios una máquina puede influir —o excluir— en decisiones de compra.

Abogado especialista encargado de Enfoque Legal en Diario Gestión - Actualmente, ocupa la posición de analista legal en el área de Economía en el Diario Gestión.








