Milenio
Transparencia algorítmica: cuando decide “el sistema”
Transparencia algorítmica: cuando decide “el sistema”
Hernán Olmedo
Hernán Olmedo
Abogado y Docente en Derecho Internacional
Jueves 1 de enero de 2026 | 23:07

Nota: Este resumen fue generado por una herramienta de inteligencia artificial y revisado por el editor y el autor de este artículo.

La columna señala que decisiones cada vez más relevantes llegan como un “lo decidió el sistema” y que el problema no es la tecnología sino la opacidad. Define la transparencia algorítmica como la posibilidad real de entender, cuestionar y pedir revisión cuando una decisión automatizada impacta en derechos, consumo u oportunidades. Apoya la idea en estándares internacionales (UNESCO: transparencia/explicabilidad y supervisión humana; OCDE: información significativa, explicaciones claras y posibilidad de impugnar el resultado) y la conecta con derecho argentino: deber de información en consumo (Ley 24.240) y consentimiento libre, expreso e informado en datos personales (Ley 25.326). Cierra con tres reglas mínimas: aviso, razones comprensibles y revisión efectiva.

Créditos, precios, bloqueos y rankings: cada vez más decisiones llegan como un “lo decidió el sistema”. Transparencia algorítmica es poder entender, cuestionar y pedir revisión cuando un algoritmo te afecta.

Hay una frase que se volvió comodín en bancos, apps y plataformas: “lo decidió el sistema”. Y con esa frase, muchas veces, se clausura toda discusión.

Un crédito rechazado sin explicación. Una cuenta bloqueada. Un precio “personalizado”. Aparece un resultado y el resultado empieza a parecer inevitable.

El problema no es la tecnología. El problema es la opacidad. Porque decidir sobre la vida de alguien no es solo producir un resultado: es poder explicarlo.

La transparencia algorítmica no es publicar el código fuente ni regalar secretos comerciales. Es algo más básico: que exista un camino real para entender y cuestionar decisiones automatizadas que te afectan.

En el plano internacional, la UNESCO en su Recomendación sobre la Ética de la Inteligencia Artificial ubica entre sus ejes la “transparencia y explicabilidad” y subraya la necesidad de supervisión humana. La OCDE, por su parte, lo vuelve operativo: pide información significativa y, cuando sea viable, explicaciones comprensibles sobre datos, factores o lógica que condujeron a una recomendación o decisión, además de herramientas para discutir resultados perjudiciales.

Ahora bien: estos textos funcionan como estándares y recomendaciones. No son obligaciones automáticas por sí mismos, pero ayudan a fijar un piso de expectativas sobre cómo se construye confianza y rendición de cuentas cuando intervienen sistemas automatizados.

Y ese debate global, además, tiene anclaje local.

En consumo, la Ley 24.240 exige información veraz, detallada, eficaz y suficiente sobre las características esenciales. Si un proveedor decide condiciones, acceso o exclusiones mediante automatización, esconder el “cómo” puede convertir la relación en un laberinto.

En datos personales, la Ley 25.326 parte de una base simple: el tratamiento es ilícito sin consentimiento libre, expreso e informado. “Informado” no es un formalismo: es comprensión real de lo que se entrega y de cómo puede usarse.

A modo de propuesta (como piso mínimo), tres reglas prácticas podrían ordenar el terreno:

Aviso: que te digan cuándo hay automatización/IA influyendo en una decisión relevante.

Razones comprensibles: qué datos se usaron, qué factores pesaron y cómo corregir errores.

Revisión efectiva: un canal humano para revisar y, si corresponde, rectificar.

Si una decisión impacta de verdad, debe poder explicarse. Y si no puede explicarse, debería encenderse una alarma: lo que no se explica tampoco se controla; y lo que no se controla termina gobernando por defecto.

La discusión no es “IA sí o no”. Es otra, más incómoda: ¿vamos a aceptar cajas negras decidiendo sobre derechos, consumo y oportunidades sin rendición de cuentas? Si la respuesta es no, la transparencia algorítmica vuelve a ser lo que siempre fue: una garantía de libertad.

Fuentes

• UNESCO — Recommendation on the Ethics of Artificial Intelligence (2021): https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

• OCDE — AI Principles: “Transparency and explainability”: https://www.oecd.org/en/topics/ai-principles.html

• Argentina — Ley 24.240 (art. 4, deber de información): https://servicios.infoleg.gob.ar/infolegInternet/anexos/0-4999/638/texact.htm

• Argentina — Ley 25.326 (art. 5, consentimiento): https://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/texact.htm

Compartir:

Comentarios (0)

Inicia sesión para comentar

Iniciar Sesión

No hay comentarios. ¡Sé el primero en comentar!

Más en Columnas de Opinión

Artículos relacionados

Más leídas (últimas 48 horas)