Créditos, precios, bloqueos y rankings: cada vez más decisiones llegan como un “lo decidió el sistema”. Transparencia algorítmica es poder entender, cuestionar y pedir revisión cuando un algoritmo te afecta.
Hay una frase que se volvió comodín en bancos, apps y plataformas: “lo decidió el sistema”. Y con esa frase, muchas veces, se clausura toda discusión.
Un crédito rechazado sin explicación. Una cuenta bloqueada. Un precio “personalizado”. Aparece un resultado y el resultado empieza a parecer inevitable.
El problema no es la tecnología. El problema es la opacidad. Porque decidir sobre la vida de alguien no es solo producir un resultado: es poder explicarlo.
La transparencia algorítmica no es publicar el código fuente ni regalar secretos comerciales. Es algo más básico: que exista un camino real para entender y cuestionar decisiones automatizadas que te afectan.
En el plano internacional, la UNESCO en su Recomendación sobre la Ética de la Inteligencia Artificial ubica entre sus ejes la “transparencia y explicabilidad” y subraya la necesidad de supervisión humana. La OCDE, por su parte, lo vuelve operativo: pide información significativa y, cuando sea viable, explicaciones comprensibles sobre datos, factores o lógica que condujeron a una recomendación o decisión, además de herramientas para discutir resultados perjudiciales.
Ahora bien: estos textos funcionan como estándares y recomendaciones. No son obligaciones automáticas por sí mismos, pero ayudan a fijar un piso de expectativas sobre cómo se construye confianza y rendición de cuentas cuando intervienen sistemas automatizados.
Y ese debate global, además, tiene anclaje local.
En consumo, la Ley 24.240 exige información veraz, detallada, eficaz y suficiente sobre las características esenciales. Si un proveedor decide condiciones, acceso o exclusiones mediante automatización, esconder el “cómo” puede convertir la relación en un laberinto.
En datos personales, la Ley 25.326 parte de una base simple: el tratamiento es ilícito sin consentimiento libre, expreso e informado. “Informado” no es un formalismo: es comprensión real de lo que se entrega y de cómo puede usarse.
A modo de propuesta (como piso mínimo), tres reglas prácticas podrían ordenar el terreno:
Aviso: que te digan cuándo hay automatización/IA influyendo en una decisión relevante.
Razones comprensibles: qué datos se usaron, qué factores pesaron y cómo corregir errores.
Revisión efectiva: un canal humano para revisar y, si corresponde, rectificar.
Si una decisión impacta de verdad, debe poder explicarse. Y si no puede explicarse, debería encenderse una alarma: lo que no se explica tampoco se controla; y lo que no se controla termina gobernando por defecto.
La discusión no es “IA sí o no”. Es otra, más incómoda: ¿vamos a aceptar cajas negras decidiendo sobre derechos, consumo y oportunidades sin rendición de cuentas? Si la respuesta es no, la transparencia algorítmica vuelve a ser lo que siempre fue: una garantía de libertad.
Fuentes
• UNESCO — Recommendation on the Ethics of Artificial Intelligence (2021): https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
• OCDE — AI Principles: “Transparency and explainability”: https://www.oecd.org/en/topics/ai-principles.html
• Argentina — Ley 24.240 (art. 4, deber de información): https://servicios.infoleg.gob.ar/infolegInternet/anexos/0-4999/638/texact.htm
• Argentina — Ley 25.326 (art. 5, consentimiento): https://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/texact.htm
Comentarios (0)
Inicia sesión para comentar
Iniciar SesiónNo hay comentarios. ¡Sé el primero en comentar!