Milenio
El consentimiento digital y los límites del algoritmo: una nueva frontera para el Derecho
El consentimiento digital y los límites del algoritmo: una nueva frontera para el Derecho
Hernán Olmedo
Hernán Olmedo
Abogado y Docente en Derecho Internacional
Miércoles 17 de diciembre de 2025 | 20:00

Nota: Este resumen fue generado por una herramienta de inteligencia artificial y revisado por el editor y el autor de este artículo.

El artículo sostiene que, en la economía digital, el consentimiento dejó de ser un simple “acepto”: la IA y las arquitecturas de plataformas condicionan decisiones que creemos libres. Con apoyo en la idea de “capitalismo de la vigilancia”, muestra la asimetría entre usuarios y empresas que predicen y moldean conductas mediante datos. Recurre a precedentes argentinos (Halabi) y europeos (Planet49, Meta Platforms) para reforzar que sin información clara y opción real no hay consentimiento auténtico. Propone avanzar hacia transparencia algorítmica, lealtad informacional y libertad cognitiva.

En la era de la inteligencia artificial y el poder de los datos, el consentimiento digital dejó de ser un simple “acepto”. Se volvió la frontera más delicada entre libertad y manipulación.

La inteligencia artificial y el poder de los datos están reconfigurando la vida pública y privada. Y, con ellos, también se está transformando el núcleo de una idea jurídica clásica: que las personas deciden libremente cuando consienten.

El Derecho moderno nació sobre una promesa: la libertad del ser humano para obligarse, elegir y contratar. La autonomía de la voluntad fue, durante siglos, el pilar del contrato y un emblema de la dignidad individual.

Hoy esa autonomía enfrenta su mayor prueba. En la economía digital, el “consentimiento” ya no es un gesto transparente: muchas veces se produce en entornos diseñados para orientar, acelerar o condicionar la decisión. El nuevo poder invisible no es solo la cláusula, ni siquiera la empresa: es la arquitectura algorítmica que organiza lo que vemos, lo que ignoramos y lo que terminamos aceptando.

Las plataformas tecnológicas ya no se limitan a ofrecer productos o servicios. Administran atención, emoción y conducta. Convirtiendo cada clic, cada pausa, cada búsqueda y cada interacción en señales que alimentan perfiles, predicciones y decisiones automatizadas. En ese escenario, muchas elecciones que creemos libres son, en realidad, el resultado de un diseño que combina datos, inteligencia artificial y psicología del comportamiento.

Por eso, hablar de “consentimiento digital” exige una pregunta más profunda: ¿qué tan libre es una decisión cuando el entorno está construido para guiarla? ¿Qué valor tiene el “acepto” si la información es opaca, extensa o técnicamente incomprensible? ¿Y qué ocurre cuando la negativa es más costosa que la aceptación?

El “capitalismo de la vigilancia”, concepto desarrollado por Shoshana Zuboff, describe este fenómeno con precisión: la extracción sistemática de datos personales para anticipar y en ciertos casos moldear conductas. Cuando una parte conoce, predice y administra a la otra, el consentimiento deja de ser un acuerdo entre iguales y se parece más a una formalidad dentro de una relación asimétrica.

En términos jurídicos, el problema es claro: si el consentimiento es el fundamento de la legitimidad del tratamiento de datos, entonces su degradación compromete la legitimidad de todo el sistema. Un consentimiento “obtenido” sin comprensión, sin alternativas reales o mediante incentivos y fricciones diseñadas (los conocidos “patrones oscuros”) no es consentimiento en sentido pleno: es un simulacro.

En Argentina, la discusión no es ajena. El derecho a la privacidad, el habeas data y la protección de datos personales expresan una misma idea: la persona debe conservar control sobre su información y sobre cómo se utiliza. Cuando el uso de datos se vuelve capaz de influir en decisiones de consumo, políticas, afectivas o cognitivas, la cuestión excede lo patrimonial: toca la libertad.

A nivel comparado, Europa ha sido contundente en un punto: el consentimiento exige una conducta afirmativa e información clara; no puede “deducirse” de la inacción ni de formularios prearmados. Ese estándar marca una dirección que, tarde o temprano, terminará impregnando el debate global: sin información comprensible y libertad real de elección, no existe consentimiento auténtico.

El debate se vuelve todavía más urgente frente al crecimiento de sistemas de recomendación y personalización capaces de modelar percepciones y preferencias. No hablamos ya de publicidad tradicional, sino de entornos que optimizan, segundo a segundo, el impacto sobre la conducta. En ese punto, la frontera entre persuasión legítima y manipulación se vuelve difusa.

De allí surge una nueva tarea para el Derecho: incorporar al lenguaje jurídico una categoría que hasta hace poco parecía filosófica pero hoy es práctica y verificable: la libertad cognitiva. No se trata de oponerse a la tecnología, sino de garantizar que su uso respete la autonomía moral de la persona.

La ética digital no es una materia optativa: es una frontera contemporánea del Estado de Derecho. Si el siglo XIX consagró la libertad física y el XX la libertad política, el XXI deberá aprender a proteger la libertad de decidir sin condicionamientos invisibles.

Porque, en definitiva, no hay consentimiento real si no hay libertad real. Y no hay libertad real si el algoritmo decide el entorno de la decisión.

FIRMA

Angel Hernan Olmedo

Compartir:

Comentarios (0)

Inicia sesión para comentar

Iniciar Sesión

No hay comentarios. ¡Sé el primero en comentar!

Más en Columnas de Opinión

Artículos relacionados

Más leídas (últimas 48 horas)