Transparencia algorítmica como derecho fundamental autónomo en Colombia
May 5, 2026
Introducción
Imaginemos a una madre comunitaria en La Guajira que lleva años prestando sus servicios al ICBF y un día descubre que un algoritmo llamado BETTO la dejó fuera del sistema de contratación sin que ella pueda saber por qué. No conoce qué variables pesaron en su contra, ni qué criterios utilizó el sistema para clasificarla. Solo sabe que una máquina decidió su suerte y que nadie puede explicarle cómo. Este escenario, lejos de ser hipotético, ocurrió en Colombia en 2023 y ejemplifica con crudeza el problema central que este ensayo pretende abordar.
La proliferación de los sistemas de toma automatizada de decisiones (SDA) en el Estado colombiano plantea una pregunta que va más allá de la técnica informática: ¿puede una persona ejercer sus derechos fundamentales frente a una decisión que no comprende, que no puede cuestionar y cuya lógica está oculta dentro de una "caja negra"? La respuesta,como intentaré argumentar, es que no. Y precisamente por eso, la transparencia algorítmica debe ser reconocida en Colombia como un derecho fundamental autónomo.
El argumento central de este ensayo es que la opacidad de los algoritmos no es un simple problema técnico sino una amenaza estructural al Estado de derecho, y que los derechos fundamentales existentes son insuficientes para contenerla de manera integral. Por ello, siguiendo la teoría de Luigi Ferrajoli sobre los derechos como "leyes del más débil" y el marco del Estado constitucional, se propone que Colombia dé un paso jurídico necesario: consagrar la transparencia algorítmica como derecho fundamental autónomo.
I. El poder algorítmico y el problema de la caja negra
Para entender por qué se necesita un nuevo derecho, primero es necesario comprender la naturaleza del problema que busca enfrentar. Los algoritmos de inteligencia artificial, especialmente los basados en aprendizaje automático (machine learning), presentan una característica que los hace radicalmente distintos de cualquier otro mecanismo de decisión estatal anterior: son intrínsecamente opacos.
Mascitti (2022) explica que en las redes neuronales artificiales la información no se almacena de forma ordenada sino que se difunde de un modo que resulta casi imposible de descifrar, incluso para sus propios diseñadores. Esta naturaleza técnica impide realizar ingeniería inversa para conocer con precisión en qué datos específicos se basó el sistema para llegar a un resultado determinado. El algoritmo puede desarrollar soluciones o conductas que el programador nunca previó originalmente.
Esta opacidad tiene tres fuentes que David-Gutiérrez y Castellanos-Sánchez identifican con claridad. La primera es intencional: empresas privadas ocultan sus algoritmos deliberadamente para proteger secretos comerciales. La segunda es estructural: la brecha digital genera una asimetría de conocimiento que impide al ciudadano comprender lalógica matemática del sistema, aunque se le explique. La tercera, y la más inquietante, es intrínseca: la arquitectura de los sistemas avanzados hace imposible la comprensión, incluso para quien los diseñó.
Las consecuencias jurídicas de esta opacidad son devastadoras. David-Gutiérrez y Castellanos-Sánchez (2023) señalan que el uso de SDA para adoptar decisiones públicas puede vulnerar el debido proceso, pues la opacidad impide conocer por completo la motivación de la decisión estatal que afecta al ciudadano. Zabala Leal y Zuluaga Ortiz (2021) añaden que, ante la ocurrencia de daños, las partes enfrentan un vacío probatorio que imposibilita determinar la responsabilidad legal de los actores involucrados. Y Vestri (2021) advierte que los sistemas pueden estigmatizar y discriminar, como lo demostró la "Sentencia SyRI" en los Países Bajos, donde un tribunal dictaminó que un sistema automatizado para detectar fraudes vulneraba la privacidad y discriminaba a ciudadanos sin que estos pudieran saberlo ni demostrarlo.
Los casos colombianos confirman que esto no es teoría abstracta. El caso BETTO del ICBF mostró que un algoritmo opaco puede manipularse y producir resultados contrarios a los criterios de calidad, sin que los afectados tengan herramientas para cuestionarlo. El caso CoronApp reveló la tensión entre el derecho ciudadano a conocer los sistemas que los gobiernan y los escudos de la propiedad intelectual y la ciberseguridad que el Estado usa para mantenerlos en la oscuridad.
II. La insuficiencia de los derechos fundamentales existentes
El primer argumento para reconocer la transparencia algorítmica como derecho autónomo es que los derechos existentes, aunque guardan relación con ella, resultan insuficientes para proteger al ciudadano de manera integral frente al poder algorítmico. El derecho de acceso a la información pública (artículo 74 de la Constitución y Ley 1712 de 2014) protege el acceso a documentos e información que obran en poder del Estado, pero fue concebido para contextos de transparencia documental, no para sistemas de decisión automatizados. Cuando se solicita el código fuente de una aplicación como CoronApp, el Estado puede invocar legítimamente la reserva por ciberseguridad o la protección de la propiedad intelectual del proveedor. El derecho existente no resuelve esa tensión.
El habeas data y el derecho a la privacidad permiten al ciudadano conocer y controlar sus datos personales, pero no garantizan comprender la lógica con la que esos datos fueron procesados para producir una decisión que lo afecta. Conocer que mis datos fueron usados no es lo mismo que entender cómo el algoritmo los ponderó para negarme un subsidio o excluirme de un proceso contractual.
El debido proceso, aunque el más cercano, exige motivación de los actos administrativos, pero la motivación algorítmica es una motivación hueca si el ciudadano no puede comprender ni cuestionar la lógica interna del sistema. Un acto administrativo que dice
"el algoritmo lo clasificó con puntaje X" no cumple materialmente con las exigencias del artículo 29 de la constitución, porque no permite una defensa real.
En síntesis, los derechos existentes son condiciones necesarias pero no suficientes para enfrentar el problema. Se necesita un derecho que los articule, que los concrete en y que establezca obligaciones específicas frente al uso de SDA por el Estado.
III. Fundamentos teóricos para el reconocimiento del nuevo derecho
i. La transparencia algorítmica como "ley del más débil"
La teoría de Luigi Ferrajoli ofrece el fundamento más sólido para el reconocimiento. Para Ferrajoli (2006), los derechos fundamentales son las "leyes del más débil" que se oponen a la ley del más fuerte que imperaría en su ausencia.
Son límites infranqueables al poder, garantías orgánicas de la dignidad humana que no pueden ser vendidas, cedidas ni eliminadas por mayorías
¿Qué es el poder algorítmico sino una nueva forma de poder asimétrico? Las entidades estatales y las grandes empresas tecnológicas tienen acceso al funcionamiento interno de los sistemas; el ciudadano no. Las corporaciones tienen el capital técnico y jurídico para proteger sus algoritmos; el ciudadano afectado carece de herramientas para cuestionarlos. Esta asimetría es exactamente el tipo de relación que Ferrajoli identifica como el ámbito de los derechos fundamentales: la protección del individuo frente a quien es más fuerte tecnológica y económicamente.
Ferrajoli también propone criterios para identificar qué necesidades deben elevarse a la categoría de derecho fundamental. Uno de ellos es el nexo con la paz y la convivencia: el derecho es necesario para evitar conflictos y asegurar la convivencia social. La discriminación algorítmica sistemática, los sesgos que afectan a poblaciones vulnerables de manera invisible, y la imposibilidad de controvertir decisiones automatizadas son fuentes de conflicto social. Otro criterio es la tutela de los oprimidos: históricamente, los derechos fundamentales nacen de opresiones intolerables que la experiencia histórica revela. La ciudadanía reducida a una métrica procesada por un sistema impenetrable es una forma de opresión que merece este reconocimiento.
ii. El mandato de optimización de Alexy
Robert Alexy complementa el argumento desde otra perspectiva. Para Alexy, los principios son mandatos de optimización que exigen ser realizados en la mayor medida posible según las posibilidades fácticas y jurídicas. Reconocer la transparencia algorítmica como principio fundamental permitiría aplicar el examen de proporcionalidad para resolver las tensiones inevitables entre este derecho y otros bienes jurídicamente protegidos.
Esta perspectiva es especialmente útil para manejar los conflictos que la transparencia algorítmica genera con la protección de datos personales, la ciberseguridad y los derechos de propiedad intelectual. En lugar de consagrar una transparencia absoluta, técnicamente inviable e impracticable, el reconocimiento como principio fundamental permitiría al juez constitucional determinar, caso a caso, cuándo el secreto comercial debe ceder ante el derecho del ciudadano a comprender las decisiones que lo afectan, y cuándo es legítimo mantener la reserva.
El caso CoronApp ilustra perfectamente esta necesidad: la Corte Constitucional no tiene hoy un marco claro para resolver si el derecho al acceso a la información debe prevalecer sobre la reserva invocada por la Agencia Nacional Digital. Un derecho a la transparencia algorítmica como principio proporcionaría ese marco.
IV. Contenido y alcance del derecho propuesto
i. Más allá de la transparencia formal
Un error frecuente en los debates sobre transparencia algorítmica es equipararla con la publicación del código fuente. Esta concepción es jurídicamente insuficiente y prácticamente inútil para el ciudadano común. David-Gutiérrez yCastellanos-Sánchez (2023) proponen con acierto el concepto de "transparencia significativa", que no se refiere al volumen de datos sino a que la información sea suficiente para que un tercero pueda aprobar o desaprobar el rendimiento del algoritmo y comprender su lógica.
El derecho que se propone reconocer tiene, por tanto, un contenido sustantivo que va más allá de la transparencia formal. Incluye el derecho a conocer la existencia de un proceso de decisión automatizado que afecte al ciudadano; el derecho a recibir una explicación comprensible sobre la lógica aplicada, las variables consideradas y su peso relativo en la decisión; el derecho a conocer los márgenes de error del sistema (falsos positivos y falsos negativos) y los mecanismos disponibles para impugnar las decisiones; y el derecho a que exista un responsable humano identificable que pueda verificar la lógica del sistema y responder por sus resultados.
ii. Las dimensiones del derecho
Gabriele Vestri (2021)propone analizar la transparencia en dos fases administrativas que resultan útiles para delimitar el alcance del derecho. La transparencia ex ante, en la fase de contratación, exigiría que el Estado asegure la cesión de derechos de propiedad intelectual y el acceso a los códigos fuente para permitir auditorías independientes. La transparencia ex post, durante el funcionamiento del sistema, garantizaría que el ciudadano conozca la lógica aplicada en las decisiones que lo afectan. A estas dos dimensiones se debe añadir una tercera: la transparencia activa o proactiva, que implica que las entidades públicas publiquen periódicamente información sobre los sistemas algorítmicos que utilizan, los datos en que se basan, los proveedores involucrados y los resultados de las auditorías practicadas.
Esta dimensión conecta el derecho con los principios de Estado abierto consagrados en el CONPES 4070 de 2021 y va más allá de la mera respuesta a solicitudes puntuales.
iii. Los límites del derecho
Reconocer la transparencia algorítmica como derecho fundamental no implica consagrar una transparencia absoluta. Los derechos fundamentales, incluso los más protegidos, admiten restricciones proporcionadas. La propiedad intelectual de las empresas proveedoras, la ciberseguridad del Estado y la protección de datos personales de terceros son bienes jurídicos legítimos que pueden limitar el alcance del derecho en casos concretos. La clave, como señala Alexy, está en que esas limitaciones superen el test de proporcionalidad: que sean necesarias, idóneas y proporcionales en sentido estricto.
V. El camino hacia el reconocimiento en Colombia
i. El marco normativo vigente como punto de partida
Colombia no parte de cero. Existen varios instrumentos que anticipan el reconocimiento de este derecho, aunque de manera fragmentaria. El Decreto 1263 de 2022 establece obligaciones de transparencia algorítmica para la transformación digital pública. El Marco Ético para la IA del DAPRE (2021) promueve la transparencia activa. La Ley 1712 de 2014 establece principios de máxima publicidad y transparencia que son aplicables, aunque imperfectamente, a los algoritmos estatales. Sin embargo, estos instrumentos tienen limitaciones evidentes. Son normas de rango legal o infralegal que pueden modificarse o derogarse por la mayoría de turno. No tienen el carácter vinculante de un derecho fundamental ni generan lasii. garantías de tutela judicial efectiva que solo los derechos constitucionales proveen. Y no resuelven las tensiones con la propiedad intelectual y la ciberseguridad porque carecen del peso normativo para imponerse sobre esos bienes jurídicos.
Las vías para el reconocimiento
El reconocimiento puede producirse por tres vías. La primera es la vía constitucional: una reforma que incluya expresamente la transparencia algorítmica en el catálogo de derechos fundamentales, o que amplíe el artículo 74 para incluir los sistemas automatizados de toma de decisiones. Esta vía ofrece la mayor protección pero enfrenta las dificultades políticas propias de cualquier reforma constitucional.
La segunda es la vía jurisprudencial: la Corte Constitucional podría reconocer la transparencia algorítmica como derecho fundamental innominado protegido por la cláusula general del artículo 94 constitucional, que consagra que la enunciación de los derechos y garantías contenidos en la Constitución no debe entenderse como negación de otros. El caso CoronApp, actualmente ante la Corte, ofrece una oportunidad histórica para este reconocimiento.
La tercera es la vía legislativa: una ley estatutaria que consagre el derecho y establezca su contenido, alcances y garantías de manera sistemática. Esta vía, aunque requiere mayorías cualificadas, tiene la ventaja de que puede articular con detalle el contenido del derecho y establecer los mecanismos institucionales para su efectividad.
Conclusión
El problema de la caja negra no es un problema técnico que la ingeniería resolverá con el tiempo. Es un problema jurídico y político que concierne a la estructura del Estado de derecho y al ejercicio real de los derechos fundamentales en la era digital. Cuando una máquina decide quién recibe un subsidio, quién es contratado por el Estado o quién es señalado como sospechoso de fraude, y esa decisión no puede conocerse ni cuestionarse, el Estado de derecho cede ante el poder algorítmico.
Los derechos fundamentales existentes-acceso a la información, habeas data, debido proceso- son herramientas valiosas pero insuficientes para enfrentar esta amenaza de manera integral. Como argumentó Ferrajoli, los derechos fundamentales nacen de las luchas históricas contra las opresiones de cada época. La opresión algorítmica es la de nuestra época, y el reconocimiento de la transparencia algorítmica como derecho fundamental autónomo es la respuesta jurídica que le corresponde.
Este reconocimiento no es utópico ni ajeno a la tradición constitucional colombiana. Es una extensión coherente de los principios que ya inspiran el Estado de derecho: la dignidad humana, la igualdad real, el debido proceso y la rendición de cuentas. Saber cómo decide una máquina no es solo una curiosidad técnica; es, en la era de la inteligencia artificial, la condición de posibilidad de la libertad y la igualdad. Y lo que es condición de posibilidad de la libertad merece, en un Estado constitucional, el nombre de derecho fundamental.
Referencias
• De Fazio, F. (Coord.). (2021). Principios y proporcionalidad revisitados. Instituto de Estudios Constitucionales del Estado de Querétaro.
• Ferrajoli, L. (2006). Sobre los derechos fundamentales (M. Carbonell,Trad.). Cuestiones Constitucionales, (15), 113–136.• Mascitti, M. (2022). La insuficiencia de la causalidad como presupuesto de la responsabilidad civil en los daños producidos por la robótica y los sistemas autónomos. Revista de Derecho Privado, (42), 215–260. https://doi.org/10.18601/01234366.n42.09
• Vestri, G. (2021). La inteligencia artificial ante el desafío de la transparencia algorítmica: Una aproximación desde la perspectiva jurídico- administrativa. Revista Aragonesa de Administración Pública, (56), 368–398.
• Zabala Leal, T. D., & Zuluaga Ortiz, P. A. (2021). Los retos jurídicos de la inteligencia artificial en el derecho en Colombia. Jurídicas CUC, 17(1), 475–498. https://doi.org/10.17981/juridcuc.17.1.2021.17
• David-Gutiérrez, J., & Castellanos-Sánchez, M. (2023). Transparencia algorítmica y Estado abierto en Colombia. Reflexión Política, 25(52), 6 21.https://doi.org/10.29375/01240781.4789
• CONPES 4070 de 2021. Política de Estado Abierto, Datos Abiertos y Gobierno Digital.
• Decreto 1263 de 2022. Transparencia algorítmica en la transformación digital pública.
• Marco Ético para la IA en Colombia, DAPRE (2021).
• Ley 1712 de 2014. Ley de Transparencia y del Derecho de Acceso a la Información Pública Nacional
Our picks
Become a supporter of quaderno
Support this independent project and get exclusive benefits.
Start writing today on quaderno
We value quality, authenticity and diversity of voices.

Comments
There are no comments yet, be the first!
You must be logged in to comment
Log in