En este momento estás viendo Revolución digital: la Ley 172-13 frente a las decisiones de la inteligencia artificial

Revolución digital: la Ley 172-13 frente a las decisiones de la inteligencia artificial 

Por: Beatriz Arias Cambero

Cada vez que solicitamos un crédito, enviamos un currículum, usamos una red social o interactuamos con un servicio público en línea, algo más que nuestros datos están en juego: decisiones que ya no siempre toma una persona, sino un sistema automatizado.

Y ahí comienza un problema jurídico que en la República Dominicana todavía no hemos discutido con la profundidad necesaria.

La Ley 172-13 fue concebida para proteger a los ciudadanos frente al uso humano de sus datos personales. Pero hoy, en la práctica, muchos de esos datos ya no son tratados por humanos, sino por algoritmos que analizan, cruzan información, generan perfiles y producen resultados que afectan la vida de las personas. La digitalización no es el problema. Desde hace décadas convivimos con bases de datos, registros electrónicos y archivos digitales. El verdadero punto de quiebre es otro: la autonomía de los sistemas de inteligencia artificial para procesar información y generar decisiones sin intervención humana directa. Esa diferencia es crucial.

La Ley 172-13 parte de un esquema clásico y comprensible: alguien recopila datos, alguien los almacena y alguien responde por ellos. Ese “alguien” es el responsable del banco de datos frente al titular, que puede ejercer su derecho a conocer, rectificar, actualizar o suprimir información mediante el habeas data. Pero cuando un algoritmo interviene, ese esquema comienza a desdibujarse.

Hoy existen sistemas automatizados que:

-Evalúan perfiles crediticios en la banca.

-Filtran candidatos en procesos de reclutamiento.

-Cruzan bases de datos en instituciones públicas.

-Construyen perfiles de usuarios en plataformas digitales.

-Utilizan reconocimiento facial en sistemas de vigilancia.

-Generan contenidos y análisis mediante modelos generativos.

Estos sistemas no solo almacenan información. La interpretan, la correlacionan y producen resultados que pueden traducirse en decisiones: aprobar o negar un crédito, seleccionar o descartar un candidato, activar alertas, clasificar ciudadanos, perfilar comportamientos. Y lo hacen bajo una lógica algorítmica que no siempre es transparente para el ciudadano afectado. Aquí aparece el primer gran vacío.

La Ley 172-13 exige consentimiento para el uso del dato, reconoce el derecho a rectificación y establece la responsabilidad del titular del archivo. Pero la inteligencia artificial se entrena con volúmenes masivos de información, muchas veces sin un consentimiento específico y directo para ese nuevo uso. Además, no es técnicamente posible “rectificar” un dato dentro de un modelo ya entrenado, porque el dato no está en un archivo visible, sino incorporado en una estructura matemática compleja.

Entonces surge una pregunta inevitable: ¿Cómo se ejerce el habeas data cuando la decisión que afecta a una persona no proviene de un archivo, sino de un proceso automatizado invisible? El habeas data fue diseñado para acceder a registros, corregir datos y exigir su eliminación. Pero hoy el problema no siempre está en el registro, sino en el proceso que utiliza esos datos para producir un resultado.

Si un ciudadano es rechazado por un sistema automatizado, ¿quién explica cómo se llegó a esa conclusión? ¿El banco? ¿El programador? ¿La empresa que diseñó el software? ¿El proveedor del algoritmo? ¿La institución que lo utiliza? La responsabilidad se diluye en una cadena técnica que la Ley 172-13 nunca previó.

Este debate no es teórico. Está ocurriendo ahora mismo, en decisiones cotidianas que impactan la vida de las personas sin que estas sepan que detrás no hubo una evaluación humana, sino una evaluación algorítmica.

Las legislaciones modernas de protección de datos ya han comenzado a responder a este fenómeno. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea, por ejemplo, reconoce expresamente el derecho de las personas a no ser objeto de decisiones basadas únicamente en tratamientos automatizados que produzcan efectos jurídicos sobre ellas. Ese derecho no existe en nuestra legislación.

Por eso, el desafío que enfrenta la República Dominicana no es declarar obsoleta la Ley 172-13, sino reconocer que fue diseñada para una realidad tecnológica distinta. La ley protege adecuadamente al ciudadano frente a archivos y bases de datos tradicionales. Pero guarda silencio frente a decisiones generadas por sistemas inteligentes. Ese silencio comienza a ser problemático.

El debate que debemos abrir como país no es si la inteligencia artificial es buena o mala. Es si nuestro marco jurídico está preparado para proteger a los ciudadanos cuando sus datos no solo son almacenados, sino utilizados por sistemas que aprenden, interpretan y deciden. Tal vez el reto inmediato no sea únicamente una reforma legislativa, sino también una reinterpretación judicial moderna del alcance del habeas data frente a estos nuevos escenarios.

Porque la Ley 172-13 protege al ciudadano frente al uso humano de sus datos personales. La inteligencia artificial, en cambio, ya opera con los datos del presente bajo lógicas que la ley no imaginó. Y ahí, precisamente ahí, se encuentra uno de los debates jurídicos más urgentes de nuestro tiempo.

Deja un comentario