La reforma a la ley de protección de datos está en su recta final. La Comisión de Constitución del Senado rechazó el 40% de las normas que habían sido aprobadas en la Cámara de Diputados, principalmente por el posible desajuste con la norma europea el GDPR, estándar que se busca seguir, para ser revisadas en una Comisión Mixta.
Las normas de protección de datos son una de las bases de la regulación de los algoritmos y la IA, hoy presentes en nuestra vida decidiendo asuntos sumamente sensibles: acceso a la educación, a una cama en un hospital, donación de órganos, subsidios estatales. El sector privado desarrolla estas tecnologías y ofrece servicios basados en IA en diversos rubros como la salud, seguros y el crédito. Las leyes de datos personales entregan herramientas a las personas para comprender cuándo y cómo operan los algoritmos.
El proyecto de ley despachado por la Cámara se hace cargo de corregir una criticada norma del GDPR, justamente en ese aspecto: la explicación de las decisiones algorítmicas. Destacados profesores de la ética de datos alegan que el derecho a la explicación, conocer los criterios o lógicas detrás de un algoritmo, no es tal dado que la norma europea sólo opera cuando la decisión es “únicamente automatizada”. Esto ha generado sendos debates acerca del significado de “únicamente” y cuando una intervención humana es significativa, un dolor de cabeza para los jueces y reguladores.
En base ello la Cámara de Diputados redactó la norma entregando a las personas el derecho a la explicación en todos los casos y no solo cuando la decisión sea “únicamente automatizada” para ampliar las vías de protección. Esto por varias razones: el impacto de estas tecnologías en nuestra vida, la creciente automatización de procesos completos y complejos, la pérdida de agencia de los operadores de los sistemas ante la automatización, y la facilidad con las que se soslaya la explicación de los algoritmos con intervenciones nominales, artificiales para eludir la norma. Las propuestas buscan reponer la expresión “únicamente” a mi juicio un error.
En base a la experiencia podemos recomendar la importancia de mantener la redacción de la norma aprobada por la Cámara, y no crear el vacío legal que existe en Europa. El trabajo en el proyecto Algoritmos Éticos de la Universidad Adolfo Ibáñez, nuestros estudios en transparencia algorítmica y el seguimiento que hacemos de los algoritmos públicos, nos lleva al convencimiento de la importancia de la transparencia y la explicación de las decisiones automatizadas, en todos los casos y evitar fórmulas legales que permitan soslayar derechos. Este es un nuevo derecho esencial para las personas cuando se automatizan procesos de impacto en sus vidas. Del GDPR hay que tomar sus aciertos y corregir sus errores, para no crear lagunas, en una normativa que nos ha costado tanto y que es la base para los desafíos y oportunidades de una IA basada en algoritmos justos, inclusivos y que respeten la dignidad de las personas.
Publicada en La Segunda.