Autor: ALEXIS IBARRA O.
Las decisiones del Estado tomadas por algoritmos deberán ser transparentadas
Se prepara nueva normativa del Conseio vara la Transparencia. Vionera en la resión: $6 Los procesos automatizados funcionan en la mayoría de los casos muy bien y muchas veces es más transparente que un proceso manual en que intervienen muchas personas.
Pero a veces fallan y tienen que existir los mecanismos de resguardos”. FRANCISCO LETURIA PRESIDENTE DEL CONSEJO PARA LA TRANSPARENCIA Los locales de votación en el último proceso eleccionario tueron reasignadostomando en cuenta la variable geográfica y, en particular, la cercanía del hogar. Un proceso que se realizó en forma automatizada. Ara las elecciones pasadas, un Pp sistema basado en algoritmos reasignó los locales de votación de los electores considerando factores geográficos como la cercanía del hogar, entre otros. El objetivo era que los electores sufragaran en lugares ubicados a una distancia razonable. Como este, hay otros casos de organismos del Estado —algunos no tan obvios— en que también se usan los algoritmos para la toma de decisiones. “Uno de ellos se emplea en los beneficios carcelarios quese dana las personas presas por parte de Gendarmería, por ejemplo, por buena conducta.
Otro caso es el proceso de selección de alumnos en el sistema escolar, en el cual los padres postulan y llenan una ficha con una serie de datos y, posteriormente, un sistema computarizado dice si el estudiante quedó o no en un colegio”, precisa Francisco Leturia, presidente del Consejo para la Transparencia.
Dicha institución —en conjunto con la Universidad Adolfo Ibáñez y el apoyo del Banco Interamericano de Desarrollo (BID)— están trabajando hace más de un año en una iniciativa para que los ciudadanos conozcan qué instituciones del Estado están tomando decisiones automatizadas en base a algoritmos y cómo funcionan estos sistemas.
No se necesita de una nueva ley, explica Leturia, ya que basta una nueva “Instrucción General sobre Transparencia Algorítmica”, que se traduce en una serie de obligaciones para los cerca de 1100 organismos del Estado sujetos a la Ley de Transparencia.
Entre otras cosas, la normativa obligaría a publicar la información delos algoritmos que usan mediante la transparencia activa, es decir, la información que dichos organismos estatales deben publicar obligatoriamente, mes a mes, en su página web. Esto es posible, explica Leturia, ya que la actual ley permite transparentar los llamados “actos con efectos a terceros”, entre los que estarían las decisiones de sistemas computacionales que usan algoritmos. “El Estado está comenzando, poco a poco, a emplear algoritmos y lo que nosotros queremos es que se muestren y se hagan públicos. Así, las personas los conocen, pueden criticarlos o reclamar si hay un error en el proceso. En síntesis, saber cuándo se usan algoritmos, qué criterios utilizan y saber si están bien construidos”, explica Leturia. Paso a paso La idea —pionera en la región— parteantelas solicitudes de transparencia que estaban llegando al consejo requiriendo conocer detalles de los algoritmos que se usaban en el Estado, explica Leturia. Sistemas automatizados se emplean para seleccionar alumnos en una escuela, definir el local de votación de una persona e, incluso, para decidir si un reo debería tener un beneficio carcelario. Una nueva iniciativa quiere que los ciudadanos sepan cuáles instituciones lo usan, para qué objetivo y cómo se llega a la toma de decisiones, así como advertir de errores en el proceso. “En 2021 se hizo un levantamiento de información para saber en qué organismos se estaban usando algoritmos”, dice Romina Garrido, subdirectora de la Escuela de Gobierno de la UAI. Se les envió solicitud de información voluntaria a 870 instituciones. El 30% respondió. “Hasta el momento hemos detectado 92 sistemas que usan algoritmos. Cinco de ellos se usan en más de una institución”, aclara Garrido. Descubrieron que de esos 92 sistemas, de solo 17 se tenía información pública que hacía alusión de cómo funcionaba. “Eran, en general, notas de prensa o entrevistas”, aclara Garrido. Consulta pública Tras el levantamiento de información se comenzó a constituir mesas de trabajo con las instituciones. Además, seinició un plan piloto con cinco organismos: la Subsecretaría de Evaluación Social, el Instituto de Previsión Social, la Superintendencia de Salud y la Superintendencia de Insolvencia y Reemprendimiento. “Este piloto nos ha dado muy buenos aprendizajes, sobre todo en la calidad de la información que debe publicarse, que al principio era muy técnica y difícil de entender”, aclara Garrido.
Pronto se realizará una consulta pública con el que se definirá el texto final del instructivo y, en 2023 quieren irexpandiendo esta iniciativa, para que comience a operar el segundo semestre de ese año y en 2024 alcanzar la masividad.
“Lo que vamos a pedir es que se transparente el uso del algoritmo, que se explique cómo funciona y que esto sea en un lenguaje fácil con el fin de que exista algún tipo de control social”, concluye Leturia. Leturia explica que la ley obliga a que las instituciones publiquen la información requerida, pero la veracidad de lo que se publica no está dentro de su ámbito de competencia. “Esto le corresponde a Contraloría; incluso se puede caer en ilícitos penales. Actualmente, las sanciones son muy bajas para quien publique información incorrecta de forma dolosa”, aclara.