Autor: CRISTIAN MÉNDEZ
El desafío técnico y ético de entrenar a los sistemas de lA para la evaluación crediticia
El desafío técnico y ético de entrenar a los sistemas de lA para la evaluación crediticia Los modelos algorítmiCos requieren grandes volúmenes de datos con informoCión relevante para evitar sesgos y desigualdades pasadas. CRISTIAN MÉNDEZ El sostenido crecimiento dei ecosistema finlech finlech reveía cada vez más y nuevos retos pera lograr lograr uno de sus principales obletivos: democratizar democratizar las finanzas. Y lo hacen con creatividad y tecnologla, tecnologla, usando algoritmos de inteligencia artificial artificial (lA) para analizar transacciones e historial crediticio, agilizar evaluaciones y respuestas y ofrecer productos personalizados. En este contexto, enfrentan un desafio técnico y ético decisivo: entrenar sistemas de lA capaces de evaluar correctamente a los solicitantes de crédito, sin reproducir sesgos históricos ni ser difíciles difíciles de auditar. “Los modelos de lA requieren grandes volúmenos volúmenos de información pera aprender, pero muchas veces los datos disponibles son parciales o están sesgados. En lugar de corregir este problema, tienden a an, plificarto”, explica Pablo Neudórfer, director del Magíster en Economía dala Universidad Universidad de Talca.
Y agrega que los sistemas complejos, complejos, al no ser fácilmente interpretables, plantean una dificultad adicional: “Es muy difícil detectar a tiempo si el modelo sigue criterios adecuados, porque en la práctica se transforman en cajas negras”, negras”, cuyo funcionamiento interno es desconocido desconocido o inaccesible para el usuario o regulador.
Esto puede originar decisiones crediticias poco justificables, en especial, si no se detectan los sesgos durante el entrenamiento del modelo, ya sea “por la falta de datos representativos o portas caracterlsticas del programador (la institución). Incluso Incluso con datos amplios, no siempre se incluyen todas las variables relevantes. Esto lleva a correlaLa correlaLa lA es un habilitador poro llegar o nuevos segmentos, pero requiere un uso responsable. ciones espurias que pueden perjudicar a ciertos grupos”, advierte Neudórfer. Marcelo Oyarzún, chief risk of ficer (CRO) de Tenpo, reconoce que el entrenamiento de los modelos modelos osuna tarea crítica.
Comenzamos en 2023 con pruebas controladas, testeando distintas variables variables y scores, Eso nos permitió desarrollar herramientas herramientas que hoy desafien nuestras políticas tradicionales, para llegar a más clientes, manteniendo manteniendo niveles de riesgo controlado”, cuenta. Teepo realiza evakiaciones en tiempo real desde una app móvf, sin intervención humana. Para ello, se apoya en modelos entrenados con datos púbrcose púbrcose internos y fuentes alternativas como indicadores indicadores de fraude o comportamiento digital. “La estrategia estrategia va aprendiendo con cada diente. Esa retroahmentación retroahmentación alimenta nuestros modelos y mejora la precisión de las decisiones”, comenta Oyarzún. Estos avances han permitido incluir a clientes sin historial bancario o con antecedentes deteriorados. deteriorados. “LalAesunhabilitadorpara llegara nuevos segmentos, pero requiere un uso responsable. La historia puede reflejar desigualdades pasadas que los modelos no deban perpetuar. Por eso, aplicamos validaciones continuas y estrategias de supervisión que mantengan al cliente en el centro”, afirma el ejecutivo de Tenpo. USO RESPONSABLE:. Mercado Pago lanzó Persona de Confianza, herramienta de seguridad que permite a los clientes facultar a personas de su entomo para reportar un incidente y solicitar el bloqueo preventivo de su cuenta. MEDIDAS ANTIFRAUDE: