Inteligencia artificial responsable para la lucha contra el blanqueo de capitales: cómo abordar el sesgo

Inteligencia artificial responsable para la lucha contra el blanqueo de capitales: cómo abordar el sesgo

Introducción

La ávida y rápida adopción de la inteligencia artificial (IA) por parte de las instituciones financieras (IF) puede ser una sorpresa para quienes están fuera de esta industria, por lo demás cautelosa. Sin embargo, el consenso de la industria es claro en que las tecnologías inteligentes como la IA son factores importantes en la carrera por diferenciarse y establecer una participación de mercado. Por ejemplo, una encuesta realizada el año pasado por el Foro Económico Mundial encontró que el 85% de las instituciones financieras habían implementado la IA de alguna manera, y el 77% de todos los encuestados anticipó que la IA tendría una importancia general alta o muy alta. alto para su negocio dentro de dos años.

Los departamentos de cumplimiento de las instituciones financieras están preparados para beneficiarse de la integración de la inteligencia artificial en sus programas contra el lavado de dinero (AML). Desafortunadamente, los sistemas ALD basados ​​en reglas heredados anteriormente adecuados se han vuelto obsoletos. Carecen de la sofisticación para reconocer los matices de los patrones delictivos en rápida evolución y mantenerse al día con los nuevos productos y el comportamiento del consumidor. El resultado son tasas altas y bajas de detección de falsos positivos que agotan los recursos de una IF al requerir la necesidad de personal de cumplimiento más costoso y experimentado. Las altas tasas de falsos positivos y las bajas tasas de detección derivadas del monitoreo basado en reglas son la razón por la cual los directores de cumplimiento (CCO) de las IF están recurriendo a tecnologías inteligentes como la inteligencia artificial para manipular los datos de manera más efectiva en sus programas ALD. Pero, ¿cómo pueden hacerlo de manera responsable?

Definición de IA responsable y su importancia

En los últimos años, la comunidad de IA se ha encontrado con múltiples instancias de modelos de aprendizaje automático (ML) que realizan predicciones sesgadas. La comunidad de investigación de ML respondió con varios estudios, herramientas y métricas para analizar el problema. Esto condujo a un creciente cuerpo de investigación sobre equidad, privacidad, interpretabilidad y confiabilidad de los modelos de IA / ML bajo el término general “IA responsable”. La IA responsable ahora se discute ampliamente: ingresó en el ciclo Gartner Hype para la inteligencia artificial en 2020.

Si bien las definiciones exactas de IA responsable varían entre los líderes de opinión, los temas comunes son equidad, interpretabilidad, privacidad, transparencia, inclusión, responsabilidad y seguridad. Este blog profundiza en el elemento de equidad y lo que los CCO pueden hacer para reducir la IA sesgada en sus programas contra el lavado de dinero. Asegurar que los modelos de ML en los programas de AML no produzcan resultados sesgados es ético y ayuda a prevenir la desconfianza de los clientes, la pérdida de oportunidades comerciales y el daño a la reputación.

Cómo se puede introducir sesgo en la IA

Un aspecto clave en la exploración de la IA responsable es comprender primero cómo se puede introducir el sesgo en el flujo de trabajo del modelo y en qué etapas. Comencemos con la etapa de recopilación y preparación de datos. Un modelo de aprendizaje automático depende de datos de entrenamiento completos y precisos. Sin embargo, la mayoría de las operaciones comerciales de FI se establecieron antes de que ocurriera una digitalización extensa, por lo que a veces la información necesaria para entrenar modelos de aprendizaje automático se registra de manera incorrecta, incompleta o no se registra en absoluto. Esto puede suceder porque normalmente solo un pequeño flujo de datos de la aplicación, alrededor del 5% al ​​10% del total, pasa por la tubería y aterriza en un lago de datos para su análisis.

Un modelo de aprendizaje automático también producirá resultados sesgados cuando los datos de entrenamiento no sean representativos. Un ejemplo del mundo de la visión por computadora sobre el uso de datos sesgados para entrenar un modelo: investigadores de la Universidad de Duke crearon un modelo que podía generar imágenes realistas y de alta resolución de personas a partir de una foto pixelada. Sin embargo, como los blancos estaban sobrerrepresentados en los datos utilizados para entrenar el modelo, el modelo no funcionó para personas de otras razas y etnias.

Sin embargo, como ha sido ampliamente discutido por la comunidad de IA, el sesgo no se trata solo de datos. El sesgo también puede aparecer durante la etapa de selección de características. Conozca a su cliente (KYC) es la parte de un programa ALD que es más susceptible a las características del modelo sesgadas, ya que los modelos KYC intentan evaluar a personas individuales. Si bien el uso de ciertos atributos, como el género o el número de hijos, no es ético, el equipo de ciencia de datos debe estar atento y asegurarse de que el uso de atributos benignos como el estado laboral o el patrimonio neto no codifique un sesgo sistemático en los modelos. Si bien el área de monitoreo de transacciones de un programa ALD es menos susceptible a características de modelo sesgadas, dado que se trata principalmente de datos transaccionales, no personales, el sesgo aún puede infiltrarse. Por ejemplo, datos de ubicación aparentemente inocuos (código postal, país, etc. ) puede servir como proxy de datos que no se pueden considerar, como la raza o el origen étnico.

Finalmente, los sesgos humanos pueden influir en las acciones que los profesionales de ALD tomarán con los resultados del modelo de IA. En un programa ALD, un analista o investigador debe actuar sobre la información proporcionada por el modelo de IA: debe decidir qué alertas investigar, qué alertas combinar en los casos y cuáles reportar a las autoridades. Los seres humanos son susceptibles a muchos sesgos cognitivos que se derivan de procesos cognitivos básicos como ilusiones, atajos mentales, influencia social, hambre, fatiga, etc. Estos sesgos pueden influir inconscientemente en la toma de decisiones relacionadas con las predicciones y los resultados del modelo.

¿Cómo pueden los CCO reducir el sesgo en la IA?

Asegurar una inteligencia artificial responsable para el lavado de dinero es un esfuerzo conjunto de los equipos de cumplimiento y ciencia de datos de las instituciones financieras. Aquí hay algunas cosas que los CCO pueden hacer para apoyar la IA responsable.

Comuníquese a fondo con el equipo de ciencia de datos: A medida que las IF profundizan en la IA responsable, se necesita una comunicación directa y clara entre los CCO y el equipo de ciencia de datos. Por ejemplo, los equipos de cumplimiento deben proporcionar al equipo de ciencia de datos una guía sobre los valores regulatorios, los principios y las pautas de la empresa con los que deben alinearse los modelos de ML. Además, los CCO deben enfatizar que la evaluación del sesgo en los modelos debe incluirse en los criterios de éxito, junto con el rendimiento del modelo relacionado con la detección y los falsos positivos / negativos.

Solicitar auditabilidad: El proceso de desarrollo e implementación de IA debe ser completamente transparente y auditable, rastreando con precisión quién realizó qué modificación en qué modelo para que siempre haya un registro completo y preciso de la creación del modelo.

Priorizar modelos interpretables: Otro camino hacia la transparencia total en el desarrollo y la gestión de la IA es construir modelos interpretables en lugar de modelos de caja negra. Como otros, creemos que los modelos interpretables son preferibles a los modelos de caja negra explicables por varias razones. Primero, las explicaciones del modelo de caja negra pueden ser inconsistentes entre los proveedores, lo que a su vez crea confusión entre los analistas. Además, las explicaciones en sí mismas pueden ser difíciles de descifrar dados los antecedentes y el nivel de conocimiento del analista.

Sin embargo, en los casos en que los modelos de caja negra funcionarán mejor que los modelos interpretables, se debe utilizar el modelo de caja negra y el equipo debe enfocarse en explicaciones que brinden un contexto relevante, como las fortalezas y debilidades del programa, los datos utilizados para llegar a un punto específico. decisión, y por qué no se eligió una decisión alternativa. Para que las explicaciones sean fáciles de entender y usar, deben estar en forma gráfica o en forma de una narrativa en lenguaje natural prediseñada que pueda incorporarse en los informes regulatorios, lo que funcione mejor para el equipo.

Evalúe el rendimiento del modelo y controle la deriva: La evaluación y el reciclaje continuos son fundamentales para garantizar un rendimiento del modelo libre de sesgos. Una vez que se entrena e implementa un modelo, es necesario monitorearlo de manera consistente. El modelo puede “derivar” a medida que las relaciones entre los datos cambian con el tiempo debido a cambios en el comportamiento del cliente, lanzamientos de nuevos productos u otros cambios sistémicos. Estos factores pueden hacer que el rendimiento del modelo se degrade con el tiempo y, si no se corrige mediante la reentrenamiento periódico de los modelos, conducir a decisiones incorrectas o sesgadas. Hacer estas cosas automáticamente es la clave para un monitoreo continuo.

Evalúe la equidad de los resultados predictivos: El desempeño del modelo debe evaluarse en varios segmentos de la población para garantizar que no haya un impacto desigual en segmentos específicos de la población. Por ejemplo, una IF utiliza un modelo de calificación de riesgo para clasificar a los clientes como de riesgo alto y medio. La IF puede cotejar los puntajes de riesgo con atributos sensibles como raza, religión, código postal o ingresos para investigar el modelo en busca de sesgos. Por ejemplo, suponga que las puntuaciones de riesgo de las personas de menores ingresos son consistentemente más altas que las de las personas de mayores ingresos; La IF debe identificar qué características están impulsando las puntuaciones de riesgo y si esas características realmente representan riesgo. Suponga que la IF encuentra que una característica representa una característica o comportamiento diferente debido a diferentes circunstancias financieras y no a un riesgo inherente. Luego, la función debe modificarse o eliminarse para reducir el sesgo del modelo. Por ejemplo, quizás un modelo contenga el movimiento rápido de fondos como característica. La IF puede encontrar que el modelo produce puntuaciones de riesgo más altas para las personas de bajos ingresos, pero después de la investigación puede determinar que la diferencia en las puntuaciones de riesgo entre las personas de bajos y altos ingresos se debe al hecho de que las personas de bajos ingresos son es más probable que gasten todo su cheque de pago más rápido, y no debido a patrones de movimiento de dinero verdaderamente arriesgados.

Mirando hacia el futuro

Tener una estrategia ahora sobre cómo garantizarán que la inteligencia artificial responsable no solo sea lo correcto para los CCO, sino que también puede ayudarlos a mantenerse a la vanguardia de las futuras regulaciones de inteligencia artificial. Los reguladores de EE. UU. Han enviado fuertes señales de que están fomentando la innovación y el crecimiento en IA, y se ha instruido a las agencias para que eviten acciones regulatorias o no regulatorias que actúan como barreras para el desarrollo y despliegue de IA. A medida que la IA comienza a penetrar en la industria financiera, surgen un comportamiento y una gobernanza éticos y responsables. Por ejemplo, la principal guía regulatoria sobre modelos cuantitativos para bancos estadounidenses es actualmente la SR 11-7, Orientación de supervisión sobre el modelado de la gestión de riesgos, de la Junta de Gobernadores del Sistema de la Reserva Federal de los Estados Unidos. Si bien esto se ha convertido en un plan para los reguladores a nivel mundial, se publicó en 2011 y no abarca todo el alcance de la IA. Se espera que se desarrolle una regulación más específica de la IA, aunque bien puede provenir de organismos reguladores más amplios (por ejemplo, la Comisión Europea) antes de que provenga de los reguladores financieros.

Independientemente de si llegan las regulaciones de IA y cuándo, al trabajar en estrecha colaboración con los equipos de ciencia de datos ahora, los CCO pueden hacer su parte para garantizar que el uso de IA dentro de sus programas de AML sea responsable, efectivo y gratuito. de sesgos.

Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2021-09-04 02:52:57 en:

Link a la nota original

Palabras clave:
#Inteligencia #artificial #responsable #para #lucha #contra #blanqueo #capitales #cómo #abordar #sesgo

About the author

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.

Leave a Comment