Los beneficios y desafíos que plantea la aparición de una tecnología altamente eficiente para el procesamiento documental y la generación de texto, conocida como Inteligencia Artificial Generativa.

La Inteligencia artificial generativa promete enormes ahorros de costo y aumentos de eficiencia en todas las industrias. En Alloxentric ya lo hemos aplicado en industrias como transporte, ingeniería de grandes proyectos, banca, hospitales y empresas de servicios públicos. En este articulo queremos enfocarnos en la banca y los riesgos regulatorios asociados a su uso, ya que estimamos será uno de los verticales que obtendrá un beneficio sustancial a partir de esta tecnología, aunque existen varios obstáculos normativos y riesgos que podrían dificultar el avance de las iniciativas que involucran Inteligencia Artificial (IA):

Privacidad y seguridad de los datos: El uso de la IA requiere el acceso a cantidades importantes de datos de clientes que en el caso de la banca debe limitarse a lo permitido según las regulaciones. Las instituciones financieras deben cumplir con estrictas regulaciones de privacidad de datos, como GDPR (Reglamento General de Protección de Datos) y CCPA (Ley de Privacidad del Consumidor de California), para garantizar el manejo seguro y ético de la información sensible. GDPR es hoy el estándar al que las legislaciones nacionales buscarán parecerse.

Protección del consumidor: Los chatbots y asistentes virtuales basados en IA deben proporcionar información precisa y transparente a los clientes. El cumplimiento de normativas como la Ley de Veracidad en los Préstamos (TILA) y las directrices de la Oficina de Protección Financiera del Consumidor (CFPB), son esenciales para proteger a los consumidores en su interacción con la atención automatizada, por lo que prevemos la reproducción es estos esquemas regulatorios en la FCA (Finantial Conduct Authority) y otros organismos. También es probable que muchos países sigan los pasos de España y obliguen a tener siempre disponible una vía de escalamiento humano en todos los canales de atención. El desafío es, entonces, cómo lograr que dicho escalamiento sea poco utilizado por medio de tener asistentes automatizados altamente efectivos dentro de lo permitido por la normativa.

Préstamos justos y discriminación: Los algoritmos de IA en la calificación crediticia y las decisiones de préstamo deben supervisarse cuidadosamente para evitar sesgos y discriminación, ya sea positiva o negativa, a ciertos perfiles. Varios estudios muestran que existen sesgos en los algoritmos (derivados de la forma en que históricamente se han entregado los productos de crédito), luego, el cumplimiento de las leyes de préstamos justos, como la Ley de Igualdad de Oportunidades de Crédito (ECOA) de USA y la Ley de Vivienda Justa, es crucial en este ámbito.

Leyes de Antiblanqueo de dinero (AML) y Conozca a su cliente (KYC): Las instituciones financieras deben asegurarse de que las herramientas de IA cumplan con las regulaciones AML y KYC para detectar y prevenir el lavado de dinero y las actividades de financiación del terrorismo. El sesgo y la seguridad de datos juegan un rol clave en garantizar la eficiencia, unido a un proceso que permita al consumidor entender lo que ocurre.

Manipulación del mercado y fraude: Las instituciones, tanto la banca como los reguladores, deben cautelar que los algoritmos de IA utilizados en el comercio, en el negocio financiero y en la toma de decisiones de inversión, tengan los controles adecuados para evitar la manipulación del mercado y el uso de información privilegiada. Esto puede ser particularmente complejo por la forma en que los modelos son entrenados.

Riesgo sistémico: La adopción a gran escala de la IA en los mercados financieros puede plantear riesgos sistémicos. Los reguladores pueden imponer una supervisión más estricta para gestionar los riesgos potenciales asociados a la toma de decisiones basadas en la IA. En el mismo sentido debe ir la gestión del riesgo de modelos, los modelos de IA en las instituciones financieras van a tener que someterse a rigurosas pruebas, validación y gobernanza para garantizar su precisión, fiabilidad y cumplimiento de la normativa.

Interpretabilidad: La naturaleza de “caja negra” de algunos algoritmos de IA puede dificultar la explicación de cómo se toman determinadas decisiones. Es posible que las entidades financieras tengan que desarrollar métodos de interpretabilidad de los modelos de IA para cumplir los requisitos normativos. Lo mismo debería ocurrir con modelos de control de calidad utilizados para medir los resultados de los modelos de IA.

Normativa transfronteriza: Las instituciones financieras que operan a nivel transfronterizo deben navegar por diversos marcos regulatorios, ya que la gobernanza de la IA va a diferir significativamente entre países.

 

En conclusión, los espacios de uso de la tecnología de Inteligencia Artificial Generativa en la industria financiera son enormes, pero suponen un desafío regulatorio mayor y crean espacios de mejora en el control de riesgo del negocio.

Ese desafío regulatorio impondrá requisitos de explicabilidad, calidad, control del sesgo y otros cuyo alcance tecnológico esta por entenderse.

 

Si quieres saber más de estos aspectos y cómo aplicarlos a tu empresa, ¡contáctanos! y diseñaremos un plan ajustado a tus necesidades.

 

 

Licencia Creative Commons Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivadas 4.0 Internacional.

Alloxentric usa cookies para mejorar la experiencia de los usuarios. Al continuar usando este sitio web, usted acepta el uso de nuestras cookies. Vea nuestra Política de Privacidad y Cookies para saber más.

ACEPTAR
Aviso de cookies
error: Contenido protegido