Deloitte en la prensa

Riesgos éticos en el uso de la inteligencia artificial

Conozca los tipos de riesgos existentes al emplear la inteligencia artificial, así como los principios de transparencia, responsabilidad, seguridad, imparcialidad, robustez y confiabilidad, claves para la adopción confiable de la IA.

Desde optimizar tareas de la vida cotidiana, apoyar en el desarrollo de nuevos productos y servicios, identificar nuevas perspectivas y descubrimientos, hasta la posibilidad de incrementar la productividad y la eficiencia de las más grandes compañías del mundo, son algunos de los logros de la inteligencia artificial (IA). Sin embargo, uno de los cuestionamientos más frecuentes es ¿realmente se puede confiar en un 100% en la IA?

Para responder, es fundamental definir las salvaguardas éticas en la empresa, con el fin de contar con una IA fiable. Ello se logra definiendo la gobernanza y controles, lineamientos que permitan dar cumplimiento normativo, de políticas y aprendizaje bajo consideraciones tecnológicas honestas y éticas. De no definirse las mismas o no gestionarlas adecuadamente, pueden generarse daños reputacionales debido a situaciones que puedan implicar sesgos.

Por ejemplo, en la selección de hojas de vida por IA para un trabajo relacionado con servicios de una aerolínea o la aplicación de reservas para la compra de vuelos, sin una buena parametrización en IA podría presentarse sesgos en la edad de los solicitantes o en las zonas geográficas en las que estos se encuentran. Asimismo, el uso no responsable de la IA en la automatización de amenazas cibernéticas podría ocasionar ataques a redes de manera maliciosa.

 

Tipos de riesgos existentes

A medida que los algoritmos y la IA se integran más en las empresas, aumenta la posibilidad de incidentes relacionados con la misma como son:

Reputacional: puede presentarse cuando las partes interesadas perciben una falta de alineación con la ética o los valores de la organización. La amenaza surge si los riesgos están diseñados para manipular a los consumidores, los reguladores o los empleados. La ampliación de sesgos relacionados con los datos subyacentes y el entrenamiento de las herramientas puede dañar la reputación de la organización.

Financiero: una IA defectuosa, especialmente en la toma de decisiones financieras y estratégicas, puede provocar una pérdida sustancial de ingresos y socavar la integridad de los informes financieros.

Regulatorio: cuando la IA toma decisiones contrarias a la ley o discrimina a ciertos grupos de personas puede exponer a las organizaciones a acciones regulatorias y legales.

Estratégico: los errores o las vulnerabilidades de la IA pueden poner a una organización en desventaja competitiva cuando se trata de decisiones estratégicas.

Operativo: al utilizarse a menudo para automatizar áreas operativas, las fallas pueden provocar importantes interrupciones operativas.

No obstante, las organizaciones en el mundo están adoptando un enfoque de adopción de IA confiable en el que esta debe guiarse bajo principios de:

Transparencia: se entiende cómo la data se está utilizando por la IA y cómo la compañía está tomando las decisiones. Asimismo, algoritmos y variables están disponibles para su análisis.

Responsabilidad: se dispone de políticas para determinar quién es el responsable de revisar la salida de un sistema y quién de la toma de decisiones basadas en IA.

Seguridad: se protege a los sistemas y los datos de incidentes (incluyendo ciberseguridad), lo que podría generar daño físico o digital.

Imparcialidad: se generan validaciones internas y externas para asegurar una aplicación justa e imparcial de la IA a todos los participantes.

Robustez y confiabilidad: se tiene la capacidad de aprender de los humanos y otros sistemas para producir resultados consistentes y fidedignos.

Privacidad: se respeta la privacidad del consumidor y los datos no se usan más allá de lo esperado y aprobado. Los consumidores pueden ingresar o retirarse en cualquier momento al compartir la información.

 

Responsabilidad del Consejo Administración, la Junta Directiva y comités de auditoría

Para gestionar de manera efectiva los riesgos éticos del uso de IA, las organizaciones deben tener un modelo de gobernanza y supervisión efectiva. El Consejo de Administración debe garantizar que las guías de uso y las políticas de gobierno de la IA estén integradas en las políticas existentes de gestión de riesgos, incluido los proveedores aprobados, los casos de uso aceptables y los que puedan requerir la aprobación del Consejo o la información que se use como entrada, entre otros.

Por su parte, los comités de auditoría deben comprender cómo se utiliza GenAI en la organización, incluidas las operaciones comerciales y de back-office, así como el impacto en la información financiera. Además, debe asegurarse de que los riesgos asociados con los procesos se identifiquen e incluyan en la matriz respectiva, así como trabajar con la administración para determinar dónde la Junta Directiva debe supervisar riesgos.

Finalmente, la administración debe asegurar una adecuada definición de responsabilidades, incluyendo una primera línea para los controles de desarrollo, pruebas y detección de errores. La segunda línea debe realizar la validación de los casos de uso y la tercera hacer un monitoreo efectivo mediante la realización de pruebas que reten los resultados de los casos de uso.

Artículo elaborado para la Revista El Contador Público del INCP

¿Le pareció útil este contenido?