Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar las cookies" para disfrutar de esta web con todas las cookies, o configura tus preferencias antes de aceptarlas.

Gestión de Cookies
Zona Clientes
User
Password
Campus e-Learning
User
Password
  • Zona Clientes
  • Campus E-Learning
Noticias  /  Auditoría de Inteligencia Artificial

Auditoría de Inteligencia Artificial

Se proyecta que el uso de IA crecerá exponencialmente en el futuro cercano. James Bone analiza lo que esto significa para la auditoría interna y describe los elementos clave de un marco de auditoría de IA.

31/07/2020

Se proyecta que el uso de IA crecerá exponencialmente en el futuro cercano. James Bone analiza lo que esto significa para la auditoría interna y describe los elementos clave de un marco de auditoría de IA.

La inteligencia artificial se ha convertido en un imperativo estratégico nacional para países tan diversos como China, Rusia, el Reino Unido, Francia, Canadá y otras 13 naciones. En febrero de 2019, el presidente Trump firmó una Orden Ejecutiva (EO 13859) para garantizar que EE. UU. Mantenga el liderazgo en inteligencia artificial y aborde de manera importante las lagunas en los estándares para que la IA promueva y proteja Tecnología de IA e innovación. 

Se espera que el mercado para la automatización del software de inteligencia artificial crezca sustancialmente en los próximos cinco años. [6] Se estima que el uso de la inteligencia artificial crecerá de aproximadamente $ 10 mil millones en 2019 a $ 125 mil millones en 2025. A medida que la inteligencia artificial crezca en importancia y uso, el papel de los auditores internos tendrá que evolucionar en bloque para abordar una variedad de nuevos desafíos que aún no se han contemplado por completo.

En previsión de este crecimiento, organizaciones de estándares como los Estándares Nacionales Americanos (ISO / IEC JTC 1 / SC 42), NIST (EO 13859) y la Oficina del Comisionado de Información del Reino Unido (ICO) han comenzado el desarrollo de marcos y estándares para la inteligencia artificial. El proceso de desarrollo de estándares llevará tiempo, con diferentes creadores de estándares que evolucionarán a lo largo de áreas específicas de enfoque, tales como privacidad de datos, uso éticoo el diseño técnico de sistemas de IA. Sorprendentemente, AICPA, el creador de estándares para las firmas de contadores públicos y el Instituto de Auditores Internos (IIA) aún no han desarrollado estándares profesionales formales para guiar a los auditores en el uso y la auditoría de los sistemas de inteligencia artificial, dejando a los auditores con poca orientación sobre temas críticos relacionados a la privacidad de datos, estándares éticos en auditorías de IA y riesgos de auditoría durante la implementación y salida de sistemas de IA. Además, las propuestas de contadores públicos certificados han abogado por la reparación formal de riesgos y estándares éticos, incluyendo sesgos algorítmicos, gestión de datos y cuestiones de privacidad en las auditorías. 

Para ser justos, ambas organizaciones han escrito libros blancos sobre el tema; sin embargo, los artículos que existen están basados ​​en guías, abiertos a interpretación y no aseguran que existan protecciones críticas, dado el potencial de resultados de "caja negra" que carecen de trazabilidad y responsabilidad en caso de falla o fraude. Como resultado, los ejecutivos de auditoría deberán desarrollar sus propios marcos para auditar sistemas de inteligencia artificial. Por lo tanto, ahora es el momento de ponerse al día con las iniciativas de desarrollo de normas para prepararse.

La inteligencia artificial se ha convertido en una palabra de moda utilizada para describir incluso la automatización simple, pero las diferencias son importantes de entender. Cada nivel de automatización juega un papel valioso pero realiza diferentes usos para cada tipo. La automatización robótica de procesos (RPA) es el nivel más bajo de automatización. RPA sigue reglas estrictas y, cuando se programa correctamente, ejecuta procesos repetitivos como la automatización de flujos de trabajo de contabilidad, la recopilación de datos y la transferencia automática de información sin interacción humana. Las organizaciones han comenzado a combinar uno o más niveles de automatización inteligente para lograr un mayor rendimiento y eficiencia operativa.

La IA requerirá nuevos modelos de supervisión, como la colaboración humano / máquina en los procesos de toma de decisiones, generalmente reservados para la administración que requiere reglas claras de compromiso entre la auditoría y la administración. La inteligencia artificial puede convertirse en el desarrollo tecnológico más disruptivo hasta la fecha, creando nuevas oportunidades y riesgos en todos los aspectos de los negocios y la vida. La IA también representa oportunidades para que la auditoría interna brinde liderazgo en el aseguramiento de la auditoría, al igual que educa a los líderes empresariales sobre el uso seguro y la implementación de los sistemas de IA.

No debe existir un marco de auditoría de "talla única" para la inteligencia artificial, ni ningún estándar debe permanecer estático dado el rápido ritmo de cambio en la tecnología. Dicho esto, hay elementos comunes que deben considerarse al prepararse para un compromiso de inteligencia artificial a través del desarrollo de un ecosistema de IA que capture áreas clave de riesgo clave.

 

Consideraciones para planificar un compromiso de inteligencia artificial

Los elementos clave de un marco de auditoría de IA pueden incluir, pero no incluyen todos los factores a considerar:

 

Los 6 elementos de un ecosistema de IA

  • Modelos de ética y gobernanza de la inteligencia artificial.
  • Normas y procedimientos formales para la implementación de trabajos de inteligencia artificial.
  • Gestión de datos y modelos, gobernanza y privacidad.
  • Comprender la integración hombre-máquina, las interacciones, el apoyo a la decisión y el resultado
  • Gestión de proveedores de IA de terceros
  • Vulnerabilidad de ciberseguridad, gestión de riesgos y continuidad del negocio.

Estos representan un marco para la auditoría interna a considerar como un complemento de un trabajo de auditoría de inteligencia artificial. Los seis elementos no se enumeran en un orden secuencial de importancia; sin embargo, hasta que se desarrollen estándares y procedimientos de auditoría profesional, cada uno debe considerarse en la fase de evaluación de riesgos de la planificación de la auditoría. En enero de 2017, se actualizaron las Normas Internacionales para la Práctica Profesional de la Sección de Auditoría Interna (Normas) 2010. A1, A2 y C1 se proporcionan como guía para establecer un plan de auditoría "basado en el riesgo". Los jefes ejecutivos de auditoría pueden necesitar volver a examinar los riesgos en toda la empresa como resultado de la implementación de inteligencia artificial.

La inteligencia artificial representa un riesgo novedoso, lo que significa que puede que no existan observaciones históricas o datos de riesgo a partir de los cuales los auditores puedan deducir el alcance de los riesgos de la alta dirección o la junta. Las evaluaciones de riesgos de cada uno de los seis elementos deben considerarse en el contexto de cómo se aplicará la IA. La inteligencia artificial ya se ha aplicado en diversas industrias, cada una con sus propios riesgos inherentes. La integración de las interacciones hombre-máquina en las que las decisiones de IA se basan o se utilizan junto con actores humanos representa riesgos dinámicos que requieren mayores niveles de atención. El Boeing 737 MAX es un ejemplo en el que la dependencia excesiva de la inteligencia artificial y la subestimación de los riesgos pueden provocar fallas catastróficas, incluso en industrias, como la aeroespacial, donde la IA tiene un historial de uso que ayuda al rendimiento del piloto.

Los ejecutivos de auditoría deben trabajar con los altos ejecutivos y la junta para establecer estándares éticos y modelos de gobierno para el uso de la inteligencia artificial. La inteligencia artificial requerirá claridad sobre la privacidad de los datos, el gobierno de los datos, la gestión de proveedores, los recursos humanos, el cumplimiento, las funciones y políticas de gestión de riesgos y ciberseguridad. Es posible que se requiera que los equipos interfuncionales de supervisión y líderes empresariales establezcan nuevos modelos operativos a partir de los cuales se pueda establecer formalmente la garantía de auditoría para cada área afectada en una organización. Por ejemplo, si la IA se usa en diagnósticos de pacientes, se necesitarán médicos, enfermeras y otros para medir las mejoras o discrepancias en la precisión del diagnóstico para evaluar nuevas intervenciones médicas para modelos de confianza de atención al paciente. Las evaluaciones de riesgo subjetivas serán insuficientes en un mundo de IA, donde los riesgos pueden ser exponenciales en el daño a la reputación y amenazar la supervivencia de la empresa.

 

Empezando

¡Ahora es el momento de ponerse al día!

Cada organización tendrá que realizar cambios estructurales sustanciales en previsión de la implementación de IA, auditorías de IA y planificación para auditar los resultados clave de los sistemas de IA. El ecosistema de IA propuesto es una lista de verificación informal para prepararse para los cambios estructurales en el rol de auditoría y para apoyar proyectos de IA o planificación para un compromiso de sistemas inteligentes. No hay dos proyectos de IA exactamente iguales; todos están aprendiendo sobre la marcha, así que no te preocupes por la experiencia en este momento.

La IA no es un compromiso tradicional, pero muchos de los estándares de TI existentes cubren las bases mínimas. Desafortunadamente, los factores relacionados con la cultura corporativa y los usos previstos de la IA requerirán la participación a nivel empresarial para construir una práctica de auditoría de IA sostenible. Este es un momento emocionante para que los ejecutivos de auditoría desempeñen un papel de liderazgo en el suministro de garantías, incluso si la orientación más formal y los estándares profesionales tardan en desarrollarse.

Mientras tanto, un consorcio de países está desarrollando una nueva guía a partir de un proceso colectivo para aprovechar los estándares existentes y construir nuevos para proporcionar consistencia en el aseguramiento.

 

Fuente:corporatecomplianceinsights.com

Solicita más información

En cumplimiento de la normativa de protección de datos, en particular del Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril de 2016, le informamos que los datos personales que usted nos facilita a través del presente formulario, serán utilizados por International Dynamics Advisors (INTEDYA), para tramitar su solicitud de información respecto al asunto indicado. .

Los datos personales marcados con (*) son imprescindibles para tramitar su solicitud, siendo el resto opcionales, y orientados a mejorar las vías de comunicación con los solicitantes. INTEDYA únicamente comunicará sus datos a las oficinas (pertenecientes a su red de oficinas) necesarias o relacionadas con el servicio solicitado, no realizando ninguna otra comunicación, más allá de las obligaciones legales que puedan derivarse del tratamiento. Asimismo, ni INTEDYA ni las oficinas de su red implicadas, utilizará sus datos con finalidades distintas a las indicadas, salvo autorización expresa y previa del titular de los mismos. Los datos personales serán tratados únicamente durante el tiempo necesario para tramitar su solicitud, tras lo cual se procederá a su supresión. Le informamos sobre la posibilidad de ejercer los derechos de acceso, rectificación, supresión, portabilidad y limitación del tratamiento, en los términos previstos en la ley, que podrá ejercitar dirigiéndose a International Dynamics Advisors, en Calle Antonio Gaudí y Cornet, nº 113 Edificio 1 (Esquina Benjamín Franklin) P.I. Roces C.P. 33211 Gijón (Asturias)., o a la dirección de correo electrónico info@intedya.com.

Además, en caso de que usted nos autorice expresamente, INTEDYA podrá utilizar sus datos de contacto para el envío de Newsletter, comunicaciones, notificaciones y, en general, información sobre nuestros productos y servicios que puedan resultar de su interés.

Para obtener más información sobre el uso de los datos de carácter personal, así como sobre el cumplimiento de los principios, requisitos y derechos recogidos de la normativa de protección de datos, INTEDYA pone a disposición de los interesados, a través de su página web, su Política de Privacidad.

Trabajamos formando un banco mundial de conocimiento, sumando la experiencia y capacidades de todos nuestros profesionales y colaboradores capaces de formar el mejor equipo internacional de conocimiento.

Reconocimientos y participación

StaregisterUNE Normalización EspañolaOganización Asociada a la WORLD COMPLIANCE ASSOCIATIONStandards Boost BusinessMiembros de ANSI (American National Standards Institute)Titulaciones conjuntas con la Universidad de San JorgeMiembros del Pacto Mundial de las Naciones UnidasMiembros de la Green Industry PlatformMiembros de la Asociación Española de la CalidadAdheridos al Pacto de LuxemburgoMiembros de la European Association for International EducationAlianza con Prevensystem