Home Tags Posts tagged with "comisión europea"

comisión europea

¿OCDE o Comisión Europea? Principios o Requerimientos para IA confiable

Antecedentes

Con la Cuarta Revolución Industrial y sus diferentes habilitadores, algunas de las tendencias tecnológicas que la caracterizan (siglo XXI), están cambiando drásticamente la forma en que vivimos y trabajamos en áreas como las siguientes: la investigación y desarrollo, la ingeniería, la logística, el entretenimiento, la salud, la mercadotecnia, el cuidado social, las ventas, la manufactura, las inversiones bursátiles, la gestión de contenido, entre muchas otras que aún están incursionando en el tema, y tal es el caso de la tecnología basada en Inteligencia Artificial (o IA por sus siglas en español).

¿Por qué contar con IA Confiable o Inteligencia Artificial Confiable?

La IA ha comenzado a ofrecer a las economías de los países y a la sociedad en general, beneficios extraordinarios en materia de velocidad, precisión, capacidad de procesamiento, tiempo, costo de oportunidad, entre otros aspectos vinculados con el aprendizaje y la toma de decisiones mostrada o realizada por las máquinas.  No obstante lo anterior, la IA también ha traído consigo nuevos retos (ej. en gobernabilidad y cumplimiento) y preocupaciones (ej. riesgos) que alimentan continuamente la ansiedad y los problemas éticos que un mal uso, pudiera traer para la sociedad y el mundo.  Esto debería empujar a los gobiernos del mundo, a realizar esfuerzos conjuntos para asegurar que los sistemas de IA que sean diseñados por alguna razón o utilidad específica, sean diseñados de manera que respeten los valores humanos y las leyes aplicables a su naturaleza o sector, garantizando a la gente y a la sociedad en general, que dichos sistemas de IA son confiables, seguros y respetan la privacidad.

Para lograr que los sistemas de IA sean confiables para la sociedad, la OCDE u Organización para la Cooperación y el Desarrollo Económico (o OECD por sus siglas en inglés), ha definido un conjunto de principios (5) y recomendaciones (5) que deberán servir de referencia global, para generar sistemas de IA confiables que entreguen los mejores resultados a los usuarios de estos.

Cabe además señalar que los cinco principios definidos por la OCDE para IA confiable, cuentan con el soporte de la Comisión Europea cuyo Grupo de Expertos de Alto Nivel en IA (AI HLEG por sus siglas en inglés), creó un documento con Lineamientos o Directrices de Ética para IA Confiable, mismo que encuentra un número considerable de coincidencias con los cinco principios de la OCDE -como se verá más adelante-.  Adicionalmente, en el caso de los principios de la OCDE, esta ha comisionado al grupo experto en política digital, la creación de una guía práctica para su implementación.

Principios de la OCDE: ¿legalmente vinculantes?

Aún y cuando los cinco principios de la OCDE para IA confiable no son vinculantes desde el punto de vista legal (compliance), las políticas que se han elaborado para las veinte diferentes áreas de influencia (ej. agricultura, competencia, gobierno corporativo, economía digital, entre otras), han sido hasta ahora suficiente empuje para que los gobiernos comiencen a legislar y a establecer estándares en la materia (ej. privacidad y datos personales en EUA, Europa o Asia; a nivel internacional el Comité ISO trabaja en la norma ISO/IEC22989).

Los principios de la OCDE fueron desarrollados y propuestos por un grupo de expertos en IA, así como formalmente adoptados en el mes de mayo del 2019.  Con este acontecimiento y a pesar de no ser vinculantes desde el punto de vista legal, los países miembros de la OCDE y algunos otros países socios, formalmente manifestaron su adhesión al primer conjunto de lineamientos para políticas intergubernamentales en materia de Inteligencia Artificial, conviniendo además en procurar y proteger los estándares internacionales dirigidos a garantizar que los sistemas de IA sean robustos, seguros, justos y confiables.  Dentro del universo de países que aceptaron los cinco principios para desarrollar IA confiable, se encuentran los 36 países miembros del organismo al 2019, más 6 países socios entre los que destacan: Argentina, Brasil, Colombia, Costa Rica, Perú y Rumania, para un total de 42 países (representando aproximadamente el 80% de la actividad económica mundial; vea la figura 1).

Figura 1. Banderas de los países adheridos a los principios de la OCDE para IA confiable

Los cinco principios de la OCDE para IA confiable

El pasado 22 de mayo del 2019, el Consejo de Ministros de la OCDE aceptó y firmó el documento con la Recomendación del Consejo en Inteligencia Artificial, en donde el Comité en Política en Economía Digital, establecía los principios y recomendaciones que se deberán seguir para fomentar la innovación y la confianza en la IA, pero respetando en todo momento los derechos humanos y los valores democráticos.

Para lograr este acuerdo y el documento en cuestión, la OCDE configuró un grupo de 50 expertos en IA para establecer el conjunto de principios y recomendaciones citadas.  Cabe mencionar que el grupo de expertos representaba a 20 gobiernos distintos, así como a diferentes líderes de opinión en materia de negocios, laboral, sociedad civil, académica y comunidades científicas.  Los principios y recomendaciones en IA de la OCDE, son el primer conjunto de lineamientos firmados por los gobiernos de diferentes países, lo que se considera un gran avance en cuanto a la regulación de buena fe en este campo, así como complementa algunos otros esfuerzos en materia de privacidad, gestión de riesgos en seguridad digital y conducta empresarial responsable.

A continuación se muestran los cinco principios basados en valores, para la administración responsable de Inteligencia Artificial confiable (vea la figura 2):

  • Principio 1: crecimiento inclusivo, desarrollo sostenible y bienestar.

En este principio se establece brevemente, que la IA confiable deberá entregar resultados benéficos al planeta y a las personas, aumentando con esto las capacidades humanas, mejorando la creatividad y avanzando en el combate a las inequidades de las poblaciones menos favorecidas, mediante una conducción o manejo que promueva el crecimiento de todos, el desarrollo sostenible en el tiempo y sin afectar a las futuras generaciones, y el bienestar común.

  • Principio 2: valores centrados en el ser humano y la justicia.

En este principio se establece brevemente, que los actores de los sistemas de IA confiables, deberán considerar el diseño de estos de manera que se respete el gobierno de la ley, los derechos humanos, los valores democráticos y la diversidad, así como deberán considerar las garantías necesarias para asegurar una sociedad justa y equitativa (ej. sistemas de IA supervisados mediante Human-In-The-Loop, Human-On-The-Loop o Human-In-Command).

  • Principio 3: transparencia y capacidad de explicación (explicability).

En este principio se establece brevemente, que deberá haber transparencia (cuidando la propiedad intelectual de la “programación de los algoritmos”) y conocerse la responsabilidad de los actores entorno a los sistemas de IA creados, para entender el funcionamiento en general de los sistemas de IA, garantizar que las personas saben cuando se interactúa con IA y cómo se obtienen los resultados basados en esta, y finalmente saber cómo se puede retar estos resultados cuando afectan de forma adversa.

  • Principio 4: robustez, seguridad y protección.

En este principio se establece brevemente, que los sistemas de IA deberán funcionar en todos los casos previstos, de manera segura, protegida y robusta, a lo largo de su ciclo de vida.  Para esto los actores de la IA, deberán asegurar la trazabilidad de los resultados obtenidos por los sistemas de IA, hacia las decisiones, los procesos y los conjuntos de datos utilizados, integrando en todo momento un enfoque para que todos los riesgos potenciales, sean continuamente valorados y gestionados.

  • Principio 5: responsabilidad.

En este principio se establece brevemente, que las personas y las organizaciones que desarrollen, desplieguen y/u operen sistemas de IA, deberán observar en todo momento el funcionamiento apropiado de estos así como su responsabilidad irrenunciable, en función del rol, el contexto, el estado de la tecnología y en adición a los otros cuatro principios.

Figura 2. Principios para IA Confiable, OCDE

Los siete requerimientos de la Comisión Europea para IA confiable

Como se mencionó al inicio del artículo, dentro de la Unión Europea, la Comisión Europea (European Commission) es una de las instancias a nivel internacional, que se ha preocupado y encargado de formar desde el 2018, un grupo independiente de 52 expertos de alto nivel en materia de inteligencia artificial (o AI HLEG por sus siglas en inglés), integrando expertos tanto de las áreas académicas, científicas, de la industria relacionada con IA y de la sociedad civil, para elaborar con su ayuda, una serie de documentos relevantes en el campo de la Inteligencia Artificial y dentro de los que se encuentra el de Lineamientos de Ética para Inteligencia Artificial Confiable (Ethics Guidelines for Trustworthy AI); cabe mencionar que este último documento, resultó una pieza clave para la elaboración del documento de la OCDE en materia de IA confiable (Recomendación del Consejo en Inteligencia Artificial).

En el documento de la Comisión Europea, el AI HLEG buscó establecer la promoción y valoración continua entre los países de la Unión Europea, del diseño, desarrollo, implementación y uso de Inteligencia Artificial confiable.  Para esto, el documento propuso que la IA confiable fuera aquella que cumpliera a lo largo de su ciclo de vida, con siete requerimientos esenciales e interrelacionados (vea la figura 3) mismos que se presentan a continuación:

  • Requerimiento 1: autodeterminación humana y supervisión.

En este requerimiento se establece brevemente, que los sistemas de IA deberán apoyar la autonomía y la toma de decisiones del ser humano, actuando como facilitadores para el logro de una sociedad floreciente, democrática y equitativa, al soportar la capacidad de decisión de los usuarios, fomentar el respeto a los derechos fundamentales, y permitir la supervisión humana.

  • Requerimiento 2: robustez técnica y seguridad.

En este requerimiento se establece brevemente, que la IA confiable reside en la solidez técnica y en su desarrollo con un enfoque preventivo de los riesgos, garantizando la integridad física y mental de los seres humanos, de manera tal que se comporte siempre según lo previsto, mientras se minimizan o evitan los daños involuntarios, inesperados e inaceptables. Esto también aplica a los cambios en su entorno operativo o a la presencia de otros agentes ya sean humanos o artificiales, que pudieran interactuar con el sistema de una manera adversa.

  • Requerimiento 3: privacidad y gobierno de datos.

En este requerimiento se establece brevemente, la necesidad de prevenir y proteger de cualquier daño a la privacidad de los datos utilizados por los sistemas de IA, requiriendo la adopción de un gobierno de datos adecuado y que cubra la calidad e integridad de los datos utilizados, su relevancia a la luz del dominio en el que se implementarán y utilizarán los sistemas de IA, sus protocolos de acceso y la capacidad de procesar datos de una manera que se preserve la privacidad.

  • Requerimiento 4: transparencia.

En este requerimiento se establece brevemente, la trazabilidad, la capacidad de explicar y la comunicación hacia los usuarios cuando se interactúa con un sistema de IA, considerando la transparencia en cuanto a los elementos relevantes para el funcionamiento del sistema de IA, contemplando lo siguiente: 1) los datos, 2) el sistema y 3) los modelos de negocio (respetando siempre la propiedad intelectual).

  • Requerimiento 5: diversidad, no discriminación y justicia.

En este requerimiento se establece brevemente, que para obtener IA confiable, debemos permitir la inclusión de todas las partes interesadas, evitar sesgos involuntarios en los datos utilizados, así como dar cabida a toda la diversidad de opiniones que se generen, a lo largo de todo el ciclo de vida del sistema de IA.  También se debe garantizar el acceso igualitario al sistema de IA, a través de procesos de diseño que sean inclusivos (universal design) y procuren el tratamiento igualitario de todos.

  • Requerimiento 6: bienestar social y ambiental.

En este requerimiento se establece brevemente, que a lo largo del ciclo de vida de los sistemas de IA, se debe alentar la sostenibilidad y la responsabilidad ecológica, así como fomentar la investigación en soluciones de IA que toquen temas de interés mundial (ej. “Los Objetivos de Desarrollo Sostenible”), buscando con esto el beneficio de todos los seres humanos -incluidas las futuras generaciones-.

  • Requerimiento 7: responsabilidad.

En este requerimiento se establece brevemente, que además de cumplir con los seis requisitos anteriores (dependiendo del contexto del sistema de IA), también se requiere que se establezcan los mecanismos necesarios (ej. reportes, auditorías o compensaciones) para garantizar la responsabilidad de los actores, por los sistemas de IA creados y sus resultados arrojados, abarcando desde la etapa de exploración, diseño, desarrollo, implementación, hasta su uso.

Figura 3. Requerimientos para IA Confiable, Comisión Europea

Principios vs Requerimientos para IA confiable

Una vez presentados los cinco principios que fueron definidos por los expertos en IA, convocados por la OCDE, así como los siete requerimientos definidos de manera similar, por la Comisión Europea -en ambos casos para guiar el manejo de sistemas de Inteligencia Artificial confiables-, a continuación procederemos a mostrar e identificar sus similitudes y diferencias (vea la tabla 1) de cara a los derechos humanos y los valores democráticos fundamentales, con el fin de determinar cuál de estas guías puede ser la mejor referencia para usted, en materia de evaluación o assessment  del funcionamiento de los sistemas de IA creados por las organizaciones y/o los individuos (ej. para la regulación y cumplimiento).

Tabla 1. Principios de la OCDE vs Requerimientos de la Comisión Europea

Conclusión: ¿principios de la OCDE o requerimientos de la Comisión Europea?

Cada vez más personas se convencen del impacto positivo que los sistemas de IA y la IA per se, están teniendo tanto técnica, como comercial y socialmente.  Sin embargo, también debemos preocuparnos aún por los riesgos y los impactos adversos asociados a estas tecnologías disruptivas, asegurando que se manejen de manera justificada, adecuada y proporcional a su nivel de riesgo.  En este artículo se han puesto a disposición del lector, dos vertientes que pueden ser utilizadas para evaluar la confiabilidad de la IA y de sus sistemas derivados, con el fin de salvaguardar a la sociedad y al planeta, de los riesgos e impactos negativos.  Ahora es decisión personal pero sobretodo de aquellos actores involucrados en la creación de IA, escoger aquella vertiente que les resulte más conveniente: ¿cinco principios de la OCDE o siete requerimientos de la Comisión Europea?

Un dato adicional y destacable en la materia, es el hecho de que el G20 o Grupo de las 20 economías más grandes del mundo (Alemania, Arabia Saudita, Argentina, Australia, Brasil, Canadá, China, Corea del Sur, Estados Unidos de América, Francia, India, Indonesia, Italia, Japón, México, Reino Unido, Rusia, Sudáfrica, Turquía y la Unión Europea), ha firmado su adhesión y compromiso con los cinco principios para IA confiable de la OCDE, lo que significa que además de los 36 países miembros de la organización más los 6 países socios adherentes, ahora son los líderes de las 20 economías con mayor PIB en el mundo, las que se apegan a dichos principios.  En el caso de México, además de la firma de los principios y recomendaciones de la OCDE, también se tiene conocimiento de dos iniciativas más a nivel local, que al término del año 2018, mantenía un programa gubernamental denominado PROSOFT para el desarrollo de software, así como se contaba con una Estrategia Digital Nacional, esfuerzos con los que se buscaba abordar e impulsar los temas relacionados con el desarrollo de la Inteligencia Artificial en el país.  Hoy en día, se tiene conocimiento de que una institución de educación superior del Estado de Jalisco, ha decidido liderar un esfuerzo adicional en esta materia, sin que hasta ahora se haya generado alguna iniciativa complementaria desde el ámbito gubernamental, razón por la que se ha señalado la importancia de comenzar a legislar y regular en materia de gobernabilidad en IA, integrando a este esfuerzo el comportamiento ético de los involucrados, los riesgos inherentes, el control aconsejable y el nivel de cumplimiento que sea adecuado.

Si a ti te interesa saber más sobre el tema, ¡contáctame!, será un gusto poder platicar contigo.

Referencias y/o consultas

  1. The BCS AI Foundation Delegate Manual.  Purple Griffon, Ltd.  United Kingdom, 2019.
  2. Portal de la Comisión Europea: https://ec.europa.eu/info/index_en
  3. Ethics Guidelines for Trustworthy AI.  European Comission, High Level Expert Group on Artificial Intelligence.  Brussels, April 2019.
  4. OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449
  5. Portal de la OCDE: http://www.oecd.org/going-digital/ai/principles/
  6. Subportal de la OCDE, AI Policy Observatory: https://oecd.ai/

Te invitamos a leer:

Con Mantenimiento Productivo

Impacto de la pandemia en el sector del petróleo y el gas

david mondragón
David Mondragón Tapia es ingeniero industrial y de sistemas, con maestría en ingeniería con especialidad en ingeniería industrial, por el Instituto Tecnológico de Monterrey.  Es consultor y asesor de mejores prácticas tecnológicas y de gestión de servicios, así como de diferentes métodos y técnicas de planeación y gestión de negocios; cuenta con diversas certificaciones internacionales y trabaja en el campo de la consultoría desde el 2003 a la fecha.  Recibe correspondencia al correo: dmondragont@yahoo.com



septiembre 16, 2020 0 comment
1 Facebook Twitter Google + Pinterest