Cargando...
  • Alto contraste

Asia Pacífico | Observatorio Parlamentario

Japón avanza en el desarrollo de Inteligencia Artificial con directrices éticas

08 octubre 2024

El país nipón publicó un marco regulatorio y ético claro para el desarrollo de la IA a través de una guía orientada a las empresas, aunque se trata de un conjunto de principios fundamentales diseñados en colaboración con el Ministerio de Asuntos Internos y Comunicaciones y el Ministerio de Economía, Comercio e Industria de Japón, está dirigido a todo el ecosistema que desarrolla y utiliza este tipo de tecnología. Uno de los principios básicos es el respeto a la dignidad de las personas.

Imagen de la nota

En su esfuerzo por alinear el desarrollo de la inteligencia artificial del país con estándares internacionales y atender las preocupaciones locales, Japón publicó a finales de 2023 sus “Directrices de IA para Empresas” que contiene propuestas claras para avanzar en la educación y la colaboración entre distintos actores para garantizar que la tecnología beneficie a todos los sectores de la sociedad y contribuya a la construcción de una sociedad 5.0, marcada por la dignidad, diversidad y sostenibilidad. Más detalles de esta iniciativa, en la siguiente nota.

Directrices para una IA enfocada en la dignidad del ser humano

Japón ha estado avanzando en la creación de marcos éticos para el desarrollo de la Inteligencia Artificial. Una nota publicada por el Japan News en noviembre de 2023, da cuenta de la propuesta presentada por el gobierno sobre inteligencia artificial (IA). En su descripción, la describe como un avance significativo hacia la garantía de estándares éticos en un panorama tecnológico que está evolucionando rápidamente, señala la publicación.

La propuesta, llamada "Directrices de IA para Empresas", desarrollada por el Ministerio de Asuntos Internos y Comunicaciones en conjunto con el Ministerio de Economía, Comercio e Industria de Japón, destacan diez principios fundamentales fruto del trabajo entre el consejo de estrategia de IA y un panel de expertos, dedicado a definir el enfoque de Japón hacia la IA. Se espera que la versión final esté lista para finales de año, tras discusiones exhaustivas entre los miembros del consejo.

Sin embargo, entre las fuentes referenciales más relevantes de esta pauta está el trabajo desarrollado en el marco del G7 donde participa Japón. Luego del consenso internacional alcanzado a finales de octubre de 2023, el bloque acordó un conjunto de principios orientadores internacionales para la IA, junto con un código de conducta voluntario para los desarrolladores. De esta manera, las pautas de Japón tienen como objetivo poner este código en práctica, pero a nivel nacional, asegurando que el desarrollo de la IA se alinee con los estándares globales, al mismo tiempo de atender las preocupaciones locales.

(Cabe destacar que Japón es también signatario de la Guía de Ética y Gobernanza de la IA de Asean. Si quieres saber más de esta experiencia, puedes leer “La guía de ASEAN para desarrollar la gobernanza de la IA de manera ética y responsable).

De esta forma, las pautas son amplias y se dirigen a todas las entidades involucradas en la IA para fines comerciales, incluidas organizaciones públicas como ministerios y agencias. Pero más aún, este enfoque destaca la intención del gobierno de contar con un marco que sea aplicable a todos los operadores activos de IA.

Es decir que, aunque el marco alude directamente al sector de los negocios, sus lineamientos incorporan principios que trascienden este rubro y llevan a los desarrolladores a pensar en el tipo de sociedad que se quiere construir. Muestra de ello es que en las primeras definiciones se deja en claro que esta guía se formuló con base en los principios sociales de una IA centrada en la humanidad, donde su filosofía básica para la construcción de una sociedad 5.0 se asienta en tres valores:

  • Dignidad: Una sociedad que tiene respeto por la dignidad humana
  • Diversidad e inclusión: Una sociedad donde las personas provienen de distintos trasfondos puedan impulsar su propio bienestar
  • Sostenibilidad: Una sociedad sosteniblemente ordenada

Pero más aún, la necesidad de contar con principios comunes para establecer no solamente en qué trabaja cada actor, sino que se espera que trabaje en colaboración con la sociedad. De esta manera los 10 principios son:

  1. Centrado en el humano: actuar de manera que la IA amplíe las capacidades de las personas y permita buscar su bienestar, pero también reconocer el riesgo creciente de la desinformación y las brechas creadas para desestabilizar la sociedad. Además de ser conscientes de facilitar el uso de la IA para quienes son socialmente vulnerables y que puedan disfrutar de sus beneficios.
  2. Seguridad: analizar los riesgos y tomar medidas adecuadas para abordarlos, pero también evitar los daños causados por el uso y provisión de la IA derivada de propósitos intencionales. Asimismo, considerar la precisión de los datos utilizados en los entrenamientos, siguiendo esquemas de transparencia y marcos legales.
  3. Imparcialidad: esforzarse por minimizar sesgos y discriminación injusta y perjudicial contra individuos o grupos específicos. Desarrollar y utilizar los sistemas de IA con atención en brechas potenciales e inconscientes.
  4. Protección de la privacidad: cumplir con las leyes y regulaciones relevantes, como la Ley de Protección de la Información Personal, y desarrollar y publicar una política de privacidad de cada actor para asegurar los estándares, tomando en consideración, además el contexto social y las expectativas razonables de las personas.
  5. Evitar riesgos: tomar medidas razonables para mantener la confidencialidad, integridad y disponibilidad de los sistemas y servicios de IA.
  6. Transparencia: proporcionar información adecuada a las partes interesadas hasta donde sea necesario, razonable y técnicamente factible, tomando el contexto social donde la IA será utilizada, garantizando la verificabilidad de los sistemas.
  7. Accountability: proveer información y explicaciones a las partes interesadas sobre la trazabilidad y apego a los principios generales. Establecer y reportar públicamente políticas de gobernanza de IA, políticas de privacidad, etc. para cada actor. Documentar y guardar información relevante y hacerla disponible en relación a donde se necesite.
  8. Educación y alfabetización: asegurarse de que aquellos involucrados en IA tengan un nivel suficiente de alfabetización en IA. Es importante que quienes reciban información tomen en cuenta las características de la IA, su complejidad y desinformación, así como las posibilidades de uso indebido.
  9. Garantizar la competencia justa: hacer esfuerzos para mantener un entorno competitivo pero justo para la IA, pero que propendan al crecimiento económico y presente soluciones a los problemas sociales.
  10. Innovación: promover la internacionalización y diversificación, asociaciones academia-industria-gobierno, y la innovación abierta, pero también asegurar la interconectividad y la interoperabilidad.

Estos principios son solo una parte de una guía más amplia e integral que se orienta a gestionar el desarrollo y el uso de la inteligencia, tanto en el ámbito empresarial, como en otros espacios donde hay usuarios de este tipo de tecnología. Cabe destacar que el espíritu de este instrumento, más que promover la innovación y la colaboración entre distintos actores, tiene un enfoque centrado en el ser humano, su seguridad y su bienestar.

Pero el equilibrio entre innovación y el enfoque centrado en las personas, no solo se consigue a través de la formulación de principios o directrices claras, sino también a la posibilidad de actualización permanente.

Frente a esta realidad, cabe la pregunta sobre qué valor tiene este tipo de instrumentos y de qué manera los lineamientos éticos contribuyen a desarrollar adecuadamente la Inteligencia Artificial en sintonía con el ser humano, su integridad y bienestar

Principios éticos en el desarrollo de IA en la realidad chilena

Para María José Marchant, máster en bioética en derecho, docente de la Universidad Andrés Bello, e investigadora en temas de Inteligencia Artificial, si bien la política nacional de Chile y su reciente actualización de 2024, tienen lineamientos claros en sus principios transversales que orientan el desarrollo para un uso ético y responsable, centrado en las personas, es necesario que se actualice permanentemente. “Estamos frente a una tecnología que se está desarrollando a un ritmo vertiginoso. Hoy es posible detectar cuando un contenido es generado por IA, pero no sabemos si podremos hacerlo en un futuro cercano. Por eso, es importante contar con instrumentos y guías éticas que se actualicen a la par de los avances”, señaló.

De igual manera, remarcó la importancia de la educación como un elemento central en cualquier política o guía de desarrollo de la IA. “Hemos visto casos donde las personas comparten o difunden contenidos en redes sociales, a pesar de haber sido advertidos de que son originados por IA. Saben que no son reales y aún deciden compartirlos. Para evitar este tipo de prácticas necesitamos algo más que alfabetización digital, me refiero a la educación sobre los alcances y efectos de este tipo de tecnologías en la vida de las personas”, agregó.

Pero también, a propósito de la mención del concepto de dignidad en las directrices de Japón, planteó que es importante que las guías y políticas que se elaboran en función del desarrollo de la IA, consideren que la tecnología puede incluso modificar el concepto de ser humano. “La dignidad humana, aunque se considera un atributo intrínseco del ser humano, también es una cualidad histórica y dinámica que evoluciona en respuesta al desarrollo tecnológico y a las cambiantes necesidades de la sociedad. Esta flexibilidad se explica por su estrecha relación con la definición de persona, de la cual tampoco existe un consenso claro. Esto ha llevado a debates sobre quiénes merecen dignidad en diferentes contextos culturales y a lo largo del tiempo”, comentó.

En consecuencia, planteó que en la discusión sobre la gobernanza de la IA debería incorporarse la idea de que "los individuos dignos son aquellos que poseen ciertas características, como naturaleza humana, capacidad de entendimiento, libertad, autonomía y autorregulación. Este enfoque plantea interrogantes relevantes ante el desarrollo de esta tecnología, temas que requieren una reflexión más profunda y que, por ahora, carecen de respuestas definitivas", añadió.

Por último, planteó que el respeto al ser humano se manifiesta en diversos aspectos, como el reconocimiento de no ser considerados meros instrumentos. “Los humanos son fines en si mismos, por lo tanto, libres de manipulación técnica. Las características intrínsecas de la persona humana le confieren derechos inalienables, que incluyen el derecho a satisfacer sus necesidades biológicas y culturales básicas, derecho a la vida privada, a la participación y a la no discriminación, entre otros. Por lo tanto, la tecnología además de proteger esta dignidad, puede contribuir a satisfacer estas necesidades”, explicó.

Por equipo Asia Pacífico: asiapacifico@bcn.cl


Comentarios

NOTA: como parte de su misión de promover el debate informado, respetuoso, tolerante e inclusivo, que permita vincular la labor de nuestro Congreso Nacional con la ciudadanía, la BCN se reserva el derecho de omitir comentarios y opiniones que pudieren afectar el respeto a la dignidad de las personas o instituciones, en pos de una sana convivencia democrática.

Videos AP

Selección de videos sobre Asia Pacífico