Aunque el país oceánico no cuenta con una legislación sobre Inteligencia Artificial, sí dispone de una estrategia nacional que tiene entre sus lineamientos principales la ética y la responsabilidad. Este planteamiento es medular, pues las autoridades han debido enfrentar casos preocupantes donde el Deepfake ha sido utilizado para generar contenidos de ciberacoso, principalmente a niñas, niños y adolescentes.
INTELIGENCIA ARTIFICIAL AUSTRALIA, INTELIGENCIA ARTIFICIAL, POLITICAS PUBLICAS ASIA PACIFICOAunque el país oceánico no cuenta con una legislación sobre Inteligencia Artificial, sí dispone de una estrategia nacional que tiene entre sus lineamientos principales la ética y la responsabilidad. Este planteamiento es medular, pues las autoridades han debido enfrentar casos preocupantes donde el Deepfake ha sido utilizado para generar contenidos de ciberacoso, principalmente a niñas, niños y adolescentes.Biblioteca del Congreso Nacional de Chile
Australia es uno de los países del Asia Pacífico que cuenta con notorios avances en la creación de políticas para el desarrollo de la IA. Si bien sus principios se expresan como soft law, existe una autoridad, la eSafety, que reporta a las autoridades y a la opinión pública cuando se generan contenidos que dañan a las personas. Una revisión de esta experiencia y un análisis al impacto de no contar con límites éticos y responsabilidades en el caso chileno, en la siguiente nota.
Una estrategia encaminada al desarrollo de la mano de la ética
A mediados de 2023 la prensa australiana informó de una tendencia preocupante. El regulador de seguridad en línea de Australia comenzó a recibir denuncias sobre el uso de imágenes generadas artificialmente con contenido sexual. Estas imágenes fueron utilizadas por estudiantes para intimidar a compañeras y compañeros de estudio a través de las redes sociales.
Una nota en The New Daily da cuenta de esta situación y afirma que este tipo de hechos marcaba un hito en el aumento del acoso en línea. Asimismo, señalaba que la Comisionada de eSafety, Julie Inman Grant, hizo una advertencia a la industria de IA: “deben tomar medidas”. Ello porque la institución que dirige ha reportado material de abuso sexual infantil generado por IA y deepfakes, aunque no se hicieron públicos los detalles de los casos de acosos para proteger a las víctimas.
Sin embargo, la preocupación va más allá, ya que la creciente aparición de Deepfakes son cada vez más perturbadores y realistas. Es por ello que la publicación, cierra con un mensaje importante respecto de la educación digital para que los grupos más jóvenes de la población tomen conciencia sobre las consecuencias, de manera tal que sigan explorando la IA como una herramienta de aprendizaje en vez de utilizarla para hacer daño y acosar a otras personas.
Precisamente, este es uno de los puntos que se consideran en la "Estrategia Nacional de Inteligencia Artificial". La ética y la responsabilidad es uno de sus ejes principales y desde su lanzamiento en 2019 que Australia se encuentra desarrollando marcos éticos y de gobernanza para el uso responsable de la IA, abordando algunas preocupaciones de la ciudadanía como la privacidad de los datos, la seguridad y la transparencia.
Ahora bien ¿Cuál es el alcance de esta iniciativa? Un informe BCN da cuenta de que en el país oceánico no existe un régimen legislativo específico que regule la IA. Sin embargo, hasta ahora el gobierno australiano ha adoptado un enfoque de derecho indicativo basado en principios, lo que se conoce como soft law. Un ejemplo de esto se puede apreciar en los llamados “principios éticos voluntarios de IA” que fueron publicados en 2019 por el Departamento de Industria, Ciencia y Recursos de Australia.
Desde entonces, ha surgido un número cada vez mayor de publicaciones gubernamentales que consideran y guían el desarrollo futuro de la regulación de la IA. Ejemplo de ello es que para 2021 la Comisión Australiana de Derechos Humanos (HRC) publicó un informe con una serie de recomendaciones para la implementación de la IA en el país. Entre sus principales indicaciones destaca la necesidad de crear una institución independiente o Comisionado de Seguridad de la IA, cuya misión sea brindar orientación experta a las y los legisladores, agencias gubernamentales y reguladores, para abordar los riesgos, promover la seguridad y proteger los derechos humanos en el desarrollo y uso de la IA.
Trabajo de eSafety y AI Taskforce
Aunque esta oficina o comisionado no se ha creado aún, en enero de 2022 entró en vigencia la Ley de Seguridad en línea y con ello el Comisionado de Seguridad electrónica (eSafety) que es el organismo que alertó sobre los crecientes hechos de contenido sensible a través de Deepfake. Tal como se aprecia, dicha institución ha estado cumpliendo su rol al emitir avisos de transparencia a los proveedores de servicios de IA.
Otro de los casos ocurridos en la misma época del ciberacoso en las escuelas, fue cuando en septiembre de 2023, el Comisionado de eSafety registró un código industrial aplicable a los proveedores de servicios de motores de búsqueda de Internet -que entró en vigor en marzo de 2024- y que tomando en cuenta la solicitud de considerar la integración de la IA generativa en los servicios de motores de búsqueda y hacerse cargo de evitar los riesgos asociados a las personas, como el acceso a la explotación sexual infantil generada por la IA, así como al terrorismo, el crimen y la violencia.
No obstante, otra institución gubernamental que fue lanzada en septiembre de 2023 ante la gran cantidad de materias aún pendientes por abordar y el impacto en los Derechos Humanos de los ciudadanos, es el Grupo de Trabajo sobre Inteligencia Artificial (Artificial Intelligence (AI) Taskforce). Su enfoque se centra en el uso seguro y responsable de la IA por parte del servicio público australiano.
Entre los principales avances realizados por este AI Taskforce están: la creación de estándares para el uso de la IA en la Administración Pública Australiana (APS); las consultas multistakeholder con el fin de establecer un enfoque cohesivo para el uso de la IA; programas de capacitación para el personal de gobierno; y la implementación de proyectos piloto para evaluar el impacto de la IA en los diferentes sectores gubernamentales.
Todas estas políticas apuntan a un mismo fin, que es regular la creciente expansión en el uso de herramientas de IA y evitar su uso de manera riesgosa para las personas. Ahora bien, en consideración de la experiencia australiana y los casos presentados, cabe la pregunta respecto de cuáles son los avances en nuestro país y por qué es necesaria la incorporación de lineamientos éticos para evitar casos de ciberacoso a los sectores más vulnerables de la población.
Política de IA en Chile y necesidad de lineamientos éticos para evitar el ciberacoso
En nuestro país, la primera versión de la política nacional fue publicada en 2021 y tuvo como antesala la denominada Política Nacional de Ciencia, Conocimiento, Tecnología e Innovación (CTCI) de octubre de 2020. Para su elaboración se estableció en agosto de 2019, el Comité de Inteligencia Artificial, creado por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación.
No obstante, en 2024 el gobierno efectuó una actualización y propuso entre sus objetivos “fomentar el desarrollo y uso ético y responsable de la Inteligencia Artificial en Chile, para que esta tecnología juegue un rol promotor en el nuevo modelo de desarrollo y crecimiento del país". Desde esta perspectiva, la propuesta es que para que la IA sea desarrollada y utilizada de manera responsable, inclusiva y transparente, entre sus principios centrales está el uso ético y responsable de la IA y que esté centrada en las personas. Es preciso señalar que el 7 de mayo de 2024, el Ejecutivo envió un mensaje presidencial para regular los sistemas de IA, estableciendo límites, responsabilidades y una institucionalidad en la materia, abordando un enfoque de derecho vinculante inédito en el país.
Este lineamiento cobra fuerza en el contexto de un hecho que llamó la atención de la opinión pública nacional, cuando salió a la luz la noticia de que un grupo de estudiantes de un establecimiento educacional de la Región Metropolitana, generó una serie de imágenes de contenido sexual, tomando como base el rostro de niñas y adolescentes de la misma comunidad educativa. Aunque este caso está en manos de la justicia, surge la necesidad de discutir el nivel de daño que este tipo de tecnologías puede causar a las personas, especialmente a grupos vulnerables de la población, como niñas, niños y adolescentes, y mujeres.
Una reflexión sobre ello tuvo Patricio Cabello, doctor en Psicología Social de la Universidad Complutense de Madrid e investigador del Instituto de Estudios Avanzados en Educación de la Universidad de Chile. En su opinión, el fenómeno del acoso en las redes sociales no es nuevo, pero presenta desafíos complejos. “Anteriormente, el acoso solía ser más físico o verbal en entornos escolares. Sin embargo, con la llegada de las redes sociales, la dinámica ha cambiado. El acoso ahora puede ser viralizado rápidamente en Internet, lo que dificulta su eliminación y puede revictimizar a las personas afectadas”, señaló.
También, comentó que el ciberbullying no siempre implica publicaciones malintencionadas, también puede incluir amenazas directas o trolleo en redes sociales. “Estas prácticas se vuelven más complejas e interconectadas en el mundo digital. El desafío principal recae en las instituciones educativas, en cómo abordar el ciberbullying en un entorno digital que carece de localidad física. Es crucial comprender cómo estas nuevas formas de acoso desafían las medidas tradicionales de prevención y protección en línea”, agregó.
Asimismo, se refirió al caso de ciberacoso con IA ocurrido en un colegio de Santiago, donde destacó la necesidad de establecer responsabilidades. “Esto ocurre en febrero, durante las vacaciones. Este incidente trasciende los límites de la escuela al no tener lugar durante el año escolar ni dentro de las instalaciones, sino en un período no académico. ¿Qué une a los estudiantes involucrados, tanto a quienes crean el contenido como a quienes son caricaturizados digitalmente en él? Estas representaciones pueden ser despectivas, como imágenes manipuladas de manera pornográfica, violenta y humillante. Este tipo de acoso puede adoptar diversas formas, desde situaciones ridículas hasta difamaciones o tergiversaciones de opiniones, por lo tanto, el impacto de estas acciones trasciende el entorno escolar y plantea cuestiones interesantes desde una perspectiva legislativa y ética”, destacó.
De tal forma, plantea que es necesaria la distribución de responsabilidades civiles y éticas entre los diferentes actores involucrados, como la familia y la escuela. “La complejidad de estas prácticas radica en la multitud de actores con perspectivas diversas y responsabilidades legales que se entrecruzan, por lo tanto, este tipo de situaciones suele requerir medidas judiciales, junto con una reflexión sobre la responsabilidad ética de cada parte involucrada. La complejidad de estos casos radica en la diversidad de actores y perspectivas presentes en el entorno social donde se desarrollan”, explicó.
En cuanto al uso de IA, propuso una doble visión sobre la problemática en su uso aplicado al ciberacoso. “Hay una perspectiva optimista, donde observamos un incremento de conciencia sobre la necesidad de regular estas prácticas. Esto ha generado discusiones y entrevistas al respecto, lo cual es positivo. Sin embargo, el enfoque menos optimista surge cuando se entra en pánico al pensar que estas situaciones afectan a miles o millones de niños, lo cual no es cierto. Los casos suelen ser más limitados, como el incidente reciente que involucró a seis estudiantes, por lo tanto, es importante evitar la falta de regulación en el uso de la IA, ya que esto podría llevar a un aumento exponencial de estos casos. La clave radica en elevar la conciencia sobre estas problemáticas, mejorar los marcos legales y proporcionar herramientas adecuadas tanto para padres como para educadores. Es esencial que los adultos implicados, incluidos los profesores, estén más informados y preparados para abordar estas situaciones”, sentenció.
Por equipo Asia Pacífico: asiapacifico@bcn.cl
Comentarios
NOTA: como parte de su misión de promover el debate informado, respetuoso, tolerante e inclusivo, que permita vincular la labor de nuestro Congreso Nacional con la ciudadanía, la BCN se reserva el derecho de omitir comentarios y opiniones que pudieren afectar el respeto a la dignidad de las personas o instituciones, en pos de una sana convivencia democrática.