Protección de los derechos humanos en la era de la Inteligencia Artificial: Camino a una regulación efectiva
Rafael Polar Huaco - - 0 208 ViewsEscrito por Rafael Sebastian Polar Huaco, miembro de la Comisión de Diálogos Humanos del Equipo de Derechos Humanos
Introducción
En la actualidad, la inteligencia artificial se presenta como una oportunidad destacada para acelerar el logro de diversos objetivos nacionales e internacionales; no obstante, es crucial reflexionar sobre sus implicaciones. Con el creciente incremento en la integración de la inteligencia artificial en nuestra vida diaria, surgen nuevos desafíos en relación a la protección de los derechos humanos, lo que demanda la implementación de parámetros que aseguren el respeto hacia estos derechos en su aplicación. Por ejemplo, el uso de armas con tecnología de IA plantea, a nivel internacional, serias implicaciones en la protección de los derechos humanos y el desarrollo científico con fines éticos.
En ese sentido, es de suma importancia abordar el impacto de la implementación de la inteligencia artificial en distintos rubros de la vida, su vinculación con las posibles vulneraciones a los derechos humanos, el marco legal sobre su regulación internacional y las posibilidades de mejora en cuanto a su regulación.
Inteligencia artificial (IA) y espacios de aplicación
La inteligencia artificial no es un descubrimiento nuevo, sino más bien una disciplina en constante evolución que ha ido cobrando relevancia a lo largo de las últimas décadas. Según Corvalán (2018), la inteligencia artificial se basa en algoritmos inteligentes o de aprendizaje que se utilizan para una amplia gama de propósitos, como identificar tendencias económicas, predecir delitos, diagnosticar enfermedades y anticipar nuestros comportamientos digitales. En la actualidad, la inteligencia artificial ha adquirido una gran relevancia en nuestra vida cotidiana. Gracias a avances tecnológicos como ChatGPT, cada vez más personas están adoptando el uso de estas potentes herramientas de inteligencia artificial en diversos campos de su vida.
Sin embargo, la aplicación de la inteligencia artificial a nivel estatal y en grandes escalas ha introducido una nueva dimensión en la forma en que se enfrentan los desafíos gubernamentales, como los conflictos bélicos, la seguridad nacional y las relaciones internacionales. La capacidad de la inteligencia artificial para analizar grandes volúmenes de datos, tomar decisiones basadas en algoritmos complejos y automatizar procesos ha demostrado ser eficaz en diversos campos. Sin embargo, es fundamental cuestionar los fines éticos y los posibles impactos en los derechos humanos al evaluar la implementación de estas potentes herramientas en espacios poco convencionales.
En ese sentido, es fundamental reflexionar sobre situaciones en las que la inteligencia artificial ha sido utilizada de manera irresponsable, resultando en un desarrollo tecnológico con fines éticamente cuestionables. Un claro ejemplo de esto es el caso de los drones autónomos utilizados en la guerra de Rusia y Ucrania, de igual manera, los desarrollos tecnológicos implementados en la frontera de Israel y Palestina con reconocimiento facial. Según Naciones Unidas, se han registrado diversos incidentes documentados de un sistemas autónomos causando la muerte de personas sin la participación directa de operadores. De esta manera, generando un espacio de reflexión sobre la importancia de un marco legal regulatorio en términos de respeto a los derechos humanos y fines éticos al momento de implementar la IA en actividades estatales.
Regulación nacional e internacional
En la actualidad, no existe un consenso total en cuanto a la regulación internacional de la inteligencia artificial. A pesar de ello, se han llevado a cabo diversas iniciativas tanto unilaterales como multilaterales impulsadas por diferentes actores internacionales. Un ejemplo claro de esto son los esfuerzos de las principales potencias mundiales al presentar sus estrategias de regulación y promoción del uso de la IA. Sin embargo, en los espacios de trabajo multilateral, los resultados han sido bastante limitados. Tanto los foros intergubernamentales como el G7 y el G20 no han logrado establecer contribuciones significativas en términos de un marco regulatorio sólido para la inteligencia artificial. A pesar de estos intentos fallidos, otras organizaciones internacionales como la UNESCO y la OCDE han expresado su voluntad de cooperar para formular estándares globales para la IA.
A nivel nacional, son pocos los países que han logrado aprobar una serie de leyes significativas en relación a la regulación de la inteligencia artificial. Según un gráfico presentado por la Universidad de Stanford, Estados Unidos destaca como el país con mayor regulación nacional de la inteligencia artificial, habiendo aprobado 9 leyes en 2022 y 13 leyes de 2016 a 2021. Esto resalta la rapidez con la que varios países han comenzado a establecer marcos regulatorios en torno a la inteligencia artificial. Es importante tener en cuenta que no todos los países tienen el mismo acceso al desarrollo tecnológico, sin embargo, un gran número de leyes regulatorias han sido aprobadas entre 2022 y 2023.
A pesar de la voluntad constante de varios países, como Estados Unidos, Portugal, España y Bélgica, de regular diversos aspectos relacionados con la inteligencia artificial, aún no se ha establecido un marco regulatorio global sólido que defina los límites del uso de la inteligencia artificial a nivel estatal. Aunque se ha aprobado un primer marco ético sobre inteligencia artificial por parte de los 193 estados miembros de la UNESCO, resulta desproporcionado comparar este marco regulador con los avances constantes de la inteligencia artificial. Aún queda un camino por recorrer para establecer regulaciones adecuadas y actualizadas que aborden los desafíos emergentes en el campo de la inteligencia artificial.
Israel, Palestina, Ucrania y Rusia
La guerra en Ucrania y Rusia ha dejado en evidencia los peligros de subestimar el impacto negativo que puede tener el uso de la inteligencia artificial en conflictos bélicos. Es crucial contar con regulaciones internacionales sólidas que prohíban la implementación de estas herramientas tecnológicas con fines extremadamente negativos. En el caso de la guerra en Ucrania, se ha observado cómo los drones autónomos se utilizan como armas, pero este es solo uno de los numerosos usos de la inteligencia artificial en el ámbito militar.
Rusia ha estado utilizando de manera extensiva la llamada “munición merodeadora” o “drones kamikaze” contra Ucrania. Estos dispositivos son una combinación entre un dron convencional y un cohete, y en teoría pueden bombardear una zona específica buscando y seleccionando objetivos de forma autónoma. Aunque estos dispositivos suelen estar relacionados con el término “Inteligencia Artificial” (IA), en realidad su nivel de inteligencia es limitado, y el alcance de la IA en asuntos militares es mucho más amplio.
Además de regular la posible implementación de la inteligencia artificial en nuevos conflictos internacionales, también es crucial adaptar y regular su uso en conflictos existentes y de larga duración. Es inadmisible que los estados tengan la capacidad y voluntad de desarrollar avances tecnológicos con el objetivo de causar daño a la población y/o fuerzas armadas del país con el que están en conflicto. Un ejemplo claro de esto es cómo el Estado de Israel ha implementado sensores de reconocimiento facial en armas automáticas en las fronteras de la Franja de Gaza con Palestina. Estas cuestiones no sólo son preocupantes, sino que representan una seria amenaza a los derechos humanos.
Conclusión
En conclusión, es imperativo establecer un marco de regulación global en el desarrollo tecnológico que esté en consonancia con los principios de respeto, protección y observancia de los derechos humanos. Actualmente, aunque se han logrado avances en la legislación nacional de distintos países y existen marcos éticos en diferentes territorios nacionales, se requiere una regulación más efectiva para contrarrestar los avances negativos, especialmente en situaciones de conflicto bélico. Este marco global debe abordar las implicaciones éticas y humanitarias de las tecnologías emergentes, fomentar la transparencia, la rendición de cuentas y la participación de todas las partes interesadas, y garantizar la protección de la privacidad y los datos personales, evitando su uso indebido en violaciones de derechos humanos. El compromiso de los estados se constituye como una herramienta fundamental en ánimos de garantizar la protección de los derechos humanos y hacerle frente a su afección y posible vulneración.
Bibliografía
Vega, G. (2021). La ONU informa del primer ataque de drones autónomos a personas. El País. Recuperado de: https://elpais.com/tecnologia/2021-05-28/la-onu-informa-del-primer-ataque-de-drones-autonomos-a-personas.html
Peralta, L. (2023). ¿Es realmente necesaria una regulación de la inteligencia artificial? CincoDías. Recuperado de: https://cincodias.elpais.com/economia/2023-04-11/es-realmente-necesaria-una-regulacion-de-la-inteligencia-artificial.html
Galceran, M. (2023). Inteligencia artificial y ciudades: la carrera global hacia la regulación de los algoritmos Recuperado de: https://www.cidob.org/publicaciones/serie_de_publicacion/notes_internacionals_cidob/286/inteligencia_artificial_y_ciudades_la_carrera_global_hacia_la_regulacion_de_los_algoritmos
Naciones Unidas. (2021). Primer acuerdo mundial sobre la ética de la inteligencia artificial Recuperado de: https://news.un.org/es/story/2021/11/1500522
No hay comentarios