Una política propia para la inteligencia artificial de América Latina
En el mundo se multiplican esfuerzos regulatorios para evitar que el avance de la inteligencia artificial profundice la desigualdad. ¿Qué lugar tiene que tomar la región?
Publicada en El País, 17 de febrero de 2024
Aunque en 2023 la inteligencia artificial (IA) no tenía nada de novedoso –ya tenía 70 años–, recordaremos ese año como aquel en que todos hablamos de ella: probamos el ChatGPT o algún generador de imágenes sintético y también fuimos sometidos a la avalancha de “predicciones de la IA” en las noticias. Ocurre siempre: con cada salto en las capacidades de procesamiento o resolución de las máquinas, sobreviene un período con iguales dosis de fascinación. Pero ese hype, por regla, también viene acompañado con su dosis de pánico: ¿y si la novedad tecnológica nos quita el trabajo, nos nubla la capacidad de distinguir realidad de ficción o nos pone al artefacto por encima de la Humanidad? Ante la amenaza, intentamos retomar el control.
2023 también ofreció esa voluntad de controlar lo extraño. En una coincidencia de la geopolítica internacional, distintos países y regiones avanzaron mucho en regulaciones para poner límites a los alcances de la inteligencia artificial (IA). Los legisladores del mundo venían apurando el paso después de Cambridge Analítica, en 2016, luego de demorarse en pedir explicaciones y hacer rendir cuentas a las empresas privadas de tecnología. Desde entonces, se inició un momentum regulatorio que llegó tarde para las prácticas abusivas de las redes sociales, pero que las fue alcanzando. Ese aprendizaje hoy está siendo útil para no quedarse atrás frente a los recientes avances de la IA.
Ningún país se quiso quedar atrás. Fuera de la carrera tecnológica China/Estados Unidos y a la defensa de su rol como faro de los derechos humanos, la Unión Europea lideró el ímpetu de intervención. En 2018 puso en acción el Reglamento General de Protección de Datos, actualizando la normativa a los nuevos tiempos. En 2022, aprobó la Ley de Servicios Digitales (DSA), vigente desde este febrero. En 2023 –tras duras negociaciones- la Comisión Europea pactó una Ley de IA (IA Act). Estados Unidos, bajo la administración de Joe Biden, emitió el mismo año una orden ejecutiva sobre IA segura y confiable, con el objetivo de que los desarrollos tecnológicos respeten medidas de seguridad, privacidad, derechos civiles, principios de los consumidores y trabajadores.
Distintas organizaciones internacionales se sumaron a los Gobiernos y aportaron principios regulatorios, como los Principios de IA de la OCDE (2019) y la Recomendación de ética de la IA de la Unesco, aprobada en 2021. Algunos advirtieron prontamente cuál iba a ser la “verdadera” amenaza. El ex relator especial por la Pobreza Extrema y los Derechos Humanos de la ONU, Philip Alston, en la Asamblea General de 2019 había señalado que muchas de las soluciones basadas en IA, en caso de que no tomáramos medidas al respecto, nos iban a llevar a “automatizar la pobreza”.
Según él, nos quedaría poco del estado de bienestar si no hacíamos intervenir a la política para que las decisiones tecnológicas no generan más brechas. Su sencilla y brillante advertencia no era ni es evidente ante la fascinación de la IA. Antes de globalizar el nombre por sus siglas de esta joven de 70 años, parecía que podíamos intervenir políticamente en los procesos tecnológicos. Todavía pensábamos en ellos como un producto de la interacciones entre las personas; al fin y al cabo, cualquier tecnología es creación de colectivos de personas y la política es algo que sabemos hacer con personas. Aprendimos, desde hace mucho tiempo, a negociar decisiones en favor o en contra de la desigualdad.
Al parecer, el momento de tomar medidas sobre la tecnología en general puso en alerta temprana a quienes antes habían llegado tarde y, hoy por hoy, ya todos están alertados de no dejar pasar el tiempo para incidir políticamente sobre la IA. Necesitamos que 2024 sea el año donde pongamos en acción políticas para la IA, en especial, políticas locales en los países con más desigualdad, que serán los más afectados por sus consecuencias.
Regulación y desigualdad
América Latina y el Caribe es una de las regiones más desiguales del mundo: una de cada tres personas vive en la pobreza. Según CAF-banco de desarrollo de América Latina y el Caribe, el 10% más pudiente del continente acumula el 77% de la riqueza y el 50% más pobre solo el 1%. Sin una acción decidida que ocupe a sus Gobiernos por el avance de la IA, especialmente en áreas con impacto en la vida diaria como el trabajo, la educación, la salud y la justicia, estas diferencias crecerán inevitablemente.
Los Gobiernos regionales tomaron nota. Según Juan Manuel García, investigador de Derechos Digitales, los primeros esfuerzos para ocuparse de la IA tomaron el camino de guiarse por los principios de organismos internacionales y generar sus propias estrategias y planes, que en algunos casos se transformaron en proyectos de ley. Entre 2019 y 2021, Argentina, Brasil, México y Uruguay generaron iniciativas en base a consultas con funcionarios, expertos técnicos y empresas. Sin embargo, fallaron en un punto vital: no incluyeron de manera efectiva a grupos históricamente marginalizados por las tecnologías. En otros casos, se trató de avanzar en propuestas para tecnologías de IA cuando todavía no se contaba con leyes de protección de datos o cuando esas mismas leyes necesitaban una actualización para adecuarse a los nuevos tiempos. Es decir, se quiso legislar sobre “lo más nuevo” sin bases sólidas de otros derechos que se involucran con las tecnologías.
“La regulación de IA no nace en un vacío, sino que viene unida a distintos marcos legales de la tecnología”, señala a EL PAÍS Micaela Mantegna, afiliada al Berkman Klein Center de la Universidad de Harvard y miembro de la Iniciativa de IA Responsable de Chatham House. La investigadora señala los casos de las normativas de protección de datos personales que son un insumo para entrenar IA, las leyes de competencia que pueden favorecer a que solo determinados jugadores puedan cumplir con estándares para desarrollar IA o las leyes de propiedad intelectual que se ponen en juego con la IA generativa. “Por estas razones, desde América Latina estamos mucho más condicionados de lo que parece, porque no empezamos de cero”, dice.
Según la OCDE, de las 600 regulaciones o iniciativas relacionadas a la IA actuales provenientes de 60 países del mundo, la mayor parte y en debate proviene del llamado norte global. ¿Qué lugar le queda al llamado sur global en el debate por el avance y los límites a la IA? ¿Nuestro destino es asumir como propias y aplicar acríticamente las recomendaciones elaboradas desde otros países? ¿O, en cambio, buscaremos crear soluciones propias para los impactos que tienen el avance de las tecnologías en nuestros países? Si nuestros problemas son otros, sin duda, nuestras soluciones también necesitarían ser otras.
Una IA para América Latina
Para crear nuestro propio camino, hay razones –algunas históricas- que dificultan el avance. Nuestra región suele tener problemas políticos y económicos urgentes, cada día, a cada hora. La resolución de lo inmediato impide pensar a largo plazo. En el caso de la IA, su aplicación más inmediata en la vida de las personas sucede en la transformación del trabajo. Sin embargo, ante el avance de políticas regresivas, gremios y sindicatos –que sin dudas están interesados en pensar el futuro en relación a las tecnologías- se ven obligados a defender derechos del siglo XX, más que prepararse para los del siglo XXI.
A eso se suma el efecto del “vértigo de la IA”, que paraliza iniciativas sectoriales al suponer que la automatización va a cambiar todo lo que ya conocemos. Al contrario, los procesos de transformación digital suelen ser paulatinos, conservan una parte de lo viejo en lo nuevo, y en general pueden planificarse, gestionarse, gobernarse. Por caso, ¿quiénes pueden hacer mejor uso del ChatGPT sino aquellos lectores y escritores con capacidad para analizar y reformular las ayudas de esta tecnología para sus propios propósitos de manera tal ágil como las respuestas del programa, pero con la precisión y adecuación que solo un humano sólidamente formado puede tener? Lo viejo no solo es útil, también es indispensable para distinguir información de conocimiento.
Pero también, además de las dificultades, existen soluciones que tenemos más a mano de lo que imaginamos. “América Latina necesita conectar la investigación aplicada a las soluciones locales, según sus propias prioridades”, comenta a EL PAÍS Fabrizio Scrollini, presidente de la Iniciativa Latinoamericana por los Datos Abiertos (ILDA). A esto suma políticas de gobernanza para los modelos que alimentan a la IA, que aseguren que su uso sea adecuado para cada contexto, para el desarrollo y para los derechos de las personas. Y finalmente, cree que es importante llevar adelante acciones educativas para el uso responsable de las tecnologías que se desarrolle. “Creo que las estrategias macro son necesarias para luego ayudar a las sectoriales, pero tienen que ser procesos ágiles”, y coincide en que para que eso suceda, el difícil contexto de la región es un obstáculo a cruzar.
Un buen antídoto para evitar la parálisis es avanzar en soluciones locales, con decisiones concretas y sectoriales. En 2023, la Oficina de la Unesco en Montevideo, con apoyo de la Unión Europea, se realizó un programa de capacitación para formadores de escuelas judiciales en la Corte Interamericana de Derechos Humanos en temas de IA y su impacto en los procesos judiciales. Se reunieron profesionales de 12 países de América Latina y el Caribe para explorar los cambios en la profesión de los jueces, fiscales y tribunales de la región, y tomar decisiones no sólo en términos de herramientas tecnológicas, sino también en la visión de los casos de derechos humanos, que hoy adquieren otra dimensión en función de los impactos de las tecnologías. Durante tres días en Costa Rica, un conjunto de profesionales logró trabajar para que el avance tecnológico no fuera un fantasma inasible. Ahora, ese grupo de personas está replicando la experiencia en sus países, y la red seguirá creciendo.
Las soluciones locales, al principio “artesanales”, y con un tiempo que no es el de la aceleración tecnológica parecen ser un camino posible. La investigación de los escenarios donde la tecnología está generando efectos que necesitan ser gobernados es otro.
Natalia Zuazo es especialista en política y tecnología. Directora de Salto Agencia.