“Mirar para adentro”: qué hay detrás de los grandes mitos que hoy resuenan en torno a internet y poder
Entrevista a Natalia Zuazo
Por Alina Fernandez, Florencia A. Guzmán y Alvaro Téran
Durante la entrevista conversamos sobre los mitos que más resonancia tienen actualmente sobre internet y poder; las reconfiguraciones en los ejes de poder global; las formas y los márgenes de acción de los Estados-Nación y los bloques regionales para intervenir en los futuros tecnológicos de sus ciudadanías; las discusiones por las regulaciones de las grandes plataformas y la problemática de las ganancias con elusión fiscal en la era del neo imperialismo tecnológico.
Alina Fernandez, Florencia A. Guzmán y Alvaro Téran – En tus producciones vos trabajas fuertemente en develar mitos presentes en el sentido común en relación a internet. Retomando ese ejercicio, ¿cuáles son los mitos que hoy están teniendo más eficacia en relación a internet y poder? ¿Los podríamos analizar?
Natalia Zuazo – Yo creo que hay muchos mitos que siguen presentes, que se
van reinventando, van cambiando en sus formas o mutando. El primero, es que toda tecnología necesariamente nos lleva a una mejor vida o al progreso. El principio de ese mito era que Internet iba a democratizar algo per se. Sin embargo, eso olvida que la distribución de la conectividad es muy dispar en un mismo territorio. Por ejemplo, en Argentina hay zonas como la Ciudad Autónoma de Buenos Aires que tienen un 112% de conectividad promedio, y provincias como las del norte de este país – Catamarca, Chaco, entre otras- que tienen aproximadamente un 30% de conectividad promedio. A su vez, dentro de la Ciudad Autónoma de Buenos Aires, ese mismo promedio de 112% baja muchísimo en determinados barrios. Es más, en ciertos barrios populares no hay directamente Internet. Entonces ahí hay un mito que vincula directamente la tecnología al progreso, pero en esa gran caja donde la conectividad parece todo, no miramos mucho hacia adentro.
Tampoco miramos qué pasa efectivamente si existe esa conectividad. O sea, qué pasa con las competencias que se ponen en juego con esa conectividad. Por ejemplo, hoy hablaba con tres personas de tres países distintos de América Latina y una de esas personas me decía que a los profesionales de su rubro -ella era periodista-, se les exigía una transformación digital. ¿Y qué significa la transformación digital? Significa que tienen que estar preparados para hacer cosas que antes no hacían. La transformación digital es también casi un mito ¿no? No solo un mito, sino una exigencia del mercado.
Pero ¿quién prepara a las personas para la transformación digital? ¿Qué herramientas se les demandan a esas personas para adaptarse al mercado? Ahí hay un gap, como dicen los norteamericanos. Hay algo que separa una exigencia del mercado de la vida cotidiana de las personas, y en el medio hay un montón de personas que si no tienen herramientas o no tienen recursos para llegar hasta ahí siguen quedando fuera, ¿no? Entonces este mito que propone un horizonte de siempre tecnologizarse más se impone frente a la realidad de cómo lo hacemos.
La idea de digitalización es una idea de la década del 90 que surge durante la administración Clinton en Estados Unidos, relacionada a la noción de autopista de la información, y sigue vigente. Es una idea básicamente liberal que plantea “a más de una cosa más de la otra”: a más tecnología, más progreso; y no tiene en cuenta la desigualdad, ni las condiciones materiales de existencia. Ese mito sigue siendo muy fuerte.
Hay otro mito que me suelen repetir, y que alude a la vulnerabilidad de las personas frente a las tecnologías. Se insiste con que niños, niñas y jóvenes
frente a las pantallas están más inseguros. Esa preocupación es genuina, pero esconde una subestimación de cuán sumergidos estamos los adultos en un consumismo digital exacerbado. Digo, plataformas como Instagram, no son más que plataformas de consumo capitalista. Por otro lado, pone a las personas menores en una situación de usuarios incapaces de distinguir sus derechos.
Otro mito que resuena especialmente en el ámbito de la comunicación política, es que las audiencias en las redes sociales son engañadas permanentemente. Esto es totalmente falso. Quienes trabajamos en comunicación política, especialmente en comunicación política digital, e investigamos, sabemos que pensar que las personas son una especie de manada de animales llevadas por discursos falsos de odio es una reducción. Es decir, que puede haber campañas organizadas sistemáticamente, financiadas, no significa que de repente se pierde toda acción social posible en el camino.
Situándonos en lo que denominas como neoimperialismo tecnológico, cuál es tu lectura hoy en relación al reordenamiento de los ejes de poder, pensando las coordenadas Norte-Sur; o Este-Oeste, por ejemplo, en relación a la disputa de Estados Unidos y China; e incluso la resistencia Sur-Sur.
Voy a responder a esa pregunta con algo concreto que nos permita pensarlo hoy: la regulación de las plataformas tecnológicas. Europa tiene ciertas posiciones más autónomas sobre cómo se manejan los derechos de las personas en relación a las plataformas digitales. Desde la Unión Europea ya se venía trabajando en el Reglamento General de Protección de Datos (RGPD) para proteger los datos personales y la privacidad de los ciudadanos europeos, frente a un uso muy discrecional de las plataformas, fundamentalmente de origen estadounidense, de los datos de los ciudadanos.
Actualmente la Comisión Europea presentó al Parlamento Europeo un conjunto de leyes que tienen el nombre de Digital Services Act (DSA) que suponen una serie de regulaciones sobre las plataformas.
Hay que reconocer que estas nuevas regulaciones se desarrollan en países
que, como Alemania, tienen una vasta historia sindical y un manejo particular de las relaciones laborales de sus trabajadores en general y de los trabajadores de plataformas en particular. Es decir, está recurriendo a, por un lado, regulaciones que resguardan derechos humanos, sociales y políticos establecidas en el siglo XX; y por otro lado está creando nuevas regulaciones del siglo XXI en donde faltan.
En cambio, Estados Unidos va por la autorregulación. La autorregulación es la idea según la cual las mismas corporaciones dictan las políticas que egulan su actividad, sean de moderación de contenidos, sean laborales o de cualquier otra índole. Son estas plataformas (Amazon, Google, etc) las que se van a dar sus propias respuestas ante los problemas que genere su actividad.
Por ejemplo, en relación a la moderación de contenidos, un caso clarísimo es el Oversight Board que armó Facebook, para tratar los casos de censura, el que está tratando el caso Trump. Funciona como una Corte Suprema para casos conflictivos pero pagada por Facebook. Cuenta con miembros muy importantes, gente que sabe mucho del tema moderación de contenidos, que incluso ha ocupado cargos destacados en cuestiones de libertad de expresión en distintos foros internacionales, muy respetable ¡pero les paga el sueldo Facebook! Ahí hay una revolving door -como se dice en la jerga-, una puerta giratoria muy evidente. Ya ni siquiera se oculta. Digo: este es el claro ejemplo de cómo se maneja en Estados Unidos el tema de la regulación. ¿Cómo regulamos? Bueno, regulamos nosotros con nuestraspropias leyes. Un claro consenso.
¿Qué sucede en Asia? Allí hay otro consenso. Un consenso tecnocrático según el cual la eficiencia está dada por el crecimiento económico y mientras este se mantenga, no necesitan muchos derechos más o los derechos que tienen están bien. Son sociedades tecnocráticas que renuncian a cierto tipo de derechos en favor de un Estado que ciertamente garantiza otro tipo de derechos que, por ejemplo, EEUU ya no provee. Ahí hay un quid pro quo que está mantenido de esa manera.
¿Qué lugar nos queda a América Latina? América Latina tiene un lugar interesante. Por un lado, nuestra historia. Nuestras regulaciones de datos personales abrevan en las regulaciones europeas, es decir son regulaciones integrales de derechos humanos y no sectoriales como en Estados Unidos. En nuestros países no optamos por la autorregulación, tenemos esquemas estatales más fuertes y también mayor presencia de historias de sindicalismos, por lo que podríamos ir, en ciertos modos, por caminos similares a los de Europa.
Sin embargo, Europa tiene entre sus reglamentaciones cuestiones que creo que no deberíamos tomar, como por ejemplo el derecho al olvido. España tiene una jurisprudencia muy fuerte de derecho al olvido, que implica que se pueden borrar datos personales de la memoria de internet.
En América Latina, con nuestra historia de dictaduras y, sobre todo, en función de las políticas de memoria, esa propuesta de cancelación de la memoria debe ser puesta en cuestión. En definitiva aquí se trata de tener soberanía sobre la construcción de regulación, que por supuesto sería más potente si pudiera articularse en términos de unión latinoamericana. Claro que en nuestra región es más difícil que en Europa, donde cuestiones de base como la conectividad ya están resueltas. Yo creo que en Latinoamérica hay que empezar por dos temas prioritarios. Uno sería las regulaciones laborales de los trabajadores de plataformas. En este sentido, un desafío es que los Ministerios de Trabajo puedan pensar esta problemática en conjunto.
El otro asunto prioritario, que además cataliza la pandemia, es la necesidad
de leyes que garanticen el acceso al equipamiento tecnológico y a la conectividad necesaria para el ejercicio de derechos humanos como la educación.
Eso implicaría que programas, como Conectar Igualdad, se transformen
en ley, tanto en Argentina como en otros países de la región. Entonces, las
agendas de nuestros países además de atender a la regulación de las plataformas del modo en que lo hacen los países centrales, deben incorporar urgencias propias.
En tiempos de crisis de la figura del Estado, fundamentalmente en su rol regulador frente a estas grandes corporaciones de las que conversábamos, ¿cómo pensás su intervención en los futu ros tecnológicos de nuestros países?
El poder es una relación. Y la relación del Estado con las corporaciones, con las plataformas, está muy desigualmente distribuida a favor de las corporaciones, a las que nadie votó y que tienen mecanismos de ganancias con elusión fiscal. Es decir que lo que ganan lo evaden de alguna manera, se hacen de ganancias que nosotros pagamos todos los días pero no las dejan en nuestros países. Un ejemplo es Uber: usa las rutas, los caminos, los semáforos que todos nosotros pagamos, y después manda la plata a las Islas Bermudas.
Entonces es muy claro cómo operan. Ese poder tan grande que tienen, lo tienen porque minan permanentemente las capacidades de los Estados, no sólo porque tienen un algoritmo y un modelo de negocios eficiente. Se hacen de recursos ilegales para minar esas capacidades. ¿Invierten tanto en investigación y desarrollo o es que pagan pocos impuestos? ¿Son tan eficientes? Esa es la cuenta de todos los días. Y eso afecta directamente a la relación de poder. Lo que tiene que cambiar son las cuestiones por las cuales estas empresas evaden y no invierten. La gran pregunta de todos los tiempos es ¿quién paga la cuenta?
Desde que empezó la pandemia Amazon ganó la misma plata que en los tres años anteriores de operaciones, porque la gente está encerrada en su casa y compra on line. Pero también la pandemia demostró que los que gestionan vacunas y gestionan salud pública, al final del día, son los Estados. Hay que verlo con las vacunas: gran parte de la inversión para que se desarrollen vacunas vino de los Estados. Las vacunas son tecnología. Eso es otro mito: pensar que solamente un navegador de internet y una aplicación son tecnología. Las vacunas son tecnología, los hisopos son tecnología, los kits de PCR son tecnología; todo lo que rodea a la pandemia involucra tecnología. Hay Estado atrás de eso: los investigadores que se formaron en la universidad pública, que están detrás de esos desarrollos, son Estado. La única tecnología no es Mercado Libre. Y esa ampliación de nuestra cabeza a pensar que eso es investigación y desarrollo estatal es anulada por el marketing de la tecnología.
Por eso yo recupero las capacidades estatales de ponerse al frente de estas “misiones tecnológicas”, como las llama Mariana Mazzucato. Los países tienen que pensarse a sí mismos como capaces de lograrlas, porque ciertamente cuando las empresas de tecnología dicen que son más eficientes, no necesariamente lo son. Ahí hay un problema de construcción de sentido; mejor dicho, más que un problema, una lucha de construcción de sentido.
Un gran dispositivo que nos hace pensar que eso no es tecnología y que provoca que después terminemos desfinanciado a la ciencia, a la educación, a la tecnología y sancionando leyes que le otorgan un montón de beneficios fiscales a muchas empresas de desarrollo tecnológico que no se sabe cómo utilizan la plata. ¿Qué hay que financiar entonces, una cosa o la otra?
Retomando la segunda parte de la pregunta anterior, ¿qué están haciendo desde Latinoamérica para intervenir en los futuros tecnológicos de sus poblaciones?
Estamos en un momento de realmente mucha urgencia. Si bien está todo muy tomado por la pandemia y muchos proyectos se han frenado, otros han tenido continuidad. Por ejemplo, en este momento yo estoy participando en un grupo de expertos de UNESCO, que está escribiendo regionalmente lineamientos para desarrollo de inteligencia artificial. Cuando se dice inteligencia artificial parece que fuera una cosa inasible, pero básicamente se trata de decisiones automatizadas que afectan todos los días nuestras vidas. Es cómo está escrito un algoritmo que toma decisiones sobre nuestra vida: desde cómo se nos da un crédito hasta como se nos inscribe en una escuela; digamos, todas las fórmulas que automatizan decisiones sobre nosotros.
Y ahí hay un debate interesante sobre los límites que eso debe tener. Mi postura es que no todo se puede automatizar. Hay procesos que tienen que ser semi automatizados, es decir, que necesitan intervención humana. Una intervención humana significa una intervención política sobre las decisiones de las máquinas o de los procesos automatizados. Debe haber también un co-diseño de esos procesos automatizados, en el que tienen que intervenir distintos colectivos, diversidad de personas. Esto es necesario puesto que sabemos que muchos algoritmos tienen fuertes sesgos, por ejemplo de género y de raza, en función de por quiénes y dónde son desarrollados.
Por eso es necesario trabajar en el co-diseño de los algoritmos para que
sean más inclusivos y diversos. Por ejemplo, si vos diseñás un software para
que haga una evaluación educativa y no incorporás a los maestros, a los
padres, y solo contratás una empresa para que lo haga, te estás quedando sin una parte. Si diseñás un software de reconocimiento facial que sólo lo hagan un grupito de ingenieros blancos basados en fotos de personas blancas, y pasa una persona negra y la confunden con un mono. Pasa ¿eh? no lo estoy diciendo en broma. Son cosas que pasan. O alguna situación en donde por ejemplo un software que haga una selección laboral, y se necesite seleccionar personal, es muy probable que tengas que tener en ese equipo a mujeres que sean madres que tengan una perspectiva del trabajo doméstico y que ese diseño del software no lo hagan solamente hombres. Distintas perspectivas tienen que ser tenidas en cuenta a la hora de diseñar.
También con UNESCO, dirijo un proyecto de formación de periodistas de
América Latina para tratar temas de tecnología de una manera crítica. Lo
hacemos porque creemos que en esta disputa simbólica acerca de la tecnología, de la que hablamos antes, los medios de comunicación tienen mucho que ver.
Estoy convencida que en el ámbito digital, para tomar mejores decisiones y para cambiar las cosas, necesitamos generar mucha evidencia que nos permita entender mejor los procesos. Dar la batalla a estas grandes corporaciones que asumen su eficiencia implica decirles que hay otras formas de hacer las cosas, y para eso necesitamos datos. Y, por otro lado, necesitamos mucha formación para que las personas se acerquen a estos temas de una manera crítica.