El monopolio de los datos: ¿Cómo dominar la sociedad desde  un algoritmo?

0 Veces compartido
0
0
0
Capítulo 3 – Los dueños de internet (Debate, 2018, Natalia Zuazo)
Google y el monopolio de los datos: ¿Cómo dominar la sociedad desde  un algoritmo?

“Es difícil hacer que un hombre entienda
algo cuando su salario depende de que no lo entienda”.
Upton Sinclair, periodista y escritor estadounidense (1878-1968)

“La big data codifica el pasado. No inventa el futuro.
Hacer eso requiere imaginación moral, y eso es algo que solo los humanos
pueden proveer. Tenemos que sumar explícitamente mejores valores a nuestros
algoritmos, creando modelos de big data que sigan un camino ético. A veces eso
significará priorizar la justicia por sobre el beneficio económico”.
Cathy O’Neil, Weapons of math destruction (2016)

En 2009, el alcalde de Washington estaba preocupado por el bajo desempeño de las escuelas de su distrito. Las evaluaciones mostraban que cada año los alumnos bajaban en el puntaje de las pruebas de lengua y matemáticas. Entonces tomó una decisión para cambiar el fatídico rumbo. Contrató a Michelle Rhee como secretaria de Educación Pública y le dio una misión: que los alumnos no abandonaran masivamente la escuela en noveno grado, abatidos por las malas notas que sacaban en sus exámenes anuales. La teoría de moda era que los chicos no aprendían porque los maestros hacían mal su trabajo. Sobre esta base, Rhee convocó a la consultora  Mathematica Policy Research, dedicada a desarrollar algoritmos para políticas públicas, que creó una herramienta de evaluación llamada IMPACT. Su objetivo, en palabras de los científicos de datos que la elaboraron, era “optimizar” el sistema educativo para asegurar que los alumnos tuvieran mejores docentes. Su propósito, en términos concretos, fue construir un ranking para despedir de su trabajo a los maestros que quedaban debajo de la lista, hasta que todos los profesores considerados malos se fueran del sistema.

Sarah Wysocki era una maestra de quinto grado que llevaba dos años en su trabajo. Tenía excelentes revisiones de la directora de la escuela y de los padres. Todos destacaban su atención para con los niños: “Es una de las mejores docentes con las que he interactuado”, decía uno de los comentarios. Sin embargo, en 2011 Wysocki sufrió un shock: obtuvo un resultado bajísimo en la evaluación y quedó en una lista junto a otros doscientos docentes que tenían que ser desvinculados. La causa: IMPACT le otorgaba la mitad del puntaje a los resultados en lengua y
matemática obtenidos por los niños, pero minimizaba el valor de las revisiones de los directivos y la comunidad, el punto en el que ella se destacaba. Según la consultora detrás del sistema, esto buscaba reducir la “parcialidad humana” y solo centrarse en “puntajes”. ¿Se podía ser una buena maestra aun cuando los alumnos no obtuvieran las mejores notas? Con las mediciones previas, sí. Con IMPACT, eso quedaba descartado.

El modelo “racional” iba más allá. IMPACT medía los resultados de cada alumno sin considerar sus procedencias socioeconómicas o situaciones familiares. Con esto creaba otra desigualdad: las maestras de los barrios con mejores ingresos obtenían resultados más altos, porque los
chicos tenían más apoyo en sus casas para hacer los deberes, maestras particulares o simplemente sus cuatro comidas diarias. Mientras tanto, las maestras de los barrios pobres quedaban más abajo en la lista por el peor desempeño de sus alumnos. Con esto los chicos que precisaban de docentes más presentes o que entendieran sus contextos familiares a la
hora de aprender terminaban perdiendo a los maestros que más atención les prestaban. Con el algoritmo se decía que la educación mejoraría, pero se producía más desigualdad.

El otro problema del sistema es que lo afectaba el azar y retroalimentaba sus propios errores. ¿Qué pasaba si a una maestra le tocaba durante un año llevar adelante un curso donde un porcentaje alto de los alumnos se había tenido que mudar? ¿Y si había pasado varias semanas
bajo la nieve sin ir a la escuela y esto afectaba su rendimiento? Ese año, por más empeño que la docente hubiera puesto en enseñar a pesar de las dificultades, corría el riesgo de perder su trabajo. En un curso de veinticinco o treinta alumnos, una diferencia mínima de tres alumnos
con malas notas podía significar la pérdida del trabajo de una persona (al contrario de otros sistemas algorítmicos que se basan en millones de datos al mismo tiempo y reducen este efecto). ¿Cómo consideraba IMPACT las excepciones, los problemas socioeconómicos o las variables externas que también podían afectar los resultados? No lo hacía. Pero además cometía un grave error: definía una realidad (las maestras tienen la culpa, hay que reemplazarlas) y la utilizaba para justificar un resultado que, repetido con los años, creaba una enorme brecha.

¿Qué sucede cuando le damos a la tecnología el poder sobre áreas crecientes de nuestras vidas? ¿Qué ocurre cuando los modelos algorítmicos toman decisiones de educación, salud, transporte, hipotecas y créditos bancarios? ¿Cómo es una sociedad donde una tecnocracia concentrada decide a través de sistemas “inteligentes” lo que antes se acordaba a través de pujas —no siempre sencillas— entre distintos intereses, entre ellos la distribución de la riqueza y las oportunidades? ¿Qué construimos, en definitiva, cuando cedemos el poder a la “eficiencia” de los gurúes de la big data y nos olvidamos de elementos como la justicia, la solidaridad
o la equidad?

Cathy O’Neil, una doctora en Matemáticas de Harvard, se hizo estas preguntas y las respondió en su libro Armas de destrucción matemática, que escribió luego de trabajar como científica de datos en fondos de inversión y startups, donde construía modelos para predecir los consumos
y los clics de las personas. Tras esa experiencia comprendió que la data economy, la economía de los grandes datos de la que ella había sido parte, se estaba olvidando del componente social de la ecuación. Los modelos matemáticos solo buscaban la eficiencia, pero se olvidaban de la ética y la justicia en el camino. O’Neil se convirtió en activista y divulgadora de las desigualdades que producen los algoritmos en nuestras vidas. La de Washington y Sarah Wysocki, su maestra evaluada injustamente, es una de las primeras historias que investigó cuando la docente empezó a demandar a las autoridades sobre cómo habían construido la fórmula que quería dejarla sin trabajo y se encontró con una sola respuesta: nadie lo sabía.

En Estados Unidos, y en forma creciente en el mundo, los funcionarios contrataban consultoras de expertos en big data que les cobraban millones de dólares y decidían sobre la vida de los ciudadanos. Pero ni ellos mismos, y menos aún las personas comunes, conocían el  funcionamiento de los algoritmos que tomaban las decisiones por ellos. La sociedad
estaba sometida a modelos de “cajas negras” donde los datos entraban, no se sabía qué ocurría adentro, y luego se tomaban determinaciones. Las manejaban unos pocos, ganando mucho dinero. Pero las grandes mayorías sufrían decisiones arbitrarias que profundizaban las injusticias.

Tras investigar la caja negra de la educación, O’Neil se sumergió en los modelos de datos que decidían a quién mandar a la cárcel, a qué personas contratar o despedir en los trabajos, a quiénes aprobarle un préstamo bancario o un seguro de salud y a qué noticias estamos expuestos para votar en las elecciones. Su conclusión fue tajante: las fórmulas que se presentan bajo la más pura lógica y sin margen de error, en realidad se están convirtiendo en armas en contra de la humanidad. “Sus veredictos castigan a los pobres y a los oprimidos mientras hacen más ricos a los ricos”, dice. Y advierte que, si las seguimos festejando y desarrollando al ritmo actual, pero sobre todo si no les sumamos un factor de igualdad, se volverán en contra de nosotros, el 99 por ciento de la sociedad.

Desde la maestra que es evaluada y despedida por una fórmula hasta los miles de personas a las que se les niega un crédito, un trabajo o un seguro de salud analizando bases de datos, todos sufren sus decisiones, pero pocas personas conocen cómo funcionan. Potenciales candidatos quedan afuera de un trabajo por departamentos de recursos humanos que descartan currículums a través de fórmulas y palabras clave y solo consideran al 5 por ciento que queda arriba del ranking. Otros utilizan los datos para lo contrario: contratar trabajadores con códigos postales de barrios vulnerables porque son más dóciles a la hora de aceptar horarios rotativos y salarios mínimos debido a la gran necesidad que tienen de
contar con un ingreso para subsistir.

Sirvan para uno u otro objetivo, las fórmulas tienen algo en común: son algoritmos basados en secretos corporativos que hacen al mundo más desigual. Los más acomodados siguen  consiguiendo trabajo por medio de sus contactos, amigos y familiares. El resto de las personas queda sometido a la maquinaria del procesamiento de datos. “Son víctimas humanas de modelos matemáticos que manejan la economía, desde la publicidad hasta las cárceles. Son armas opacas, incuestionables e inexplicadas, pero operan en gran escala para clasificar y optimizar a millones de personas”, sostiene O’Neil.

Con el crecimiento exponencial de los datos disponibles para analizar y el auge de la ciencia de los datos en cada aspecto de nuestras vidas, quedamos atrapados en un problema: nadie está dispuesto a cuestionar si los modelos realmente funcionan o tienen errores. Por ahora la novedad está dando tantos beneficios económicos que nadie se atreve a poner en debate
un negocio multimillonario. “¿Y las víctimas? Bueno —dicen ellos—, ningún sistema puede ser perfecto. Esa gente representa los daños colaterales. Olvidémonos de Sarah Wysocki un minuto y pensemos en toda la gente que obtiene sugerencias útiles de la música que ama en Pandora, su trabajo ideal en LinkedIn o el amor de su vida en Match.com. Pensemos en la gran escala, ignoremos las imperfecciones”, escribe O’Neil.

Pero las imperfecciones no son errores menores, sino decisiones que afectan situaciones clave de nuestras vidas, como acceder y permanecer en el sistema educativo, pedir un préstamo para comprar una casa, acceder a la información necesaria para votar o conseguir un trabajo. Todos
estos territorios están cada vez más dominados por modelos secretos que empuñan castigos arbitrarios. “Es el lado oscuro de la big data”, dice la autora.

¿Cómo llegamos hasta aquí, hasta el mundo controlado por la data economy que avanza sin parámetros de justicia? ¿Cómo nos sometimos a la creencia de que todo este “progreso” nos complace, mientras ignoramos cómo funcionan las fórmulas que deciden por nosotros y hasta nos castigan? ¿Por qué nos quejamos si un político esconde su riqueza, pero no le demandamos transparencia a los algoritmos?

Hay tres factores que confluyen. El primero es tecnológico. Estamos en la era de la inteligencia artificial, producto de un salto en la ciencia de los datos, la tecnología de los microprocesadores y las técnicas de machine learning, que en los últimos cinco años transformaron radicalmente la
disponibilidad y el procesamiento de la información.

El segundo elemento es histórico. Estamos en un momento de transición del modelo de Estado que nos brindaba seguridad y protección social a los trabajadores y se ocupaba de la redistribución (más o menos justa) de la renta entre el capital y el trabajo. Pero esto no fue siempre así. Antes del Estado de bienestar no existían las leyes laborales o la jornada
laboral de ocho horas.

Si durante la Revolución Industrial el cambio tecnológico necesitó establecer contratos para una sociedad más justa, hoy también necesitamos poner límites al poder de la tecnología.
Si queremos que la data economy no destruya nuestras sociedades, tendremos que volver a hacernos preguntas éticas, que serán nuevas y propias de esta etapa. Si en la Revolución Industrial se necesitó limitar el día de trabajo a ocho horas, hoy la tecnología quizá suponga lo contrario: reducirlo aún más. Si empezamos a hacernos esas preguntas, ahora el panorama no será tan oscuro. Como dice O’Neil, son las preguntas de un cambio de época, que requieren que las pensemos colectivamente: “Necesitamos unirnos para vigilar las armas de destrucción matemática. Mi esperanza es que sean recordadas, como los trabajadores muertos en las
minas un siglo atrás, como vestigios de los primeros días de esta nueva revolución, antes de que aprendiéramos cómo promover la justicia y la transparencia en la era de los datos. Las matemáticas se merecen algo mejor y la democracia también”.

El tercer componente es económico. La concentración de recursos y conocimientos del Club de los Cinco (y sus amigos), que se apropian diariamente de nuestros datos para entrenar sus algoritmos con ellos. Si en 2007 el lema era “El producto sos vos”, en referencia a la supuesta
gratuidad de las plataformas digitales, que en realidad pagamos con la privacidad de nuestros datos y una economía de extrema vigilancia, en 2017 la frase puede ser reemplazada por “Vos sos los datos que entrenan a las máquinas”.

El problema es que en el futuro cercano —si no modificamos hoy la economía del extractivismo de datos— muchos de los servicios ya no serán gratuitos, el entrenamiento estará hecho y la desigualdad será peor. El tema ya no solo preocupa a la izquierda, sino que se transforma en debate y alarma para publicaciones como The Economist, que en mayo de 2017 impactó con una tapa que recorrió el mundo: “El recurso más valioso no es más el petróleo, sino los datos”, y alertó a buscar reglas antimonopólicas para evitar las consecuencias descomunales de esta transformación.

 

Google controla nuestros datos (y el futuro)

—¡Te amamos, Sundar!
—¡Yo también los quiero!

Sundar Pichai, el CEO de Google, se ríe, levanta la mano hacia el público y vuelve a unir los dedos delante del pecho para seguir hablando. Pero antes se ve obligado a hacer silencio. Las siete mil personas que lo alientan desde las tribunas del anfiteatro Shoreline de Mountain View,
California, no lo dejen comenzar con su keynote en la conferencia anual para programadores I/O (input/output), dedicada a presentar las novedades de la empresa ante el mundo.

Pichai, un indio de cuarenta y cuatro años, esbelto, de jean y algo más —el uniforme de Silicon Valley—, conserva su voz templada. Nacido en Chennai, al sur de la India, en una casa modesta, Pichai dormía en un colchón en piso del living con su hermano: su familia no tenía auto ni televisión y recién accedió a un teléfono a los doce años. Tras recibirse de ingeniero  metalúrgico, su padre, empleado de la británica General Electric Company, destinó el equivalente a un sueldo anual para pagar su pasaje a Estados Unidos. Allí recibió una beca de
la Universidad de Stanford y el esfuerzo dio resultados: Pichai es un ejemplo del sueño americano. Y es más que eso. Hoy, en el escenario, a punto de anunciar las innovaciones 2017 de su empresa, Pichai es Mick Jagger, una estrella de rock que debe esperar el fin de la ovación
para continuar el show.

Pero Pichai está relajado. Es un día de sol californiano y está a unas cuadras de su segundo hogar, Googleplex, los cuarteles centrales de la empresa que lidera desde 2015, cuando sus fundadores Sergei Brin y Larry Page le cedieron el mando tras la fundación de Alphabet, la gran
corporación que hoy alberga todas las empresas del gigante tecnológico. Pichai se ganó el lugar. En Google desde 2004 (entró a la compañía el día del lanzamiento de Gmail), empezó trabajando en la barra de búsqueda de Google que luego le permitió a la empresa ganarle a Microsoft la batalla contra su Internet Explorer. Más tarde dirigió el proyecto para lanzar el navegador Google Chrome, fue el responsable del ecosistema de aplicaciones Google Drive, supervisó las aplicaciones de Gmail y Google Maps, y condujo el salto móvil de la compañía cuando se hizo cargo de Android, el sistema operativo para móviles que hoy lidera el
mercado mundial con 2000 millones de dispositivos, contra los 700 millones de iOS, el sistema operativo del iPhone de Apple. Además de su personalidad enfocada en resultados, la visión de Pichai fue clave en su ascenso hasta la cima.

Al contrario de Microsoft, que pensó su negocio a partir de productos imprescindibles para que las personas tuvieran que pagar por ellos de por vida, los fundadores de Google, dieciocho años más jóvenes que Bill Gates y Steve Jobs, comenzaron su empresa con internet en marcha. Entendieron que el valor estaba en la web como ecosistema de negocios y no en vender productos particulares. Para ellos la carrera al éxito consistía en comprender cómo la gente utilizaba el sistema entero y no un programa en especial. Si lograban entender esos deseos, es decir, las palabras que buscaban y que buscarían, las formas en que llevarían internet en su bolsillo, las interacciones que los humanos realizarían en el futuro con sus aplicaciones, entonces la ganancia estaría asegurada. Con esa premisa generaron un buscador que luego sumó anuncios relacionados, un navegador que predijo y centralizó todas las operaciones de un
usuario y un teléfono móvil que se adaptó al uso personal.

Pichai provenía de ese mismo mundo. En la India o en China muchas generaciones no habían siquiera pasado la era de internet a través de las computadoras ni se habían conectado por un cable. Los teléfonos habían sido su puerta de acceso directo a internet. Brin y Page, que se
habían conocido en la Universidad de Stanford durante sus doctorados en Computación, también habían crecido en esa era, donde internet ya era tan imprescindible como la electricidad.

En 1998, los fundadores de Google publicaron el artículo que explicaba cómo operaba PageRank, un algoritmo que ordenaba por relevancia los resultados de búsqueda de la web. En 1999, fundaron Google, un nombre que provenía de gúgol, un número grandísimo, diez a la
centésima potencia (o un uno seguido de cien ceros). AltaVista dominaba las búsquedas y el entonces gigante de la tecnología Microsoft no tenía a ese negocio como prioridad. Luego empezó la “guerra por los navegadores” (Internet Explorer versus Netscape), pero a Google tampoco le importó. Brin y Page seguían enfocados en mejorar su fórmula para “organizar la información del mundo y volverla accesible”, que desde entonces se convirtió en la misión de la empresa. Si el usuario accedía desde una computadora de escritorio, una laptop, un celular o
cualquier otro aparato que se pudiera conectar en el futuro, a ellos no solo les daba lo mismo, sino que les sumaba al poder de su negocio. Y eso sucedió. El PageRank, desde entonces el algoritmo que ordena el mundo, convirtió googlear en un verbo y una actividad por sí misma
en internet.

Detrás de su funcionamiento, sobre la base de computadoras comunes y el sistema operativo Linux, los ingenieros empezaron a construir un inmenso sistema paralelo de software y granjas de servidores que les permitía guardar, analizar y volver a guardar todas las copias posibles de
la web. Para la página de inicio tampoco derrocharon en diseño: un logo y un pequeño rectángulo de búsqueda fue suficiente. Lo importante era mejorar el tiempo: si el resultado llegaba rápido, los usuarios estarían contentos y lo utilizarían. Y eso ocurrió. El próximo paso, vincular cada búsqueda con un anuncio, se hizo realidad con AdWords, que hoy sigue
generando el 89 por ciento de los ingresos de la compañía.

El centro del sistema eran los datos. También eran y siguen siendo la mina de oro que los haría los ricos números 12 y 13 del mundo.

A casi veinte años de su fundación, el modelo de negocios de Google continúa siendo el mismo: hacer dinero con los datos. Por esa razón cada año fue esencial incorporar nuevos productos y unificar su operación desde una misma cuenta de usuario. El Gmail como dirección de correo con la cual loguearse a la cuenta de YouTube, a las aplicaciones de Google Drive (y de paso quitarles mercado a esos mismos programas ofrecidos por Microsoft), los mapas de Google o Waze, el calendario y la información centralizada en el asistente personal Google Now en los celulares con Android, todo controlable desde la voz desde un “Ok, Google”. En el camino, los usuarios dispuestos a intercambiar la privacidad de esa información por productos subsidiados que funcionaban mucho mejor que otros, les dio el resto de la ventaja que precisaban. Ya lo había dicho el ex CEO de Google Eric Schmidt en 2009: la privacidad era secundaria.

En 2017, Google logró un sueño. La compañía había acumulado tantos datos de las personas que anunció que dejaría de leer el contenido del correo electrónico Gmail para personalizar los anuncios publicitarios. Esto no se debió al buen corazón de la empresa, sino a que ya sabe
tanto de nosotros que no lo necesita. A través del historial de búsqueda de Chrome, los videos vistos en YouTube, la localización del teléfono móvil, los anuncios en los que hacemos clic, tiene suficiente. Con eso su dominio en el mercado de los anuncios está asegurado: entre Google y
Facebook acaparan 85 de cada 100 dólares invertidos en internet.

Garantizado el poder intangible, Google dio el siguiente paso: vender también su propio hardware. Comenzó a fabricar sus laptops Chromebook, sus teléfonos y tablets Nexus, sus dispositivos de entretenimiento Chromecast y el asistente hogareño Google Home, todos además compatibles con cualquiera de los servicios que el usuario quiera elegir, desde
su lista de Spotify o Tune In, su programación de Netflix o YouTube, sus electrodomésticos Philips, Toshiba o Sony. Porque los datos siguen siendo la mina de oro, es decir, los usuarios conectados para cualquier actividad de sus vidas. Al contrario, el modelo de negocios de Apple es más cerrado respecto de sus compatibilidades, pero tiene en el centro de su política
una mejor protección de los datos de sus usuarios. El intercambio es pagar más por sus productos (hardware y software), pero resolver dentro de supercomputadoras procesos que Google realiza a través del intercambio con sus servidores y servicios en la nube.

En estas decisiones estratégicas de Google, el CEO Pichai tuvo un rol central. Él comprendió e hizo avanzar la visión de Brin y Page de integrar todo el negocio sobre la base de extraer, analizar y monetizar los datos. Hoy está liderando el siguiente salto de la compañía: la utilización de toda esa información para que las máquinas aprendan a tomar decisiones y hacer que cada vez más procesos pasen a través de la voz y de las imágenes. En la industria de la tecnología esa ola se llama machine learning, es parte de la “era de la inteligencia artificial” y será el gran argumento de venta de los próximos años.

Sobre el escenario, Pichai está feliz. Como ingeniero, lo dice en números: “Los siete productos más importantes de nuestra compañía (el buscador, Gmail, Android, Chrome, Maps, Google Play, Google Drive) tienen más de 1000 millones de usuarios activos por mes”, dice. “Nuestro enfoque es aplicar la informática para resolver problemas a escala”, explica Pichai, que lo está logrando: si el 15 por ciento de los habitantes del mundo están utilizando ahora alguno de sus productos y dándole gratis información al respecto, tiene suficientes datos en tiempo real para
entender qué piensa el planeta.

“No se trata solo de la escala, sino de que los usuarios interactúan mucho con estos productos. YouTube no solo tiene unos 1000 millones de usuarios, sino que cada día miran millones de horas de videos. En Google Maps, cada día los usuarios navegan por más de 1000 millones
de kilómetros. Todas las semanas, se suben como 3000 millones de elementos a Google Drive. Todos los días los usuarios suben mil doscientos millones de fotos a Google. Sobre Android, ya tenemos 2000 millones de dispositivos conectados. Es una escala inspiradora. Y un privilegio servir a usuarios de esta escala”, repite Pichai mientras el robot verde, logo del sistema operativo móvil de Google, festeja con sus brazos y da saltitos con los dedos en una V de la victoria detrás de él. “Como pueden ver, él también está muy feliz”, concluye.

A Pichai y Google los hace felices una palabra: escala. Con los millones de datos por segundo que obtienen gratuitamente a través de las interacciones de sus usuarios, están decididos a reconvertir su enfoque desde el actual “mobile first” (el móvil, ante todo) al “IA first”: la inteligencia artificial primero. Esto significa utilizar la enorme cantidad de datos que poseen (que nosotros les damos cuando cliqueamos aceptar en sus términos y condiciones) para entrenar a sus programas con una cantidad de información que ninguna otra compañía ostenta. El entrenamiento (o machine learning) permite dar un salto en la programación de nuevos productos. Porque en vez de pensar todas las opciones posibles por sí mismo, las toma de la experiencia real de los usuarios, las procesa y las ordena. Por ejemplo, con todas las fotos subidas a la web de una serie de imágenes de paisajes puede reconocer en qué lugares hay más montañas o sierras, en cuáles calles y avenidas. También, si aprende a reconocer las letras de los carteles, puede entender a través de una foto cómo se llama un negocio y ofrecernos información al respecto. O “leer” una cara y sugerirnos de qué persona se trata, como sucede cuando subimos una foto a Facebook y nos sugiere cuál de nuestros amigos es, con bastante exactitud. Como ejemplo de estos avances, Pichai explicó: “Si usás Google Search, clasificamos de manera diferente usando el aprendizaje automático. Si utilizás Google Maps, Street View reconoce automáticamente las señales de los restaurantes y los letreros de las calles”. Todos
estos avancen son, en esencia, útiles para nuestras vidas. El problema es que pueden también usarse en nuestra contra.

La voz y la visión son las grandes apuestas para el Google del futuro. “Los humanos están interactuando con la informática de manera más natural e inmersiva”, detalla Pichai.

En la voz, el entrenamiento de los programas hace que hoy la efectividad para comprender lo que dicen los humanos y traducirlo en palabras sea cada vez más precisa. Solo de 2016 a 2017 el margen de error bajó a la mitad. Para los usuarios eso significa que nuestros teléfonos ya
no se equivocan al interpretar nuestras preguntas. Por lo tanto, Google será capaz de relacionar la búsqueda y las preguntas con oportunidades comerciales, que podrán ser manejadas completamente a través de la voz. Por ejemplo, podremos invocar al “Ok, Google”, decirle que queremos hacer un pedido de comida en nuestro lugar preferido para almorzar, elegir la opción del menú, el método de pago (también digital), decidir si queremos que nos manden el pedido a nuestra casa o a la oficina (que Google Maps ya tiene registradas) y esperar a que llegue. Todo esto mientras ordenamos papeles o vamos de un lugar al otro de la casa o el trabajo.

Para el negocio tecnológico, el avance en la voz también le permite a Google ponerse en un mejor lugar en la carrera de los asistentes hogareños. En su caso, el Google Home, que ya permite reconocer y distinguir la voz de distintos integrantes del hogar a partir de dos micrófonos instalados en las paredes.

Al igual que con el habla, los avances en el aprendizaje profundo permiten entender los atributos de las imágenes. Por ejemplo, en una foto de un cumpleaños distinguir a un niño, una torta e incluso si el niño está sonriendo. En su ejemplo, Pichai explicó cómo a través de la cámara Google Pixel se puede transformar una foto con poca luz en una más clara. O tomarle una foto a una niña jugando al béisbol a través de una reja, detectar ese obstáculo y que el software la elimine a través de Google Lens. El negocio de Google es sumar esos avances en todos sus productos. Por caso, para ofrecerle la foto de un árbol que tenemos enfrente y
nos diga de qué especie se trata (y si nos va a producir alergia). O usar el teléfono para apuntar a un router de wifi, sacarle una foto y asociarla a una contraseña para que se conecte directamente. O tomarle una foto a un restaurante en la calle de una ciudad y preguntarle a Google qué comida ofrece, qué promedio de precios cobra y qué críticas tiene de sus usuarios para saber si queremos detenernos a almorzar allí.

En el mercado de “la voz” se desató una carrera entre las principales y más ricas empresas tecnológicas. De los sistemas touch y la conectividad en cada aparato, el cuerpo como interfaz significa el siguiente gran negocio. Pero no es algo nuevo. La voz es el método de comunicación más antiguo. “En un futuro cercano entre hoy y Black Mirror, la computación basada en la voz estará en todos lados —autos, muebles, máquinas de tickets del subte— escuchando lo que decimos, aprendiendo de lo que preguntamos. Las supercomputadoras avanzadas se esconderán bajo el ropaje de los objetos cotidianos. Le preguntarás a tu router por qué
está roto, a tu heladera qué receta hacer con las verduras antes de que se pongan feas o directamente a una habitación si necesitás un abrigo”, explica la periodista tecnológica Nicole Nguyen. Esto significa que el siguiente salto de interacción entre humanos y computadoras requerirá conocimientos mínimos: bastará con hablar, señalar algo o hacer un gesto (por ejemplo, doblar la cabeza para un costado). “Si las computadoras pueden traducir fielmente estos métodos de comunicación, pueden comprender no solo lo que decimos en un sentido literal, sino qué queremos decir y en última instancia qué estamos pensando”. Esto es lo
que buscan Google, Apple, Facebook y otras grandes empresas cuando anuncian que “sus computadoras podrán pensar por nosotros”. Significa que podrán conocernos profundamente como para prever nuestros patrones de comportamiento a partir de nuestras búsquedas, imágenes que les ofrecemos, datos de lugares que visitamos. En última instancia,
comprenderán nuestros deseos. En cierta forma ya lo hacen, y no es ciencia ficción.

En un mundo donde las computadoras, teclados y el mouse desaparecen, las cámaras, pantallas, micrófonos y altavoces se vuelven ubicuos y se “camuflan” dentro de las paredes, ropas o rincones de las oficinas. Ayudados por los “servicios en la nube”, acceden de manera omnipresente a lo que nos rodea: miran, escuchan, hablan, incluso pueden hacernos
chistes. El mercado de los asistentes personales y hogareños lo demuestra: Amazon con Alexa, Google con Echo, los asistentes personales de la compañía de Mountain View o el famoso Siri de Apple.

La capacidad de procesar datos hizo que estas tecnologías dieran el gran salto. “La escala”, en palabras de Pichai, es consecuencia del cambio en la arquitectura computacional de los últimos años, especialmente desde 2010. Los centros de datos se construyen para el aprendizaje automático que requiere la inteligencia artificial. En 2016, Google lanzó las TPU (unidades de procesamiento de tensor), un hardware de aprendizaje automático ochenta veces más eficiente y hasta treinta veces más rápido que los servidores anteriores. Por ejemplo, puede procesar más
de 3000 millones de palabras por semana en cien servidores. A partir de este hardware específico, Deep Mind, la empresa subsidiaria de inteligencia artificial de Google entrenó al programa AlphaGo, que le ganó por primera vez a un humano al antiguo juego chino Go. También está desarrollando algoritmos capaces de aprender por sí mismos. Para hacerlo
necesita datos. Por ejemplo, realizó un acuerdo con el NHS (Servicio Nacional de Salud del Reino Unido) para acceder a los datos de 1,6 millones de pacientes, incluyendo historiales médicos y datos en tiempo real para efectuar predicciones, lo cual puso en alerta a la opinión pública británica sobre cuestiones de privacidad de los ciudadanos.

Pichai habla de servidores apilados, con chips cada vez más potentes, conectados entre sí y capaces de procesar casi 200.000 millones de operaciones por segundo. Ese avance en la infraestructura técnica, que se suma a la tecnología cloud (el procesamiento en la “nube” de servidores), que maneja las operaciones remotamente para que sean billones de veces más rápidas y eficientes, hace que Google tenga un sistema de aprendizaje automático casi imbatible. Cuando el ingeniero dice que su compañía “está enfocada en manejar el cambio y aplicar la inteligencia artificial para resolver todo tipo de problemas”, significa que no va a dejar
ni un espacio de nuestra vida sin analizar y pasar por sus servidores para convertirlo en un negocio.

Algunas de las áreas donde Google ya admite que está aplicando profundamente la inteligencia artificial son la medicina y la búsqueda de trabajo, nada casuales en términos de negocio: todos nos enfermamos y todos necesitamos trabajar (incluso para pagar los medicamentos o el
plan de salud que nos permita curarnos). En salud, una de las áreas de desarrollo es la patología, por ejemplo en el diagnóstico de cáncer como el de mama. Google está colaborando para construir redes neuronales (modelos matemáticos que emulan el funcionamiento del cerebro) que acumulen y revisen imágenes (ecografías o mamografías) y las comparen con otras para determinar si la paciente tiene un diagnóstico positivo o negativo. Según Pichai, en esta área donde los mejores métodos computacionales anteriores ofrecían una efectividad del 73 por ciento, las imágenes que procesan las redes neuronales de Google tienen una
efectividad del 89 por ciento, que se irá incrementando.

En la búsqueda del trabajo Google está utilizando el aprendizaje automático, mientras también avanza en el área de educación, un negocio íntimamente conectado con el empleo, a través de Google for Education, un servicio que provee paquetes personalizables de aplicaciones gratuitas
para alumnos y maestros que está ganando terreno frente a Microsoft. En 2017, 70 millones de personas usaban el paquete, entre ellos siete de las ocho universidades más prestigiosas del mundo. En las áreas de educación y trabajo la compañía de Mountain View compite con Microsoft, dueña de LinkedIn, la red laboral más grande del mundo. Para ganar la carrera,
Google for Jobs les ofrece a las empresas una API (es decir, un código que pueden insertar directamente en sus sitios) para que las personas con un perfil similar al de sus búsquedas laborales lleguen directamente a sus páginas. Como en los otros casos, esto también se realiza a través del historial de búsquedas y datos que la empresa tiene acumulados.

El aprendizaje como manera de mejorar sus negocios es el orgullo de Google. Pero también es su obsesión y la del resto de la industria tecnológica. “Estamos viviendo en una edad de oro de la inteligencia artificial”, dijo Jeff Bezos en junio de 2017, al tiempo que transitaba uno de los años de mayor ascenso en la lista de multimillonarios del mundo. “Estamos resolviendo problemas con el aprendizaje automático y la inteligencia artificial que fueron del reino de la ciencia ficción durante las últimas décadas. La comprensión del lenguaje natural, los problemas
de visión de las máquinas, todos tienen un renacimiento increíble”, explicaba en una conferencia el CEO de Amazon.

Estamos en el inicio de la automatización total de la economía a partir de algunos avances tecnológicos decisivos. La tecnología de los semiconductores viene progresando a un ritmo del 40 por ciento desde hace cincuenta años. Esto permitió la creación de “máquinas inteligentes”:
robots, autos sin conductor y drones que transforman la economía, desde la internet de las cosas hasta las “ciudades inteligentes”. La tecnología ya no solo automatiza las tareas físicas, sino que comienza a automatizar también las tareas del software, imitando las actividades mentales.

La pregunta es si llegará el día en que todas las imágenes sean analizadas por el algoritmo en lugar de los médicos y exista una discusión sobre una imagen dudosa y a una mujer se le acepte o niegue un tratamiento de acuerdo con lo que determinó un software. Los sesgos que construyan los algoritmos se convertirán en un nuevo problema de la medicina. Y nosotros no seremos capaces de reclamar sobre sus decisiones porque confiaremos demasiado en ellos como para creerlos infalibles o porque no los entenderemos lo suficiente como para cuestionar sus decisiones.

La siguiente pregunta es cómo llegamos a esto y qué significará para el futuro.

La edad de oro de los datos (y sus dilemas éticos)

Ciudad Universitaria, la isla de hormigón que se alza entre el Río de la Plata y la autopista Lugones, recibe a sus habitantes —alumnos y profesores— desde temprano, cuando la niebla húmeda de la Costanera se evapora con el sol. Bajan de los colectivos cargados de las provisiones para el día: termos, viandas de almuerzo y bolsas con circuitos y enchufes.

Sebastián Uchitel —director del Instituto de Investigaciones del Departamento de Ciencias de la Computación de la UBA y el Conicet— cruza con su bicicleta los eucaliptos y los fresnos que rodean el Pabellón I y la estaciona hasta la noche. “La vida de nuestra carrera empieza a las cinco de la tarde, para que los estudiantes puedan trabajar”, dice. Esta mañana los pasillos con pósteres de campeonatos de fútbol de robots, resúmenes sobre redes de datos automatizadas y convocatorias a pasantías para escribir emuladores están casi desiertos. En el Departamento que lleva el nombre del matemático Manuel Sadosky, el padre de la informática argentina, la oficina de Uchitel alberga otra isla privada, con fotos de sus colegas en las conferencias internacionales de ingenieros de software, una vieja computadora Sparc Station IPX de 1989 y un elefante que le regalaron en la India. “Fue en una conferencia de ingeniería de software, lo que hago yo: me ocupo de cómo se crea el software más rápido, de manera más eficiente y con menos errores”.

Uchitel tiene cuarenta y seis años, es científico y profesor (o “maestro”, que es también el significado de su apellido de origen ucraniano). En su universo, el de las ciencias de la computación, es una eminencia internacional que forma estudiantes y los hace pensar más allá de las necesidades del mercado. Sin embargo, no escapa a esa demanda comercial: “Sí, nuestros mejores alumnos se van a trabajar a Google, Facebook, Microsoft. Se entiende: les ofrecen un trabajo bien pago y problemas técnicos complejos”.

En ese progreso de las ciencias, cada tanto se produce un salto. En las ciencias de la computación eso se produjo en algún momento entre 2009 y 2015. Las habilidades lingüísticas de los algoritmos avanzaron desde el jardín de infantes hasta el colegio secundario, como dice Cathy O’Neil. Para algunas aplicaciones el salto fue aún más grande. Y eso se debió a la acumulación exponencial de datos que supuso internet, un enorme laboratorio de investigación del comportamiento de los usuarios, donde la retroalimentación se consigue en segundos.

Si desde 1960 hasta hoy los científicos tardaron décadas en enseñarles a las computadoras a leer (es decir, a procesar distintos lenguajes, a programar las reglas y las gramáticas de los códigos que utilizamos en nuestra vida mediada por computadoras, celulares y todo tipo de aparatos), esa posibilidad se multiplicó por millones con las personas que hoy producen
petabytes de datos por segundo. Con esa información, los programas hoy tardan cada vez menos tiempo en aprender los patrones humanos y hacer predicciones. Con el machine learning los algoritmos encuentran y los conectan con los resultados. De alguna manera, aprenden. Pero
también, si los programas son predatorios, calculan las debilidades de los usuarios y las explotan.

Uchitel reconoce que desde 2010 el área conocida como redes neuronales y el machine learning está viviendo una explosión. “La disponibilidad de datos brutal que tenemos hoy, sumada a la tecnología del cloud computing, juegan un rol importante. Las personas no necesitamos muchos ejemplos para aprender qué es un perro. En cambio, las computadoras sí, y eso se está facilitando con la cantidad de imágenes, palabras y estructuras que se producen cada segundo”, explica. Pero junto con el avance tecnológico se generan otros problemas: “Cuando una red
aprende una estructura también puede cometer errores. Y es muy difícil, incluso para nosotros los especialistas, entender por qué se equivoca. La podemos entrenar más, pero corremos el riesgo de inducirle nuestras propias preguntas o prejuicios. En un punto, cuando le creés a un sistema, te quedás ciego: no podés saber exactamente por qué hace lo que hace”. En este punto el profesor Uchitel retoma la idea de caja negra: todos los días utilizamos programas o algoritmos que no entendemos, pero en los que confiamos para tomar decisiones por nosotros. Y advierte que en algunos casos esto puede ser delicado: “Cuando un algoritmo se utiliza,
por ejemplo, para crear perfiles de sospechosos de un asesinato, hay peligros. Hay falsos positivos, es decir, errores. Muchas veces se los ignora, pero en el medio no tenemos que olvidarnos de que hay personas”.

—Como cuando nos dicen: “Es un error del sistema”.
—Claro, es una de las respuestas. Pero, además, con la cantidad de datos acumulados, cada vez más vamos a recibir respuestas del tipo: “Usted es de tal categoría porque el sistema me lo dice”. Y no podremos discutirlo. Pensemos en el caso de la industria de los seguros o la salud.
Les importa vender. Si eso implica dejar a un porcentaje de personas fuera del plato, ganan igual. No hay tiempo de corregir los errores. Por eso es tan importante tomarse tiempo para construir el software que tenga la menor cantidad de errores.

¿Cómo hacer entonces para reducir los errores? Esa parece ser la pregunta clave en el futuro cercano del aprendizaje automático. Uchitel explica que, además del camino del machine learning que aprende por acumulación de datos pero es oscuro ante nosotros, también se pueden construir sistemas de aprendizaje basados en la lógica. “Por ejemplo, la policía metropolitana del Reino Unido tiene un departamento de investigación de crímenes con un protocolo estricto para realizar una investigación. No decide por datos, sino por reglas. Los datos aportan, pero las reglas definen. El programa podría decir ‘Si esta persona está
cerca del lugar del crimen, está asociada de esta manera con la otra, tienen un negocio en común, entonces se beneficiaría si el crimen sucediera’”.

Con este razonamiento más deductivo, las personas podríamos comprender cómo llegan las máquinas a tomar las decisiones. Llevaría más tiempo, pero mejoraría los niveles de error actuales. De todas formas, Uchitel adelanta que no hay sistema informático que elimine totalmente el riesgo. “El factor humano, por ahora, sigue siendo fundamental”, dice.

En una de sus estancias de estudio en Londres, Uchitel presenció la programación de un sistema de aprendizaje para detectar tumores en radiografías. “Habían entrevistado a una gran cantidad de médicos a los que les preguntaban qué parámetros habían utilizado para reconocer
el cáncer en la imagen. Pero el sistema seguía dando errores, entonces sumaron una tecnología que filmaba las pupilas de los doctores mientras miraban las radiografías. Con eso se dieron cuenta de que miraban muchas más cosas, que hacían incidir otros factores de su experiencia
que no se podían explicar o medir”. Con ese ejemplo, Uchitel señala que programar un sistema que determine si alguien tiene cáncer mostrándole millones de imágenes es una decisión arriesgada, casi extrema, a la que todavía no deberíamos exponernos como sociedad. También,
que llevaría mucho tiempo llegar a un nivel de confianza razonable en
problemas de ese tipo.

—Sin embargo, estamos en un momento de gran confianza en las empresas y sus algoritmos.
—Sí, y es un peligro. Te pongo un caso real: una diferencia de un signo “=” (igual) hizo vulnerable un software de voto electrónico. La empresa puede darse cuenta, pero también puede no hacerlo. Y eso puede poner en riesgo toda una elección. Todavía no entendemos que vivimos rodeados de errores de software, pero andamos por la vida pensando que no. Algunas aplicaciones que fueron probadas millones de veces tienen errores que son muy difíciles de eliminar, porque también cambiamos de software todo el tiempo.

—El mundo de la tecnología además no es gradualista.
—Al contrario. El negocio hace que cambiemos todo el software que usamos cada dos años. Usás uno que ya tenía menos errores y de nuevo lo cambiás todo. Volvés a confiar. Es imposible.

—¿Y desde la universidad, donde se forman los programadores que luego van a trabajar a las grandes empresas como Google, existe la pregunta sobre la ética de lo que programan?
—No. Depende mucho de la voluntad de los profesores. Pero creo que deberíamos hablar más de eso, definitivamente. Mientras los saltos de la tecnología les permiten avanzar a las empresas, son nuestros datos los que les garantizan los negocios más rentables del mundo. Mientras los humanos alimentamos los programas de esas empresas con nuestros clics, dejamos que las máquinas tomen decisiones sobre nuestras vidas. La eficiencia (económica) y no la justicia, por ahora, ganan la carrera. Sin embargo, en este punto las empresas no hacen más
que lo que les corresponde: ganar dinero.

Google basó su esquema en la acumulación y el análisis de los datos. Eso hoy le permite tener una ventaja sobre sus competidores en los desarrollos de inteligencia artificial. Pero además le dio unas ganancias que le permitieron invertir (a veces caótica y desmesuradamente) en la
investigación de otras actividades e industrias. Hoy Google es un holding, una empresa de empresas y una mina de oro con capacidad de invertir en cualquier nuevo negocio que se proponga.

La desigualdad también reside allí. Hoy nadie puede competir con ellos. Pero esa dominación también comienza a causarles problemas.

 

El monopolio que juega a lo seguro (y hackea a la política)

“El recurso más valioso del mundo. Los datos y las nuevas reglas de la competencia”, se leía en la tapa de la revista inglesa The Economist de mayo de 2017. Con los logos de Google, Amazon, Facebook, Uber, Microsoft y Tesla sobre plataformas de petróleo en plena extracción y destilería sobre el mar, la publicación liberal inglesa advertía sobre la gran acumulación de la información digital en unas pocas manos, comparándola con la situación monopólica del petróleo del siglo anterior. En la nota advertía que, a diferencia de la situación precedente, cuando la Standard Oil de David Rockefeller había logrado “negociar” las reglas de un mercado para comerciar el petróleo, la actual confrontaba a los luchadores anticoncentración contra un nuevo problema: los datos de nuestra era digital se generan, se acumulan y se monetizan de manera distinta. Por esa razón la publicación proponía encontrar de manera urgente nuevas formas de “acercarse” (por no decir regular, una palabra poco amigable para el semanario liberal británico) al problema de las grandes tecnológicas que dominan el mundo. “Si los gobiernos no quieren una economía de los datos dominada por unos pocos gigantes, deberán actuar pronto”.

La señal de alerta es clara. Solo en cinco años, desde 2012 hasta 2017, las veinte empresas con mayor capitalización de mercado del mundo duplicaron su presencia de compañías tecnológicas y se concentraron en la cima. En 2012, Apple, Microsoft, IBM y Google ocupaban —respectivamente— los puestos 1, 4, 7 y 14 de la lista. En 2017, Apple, Google/Alphabet, Microsoft, Amazon y Facebook, trepaban a los puestos del 1 al 5, una debajo de otra, con un dominio absoluto (detrás de ellas, las chinas Tencent y Alibaba y la coreana Samsung completaban la lista, en los puestos 9, 10 y 15, respectivamente). Grandes compañías financieras, energéticas, de telecomunicaciones, salud, alimentación e industriales habían pasado de los primeros puestos de la lista a los del medio o los últimos. De las petroleras, Exxon
Mobile había decaído del puesto 2 de la lista al 7, y Petro China ya no era parte de los más ricos. La cadena de supermercados Walmart, antes la sexta con más riqueza, había bajado al puesto 17. Las históricamente potentes General Electric, AT&T, Nestlé, Johnson & Johnson, Procter
& Gamble y Roche también descendían abruptamente. Las financieras como Morgan Chase y Wells Fargo y los bancos ICBC y Bank of America conservaban sus lugares, aunque perdiendo ganancias en el mercado.

Mientras tanto, los gigantes tecnológicos duplicaban sus ingresos anuales netos: Apple pasaba de 128.000 millones a 218.000 millones en cinco años, Google/Alphabet de 38 a 90, el más modesto Microsoft de 72 a 86 y el creciente poder de Amazon bajo el liderazgo de Jeff Bezos lo
hacía aparecer por primera vez en la lista, directamente en el puesto 4, por encima del puesto 5 de Facebook, también fuera de las grandes ligas en 2012 y dentro del podio en 2017.

Las cifras son impactantes en términos de facturación de las grandes compañías, pero también de la concentración del poderío que ostentan a través de los datos que acumulan y monetizan. Amazon captura la mitad de cada dólar que los norteamericanos gastan en internet. Google y
Facebook se llevan el 85 por ciento de toda la inversión en publicidad digital. Uber tiene un valor estimado de casi 70.000 millones de dólares porque posee la mayor base de datos de conductores y pasajeros del planeta. Tesla, que hoy lidera el avance en la industria automotriz
tecnológica (con sus autos-que-se-manejan-solos a través de algoritmos y datos), solo en 2016 acumuló 1300 millas de datos de conductores, algo similar a lo que acaparó Waymo, la subsidiaria de Alphabet/Google en el mismo segmento de mercado. El universo de la economía de la big data se puede contar, pero en números que aterran: en 2025 equivaldrá a 180 zetabites (180 seguido por 21 ceros). “Trasladar esos datos a través de servidores de internet —es decir, de las computadoras que los contienen— implicaría 450 millones de años”, señala otra nota de The Economist para ilustrar la magnitud del negocio.

En los cinco años que los coronaron como los líderes de la riqueza mundial, los Cinco Grandes también fueron los reyes de la concentración económica. Tras la explosión de la “burbuja tecnológica” de los años 2000, la industria encontró en la acumulación de datos en perfiles de
usuarios y la publicidad su forma de financiación y creación rápida de riqueza. Desde 2010 en adelante, el impulso del aprendizaje automático y la inteligencia artificial, sumado a los nuevos chips y servidores, hicieron la diferencia. La “culpa”, sin embargo, no es de ellos. Están haciendo lo que saben: business as usual. El resto lo hacemos los usuarios. Pocos de nosotros queremos vivir sin el buscador de Google, la entrega en el día de Amazon o el muro de Facebook. Por eso a ninguna de estas empresas las asusta cuando suenan las alarmas antimonopolio.

En la actual data economy unas pocas empresas ya tienen la totalidad de los datos y los comportamientos, lo cual genera un esquema de “el ganador se lleva todo” (winner-takes-all). Los que tienen más datos son los que más saltos generan en sus productos y sus servicios, lo cual les provee más datos de los consumidores, y así sucesivamente. Si a esto le sumamos que vivimos en un modelo de “economía de las plataformas”, donde cada una de las grandes empresas domina un gran mercado (Amazon las ventas, Uber el transporte, Google y Facebook
la publicidad, etcétera), se produce un problema que ya preocupa hasta a los liberales discípulos de Adam Smith y los padres del capitalismo.En una economía de este tipo, la competencia tiende a desaparecer porque las ganancias llegan siempre a los mismos. El mercado queda
en manos de los monopolios.

Bajo la esclavitud de los algoritmos, los monopolios ya son un problema hasta para los economistas ortodoxos y el Foro Económico Mundial, que empieza a debatir soluciones, proponiendo por ejemplo una cuenta única por usuario, que controle quién maneja y se queda con el dinero de sus datos. También surgen empresas como Datacoup, que pagan a los usuarios por vender su información para que la utilicen otras compañías. Pero lo cierto es que cada uno de los datos acumulados o vendidos tiene un valor decreciente respecto de los que ya están en manos de las grandes empresas. Lo que genera el valor ya no son los datos. La etapa de la extracción (el extractivismo original, como lo llamaría Karl Marx de vivir en nuestra época) ya está completada, tal como lo demuestra Google cuando anuncia a la prensa que “va a dejar de leer nuestros mails para ofrecernos publicidad”. Lo que crea la rentabilidad hoy son los algoritmos que analizan los datos muy personalizados y los convierten en servicios. Es decir, una forma de la economía que profundiza el principal conflicto de nuestro tiempo: la brecha de la desigualdad.

Algunos políticos e instituciones comienzan a tratar a los grandes de la tecnología como monopolios e intentan imponerles límites. En junio de 2017, la Comisión Europea aplicó a Google la mayor multa antitrust que se haya impuesto en la historia de Europa: 2700 millones de dólares. Con esa suma ejemplar, el organismo dijo que la empresa había favorecido en su buscador a su servicio de compras Google Shopping por sobre otros negocios competidores y le dio noventa días para abandonar la práctica, a riesgo de pagar el 5 por ciento de sus ingresos diarios, es decir 14 millones cada 24 horas, hasta cumplirlo. “Google ha negado a otras empresas la oportunidad de competir sobre la base de sus méritos y de innovar. Y lo más importante es que ha negado a los consumidores europeos los beneficios de la competencia, la elección genuina y la innovación”, explicó la comisaria de la Competencia de la Unión Europea,
la social liberal danesa Margrethe Vestager. Los números la avalaban: el 74 por ciento de los anuncios de compraventa de Google que reciben clics pertenecen a su servicio Shopping. Como en las ocasiones anteriores (Google enfrenta acusaciones y conflictos legales por monopolio
desde 2008 en Estados Unidos y desde 2010 en la Unión Europea), la corporación dijo que apelaría la multa y minimizó el problema. Sin embargo, el debate obligó a algunos analistas norteamericanos a advertir que al menos del otro lado del océano estaban intentando poner diques al poder de Mountain View.

Jonathan Taplin, profesor de la Universidad del Sur de California y autor de Moverse rápido y romper cosas: cómo Facebook, Google y Amazon arrinconan la cultura y socavan la democracia, recordó que en 2012, cuando la Comisión Federal de Comercio de Estados Unidos concluyó que
Google estaba comprometida por competencia desleal por favorecer sus servicios, el Washington Post reveló que sus ejecutivos donaron más dinero a la campaña de Barack Obama que cualquier otra empresa del país y participaron de una serie de reuniones en la Casa Blanca entre la acusación antimonopolio y el momento en que esta fue abandonada por el gobierno. “¿Por qué los europeos son más combativos contra los monopolios de las grandes empresas tecnológicas que los norteamericanos? —se preguntó Taplin—. La primera respuesta es que el pensamiento libertario en materia económica cambió la mirada estadounidense sobre
los monopolios. La segunda, que Google se volvió tan grande que los políticos y los reguladores le tienen miedo”. Con el 89 por ciento del mercado de búsquedas, para el autor no hay dudas de que la empresa de Brin y Page es un monopolio. “Lo sería desde los textos clásicos en
la materia, como el del juez Louis Brandeis de 1934, La maldición de lo grande, donde dice que se trata de proteger a los pequeños negocios de la depredación de los grandes. Como escribe Brandeis: ‘Podemos tener democracia en este país o podemos tener una gran riqueza concentrada en las manos de unos pocos, pero no podemos tener las dos al mismo
tiempo’”.

Taplin explica que una de las razones por las que en Estados Unidos —la cuna de los Cinco Grandes que desde allí dominan el mundo— se dejó de controlar a los monopolios fue la ideología que surgió durante el gobierno de Ronald Reagan en la década del 80, según la cual, si las grandes empresas no cobraban mayores precios para los consumidores, entonces estaban justificadas (aun si eliminaban a la competencia). “Por supuesto, en la era digital, donde la ley de Moore lleva a bajar los precios y muchos servicios sostenidos por la publicidad parecen gratis para los consumidores, sería imposible, según ese criterio, frenar a Google”. Si además la empresa tuvo 230 reuniones con la Casa Blanca entre 2012 y 2013, como revela Google Transparency Project, está claro que en su propio país no hay voluntad de frenar a Larry Page (ni a Mark Zuckerberg o a cualquiera de los billonarios que domina su mercado). Si a eso se le
agrega que estas empresas operan en economías completamente desreguladas, donde el sistema “el ganador se lleva todo” de las plataformas digitales las convierte en pulpos capaces de comprar cualquier intento de competencia, y sumado a las grandes inversiones de las compañías en marketing, publicidad y lobby, el futuro parece perdido desde ese país.

Si los políticos y el resto de la industria son impotentes ante el poder de los gigantes, entonces —dice Taplin— queda confiar en los “reguladores” de regiones como la Unión Europea, más reacios a aceptar el poder de lobby de Google y otros gigantes. Ellos también juegan más
fuerte por su historia de conflicto con otro factor clave que imponen los grandes de la tecnología: el capitalismo de la vigilancia. “Uno se podría imaginar a la canciller Angela Merkel, criada bajo la vigilancia constante de la Stasi, la policía secreta de Alemania Oriental, ofendida
por los avisos de Google que saben cada paso de ella en la web cuando encuentra un par de zapatos que le gusta”, dice Taplin, que no menciona el espionaje que sufrió la alemana por parte de la Agencia Nacional de Seguridad revelado por Edward Snowden en 2013, pero lo deja entrever con ironía.

Mientras tanto, otros consideran que el camino de limitar a los monopolios es una estrategia de “manta corta”: puede servir para combatir un problema actual, pero no evita los del futuro porque los gigantes de la tecnología siempre estarán un paso por delante. “El problema con la
regulación a las grandes compañías tecnológicas es que, enfrentadas a reglas más fuertes, pueden innovar en otros sentidos, cambiando a nuevas tecnologías que no estén reguladas”, señala Evgeny Morozov. Las comisiones investigadoras antimonopolio pueden necesitar siete años (como sucedió en la Unión Europea) para construir un caso contra una de estas empresas. Pero los gigantes tech pueden reinventar su negocio en dos meses y escabullirse.

La serie Billions lo explica de forma majestuosa. En su primera temporada, el fiscal Chuck Rhodes (un Paul Giamatti neurótico y woodyallenesco) intenta atrapar al rey de los fondos especulativos Bobby Axelrod (un Damian Lewis con cara de piedra y ojos translúcidos que ocultan la opacidad de su poder). Lo hace desde una estructura burocrática pensada hace siglos, la justicia. Inteligente y hábil políticamente, Rhodes no logra condenar al rico que se le escurre de las manos, aunque es culpable. Porque además de sobrarle el dinero para comprar influencias, Axelrod es buen mozo, trabaja en oficinas de estilo nórdico, dona a la
caridad y cuenta con empleados brillantes a los que paga bonos de fin de año fabulosos para que le eviten las estocadas con cálculos financieroinformáticos. (¿Quién se atrevería a enfrentar a alguien así, en un mundo donde todos quieren ser como él?).

Cansado de luchar con las armas legales, en la segunda temporada Rhodes decide apelar a una maniobra de yudo, el arte marcial que practica: esperar con paciencia y usar la fuerza de su enemigo para hacerlo caer. Con un ardid casi absurdo (adulterar con veneno de ranas las botellas de la flamante compañía de jugos orgánicos de Axelrod el día que sale a la bolsa), logra crear un caos en el que nadie sabe qué está sucediendo ni quién es responsable.

¿Qué tiene que ver esto con Google y las hasta ahora inútiles maniobras por limitar su poder? Que tal vez, fascinados por lo que la empresa de Mountain View puede hacer por nosotros, no estemos viendo el elefante delante de nuestros ojos: todo lo que hace es gracias a los datos.
Sus algoritmos avanzados, sus servidores y chips con procesamiento tan rápido, sus compañías de inteligencia artificial y toda la beneficencia que despliega en el mundo para garantizar su imagen positiva no serían nada sin esos granos de arena en forma de bits que le dan, todos juntos, su gran poder. Si la Comisión Europea quiere ir contra el Alphabet de 2017 y no contra el Google de 2010, tiene que enfocarse en su activo más valioso: los datos. Asignado al caso de la gran tecnológica, el fiscal Rhodes dejaría de multar a la empresa por su posición monopólica en cada país donde opera y en cambio le pediría que realice una buena acción y ponga sus bases de datos en manos de los ciudadanos o hablaría con los políticos para que la compañía pague más impuestos en los países donde actúa y se generen beneficios sociales, o al menos una devolución de la riqueza que extrae.

“Todos los datos de un país, por ejemplo, podrían recaer en un fondo nacional de datos, copropietario de todos los ciudadanos (o, en el caso de un fondo paneuropeo, de europeos). Quien quiera construir nuevos servicios con esos datos tendría que hacerlo en un entorno competitivo y muy regulado mientras paga una parte correspondiente de sus beneficios
por usarlo. Tal perspectiva asustaría a las grandes firmas tecnológicas mucho más que la perspectiva de una multa”, propone Evgeny Morozov. “El enfoque actual —que las empresas de tecnología acumulen tantos datos como puedan y después aplicarles la ley de la competencia en cómo diseñan sus sitios web— no tiene sentido. Alterar las compras online es importante, pero no cambia nada si no se modifica esta forma perversa de feudalismo de datos, donde el recurso clave es propiedad de solo una o dos corporaciones.”

Las preguntas que siguen son casi obvias, pero difíciles de responder hoy: ¿serán los Estados primero capaces de imaginar y luego valientes para aplicar otras maneras de limitar el poder de las grandes corporaciones tecnológicas? ¿Podrán sus funcionarios, organizaciones sociales y
ciudadanos —tal vez, e idealmente, todos juntos— pensar modos creativos de apropiarse de los datos para que respondan a la justicia, además de a la eficiencia? ¿Estaremos dispuestos quizá a sacrificar algo de esa inmediatez, en favor de otros esquemas económico-tecnológicos que
provoquen menos desigualdades?

Con los algoritmos que dominan nuestras vidas, en la disputa entre la justicia y la eficacia, por ahora gana la última. Sus empresas no solo lo hacen en lo económico, sino culturalmente cuando el resto del mundo no cuestiona sus poderes absolutos, sino que, al contrario, las admira como ejemplos.

¿Pero qué pasaría si los verdaderamente poderosos (los dueños de esas grandes corporaciones) fueran transparentes? Ese dilema nos lleva al del siguiente capítulo: ¿está la democracia preparada para convivir —e incluso resistir— con el mundo de los Cinco Grandes?

0 Veces compartido
También te puede interesar