Empresarios y algunos investigadores advirtieron recientemente sobre posibles escenarios apocalípticos a manos de la Inteligencia Artificial. De lo que no hablan es mucho más tenebroso que los riesgos sobre los cuales especulan.
Preguntamos a ChatGPT (versión 3.5) ¿Cuáles son las mayores amenazas para la humanidad?. El famoso bot enumeró un conjunto de posibles peligros, el cuarto de los cuales fue: “Inteligencia artificial: El desarrollo de poderosos sistemas de IA con el potencial de superar la inteligencia humana plantea la posibilidad de consecuencias y riesgos no deseados para el futuro de la humanidad”.
Si dejamos lugar a la paranoia, las palabras del popular sistema podrían leerse como una amenaza. Más aún si las leemos a la luz de las coberturas del tema que muchos grandes medios han difundido en los últimos tiempos.
Hace algunas semanas un grupo de investigadores, gurús tecnológicos y empresarios del sector tecnológico suscribieron una carta abierta en la que llaman a “suspender” los grandes experimentos en Inteligencia Artificial. En el texto afirman que los sistemas de ese tipo que alcancen la capacidad de competir con humanos representan un riesgo para “la sociedad y la humanidad”. Resaltan que en los últimos meses “los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable”. En una dirección parecida se manifestó, entre otros, Geoffrey Hinton, un destacado investigador que fuera premiado por sus trabajos sobre deep learning (aprendizaje profundo). Aunque el título y el tono de la nota apuntan a un escenario futuro en el que las IA sean “más inteligentes” que las personas, el informático británico se refirió a otros riesgos más inmediatos, como el reemplazo de puestos laborales en tareas no rutinarias.
Más recientemente, otro conjunto de investigadores del área y ejecutivos empresariales (entre los que resuena el nombre de Bill Gates) suscribió una declaración breve según la cual mitigar “el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Palabras como las referidas en los párrafos anteriores evocan inevitablemente a numerosas escenas de películas de catástrofes donde las máquinas se rebelan dominando y esclavizando a la humanidad. Es excesivamente especulativo alertar sobre riesgos de ese tipo en la actualidad, pero hay numerosos peligros que surgen o se potencian por el auge de las IA sobre los cuales la carta en cuestión hace poca o ninguna referencia.
¿De qué hablamos cuando hablamos de IA?
Se habla mucho de Inteligencia Artificial, no sólo en el ámbito de la investigación científica y la academia, sino también en los medios de comunicación masivos. Sin embargo, no existe un consenso general acerca de qué es exactamente lo que designa esa expresión.
Generalmente se reconoce como punto de partida en el uso de esta expresión al trabajo de McCarthy, Minsky, Rochester y Shannon, quienes en 1959 publicaron “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”. El proyecto al que se referían partía de la idea de que el aprendizaje “o cualquier otra característica de la inteligencia” pueden describirse de manera lo suficientemente precisa como para que una máquina pueda simularlos.
Sin embargo, al hablar de “inteligencia” muchas veces se asimiló la idea a una imitación del pensamiento humano, o una actividad comparable por parte de las máquinas.
El avance del llamado “aprendizaje automático” o machine learning le dio impulso a esta idea de que las máquinas pueden hacer cosas que parezcan propias de la inteligencia humana. El “aprendizaje” en cuestión difiere de lo que se conoce de los procesos humanos. Se trata de determinar un conjunto (a veces gigantesco) de parámetros de ciertas funciones en base a un conjunto de datos (que siempre es grande y a veces es enorme) de acuerdo a los cuales se busca que las funciones predigan algo para una situación no incluida en los datos (por ejemplo, la probabilidad de que la inflación en Argentina el próximo mes sea de tal valor; o la probabilidad de que tal palabra sea la que sigue en una oración) o sean capaces de otorgar clasificaciones (como decir si una persona cumple nada, mucho o poco con sus deudas).
Entonces, si de lo que se trata es de que una máquina haga algo parecido al pensamiento, los avances de los últimos años y el enorme crecimiento en la capacidad de procesamiento han producido algunos resultados que -más allá de consideraciones semánticas pertinentes- parecen mostrar comportamientos humanos. Una “charla” con ChatGPT o BARD pasa perfectamente por una conversación con un humano; o los programas generados por esos bots parecen obra de algún programador con poca experiencia (al menos hasta ahora), hasta con errores esperables.
De allí a que estos programas tomen decisiones completamente por sí mismos (más allá de lo ambiguo del significado de tal afirmación), manejen otros dispositivos para que realicen acciones y tomen el control de la humanidad, hay aún mucho trecho por recorrer. Es cierto, eso sí, que puede ocurrir que las decisiones que adopten en base a su programación y aprendizaje sean impredecibles incluso para sus autores, precisamente por la capacidad que pueden tener de analizar rápidamente gigantescas cantidades de datos.
Pero hoy, ahora mismo, el uso de tecnologías clasificadas como IA producen interesantes beneficios y perjuicios preocupantes, y su avance acelera sensiblemente algunos males que ya aquejan a la humanidad en su conjunto.
Peligros más inmediatos
La carta mencionada al comienzo hace referencia al artículo On the Danger of Stochastic Parrots: can Language Models be too Big?, de Emily Bender y otras donde las autoras analizan específicamente los riesgos de las IA basadas en grandes Modelos de Lenguaje, como es el caso de GPT y su bot parlante ChatGPT. Allí las autoras enumeran peligros ambientales (por el alto consumo energético en estos sistemas), costos financieros, costos de oportunidad (el desarrollo de IA se lleva profesionales y recursos que podrían servir en otras áreas), y otros peligros sustanciales como “los estereotipos, la denigración, el aumento de la ideología extremista y el arresto injusto”.
Esas amenazas son mucho más inmediatas y verificables que la eventual dominación del mundo por parte de una o varias IAs. En la actualidad -y desde hace algún tiempo- hay sistemas que “estiman” la probabilidad de que una persona cumpla con el pago de un préstamo, haciéndola elegible o no para otorgarle un crédito; que un convicto reincida en el crimen, influyendo en decisiones de jueces en cuanto a sentencias; y también califican a docentes para decidir quiénes serán despedidos. Sistemas de este tipo fueron analizados y expuestos por la matemática norteamericana Kathy O’Neal en su libro “Armas de Destrucción Matemática”, publicado en 2016.
Pero ¿hasta qué punto se puede culpar a las IAs de tales desatinos?. Son las autoridades políticas, los gobernantes y funcionarios con capacidad de decisión quienes deciden confiar en modelos cuya pertinencia no ha sido probada. Ellos son quienes contratan a las empresas y fijan o aceptan las condiciones para su utilización. Y son responsables las empresas proveedoras, cuyo aliciente exclusivo es el lucro, las que ponen a disposición sus recursos sin entrar en reparos éticos.
Ya están entre nosotrxs
Los ejemplos de O’Neal se refieren a los Estados Unidos, pero el problema es recurrente. Cabe recordar que hace unos años el entonces gobernador salteño presumía de la adopción de un sistema de IA para pronosticar “con nombre y apellido y domicilio” qué joven tendría una alta probabilidad de embarazarse, y apelaba a ese sistema como base para delinear políticas para reducir los embarazos adolescentes.
Un poco más acá en el tiempo, los malos usos comprobados en el Sistema de Reconocimiento Facial de Prófugos (SRFP) adoptado por el gobierno de la Ciudad de Buenos Aires llevaron a que la Cámara en lo Contencioso Administrativo y Tributario de esa jurisdicción exigiera al gobierno de la Ciudad que cumpla con un conjunto de recaudos antes de poner nuevamente en funcionamiento el Sistema en cuestión. El tribunal mencionado no declaró la inconstitucionalidad del SRFP porque no consideró probado que viola derechos humanos o favorece la discriminación, aunque reconoció que “cierta información respecto del funcionamiento técnico del sistema no fue develada”. Es evidente que los camaristas no tomaron en cuenta los numerosos estudios que advierten sobre los posibles sesgos en los Sistemas de Reconocimiento Facial, beneficiándolos con una presunción de inocencia de los mismos que -en cambio- desestiman en el mismo acto respecto de los ciudadanos de a pie. Hay que reconocer, de todos modos, que las investigaciones mencionadas no gozan de una difusión muy amplia fuera de determinados círculos interesados en la temática y que no serán las empresas proveedoras las que reconozcan sus limitaciones.
La fe en ChatGPT también hizo su aparición en la política local.
Los casos mencionados no son para nada excepcionales. Muchos sistemas de IA se adoptan sin tener en cuenta sus limitaciones y éstas pueden ocasionar resultados desde anecdóticos a catastróficos (Melanie Mitchell escribió un ilustrador artículo en The New York Times)
Reemplazades por robots
Otra área donde la IA traerá cambios en poco tiempo es en el mundo del trabajo. Un sistema de Inteligencia Artificial seguramente podrá realizar tareas rutinarias de manera efectiva y sin los costos que insume un trabajador o trabajadora humanxs. De hecho la proliferación de “asistentes virtuales” sirve de pantallazo para un fenómeno esperable: las empresas preferirán depositar tareas en manos de sistemas informáticos antes que en personas, si es que dichos sistemas cumplen con las necesidades de la compañía.
Muchos medios publicaron pronósticos alarmantes en ese sentido. Las previsiones del Foro Económico Mundial (WEF por sus siglas en inglés) estiman que la cuarta parte de los actuales puestos de trabajo podrían perderse, aunque también esperan que se generen nuevas oportunidades laborales. Aún con ese matiz optimista, el informe en cuestión prevé una ṕerdida neta de unos 14 millones de puestos (se perderían 83 millones pero se crearían otros 69 millones).
Hay labores que por sus características podrían ser realizadas exitosamente por IAs. Sin embargo, en un mundo dominado por la lógica del lucro, no sería de extrañar que se las emplee más allá de sus capacidades probadas. De hecho, el uso relativamente extendido de sistemas de reconocimiento visual o voto electrónico adelantan esa posibilidad.
No todas las actividades se verán afectadas de la misma manera, Zhou y otros publicaron en 2019 un artículo en la China Economic Journal, donde repasaron la literatura sobre el impacto de la IA en el mundo laboral, encontrando que la mayor parte de las investigaciones se centraron en los países centrales (o desarrollados). Los autores observaron también que el mayor impacto tiende a producirse sobre el trabajo de mujeres, personas mayores, con bajos ingresos o menor nivel educativo. El trabajo en cuestión busca estimar específicamente los efectos de la IA en el mercado de trabajo en China hacia el año 2049 en diferentes rubros y edades. Las conclusiones son similares a las de muchos de los estudios relevados: las mayores probabilidades de ser reemplazades laboralmente por IAs recaen en las mujeres, personas mayores, con educación primaria o menor, y con bajos ingresos.
A sabiendas de que sus respuestas no necesariamente cuentan con adecuada justificación empírica, preguntamos a ChatGPT y BARD (IA conversadora de Google) sobre cuáles son los puestos de trabajo donde el reemplazo de humanxs por IAs sería más plausible. Ambas coincidieron en incluir en esa nómina a los servicios de atención al cliente, carga de datos y la conducción de vehículos. Esto no significa necesariamente que Hugo Moyano deba tomar cartas inmediatamente en el asunto, pero sí implica que entre los abundantes textos en los que se basan estos bots para armar sus respuestas hay unos cuantos que apuntan al futuro de esas actividades.
Fabricantes de Mentiras
Internet se ha convertido -entre otras cosas- en un ámbito de difusión de noticias alteradas, dudosas o manifiestamente falsas, donde numerosos actores buscan abonar visiones interesadas de la realidad, sobre todo en cuestiones políticas o científicas.
La aparición de los Grandes Modelos de Lenguaje ofrece una enorme gama de nuevos recursos para ello, sin importar que las mentiras se difundan de manera deliberada o accidental.
Es sencillo pedirle a ChatGPT o BARD que escriban un relato sobre algún hecho ficticio. La redacción puede ser más o menos feliz, pero seguramente compiten con más de un autoproclamado periodista de varios grandes medios de comunicación.
Pero esta no es la única fuente de falsedad en estos bots parlanchines. Sus modelos fueron creados para redactar de manera consistente pero sin que ello signifique que lo que redacten sea verdadero. Como resultado, en muchas ocasiones escriben sentencias que parecen serias y fundamentadas pero en realidad son falsas. Esos desvaríos suelen denominarse “alucinaciones”.
En un artículo en USA Today, Michelle A. Williams -decana en la School of Public Health de Harvard- relató como una persona amiga había pedido a ChatGPT que escribiera un ensayo sosteniendo que las armas no eran peligrosas para niñxs. El bot lo hizo, justificando sus afirmaciones en papers de revistas académicas que sólo tenían un problema: eran inexistentes. Ante la repregunta de la profesional, el bot escribió convincentemente que sus citas eran genuinas. Williams consideró este caso como “escalofriante”, advirtiendo que esta tecnología conlleva riesgos “muy reales” que podrían tener graves consecuencias en áreas como la salud pública.
Las publicaciones inventadas no sólo sirven para justificar las afirmaciones de los bots. También pueden emplearse para que personas humanas sostengan posiciones en otros ámbitos, incluso en revistas académicas. Robin Bauwens, profesor asistente en la Universidad de Tilburg, denunció que un paper que presentó en una revista fue rechazada en base a citas de publicaciones inexistentes, cuya mención correspondía a alucinaciones de una versión anterior de ChatGPT,
En el artículo de Williams citado más arriba, la autora señala que “la impresionante capacidad de ChatGPT para producir contenido que suene a verdad podría permitir que las entidades malintencionadas difundan narrativas falsas de manera rápida y económica”.
Algunos referentes políticos de nuestro país evidencian y ejemplifican algunos de los peligros inmediatos de estas tecnologías. El 9 de febrero pasado, el diputado nacional Rodrigo de Loredo leyó en el recinto legislativo un texto generado por ChatGPT para sustentar su postura contra el pedido de juicio político impulsado por el oficialismo contra la Corte Suprema de Justicia. Para el abogado de Juntos por el Cambio, el texto en cuestión demostraría que “el futuro les tiene picado el boleto” a los populismos, según manifestó, dejando en claro que el legislador otorga relevancia a las afirmaciones del bot y espera que su audiencia también lo haga.
Esta misma semana el precandidato presidencial Horacio Rodríguez Larreta difundió un spot de campaña (El Cronista, La Nación) con las respuestas de ChatGPT al “prompt” (*) “Argentina absurda”. Como en el caso anterior, la utilización de ese texto como un mensaje valioso para convencer a votantes sugiere que se le otorga una validez que está muy lejos de tener. De hecho, muchísimos usuarios de redes sociales le escribieron prompts diferentes sobre Argentina, consiguiendo una heterogénea y seguramente contradictoria variedad de respuestas.
La manipulación de la realidad puede ser aún más convincente si viene acompañada de imágenes o videos ilustrativos. Y allí entran en juego las Deepfakes o “falsificaciones profundas”, videos, imágenes o audios que han sido alterados para representar de manera convincente a personas realizando algo que en realidad no hicieron. El avance de estas técnicas hace muy difícil advertir la manipulación, aún para observadores atentxs. Muchas veces resulta necesario efectuar estudios digitales para detectar las alteraciones (un artículo de Luisa Verdoliva realiza un repaso amplio sobre estos temas), algo que no está a mano para muchxs usuarios que terminan dando crédito a manipulaciones tendenciosas.
Estas tecnologías pueden tener efectos graves a partir de la generación de escenas ficticias en los que referentes políticos aparezcan en situaciones que los desacreditan, y han servido de base para una multitud de vídeos pornográficos donde los protagonistas exhiben rostros de personas famosas ajenas a las producciones para adultos. Sus consecuencias, sin embargo, no se restringen a la política o a las celebridades, debido a que existen herramientas muy extendidas que permiten a usuarios sin mucha formación en informática crear vídeos o audios manipulados. Una serie de artículos firmados por Samantha Cole en Vice fueron mostrando cómo la producción de Deepfakes se ha ido extendiendo y su uso ha posibilitado pornografía falsa con amigues y compañeres de clase (“We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now”, “People Are Using AI to Create Fake Porn of Their Friends and Classmates”, “AI-Assisted Fake Porn Is Here and We’re All Fucked”). Por su parte, las investigadoras Chandell Gosse y Jacquelyn Burkell observaron que las coberturas de los medios sobre estos temas enfatizan los posibles usos electorales, subestimando los efectos sobre las víctimas de una técnica que en su enorme mayoría se emplea para generar pornografía falsa sobre mujeres. La prensa en general, según las autoras, tampoco toman en cuenta los factores sociales y culturales que posibilitan ese uso específico de las Deepfakes.
No te cruces en el camino de los monopolios
Una consecuencia inmediata del crecimiento de las grandes IA es la consolidación del poder de unas pocas corporaciones.
La historia del trabajo de Bender y otras que referimos más arriba, ilustra algunos aspectos de esa concentración. Y las corporaciones en cuestión están dispuestas a deshacerse de cualquier obstáculo a su crecimiento.
En el año 2020 se conoció que Google había despedido a Timnit Gebru, una de las profesionales que se desempeñaba en su área de Ética e Inteligencia Artificial. Al parecer, el detonante fue un mail enviado por Gebru a otrxs empleados de la corporación (Véase New York Times, diciembre 2020, BBC) pero trascendió que la gigante de origen californiano había cuestionado el contenido de un paper crítico sobre los grandes modelos de lenguaje y le había reclamado a la profesional que retirara su firma del mismo (Wired), . El paper de marras era precisamente el que refiere a los loros estocásticos (stochastic parrots) al que alude la famosa carta comentada al comienzo de este artículo. La hostilidad de Google para con Gebru alcanzó ribetes de fuerte agresión, con la intervención de trolls acosándola en redes sociales (The Verge). Cuando el paper en cuestión aún no había sido publicado, un artículo en la Tecnhnology Review del MIT anticipó algunas de las afirmaciones que se incluirían en aquél, dando a conocer también el título del trabajo.
Las investigaciones de Gebru no sólo apuntaron contra los Grandes Modelos de Lenguaje; en diversas publicaciones puso de relieve que las IA frecuentemente profundizan las desigualdades étnicas y de género en beneficio de quienes ostentan mayor poder en el mundo (véase por ejemplo Race and Gender de Gebru, o Towards Gender Equity in Artificial Intelligence and Machine Learning Applications in Dermatology, de Lee y otros).
Pero Google y los demás gigantes no sólo despiden a quienes objetan sus políticas. Están dispuestos a reducir brutalmente su personal en pos de mantener sus ganancias, aunque -claro- detrás del discurso de la crisis económica (véase el artículo de Business Insider acerca de los despidos en Google, o el de El País sobre los de Microsoft).
Más poder al poder
Numerosos estudios revelan sesgos en el comportamiento de sistemas de Inteligencia Artificial. Esos sistemas no tratan a todas las personas de la misma manera. Un caso que ilustra de manera contundente este problema es el del clasificador de fotos de Google, que en 2015 etiquetó como “gorilas” a una pareja de personas de piel oscura.
Las consecuencias de tales sesgos es palpable: la policía detiene u hostiga a personas pobres y/o de minorías étnicas mucho más que a ricos y “blancos”. Pero también los beneficios que pueden acarrear muchos sistemas podrían favorecer sólo a quienes, en definitiva, se benefician de casi todo. Por ejemplo, sistemas para la detección y tratamiento de enfermedades de la piel pueden tener rendimientos muy dispares según las características fenotípicas de les eventuales pacientes (véase Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification). En concreto, si los directivos de las empresas, los programadores, y las imágenes usadas para entrenar tales sistemas corresponden a hombres blancos, no se puede conocer adecuadamente qué grado de efectividad tendrán en -por ejemplo- mujeres indígenas sudamericanas.
La incidencia de los datos usados para entrenar los sistemas de IA favorece que muchas de éstas expresen y reproduzcan estereotipos comunes, puntos de vista dominantes, y tendencias “mainstream”. La corta vida (por llamarla de algún modo) del bot Tay en Twitter le bastó para convertirse en un cibergritón, racista, antifeminista y pronazi, en parte porque fue lo que “aprendió” en la red social del pajarito.
Mientras las IA surjan, se desarrollen, se desplieguen bajo la tutela de grandes empresas tecnológicas, sus comportamientos tenderán a reproducir los valores que permiten que dichas empresas sean dominantes en el mundo actual.
Por otra parte, los grandes desarrollos en IA requieren de la disposición de equipamiento, personal, y otros recursos en escalas enormes. Los Grandes Modelos de Lenguaje (como GPT) no están al alcance de cualquiera. Desarrollar y entrenar uno de estos sistemas exige recursos que en general no están a la mano ni siquiera de países de ingresos medios, menos aún de colectivos populares de cualquier tipo. Un texto de Vili Lehdonvirta (Universidad de Oxford) lo ilustra claramente: la potencia computacional que se requiere para entrenar una IA como GPT-4 (el modelo detrás de ChatGPT) “es tal que una sola unidad de procesamiento de gráficos (GPU) del tipo que se encuentra en una computadora común de gama alta necesitaría alrededor de 288 años para terminar una ejecución de entrenamiento”.
Es el capitalismo
Este crecimiento de las grandes compañías tecnológicas no obedece al azar ni a la súbita aparición de genios malvados. Su consolidación expresa las tendencias al monopolio del capitalismo a escala mundial.
El economista canadiense Nick Srnicek -en su libro Platform Capitalism (Polity Press, 2017)- vincula la consolidación de un conjunto de monopolios (**) tecnológicos a partir de la crisis de sobreproducción de mediados de los ‘60 y la consiguiente presión hacia la reducción de costos de producción (que sostuvo la ola “flexibilizadora” de los años sucesivos). Esos cambios trajeron consigo el ataque a las organizaciones de trabajadores, la presión por crear un mercado laboral global, la adopción de nuevas formas de organización de la producción donde el software y las comunicaciones juegan un papel cada vez más importante. Luego de la crisis de 2008, se consolidó la tendencia a que grandes compañías incrementen el acaparamiento de dinero y formas “líquidas” (es decir, que pueden usar como dinero), con una alta proporción de los mismos en refugios fiscales. Esa tendencia fue dominada por empresas tecnológicas -Google, Apple, Amazon, Microsoft- que contaron con la facilidad para trasladar capitales (no tienen que mover grandes fábricas) y para evadir impuestos.
Srnicek intenta caracterizar los cambios en el capitalismo destacando que muchos autores enfatizan el nuevo tipo de materia prima a extraer: los datos. El economista señala allí algo que parece olvidado en muchos análisis: los datos necesitan ser almacenados y, para que se constituyan en conocimiento, requieren de procesamiento. Y ese procesamiento no es “inmaterial” sino que se realiza en equipos enormes y costoso a los que sólo muy pocos pueden acceder.
Precisamente, la capacidad material de Microsoft le permitió formatear a la empresa de investigación OpenAI (creadora de ChatGPT y Dall-E), proporcionándoles los servicios de computación que requería a través de Azure, convirtiéndose la empresa de Richmond en licenciataria excluyente de ChatGPT (The Verge, LunaSec).
Un puñado de grandes compañías (Alibaba -de origen chino-, Microsoft, Amazon, Google disponen del equipamiento requerido, los modelos e incluso los datos para entrenar IA. Son las propietarias de los “medios de producción” de las IA, debiendo otras empresas o entidades acudir a esas grandes firmas para poder desarrollar sus propias IA.
Aunque no ocupa los titulares de los diarios ni muchos seminarios en las Facultades de Economía, hay datos que indican que el proceso de concentración es central en esta etapa del capitalismo. Evidencias de esto pueden leerse, entre otros lugares, en un artículo de Bellamy Foster y otros en Monthly Review.
Además de la concentración, el desarrollo de las grandes compañías tecnológicas revela el poder cada vez mayor de entidades financieras que han tomado el lugar global de los bancos. En el libro citado más arriba, Srnicek observa cómo el capital financiero se dirigió en los ‘90 hacia inversiones en Internet. Hoy son unos cuantos fondos de inversión los que controlan buena parte de los negocios en el mundo, incluidos los de las grandes tecnológicas.
La propiedad de las acciones de Alphabet, empresa “madre” de Google, incluye a Vanguard Group (7,35%), BlackRock (4,38%) y Fidelity Management (4%).
Según resume Enrique Ortega Burgos, Jeff Bezos sigue siendo el accionista principal de Amazon con el 10,9% del total. Le sigue Vanguard con el 6,2%. Fidelity cuenta con el 3,04% de las acciones, en tanto BlackRock reune el 2,02%.
Microsoft hace mucho que no es “la empresa de Bill Gates”. De acuerdo con la información publicada por Market Screener, el 8,48% de las acciones pertenece a Vanguard, Fidelity Management tiene el 2,01%, mientras que el propio Gates tiene el 1,38%.
En Alibaba la participación es menor, pero existe: Vanguard Group tiene algo más del 2,6% de las acciones, mientras Fidelity reúne casi un 0,54%. En Tencent (cuya actividad se concentra en el mercado chino) el principal inversor es Prosus NV (Países Bajos), aunque también tienen participación Vanguard (2,37%) y JP Morgan (0,32%).
En las dos gigantes chinas mencionadas, es importante señalar que el gobierno del país asiático ha tomado recientemente cartas en el asunto. Según CNN (citando fuentes chinas), Beijing está reforzando su control sobre Alibaba y otros gigantes tecnológicos mediante la adquisición de “acciones de oro” (que les dan derechos especiales en la dirección de las firmas). El artículo informa que en enero pasado la Administración del Ciberespacio de China (entidad estatal) adquirió el 1% de una de las empresas subsidiarias de Alibaba. Por otra parte, el Financial Times señaló que el gobierno chino había iniciado acciones similares en relación con Tencent. Si bien las fuentes occidentales exponen el tema centrándose en la posibilidad de un mayor control sobre los contenidos a los que acceden los ciudadanos chinos, el alcance de la participación en esas compañías tiene un alcance indudablemente más amplio a escala global y en relación con la economía mundial.
Es evidente que los grandes desarrollos en IA están moldeando aspectos fundamentales del capitalismo actual y de los conflictos de la economía mundial. Por acción u omisión, será un factor relevante para la soberanía de todos los países y su inserción (como sea que ella se de) en el (des)concierto mundial.
¿A dónde vamos?
Hay algo positivo en las cartas de los CEOs y otros sujetos vinculados a los desarrollos en IA: han puesto el tema en la agenda mediática, aunque con la mirada puesta en cuestiones que hoy son secundarias (aunque con mayor impacto comercial).
Este artículo apunta a abrir un abanico, seguramente no exhaustivo, de temáticas que requieren un abordaje más inmediato y colectivo. No va a ser un bot el que nos indique el camino.
En una entrevista para el sitio web de noticias filipino Rappler le preguntaron a Timnit Gebru sobre cómo veía el futuro. La científica resumió la situación con una metáfora: estamos caminando hacia un acantilado, con gente joven que nos dirige hacia allí, mientras nos distraemos en un monstruo hipotético que tal vez podría matarnos, sin dejar de caminar hacia el abismo.
Quizás hay que dejar de soñar con balas de plata y ponernos manos a la obra para frenar los esperpentos más inmediatos. Pronto descubriremos, creo, que esa batalla no está separada de muchas otras que -como en estos casos- la prensa hegemónica tiende a desestimar.
(*) Un prompt es una indicación que se le da a una IA en base a la cual genera su respuesta
(**) Cuando se habla aquí de “monopolios” no se refiere al significado literal de un sólo vendedor de un producto sino de uno que es capaz de imponer las condiciones a los demás actores.
Excelente artículo que nos previene de riesgos y beneficios de la IA. Las personas debemos defender nuestra humanidad ante el avance de la codicia y el lucro.
Job mencionaba que “La tecnología debía ser una extensión de la mano de las personas” pero ni estoy de acuerdo con eso ni de que las personas nos convirtamos en “la extensión” de la tecnología. Saludos