El 19 de diciembre de 2025, el Instituto Cuesta Duarte del PIT-CNT publicó en su página web un informe sobre «inteligencia artificial» (de ahora en adelante, «IA») titulado «La inteligencia artificial y el mundo del trabajo: empoderamiento sindical ante los desafíos tecnológicos emergentes». El objetivo, según lo expresado en el informe, es «fortalecer la capacidad de análisis, propuesta e intervención de los trabajadores organizados, contribuyendo a que puedan ejercer un control efectivo sobre los procesos de automatización que impactan en su vida laboral y su futuro colectivo». «Se busca fomentar una apropiación crítica de la tecnología, promoviendo su uso en beneficio de los trabajadores.» En contextos de creciente incertidumbre política y económica a escala mundial, debido, en parte, a la irrupción caótica de la «IA» en incontables disciplinas laborales y espacios de ocio, la voluntad de construir herramientas para que la fuerza laboral afectada pueda defender sus intereses mientras recorre este terreno cada vez más agreste siempre es bien recibida.
Sin embargo, el potencial de contribuir a la capacidad de análisis depende de que la descripción del objeto a ser analizado esté libre de misticismo previo a la elaboración de una estrategia para hacerle frente; de lo contrario, correríamos el grave riesgo de agotar los reducidos recursos que tenemos en luchar contra espejismos que nos distraen del problema real. Al final del día, esto nos lleva a seguir arrastrando el error hasta que el nudo se vuelva imposible de desenmarañar, a seguir planificando sobre definiciones vagas e hiperbólicas, y a seguir regalándoles terreno a actores que se benefician económicamente de que nos mantengamos en la oscuridad conceptual.
La razón por la que escribo «IA» entre comillas es porque el término no se corresponde, en sentido práctico, con ninguna de las tecnologías que pretende describir. No existe «IA» concretamente, sino procesos de automatización que toman diversas formas dependiendo de los recursos disponibles y el objetivo a cumplir, y que son reducidos a «IA» para simplificar la comunicación y atraer la atención del público e inversionistas. Esta simplificación no siempre beneficia a los trabajadores, que se ven envueltos en una terminología nebulosa que pretende hacer referencia, en igual medida, a motores de recomendación –como los que utilizan plataformas e-commerce o servicios de streaming–, patrones de reconocimiento biométrico, sistemas de speech-to-text,que transcriben el discurso oral, y large language models (LLM). Esta última iteración es la que tiene a gobiernos e instituciones públicas alrededor del mundo en una suerte de síndrome de Estocolmo creciente, con autoridades estadounidenses y representantes de las grandes empresas de la industria de la tecnología inmiscuyéndose en cuestiones de políticas públicas de otros países bajo promesas de grandes inversiones, «adopción segura» y «desarrollo de talento».
El Cuesta Duarte utiliza «IA» indiscriminadamente a lo largo de su informe para describir sistemas de computer vision, robótica y softwares de generación de texto e imágenes, junto con estudios que estiman un crecimiento en la productividad y contribución económica a nivel mundial, pero que no consideran todos los tipos de automatización. Las organizaciones que formularon estos estudios y sus fechas de publicación también son preocupantes.
¿DE QUÉ HABLAMOS CUANDO HABLAMOS DE «IA»?
En síntesis, «IA» es un término de marketing utilizado con la intención de mitificar las funcionalidades de los productos que lo integran, equiparándolas a las capacidades de los seres humanos de percibir, conceptualizar, razonar y tomar decisiones de forma intencional y justificada. Desde la salida al mercado de la primera versión pública de ChatGPT hasta ahora, hemos sido testigos de un salto abrupto entre la sorpresa inocente y la adopción irrefrenable, cuasi religiosa, de un grupo de productos que no hacen más que generar texto mediante cálculos algorítmicos que predicen la siguiente palabra o grupos de palabras basados en probabilidad y estadística. Nuestra sorpresa y fascinación no responden al funcionamiento técnico de chatbots como ChatGPT o Claude, sino a la fantasía que sus vendedores diseñan mediante promociones disfrazadas de notas periodísticas o artículos académicos, obviando lo que ocurre en las capas inferiores del software.
La responsabilidad que tuvieron los creadores de estos chatbots en distorsionar nuestra percepción sobre lo que lanzaron al mercado es evidente, pero los actores que más han aportado a que una tecnología como esta sea equiparada al descubrimiento del fuego o la invención de la rueda son los medios de comunicación, cómplices en la proliferación de un lenguaje que humaniza procesos computacionales mediante declaraciones que dicen que estas tecnologías «perciben», «aprenden» o «infieren», y que equiparan nuestros procesos neuronales a los de una computadora (Tech Policy Press, 7-I-26). Deshumanizar al ser humano, persuadirlo de que sus capacidades cognitivas no son competencia frente a una máquina y que lo mejor que puede hacer, en los tiempos que corren, es entregarse a un supuesto «futuro» o ser olvidado en el camino es condición de posibilidad para la institucionalización forzosa de estas tecnologías.
Como proponen la lingüista Emily M. Bender y la socióloga Alex Hanna en su libro The AI Con, editado por Harper en 2025, fortalecer nuestra capacidad de análisis, propuesta e intervención requiere que corramos el velo de las terminologías simplistas y aprendamos a formular preguntas informadas e incisivas, que nos acerquen al núcleo del problema. ¿Qué queremos automatizar? ¿Por qué queremos automatizarlo? ¿Existe una conexión clara entre los datos de entrada y la información resultante? ¿Qué criterios se utilizaron para evaluar el supuesto aumento de productividad posterior a la implementación de la automatización? ¿Qué queremos decir cuando hablamos de productividad, crecimiento o aceleración? ¿Quiénes son los actores beneficiados por este proyectado aumento de productividad, crecimiento o aceleración de tareas? ¿Cuáles son los costos a pagar por utilizar este tipo de tecnologías? ¿Vale la pena incurrir en ellos? ¿Quiénes son los responsables detrás de los estudios que aseguran casos de éxito y prometen mayor crecimiento en los próximos años? ¿Existen conflictos de interés en estos representantes y organizaciones?
En este último par de preguntas me detengo para traer sobre la mesa una segunda cuestión: la bibliografía.
El informe del Cuesta Duarte cita un breve pasaje de un estudio publicado por la consultora internacional McKinsey & Company, que data de 2023: «La IA generativa tiene un potencial económico significativo, con estimaciones de que podría contribuir a la economía mundial entre 2,6 y 4,4 billones de dólares anuales». Desde la publicación del estudio de McKinsey hasta la del informe del Cuesta Duarte pasaron dos años y medio, y los que seguimos de cerca el desarrollo irresponsable de esta tecnología sabemos que esas estimaciones fueron más bien producto de un brote psicótico corporativo que de un proceso de estudios serios y multidisciplinarios. En sus aplicaciones prácticas, el panorama evolucionó en sentido contrario.
Uno de los estudios que marcaron la línea de esta nueva percepción fue publicado por el Instituto Tecnológico de Massachusetts (MIT, por su sigla en inglés) en junio de 2025, y entre sus principales hallazgos se encuentra el siguiente: «A pesar de haber sido invertidos 30-40 mil millones de dólares en inteligencia artificial generativa, este reporte da cuenta de un resultado sorprendente: el 95 por ciento de las organizaciones no está obteniendo retornos». El 5 por ciento está logrando «extraer millones de dólares de valor», lo cual no coincide en magnitud con los billones estimados por McKinsey en 2023. Por si fuera poco, citar un estudio de esa consultora cuando tiene alianzas de negocios con empresas de tecnología como Amazon, Google, Microsoft y Nvidia, y, además, cuenta con su propio chatbot de «IA» generativa levanta las alarmas sobre sus posibles conflictos de interés –no sería la primera vez, como lo indica su vínculo con el escándalo de la farmacéutica Valeant (New York Times, 19-II-19)–. Sería sensato no obviar la pregunta sobre qué tanto se benefician estas organizaciones de que el campo de la «IA» generativa siga recibiendo inversiones, a pesar de incinerarlas sistemáticamente sin presentar ningún retorno económico tangible.
Daron Acemoglu, profesor de economía en el MIT y premio nobel de ciencias económicas en 2024, también se mostró escéptico frente a las promesas extravagantes de algunos actores de la industria. El economista fue entrevistado en el contexto de un trabajo de investigación publicado en junio de 2024 por el banco de inversiones Goldman Sachs, en el que estimó un crecimiento anual de 0,05 por cientode productividad mediante el uso de «IA» generativa y desafió la lógica que permea Silicon Valley: que aumentar la cantidad de datos utilizados para optimizar a un LLM necesariamente implica una mejora en la calidad de los resultados devueltos por el chatbot que lo implementa. Esta noción de mientras más, mejor es representativa de la lógica corporativa descerebrada que ordena subirse al hype train de turnopara que el valor de las acciones en Wall Street siga creciendo, sin importar si los productos ofrecidos al público son más caros y peores que antes, no tienen ninguna funcionalidad tangible o nadie los pidió. Es la lógica del «lo hago porque puedo», exacerbada desde la vuelta de Donald Trump a la presidencia de Estados Unidos.
Desde el lanzamiento de ChatGPT, esta fue la retórica impulsada en clave move fast, break things zuckerbergiana por varios empresarios de tecnología radicados en el valle de Santa Clara. Directores ejecutivos como Sam Altman (de OpenAI) o Jensen Huang (de Nvidia) se ven en la necesidad de publicar declaraciones extraordinarias y desconectadas de la realidad –como que en el futuro vamos a poder «descubrir toda la física» o que «programar una IA es como programar a una persona»–, lo que deja en claro la apatía intelectual con la que se enfrentan a cualquier disciplina que vean como potencialmente precarizable: desde las ciencias, la medicina y las artes hasta nuestra propia naturaleza humana. Satya Nadella (de Microsoft) compartió su proyección sobre el desarrollo de la «IA» generativa para 2026, desbordante de palabras que aparentan perspicacia, pero que parecen ser más bien el fruto de una mente agotada de que su sistema operativo funcione cada vez peor, de tener que recortar las metas de venta de sus productos de «IA» porque nadie los compra (Ars Techina, 3-XII-26) y de haber sido expuesto, una y otra vez, como cómplice directo en agilizar el genocidio perpetrado en Palestina por el Estado de Israel (The Guardian, 23-I-25 y 6-VIII-25).
Y si de asistencia en la industria armamentística hablamos, no podemos dejar a Anthropic fuera de la discusión: la empresa conocida por su chatbot Claude tomó protagonismo en las primeras semanas de marzo, luego de que su director ejecutivo, Dario Amodei, le negase el «uso irrestricto» de Claude al Departamento de Defensa estadounidense. La posterior designación de Anthropic como un «riesgo en la cadena de suministros» por no cumplir con las demandas de Pete Hegseth, sumado al oportunismo de OpenAI en ofrecerse como su reemplazo para agilizar bombardeos en países soberanos, la posicionó como la «alternativa ética» del mundo de la «IA», lo que suena a un nuevo episodio de amnesia selectiva, ya que la misma Anthropic fue la que se asoció con Palantir para bombardear Caracas y secuestrar a Nicolás Maduro (The Wall Street Journal, 15-II-26), y la que jugó un papel protagónico en los primeros bombardeos a Irán (The Guardian, 3-III-26) –caracterizados, entre otras cosas, por el asesinato de más de 100 niñas en una escuela de Minab.
Entonces, ¿desde qué punto de vista Anthropic es una «alternativa ética»? Que le niegue al Departamento de Defensa el uso de sus tecnologías sin supervisión humana no necesariamente significa que se preocupe porque sean usadas éticamente; a sus directivos les preocupa que mueran soldados estadounidenses en un escenario en el que estas herramientas fallen y ellos sean hallados responsables. No les importa si mueren los que están fuera de su in-group, sean iraníes, palestinos, venezolanos o cubanos.
Lo que le están exigiendo al mundo los promotores de la multifacética «IA» es que se adapte a sus exigencias o muera, y eso implica desde la infiltración de nuestra malla social, educativa y laboral para deteriorarla desde dentro –bajo la premisa de «optimizar procesos» y con el tímido consentimiento de nuestros parlamentarios– hasta bombardeos contra personas bajo la premisa de «combatir el narcotráfico», extremo que, sea por suerte o por mera falta de excusas, aún no nos ha tocado.
EN PRESENTE
La segunda página del informe del Cuesta Duarte dice que «la IA tiene la capacidad de automatizar tareas que antes realizaban los humanos». Pero las tareas que los responsables de estas tecnologías –hombres de negocios que entienden poco y nada de educación, medicina, economía, abogacía, música, cine, artes plásticas, ingeniería, derechos humanos y más– quieren infiltrar y precarizar son desempeñadas por los humanos hoy, en tiempo presente. Esas personas están siendo visiblemente afectadas por una maquinaria de publicidad y displicencia mediática que impulsa estos discursos derrotistas y considera el avance tecnológico como una ley de la indómita naturaleza. Pero, igual que la «IA» generativa, la industria de la tecnología tampoco es determinista. Son las personas que forman parte de la industria las que tienen el poder de decidir qué construirán y para quiénes construirán mediante sus esfuerzos. Haríamos bien en recordar este detalle todos los días.
Quienes hayan leído el informe del Cuesta Duarte se habrán dado cuenta de que mis comentarios críticos sobre su contenido son puntuales. Construir herramientas para que los trabajadores se informen sobre sesgos algorítmicos, desplazamiento y precarización laboral y sobre la huella ambiental que conlleva la implementación (injustificada en la amplia mayoría de los casos) de «IA» generativa es algo que necesitábamos hace tiempo. A esto le sumo el seminario de «IA» que tuvo lugar el pasado 15 de abril en la sede del PIT-CNT, en el que distintos expositores ahondaron en todos los puntos que mencioné hasta ahora y que puede complementar con creces el contenido del informe.
El objetivo de mi intervención está en poner el foco en las acciones escondidas detrás de los eufemismos fantásticos de los protagonistas de esta disrupción tecnológica y en el peligro que conlleva atar nuestras instituciones públicas a una relación de dependencia con estas empresas. Exijamos mayor precisión en las definiciones, lo que nos permitirá ser más críticos con las fuentes de los datos en los que nos queremos basar para diseñar e implementar políticas fuertes. Seamos más proactivos en la búsqueda de información y antecedentes que amplíen nuestros horizontes teóricos y prácticos. Y, sobre todo, resistamos ante actores que se presentan como faros morales de la tecnología buscando obtener una tajada y aprovechándose de las necesidades económicas de nuestra clase trabajadora. Estamos acostumbrados a pensar que a Uruguay todo llega tarde, y eso puede que fuese cierto en la época previa a la masificación de internet y la hiperconectividad; hoy ya no podemos escudarnos en esa justificación. No esperemos a que un medio de comunicación tradicional se interese por algo que pasó del otro lado del mundo hace seis meses para comentar al respecto. Animémonos a ser protagonistas de lo que nos interpela.










