El apoyo transnacional a las organizaciones obreras y sindicales debería estar en el centro de la pelea por la “IA ética”.
Este artículo fue producido por Adrienne Williams, Milagros Miceli y Timnit Gebru[1] del Instituto DAIR y originalmente publicado en Noema Magazine, el 13 de octubre de 2022. Podés ver el ensayo original en este link.
La versión en español fue traducida por Mailén García y revisada por Ivana Feldfeber*, co-fundadoras de DataGénero**.
La comprensión que se tiene de la inteligencia artificial (IA) está, en gran medida, determinada por la cultura pop, por películas taquilleras como “Terminator” y sus escenarios catastrofistas de máquinas que se vuelven locas y destruyen la humanidad. Este tipo de narrativa sobre la IA es también lo que atrae la atención de los medios de comunicación: una de las noticias relacionadas con la IA más comentadas en los últimos meses fue la de un ingeniero de Google afirmando que su chatbot era sensible, llegando incluso a ser visto por los millones de espectadores del programa de Stephen Colbert. Pero la idea de máquinas superinteligentes con agencia propia y poder de decisión no solo está lejos de la realidad, sino que nos distrae de los riesgos reales para las vidas humanas que rodean el desarrollo y despliegue de los sistemas de IA. Mientras las audiencias se distraen con el espectro inexistente de máquinas sintientes, un ejército de trabajadoras y trabajadores precarizados está detrás de los supuestos logros de los sistemas de inteligencia artificial actuales.
Muchos de estos sistemas son desarrollados por corporaciones multinacionales ubicadas en Silicon Valley, que han ido consolidando su poder a una escala que, como señala el periodista Gideon Lewis-Kraus, probablemente no tenga precedentes en la historia de la humanidad. En Silicon Valley se están esforzando por crear sistemas autónomos que algún día tengan la capacidad de realizar todas las tareas que pueden hacer las personas y más, sin los salarios, prestaciones sociales u otros “costos” asociados al empleo formal. Aunque esta utopía de los ejecutivos corporativos está lejos de ser realidad, la carrera para intentar hacerla realidad ha creado una subclase mundial, que realiza lo que la antropóloga Mary L. Gray y el científico social computacional Siddharth Suri llaman trabajo fantasma[2]: el trabajo humano invisibilizado que impulsa la “IA”.
Las empresas tecnológicas que se han autoproclamado “Primero IA”[3] dependen de la subcontratación y vigilancia constante de trabajadoras y trabajadores, como etiquetadoras/es de datos, repartidoras/es y moderadoras/es de contenidos. Las startups incluso contratan a personas para que se hagan pasar por sistemas de IA, como los chatbots, debido a la presión de los inversionistas para que incorporen “inteligencia artificial” a sus productos. De hecho, el fondo de inversión MMC Ventures, con sede en Londres, encuestó a 2.830 startups[4] de la UE y descubrió que el 40% de ellas no utilizaba IA de forma significativa.
Lejos de las máquinas sofisticadas y sensibles que presentan los medios de comunicación y la cultura pop, los sistemas de “inteligencia artificial”[5] se nutren de millones de trabajadoras y trabajadores de todo el mundo, que realizan tareas repetitivas en condiciones laborales precarias y mal remuneradas. Y, a diferencia de los “investigadores de IA” que cobran salarios de seis cifras en las empresas de Silicon Valley, estas personas que trabajan explotadas a menudo son reclutadas de poblaciones empobrecidas y cobran tan sólo 1,46 dólares la hora después de quitarle los impuestos. Sin embargo la explotación laboral no ocupa un lugar central en el discurso sobre la ética en el desarrollo e implementación de los sistemas de IA. En este artículo, damos ejemplos de la explotación laboral que impulsan los sistemas de “inteligencia artificial” y argumentamos que apoyar los esfuerzos de organización y sindicalización transnacional de las, los y les trabajadores debería ser una prioridad en los debates relativos a la ética de la IA.
Escribimos este artículo como personas íntimamente relacionadas con el trabajo alrededor de la inteligencia artificial. Adrienne es una ex repartidora de Amazon y empleada de los depósitos que ha experimentado los daños de la vigilancia y los objetivos de trabajo poco realistas establecidos por sistemas automatizados. Milagros es una investigadora que ha trabajado estrechamente con las personas que trabajan con los datos, especialmente anotadores de datos en Siria, Bulgaria, Alemania y Argentina. Y Timnit es una investigadora que se ha enfrentado a represalias por revelar y difundir los daños de los sistemas de IA.
Gran parte de lo que actualmente se describe como IA son sistemas basados en aprendizaje automático estadístico y, más concretamente, en aprendizaje profundo (deep learning) a través de redes neuronales artificiales, una metodología que requiere enormes cantidades de datos para “aprender” de ellos. Pero hace unos 15 años, antes de la proliferación del gig work[6] o trabajo precarizado de plataformas (como hemos optado por traducirlo en este artículo), los sistemas de aprendizaje profundo se consideraban una mera curiosidad académica, reducida a un pequeño grupo interesado de investigadoras e investigadores.
Sin embargo, en 2009, Jia Deng y su equipo publicaron el conjunto de datos ImageNet, el mayor conjunto de datos de imágenes etiquetadas de la época, formado por imágenes extraídas de Internet y etiquetadas a través de la recién introducida plataforma Mechanical Turk de Amazon. Amazon Mechanical Turk, cuyo lema es “inteligencia artificial artificial”, popularizó el fenómeno del crowd work[7] que implica grandes volúmenes de trabajo que demandan mucho tiempo, divididos en tareas más pequeñas que pueden ser completadas rápidamente por millones de personas de todo el mundo. Con la aparición de Mechanical Turk, las tareas difíciles de abordar se volvieron de repente posibles; por ejemplo etiquetar a mano un millón de imágenes puede ser ejecutado automáticamente por mil personas anónimas trabajando en paralelo, cada una etiquetando sólo mil imágenes. Y lo que es más, a un precio asequible incluso para una universidad: a las, les y los crowdworkers se les paga por tarea completada, lo que significa ganar unos pocos centavos por cada encargo realizado.
“Los sistemas de la llamada “inteligencia artificial” son sostenidos por millones de trabajadoras y trabajadores mal pagos de todo el mundo, que realizan tareas repetitivas en condiciones laborales precarias”.
El dataset de ImageNet fue seguido por el ImageNet Large Scale Visual Recognition Challenge, donde investigadoras e investigadores utilizaron el dataset para entrenar y probar modelos que realizaran una variedad de tareas, entre ellas el reconocimiento de imágenes. Por ejemplo, asociar una imagen con el tipo de objeto en la imagen, como puede ser un árbol o un gato. Mientras que los modelos no basados en aprendizaje profundo realizaban estas tareas con la mayor precisión en aquel momento, en 2012 una arquitectura basada en el aprendizaje profundo, apodada informalmente como AlexNet, superó a todos los demás modelos por un amplio margen. Esto catapultó a los modelos de aprendizaje profundo y los puso en el centro de la escena. Actualmente en las corporaciones multinacionales proliferan los modelos que requieren muchos datos, etiquetados por las, los y les trabajadores precarizados de plataformas digitales de todo el mundo. Además de etiquetar datos extraídos de Internet, en algunos de esto trabajos se les pide a las, les y los empleados[8] que generen datos:que suban selfies, fotos de sus amistades y familiares o imágenes de los objetos que las, les y los rodean.
A diferencia de 2009, cuando la principal plataforma de crowdwork era Mechanical Turk de Amazon, actualmente estamos en un momento de expansión, donde hay innumerables empresas de etiquetado de datos. Estas empresas están recaudando de decenas a cientos de millones en fondos de inversión, mientras que se calcula que las personas que trabajan como etiquetadoras de datos ganan una media de 1,77 dólares por tarea. Las interfaces de etiquetado de datos han evolucionado para tratar a las, les y los crowdworkers como máquinas, a menudo prescribiéndoles tareas muy repetitivas, vigilando mediante herramientas automatizadas sus movimientos y penalizando sus equivocaciones. Hoy en día, lejos de ser un reto académico, las grandes corporaciones que afirman ser “Primero IA” se nutren de este ejército de trabajadoras y trabajadores precarizados de plataformas compuesto por: data-entry, moderadoras y moderadores de contenidos, trabajadoras y trabajadores de depósitos y personas que hacen trabajo de reparto a través de plataformas, entre otras funciones.
Para ilustrar esto podemos ver lo que sucede con las, los y les moderadores de contenidos, que son responsables de encontrar y “marcar” contenidos considerados inapropiados para una plataforma determinada. No solo su trabajo es esencial, sin el cual las plataformas de redes sociales serían completamente inutilizables, sino que su labor marcando diferentes tipos de contenido también se utiliza para entrenar a sistemas automatizados cuyo objetivo es identificar textos e imágenes que contengan incitación al odio, noticias falsas, violencia u otros tipos de contenido que infrinjan las políticas de las plataformas. A pesar del rol crucial que desempeñan tanto para mantener la seguridad de las comunidades en línea como para entrenar a los sistemas de inteligencia artificial, a menudo se les pagan salarios miserables. Esta situación ocurre a pesar de que sus empleadores son gigantes tecnológicos. Como si fuera poco, este conjunto de trabajadoras y trabajadores está obligado a realizar tareas que pueden resultar traumáticas mientras se les vigila de cerca.
Todos los vídeos de asesinatos, suicidios, agresiones sexuales o abusos a niños, niñas y adolescentes que no llegan a las plataformas han sido vistos y marcados por las, los y les moderadores de contenidos o por un sistema automatizado entrenado a partir de datos suministrados muy probablemente por una de estas personas. Las, les y los empleados que realizan estas tareas pueden llegar a sufrir ansiedad, depresión y trastorno de estrés postraumático debido a la exposición constante a estos contenidos perturbadores.
Además de experimentar un entorno de trabajo traumático y con nula o insuficiente atención en términos de salud mental, estas personas se encuentran vigiladas y reciben castigos si se desvían de sus tareas repetitivas prescritas. Ese es el caso de quienes moderan contenidos en la empresa Sama contratados por Meta en Kenia, quienes son controladas, controlades y controlados mediante programas informáticos de vigilancia para garantizar que tomen decisiones sobre la violencia en los vídeos en un plazo de 50 segundos, independientemente de la duración del vídeo o de lo perturbador que sea. Algunas de estas personas temen que, de no hacerlo, puedan ser despedidas tras unas pocas equivocaciones o demoras. “Al priorizar la rapidez y la eficacia por encima de todo”, informó Time Magazine, “esta política podría explicar por qué los vídeos que contienen incitación al odio y a la violencia han permanecido en la plataforma de Facebook en Etiopía”.
Al igual que las plataformas de redes sociales, que no funcionarían sin moderadoras y moderadores de contenidos, los conglomerados de comercio electrónico (e-commerce) como Amazon están gestionados por ejércitos de empleadas, empleades y empleados de depósito y reparto, entre otros. En línea con lo que ocurre con quienes trabajan en la moderación de contenidos, este conjunto de trabajadoras y trabajadores mantienen las plataformas en funcionamiento y proporcionan datos a los sistemas de IA que Amazon podría utilizar algún día para reemplazar a estas personas por tecnología: robots que almacenan paquetes en los depósitos y vehículos autónomos que los entregan a sus clientes. Mientras tanto, estas personas deben realizar tareas repetitivas bajo la presión de una vigilancia constante, tareas que, en ocasiones, ponen en riesgo sus vidas y a menudo provocan graves lesiones.
“Las interfaces de etiquetado de datos han evolucionado para tratar a las, les y los crowdworkers como máquinas, a menudo prescribiéndoles tareas muy repetitivas, vigilando sus movimientos y castigando las distracciones mediante herramientas automatizadas”.
Las, les y los empleados de los depósitos de Amazon son monitoreades a través de cámaras y de escaners (lectores) de inventario, dado que su rendimiento se mide en función de los tiempos que los directivos determinan que debe llevar cada tarea, basándose en datos agregados de todos los que trabajan en las mismas instalaciones. Controlan el tiempo que pasan fuera de las tareas asignadas y en caso de que se excedan según el criterio de la empresa, son sancionados y disciplinados.
Al igual que quienes trabajan en los depósitos, quienes hacen trabajo de reparto de Amazon reciben controles mediante sistemas de vigilancia automatizados, a través de una aplicación llamada Mentor que calcula la puntuación de sus trabajadoras/es basadas en “infracciones” detectadas. Las expectativas poco realistas de Amazon en cuanto a los plazos de entrega incitan a muchas, muches y muchos a tomar medidas arriesgadas para asegurar la entrega del total de paquetes que se les han asignado para el día. Por ejemplo, el tiempo que tarda alguien en abrocharse y desabrocharse el cinturón de seguridad unas 90-300 veces al día es suficiente para que se retrase en su ruta. Adrienne y varios de sus compañeras/os se abrochaban el cinturón de seguridad por detrás de su espalda, de modo que los sistemas de vigilancia registraban que conducían con el cinturón puesto, sin que por ello se vieran ralentizados por conducir realmente con el cinturón puesto.
En 2020, las, les y los conductores de Amazon en Estados Unidos sufrieron lesiones en un porcentaje superior (casi un 50%) al de les trabajadores de United Parcel Service (UPS)[9]. Y, en 2021, se lesionaron a una tasa de 18,3 por cada 100 conductores/as, casi un 40% más que el año anterior. Estas condiciones no solo son peligrosas para quienes trabajan: peatones y pasajeras/os de automóviles han resultado heridas o han muerto por causa de accidentes que involucran conductores/as de Amazon. Recientemente, un grupo de repartidoras y repartidores en Japón renunció y protestó porque el software de Amazon los enviaba a realizar “rutas imposibles”, lo que llevó a “demandas irrazonables y largas horas de trabajo”. Sin embargo, a pesar de estos claros riesgos, Amazon sigue tratando a sus empleadas, empleados y empleades como máquinas.
Además de rastrear a sus trabajadoras y trabajadores mediante escáneres y cámaras, el año pasado la empresa exigió a quienes se desempeñan como repartidoras y repartidores en Estados Unidos que firmaran un formulario de “consentimiento biométrico“, por el que se autorizaba a Amazon a utilizar cámaras con IA para controlar sus movimientos, supuestamente para reducir las distracciones al volante o el exceso de velocidad y garantizar el uso del cinturón de seguridad. Es razonable que las, les y los trabajadores teman que el reconocimiento facial y otros datos biométricos puedan utilizarse para perfeccionar las herramientas de vigilancia o para seguir entrenando a inteligencia artificiales que algún día podrían reemplazarles. La redacción ambigua de estos formularios de consentimiento deja abierta a la interpretación su finalidad exacta, y quienes deben firmarlos ya han sospechado de usos no deseados de sus datos (aunque Amazon lo negó).
La industria de la “IA” funciona a costa de las, les y los trabajadores mal remunerados, a quienes se mantiene en puestos precarios. La falta de sindicalización y la precariedad de las condiciones de contratación dificulta que se organicen para oponerse a prácticas poco éticas o exijan mejores condiciones laborales, por miedo al despido de un trabajo que no pueden permitirse perder. Las empresas se aseguran de contratar a personas de comunidades vulneradas y desatendidas, como refugiadas y refugiados, personas que han estado privadas de la libertad y otros grupos con pocas oportunidades laborales. A menudo las contratan a través de terceros como contratistas prestadores/as de servicios temporales y no en relación de dependencia. Aunque es deseable que más empleadores contraten a personas de grupos vulnerables como estos, es inaceptable que las empresas lo hagan de forma predatoria o abusiva, sin ningún tipo de protección hacia ellas.
“Las, les y los investigadores en IA ética deben analizar los sistemas perjudiciales de la IA tanto como causas y consecuencias de las condiciones laborales injustas en la industria”.
Los trabajos de etiquetado de datos suelen realizarse lejos de las sedes de Silicon Valley y lejos de las multinacionales que aplican la lógica de “Primero IA”: desde Venezuela, donde se etiquetan datos para los sistemas de reconocimiento de imágenes en vehículos autónomos, hasta Bulgaria donde refugiadas y refugiados provenientes de Siria alimentan los sistemas de reconocimiento facial con selfies etiquetadas según categorías de raza, sexo y edad. Estas tareas suelen subcontratar a trabajadoras precarizades de países como India, Kenia, Filipinas o México. Estas personas a menudo no hablan inglés, pero reciben instrucciones en inglés, y se enfrentan al despido o a la expulsión de las plataformas de crowdwork si no entienden bien las normas.
Estas corporaciones saben que un mayor poder de las, les y los trabajadores frenaría su carrera hacia la proliferación de sistemas de “IA” que requieren enormes cantidades de datos y son implementados sin estudiar ni mitigar adecuadamente sus daños. Hablar de máquinas sensibles sólo nos distrae de exigirles responsabilidades por las prácticas de explotación laboral que impulsan la industria de la “IA”.
Mientras que las, les y los investigadores de la IA ética, la IA para el bien social o la IA centrada en las personas se han focalizado sobre todo en los desarrollos para eliminar los sesgos en los datos[10], en fomentar la transparencia y la justicia de los modelos[11], aquí sostenemos que poner fin a la explotación laboral en la industria de la IA debería ser el foco de tales iniciativas. Por ejemplo, si no se permitiera a las empresas explotar mano de obra de Kenia a Estados Unidos, no podrían proliferar tecnologías perjudiciales con tanta rapidez: sus estimaciones de mercado simplemente les disuadirían de hacerlo.
Por lo tanto, abogamos por la financiación de investigaciones e iniciativas públicas que tengan como objetivo revelar los problemas en la intersección de los sistemas laborales y de IA. Las, les y los investigadores en ética de la IA deberían analizar los sistemas de IA perjudiciales como causas y consecuencias de las condiciones laborales injustas en la industria. Asimismo, sería deseable que reflexionen sobre el uso que hacen de las, les y los crowdworkers para avanzar en sus propias carreras, mientras estas personas siguen trabajando en condiciones precarias. En su lugar, la comunidad ética de la IA debería trabajar en iniciativas que trasladen el poder a manos de las, los y les trabajadores. Algunos ejemplos de esto incluyen la co-creación de agendas de investigación con quienes trabajan basadas en sus necesidades, apoyar la organización sindical (con el desafío de hacerlo en distintos países) y garantizar que los resultados de las investigaciones sean de fácil acceso en lugar de limitarse a publicar en espacios académicos. Un gran ejemplo de ello es la plataforma Turkopticon creada por Lilly Irani y M. Six Silberman, “un sistema activista que permite a las, les y los trabajadores dar a conocer y evaluar sus relaciones con sus empleadores”.
Periodistas, artistas, científicas, científiques y científicos pueden ayudar visibilizando la conexión entre la explotación laboral y los productos nocivos de la IA en nuestra vida cotidiana, fomentando la solidaridad y el apoyo a las, les y los trabajadores precarizados de plataformas y a otras poblaciones vulneradas. Las, les y los periodistas y comentaristas pueden mostrar al público en general por qué deberían preocuparse por quienes anotan datos en Siria o conducen hiper supervisados los repartos de Amazon en EE.UU. La vergüenza funciona en determinadas circunstancias y, para las empresas, el sentimiento público de “debería darte vergüenza” puede a veces equivaler a una pérdida de ingresos y ayudar a mover la aguja hacia la rendición de cuentas.
Apoyar la organización transnacional de las, les y los trabajadores debe estar en el centro de la lucha por la “IA ética”. Aunque cada lugar de trabajo y contexto geográfico tiene su propia idiosincrasia, saber cómo en otros lugares se sortearon problemas similares puede servir de inspiración para los esfuerzos locales de organización y sindicalización. Por ejemplo, las, les y los etiquetadores de datos de Argentina podrían aprender de los recientes esfuerzos sindicales de quienes trabajan en moderación de contenidos en Kenia, o de las, les y los trabajadores de Amazon Mechanical Turk que se organizan en Estados Unidos, y viceversa. Además, las personas sindicalizadas en una ubicación geográfica pueden abogar por otras en situaciones de mayor precarización, como es el caso del Sindicato de Trabajadores de Alphabet, que incluye tanto a las, les y los empleados con buena remuneración en Silicon Valley, así como a personas subcontratadas con salarios bajos en zonas más rurales.
“Este tipo de solidaridad entre empleadas y empleados de tecnología con buenos salarios y sus pares con peores pagas -que les superan ampliamente en número- es la pesadilla de un CEO tecnológico”.
Este tipo de solidaridad entre trabajadoras y trabajadores de la tecnología con buenos salarios muy bien pagos y sus pares homólogos peor pagos -que les superan ampliamente en número- es la pesadilla de cualquier CEO tecnológico. Mientras que las empresas suelen considerar desechables a sus trabajadoras y trabajadores con bajos ingresos, son más reacias a perder a empleados y empleadas con altos ingresos[12], que pueden conseguir rápidamente trabajos en la competencia. Así, quienes tienen mejores salarios poseen más libertad para organizarse, sindicalizarse y expresar su decepción con la cultura y las políticas de la empresa. Pueden utilizar esta situación de mayor seguridad laboral (y corporativa) para defender a sus pares en peores condiciones que trabajan en depósitos, entregando paquetes o etiquetando datos. Como resultado, las empresas parecen utilizar todas las herramientas a su alcance para aislar a estos grupos entre sí.
Emily Cunningham y Maren Costa desarrollaron este tipo de solidaridad entre pares que asusta a los directores ejecutivos de las empresas tecnológicas. Ambas trabajaron como diseñadoras de experiencia de usuario/a/e en la sede de Amazon en Seattle durante 21 años. Junto con otras, otres y otros empleados corporativos de Amazon, cofundaron Empleados de Amazon por la Justicia Climática -Amazon Employees for Climate Justice- (AECJ). En 2019, más de 8700 trabajadoras/es de Amazon firmaron públicamente sus nombres en una carta abierta dirigida a Jeff Bezos y al consejo de administración de la empresa exigiendo liderazgo climático y medidas concretas que la empresa necesitaba implementar para alinearse con la ciencia climática y proteger a les trabajadores. Ese mismo año, AECJ organizó la primera huelga de la historia de Amazon. Según sus reportes más de 3.000 trabajadoras y trabajadores de Amazon se manifestaron en todo el mundo en solidaridad con la Huelga Mundial por el Clima liderada por jóvenes.
Amazon respondió anunciando su Compromiso Climático (The Climate Pledge), un compromiso para alcanzar el carbono neto cero en 2040, 10 años antes del Acuerdo Climático de París. Cunningham y Costa afirman que fueron sancionadas y amenazadas con el despido después de la huelga climática, pero no fueron despedidas hasta que AECJ organizó acciones para fomentar la solidaridad con quienes tenían menores salarios. Horas después de que otro miembro de AECJ enviara un calendario invitando a escuchar a un grupo de trabajadoras y trabajadores de depósito a hablar de las terribles condiciones de trabajo a las que se enfrentaban al principio de la pandemia, Amazon despidió a Costa y Cunningham. La Junta Nacional de Relaciones Laborales determinó que sus despidos eran ilegales, y la empresa llegó más tarde a un acuerdo monetario con ambas mujeres por cantidades no reveladas. Este caso ilustra dónde residen los temores de los ejecutivos: la inquebrantable solidaridad de quienes tienen altos ingresos que ven a quienes reciben bajos salarios como sus camaradas.
En este sentido, instamos a investigadoras, investigadores y periodistas a que se centren también en el rol que tienen las, los y les trabajadores precarizades en el funcionamiento de la “IA” y dejen de engañar al público con narrativas de máquinas totalmente autónomas con capacidad de acción similar a la humana. Estas máquinas son construidas por ejércitos de empleadas, empleados y empleades precarizados con mala remuneración en todo el mundo. Con una comprensión clara de la explotación laboral que hay detrás de la actual proliferación de sistemas de IA, las personas pueden luchar por mejores condiciones laborales y consecuencias reales para las empresas y corporaciones que las incumplan.
** Aclaraciones sobre el uso del lenguaje y su género: en esta traducción se prioriza la utilización de formas neutras para evitar el género binario del español siempre que sea posible. Sin embargo, y a los fines de no quitar fuerza a los sujetos de la acción, cuando es preciso se indican las formas femeninas (a), masculinas (o) y neutras (e). A su vez, cuando corresponde porque la acción o el contexto es mayoritariamente femenino o masculino se refiere únicamente a ese género. De este modo, se encuentran referencias a “los CEOs” y a “las etiquetadoras”, como forma de evidenciar la masculinización de la riqueza y de la altas jerarquías en las estructuras laborales y por la contraria, la feminización de la pobreza y de los trabajos de baja calificación.
[1] Adrienne Williams y Milagros Miceli son investigadoras del Instituto de Investigación Distributed AI Research (DAIR) Institute. Timnit Gebru es la fundadora y directora ejecutiva del Instituto. Anteriormente fue codirectora del equipo de investigación de IA Ética en Google.
[2] El libro en el que desarrollan el concepto se llama “Ghost work. How to stop Sillicon Valley from building a new global underclass”
[3] En inglés a este movimiento se lo conoce como “AI First”
[4] El término startup hace referencia a empresas jóvenes que están recién arrancando.
[5] Las comillas fueron agregadas para enfatizar el carácter ambiguo del término porque, aunque de la definición de IA se desprende que las tareas son realizadas por computadoras, en la actualidad la evidencia indica que muchas de las tareas asociadas a la IA son realizadas por ejércitos de trabajadoras y trabajadores invisibilizados y de baja remuneración.
[6] Gig: término que hace referencia a trabajos basados en aplicaciones o plataformas digitales y se caracteriza por tener formas precarias. El término gig proviene del lunfardo inglés y equivale a changas en el lunfardo rioplatense.
Es importante señalar que los CEOs de este tipo de empleos eluden sus responsabilidades como empleadores convenciendo al gobierno y a la ciudadanía en general que este conjunto de personas trabajadoras solo realizan su trabajo como una tarea secundaria y, por lo tanto, no merecen las protecciones que brinda la normativa laboral para el contrato de trabajo a tiempo completo. Sin embargo, la realidad muestra que aquellos y aquellas que trabajan dentro de la gig economy generalmente trabajan a tiempo completo, sin obtener ninguno de los derechos de tiempo completo.
Para una definición sobre este término elaborada por el BID véase más aquí.
[7] Optamos por dejar el término en inglés porque no encontramos una denominación en castellano que incluyera todas las aristas del fenómenos.
Para referir a los distintos modos de referirse al crowd work en español y las particularidades de este tipo de trabajo, se incluye un fragmento del artículo de Andrea del Bono (2020) titulado: Trabajadores de plataformas digitales: Condiciones laborales en plataformas de reparto a domicilio en Argentina:
Tal como sintetiza Bensusán (2017, p. 92), nuevos conceptos como el crowdworking (trabajo colectivo o por multitud) y el on-demand work via app (trabajo bajo demanda o a pedido a través de aplicaciones) emergieron con el nuevo siglo, superponiéndose a figuras tradicionales de empleo atípico. Estos empleos asociados con la economía digital y caracterizados por la temporalidad y por su carácter esporádico se conceptualizan actualmente en el marco de la “economía de los pequeños encargos” (gig economy), cuya naturaleza puede involucrar desde tareas muy puntuales o parceladas –microtareas–- hasta otras de mayor contenido. Según argumentan Florisson y Mandl (2018), en este terreno también reina la confusión, y existe una multiplicidad de términos utilizados para describir el trabajo organizado a través de plataformas digitales (gig work, on-demand work, work-on-demand via apps, platform work, digital labor). La clave aquí es que la diferente terminología y una definición deficiente de lo que se abarca en cada término no siempre permite dar cuenta de lo importante: el fenómeno más amplio de la creciente informalidad y precarización de dichos empleos (Del Bono, 2020, p.3).
A esta caracterización propuesta por Del Bono, queremos agregar que el fenómeno de creciente informalidad y precarización se da en el sector tecnológico y señalar que quienes están llevando adelante este proceso de precarización son las industrias que más divisas generan y más poder van desarrollando en el esquema económico global. (A propósito de una conversación que tuvimos en julio de 2023 por esta traducción Adrienne Williams, Milagros Miceli, Mailén García e Ivana Feldfeber).
[8] A lo largo de la traducción nos referiremos a las, les y los empleados con el objetivo de enfatizar que ellos son empleados de las empresas que se niegan a reconocerlos como tales. No es un término utilizado como sinónimo de trabajadores/as, ni pretendemos referir a la connotación “liberal”, como varios autores lo utilizan en Argentina, sino que está incorporado en este específico sentido que fue el que las autoras le dieron en la versión en inglés.
[9] UPS es otro servicio de transporte y reparto de paquetes de EEUU.
[10] Las autoras usan el término “debiasing” que implica reducir o intentar eliminar el sesgo. Es análogo del término “debugging” que viene del ámbito tecnológico y se trata de eliminar los errores o los “bugs” del código. Reduce el problema del sesgo a una tecnicalidad, cuando en realidad es un problema que trasciende el ámbito tecnológico.
[11] Las autoras usan el término “fairness” vinculado con equidad, justicia y acceso.
[11] Nuevamente apelamos al masculino para enfatizar en los “tech bro” y en la masculinización de los trabajos de altos ingresos.
Observatorio de Datos
con Perspectiva de Género