un algoritmo lo ha traicionado – El diario andino

Ya estamos acostumbrados a que el precio de un vuelo cambie dependiendo de cuándo lo buscas, desde dónde lo haces o cuántas veces has visitado esa página. Además de un viaje en Uber o Lyft cambia tu precio dependiendo de si está lloviendo o si son las tres de la mañana. Las empresas llevan años ajustando dinámicamente sus precios en función de lo que saben sobre usted. Lo que quizás no sabías es que algunas empresas están empezando a hacer exactamente lo mismo con el salario o las bonificaciones que te pagan.
El fenómeno ya tiene nombre: «salario de vigilancia». Y ya no se limita a los repartidores o conductores de los llamados economía de conciertosTambién se empieza a implementar en los sistemas de recursos humanos para condicionar aumentos salariales, acceso a incentivos e incluso el salario base mínimo por el que estarías dispuesto a trabajar según tus necesidades económicas en ese momento. un informe del Centro de Washington para el crecimiento equitativo advierte de que se está extendiendo a sectores tan cotidianos como la sanidad, la atención al cliente, la logística y el comercio minorista.
Cómo funciona el algoritmo que fija tu salario. El mecanismo es más sencillo de lo que parece. Las empresas utilizan herramientas de inteligencia artificial que recopilan datos en tiempo real de información pública o de redes sociales sobre cada trabajador: con qué frecuencia aceptan turnos, con qué rapidez responden a las ofertas, cuánto les pagaron en trabajos anteriores o si tienen préstamos pendientes y deudas de tarjetas de crédito. Con todo ello, el sistema calcula el salario mínimo que aceptaría esa persona por trabajar y le ofrece exactamente eso.
Según Nina DiSalvo, directora de políticas del grupo laboral. Hacia la justicia«Algunos sistemas utilizan señales asociadas con la vulnerabilidad financiera, como datos sobre si un empleado potencial ha solicitado un préstamo rápido o tiene un saldo alto en la tarjeta de crédito, para inferir el salario mínimo que un candidato podría aceptar». El resultado es que dos personas que realizan exactamente el mismo trabajo pueden cobrar cantidades muy diferentes, sin que ninguno de los dos lo sepa ni pueda reclamar nada al respecto.
Un modelo que penaliza a quienes más necesitan trabajar. El problema es que el «salario de vigilancia» no afecta sólo a quienes buscan empleo. al igual que revela el informe ‘Prohibición de vigilancia de precios y salarios’ elaborada por distintas organizaciones sindicales estadounidenses, una vez contratado, el trabajador continúa siendo monitoreado, por lo que el sistema ajusta su remuneración en función de cómo reacciona a las peticiones de la empresa: si acepta turnos con urgencia, si trabaja más horas de lo habitual o si sus finanzas personales se deterioran. El algoritmo interpreta esto como una señal de que el empleado necesita el trabajo y puede aprovecharlo para ofrecer menos dinero. Cuanto más vulnerable es el trabajador, más expuesto está.
el estudio del Centro de Washington para el crecimiento equitativo analizó 500 empresas de IA dedicadas a la gestión laboral e identificó 20 proveedores cuyos productos tienen un alto riesgo de generar discriminación salarial algorítmica. 16 de esos 20 proveedores integraron sus productos directamente con plataformas de gestión de nómina o fuerza laboral, brindándoles acceso continuo a los datos más confidenciales de cada empleado.
La opacidad como parte del diseño.. Una de las características más preocupantes de este modelo es que el trabajador no sabe qué datos se utilizan en su contra ni qué variantes se utilizan para calcular su salario, pero ya no es experiencia, capacidad de trabajo o productividad. Los algoritmos que determinan la remuneración son, en su mayor parte, cajas negras: ni los propios empleados ni los sindicatos ni los reguladores tienen acceso a su lógica interna. Joe Hudicka, autor del libro ‘La revolución de los ecosistemas de IAasí lo describe en declaraciones recogidas por Vigilancia del mercado: «Conocemos el concepto del techo de cristal. Pero al menos en ese concepto tenemos cierta visibilidad a través de él. Este techo de vigilancia salarial está hecho de hierro.»
A estudiar del Worker Institute de la Universidad de Cornell detectaron que el 42% de los trabajadores de plataformas digitales en Nueva York declararon que les habían pagado menos de lo acordado, sin mecanismos claros para reclamar, precisamente porque el control de su actividad pasa por algoritmos que no pueden auditar. La investigadora Veena Dubal, de la Universidad de California, ha estado documentando durante años cómo estas plataformas ajustan la remuneración a la baja de forma individualizada. Por ejemplo, dejar de asignar carreras a un conductor que está a punto de superar su objetivo de productividad.
La respuesta jurídica que empieza a tomar forma. Ante esta situación, los legisladores están empezando a actuar para poner freno a esta práctica. En EE.UU., el estado de Colorado está tramitando el proyecto de ley HB26-1210una de las primeras iniciativas en EE.UU. que busca regular específicamente el uso de herramientas algorítmicas en la fijación de salarios basadas en la vigilancia de datos personales.
En España, la Ley Rider, destinada a regular las relaciones laborales entre plataformas de reparto y repartidores autónomos, también incluía una modificación al artículo 64.4 del Estatuto de los Trabajadores con la obligación de facilitar el acceso al algoritmo que gestionaba la jornada laboral y la asignación de órdenes para evitar esta práctica. La nueva normativa europea para la transparencia salarial también se orienta en esta dirección, evitando que dos personas que realizan el mismo trabajo tengan salarios muy diferentes.
En | Contra todo pronóstico, la IA está reactivando el empleo. No te emociones, si eres joven cada vez es más difícil que te contraten
Imagen | Dejar de salpicar (Towfiqu barbhuiya)


