Perfil
CóRDOBA
PUNTO A PUNTO RADIO (90.7 FM)

Estos son los riesgos si la IA contrata a tu próximo empleado

La incorporación de inteligencia artificial en los procesos de selección de personal abre interrogantes sobre posibles sesgos y responsabilidades legales de las empresas. Especialistas advierten que estos sistemas pueden replicar patrones de discriminación.

Estos son los riesgos si la IA contrata a tu próximo empleado
Estos son los riesgos si la IA contrata a tu próximo empleado | .

La discriminación en los procesos de selección de personal ya no responde únicamente a decisiones humanas, sino que comienza a estar mediada por sistemas de inteligencia artificial que pueden reproducir sesgos sin intervención directa. Así lo explicó el abogado laboralista Diego Jaskowski, quien analizó el impacto de estas herramientas en el mundo del trabajo.

En diálogo con Radio Punto a Punto, el especialista recordó que “la justicia en más de una oportunidad ha fallado por casos de discriminación de una situación precontractual”, y mencionó ejemplos como rechazos laborales por resultados de exámenes médicos o criterios de género en la selección.

Motosierra de Milei a la discapacidad: la nueva Ley que va a dejar a 5 millones a merced del mercado​

En ese sentido, explicó que estas prácticas no siempre son explícitas, pero pueden detectarse a partir de sus efectos. “Cuando alguien lo ha planteado de manera correcta frente a la justicia, la justicia ha fallado”, indicó, en referencia a casos donde se comprobó un trato desigual en los procesos de contratación.

El eje novedoso, sin embargo, está en la incorporación de inteligencia artificial. Jaskowski advirtió que los algoritmos pueden reproducir patrones discriminatorios sin intención directa. “Si la IA toma como muestra todos los casos exitosos del pasado, y esos casos estaban sesgados, los criterios que va a tener en adelante van a ser el mismo sesgo”, explicó.

De Loredo: “El locro del Luis (Juez) antes era con mondongo y ahora es con peceto”

En ese marco, señaló que estos sistemas tienden a clasificar a las personas en base a estadísticas, lo que puede derivar en decisiones problemáticas. “Ha habido casos en donde la IA elegía a quién contratar dependiendo en qué barrio vivía, llegando a conclusiones como que alguien de un barrio más peligroso tenía más riesgo de ser deshonesto”, detalló.

Frente a este escenario, remarcó que la responsabilidad sigue recayendo en las empresas. “Cada uno se responsabiliza por las herramientas que usa”, afirmó, y advirtió que delegar decisiones sin supervisión puede derivar en conflictos legales.

En esa línea, señaló que la tecnología eliminó restricciones económicas que antes limitaban ciertas prácticas. “Lo que antes era inviable económicamente, hoy es posible, y la barrera ya no es económica sino ética”, sostuvo.