A medida que la inteligencia artificial generativa se integra en el ámbito laboral, surgen mejoras, como un aumento en los niveles de productividad. Pero también aparecen nuevos desafíos. Por ejemplo, ya sea que un empleado utilice GenIA para redactar un mail, analizar datos o preparar una presentación, el simple hecho de revelar que se está apoyando en esta tecnología podría hacer que los demás confíen menos en sus capacidades profesionales.
Esta es la principal conclusión de la investigación The transparency dilemma: How AI disclosure erodes trust (El dilema de la transparencia: como divulgar el uso de IA erosiona la confianza), llevada a cabo por investigadores de la Universidad de Arizona, Estados Unidos; y Monterrey, en México, concluyó que revelar el uso de la IA compromete la confianza en quien la usa.
En este contexto, el dato local resulta clave: en Argentina, el 88% de los profesionales que trabajan en empresas ya usa herramientas de inteligencia artificial en sus tareas diarias, incluso en organizaciones donde no existen políticas formales que promuevan su uso. Así lo señala el relevamiento Decime que usás IA sin decirme que usás IA, realizado por IDEA entre casi 400 profesionales de empresas grandes y medianas, locales y multinacionales, de distintos sectores. Además, el 80% de las empresas anticipa que parte de las tareas actualmente humanas pasarán a ser realizadas por inteligencia artificial, según el Informe sobre Transformaciones del Trabajo en Argentina de la Universidad Siglo 21.
En este escenario, el tema cobra especial relevancia: lo que está en juego no es solo la eficiencia, sino también la reputación profesional de quienes adoptan esta tecnología.
Tras analizar el impacto de la divulgación de la IA en la confianza en diversas tareas en supervisores, subordinados, profesores, analistas y creativos, los investigadores comprobaron que quienes hacen público el uso de la IA generan menos confianza que quienes no lo hacen.
Y la situación puede ser aún peor. Si revelar el uso de IA genera sospechas, los usuarios se enfrentan a una difícil decisión: aceptar la transparencia y arriesgarse a una reacción negativa, o guardar silencio y arriesgarse a ser expuestos posteriormente, un resultado que, según nuestros hallazgos, erosiona aún más la confianza.
Por eso es tan importante comprender el dilema de la transparencia de la IA. Tanto si sos un gestor que implementa una nueva tecnología como un artista que decide si incluir la IA en tu cartera, la situación es cada vez más complicada.
“Si bien hasta hace un tiempo no estaba bien visto cuando alguien resolvía algo con IA, hoy se empieza a sincerar qué cosas pueden resolverse con esta tecnología y cuáles requieren nuestra experiencia y mirada humana”, señala Wanda Dahir, Licenciada en Recursos Humanos y directora de la Carrera de RRHH en la Escuela Superior de Economía y Negocios de la Universidad de Morón. Y agrega: “Coincido en que no todo debe resolverse con un clic. Es fundamental seguir ejercitando el pensamiento crítico, la capacidad de análisis y la curiosidad intelectual. Para eso, es clave trabajar con las fuentes, pero siempre sumando nuestra impronta personal: eso es lo que realmente nos diferencia del algoritmo o del machine learning”.
Por su parte, Federico Carrera, Co-founder & COO de High Flow, explica que no han encontrado normas explícitas que prohíban el uso de IA de forma libre dentro de las empresas. “En muchas organizaciones más innovadoras, se alienta su aprovechamiento para ganar eficiencia, reducir costos y ahorrar tiempo”, señala. No obstante, recomienda establecer políticas claras sobre cómo, cuándo y en qué casos aplicar la inteligencia artificial. También sugiere revisar los contenidos generados y analizar los posibles sesgos que pueden surgir, ya que, como toda tecnología creada por humanos, la IA los incorpora en su funcionamiento.
Respecto de la investigación arriba citada, Carrera destaca: “Es importante entenderla dentro del marco de la teoría de la institucionalidad, según la cual las empresas se estructuran, operan y evolucionan en función de presiones externas para cumplir expectativas, normas y ser aceptadas. En ese contexto, la pérdida de legitimidad por falta de confianza representa un riesgo elevado para aquellas compañías que buscan mimetizarse con la mayoría, adoptando valores, normas sociales y creencias compartidas. En cambio, para las organizaciones disruptivas e innovadoras, esta situación puede ser una ventaja, sobre todo si apuntan a captar early adopters o ingresar en nuevos segmentos de mercado”.
Todavía no está claro si esta penalización por transparencia desaparecerá con el tiempo. A medida que la IA se generalice y demuestre ser más fiable, revelar su uso podría dejar de generar desconfianza.
Tampoco hay consenso sobre cómo deberían gestionar las organizaciones la divulgación del uso de inteligencia artificial. Una opción es que la transparencia sea voluntaria y quede en manos de cada profesional. Otra es establecer políticas de divulgación obligatoria para todos los empleados.
Un enfoque complementario es el cultural: crear un entorno de trabajo donde el uso de IA se perciba como algo normal, legítimo y aceptado. Este tipo de cultura podría mitigar la penalización por falta de confianza y, al mismo tiempo, fomentar la transparencia y la credibilidad.
“Los departamentos de RRHH hoy enfrentan un proceso de reconversión constante. No solo porque el avance tecnológico está transformando el mundo laboral, sino también por la necesidad de acompañar a las personas en su propia transformación”, afirma Dahir. Y agrega: “Contar con una cultura organizacional clara, transparente y que fomente el uso de IA, pero siempre con criterio, será una de las bases de las organizaciones del presente (y del futuro)”.
Es momento de sincerarnos: el uso de la IA ya es una realidad instalada. Por eso, es indispensable establecer políticas claras que definan sus límites éticos. Los manuales de ética deben actualizarse y reflejar que no está mal utilizar la IA para agilizar el acceso a la información, siempre que no dejemos de confiar en nuestra experiencia, intuición y capacidad de análisis estratégico.
Una práctica sólida implica que, más allá del informe que se presente, siempre debe quedar claro que el ser humano tiene la última palabra. La clave está en enseñar a usar la inteligencia artificial como una herramienta para potenciar nuestras tareas, no para reemplazarnos.
Carrera, por su parte, considera que en Argentina el camino es hacia la normalización cultural del uso de IA: “La tecnología se vuelve cada vez más accesible y conocida. Además, exigir transparencia u obligatoriedad implicaría controles, inversiones y costos adicionales, lo que va en contra de una adopción masiva”.
Y agrega: “El miedo a ser reemplazado por la IA, o las sospechas internas sobre su uso, suelen tener más eco en el imaginario que en la realidad. Hablamos con cerca de cien candidatos por día y casi nunca mencionan medidas específicas de las empresas al respecto. Lo mismo ocurre del lado corporativo: cuando hablamos con directivos, no manifiestan preocupaciones significativas sobre el tema”.