La IA centrada en el ser humano: El poder de poner a las personas primero

| Podcast

Nota: Hacemos nuestro mejor esfuerzo por preservar el espíritu original y los matices de nuestros artículos. Sin embargo, nos disculpamos de antemano por cualquier falla de traducción que pueda notar. Agradecemos sus comentarios en reader_input@mckinsey.com

“Humanos informados” o “Humans in the loop”: es el mantra de la nueva era de la IA generativa para aliviar la angustia. ¿Pero qué significa realmente? En este episodio de McKinsey Talks Talent, la profesora de la Universidad de Stanford, Melissa Valentine, se une a los socios de McKinsey, Bryan Hancock y Brooke Weddle, y a Lucia Rahilly, directora editorial global, para discutir la inteligencia artificial centrada en el ser humano: qué es, cómo mejora el rendimiento y cómo puede ayudar a cambiar la mentalidad de los empleados quisquillosos de “uf” a “guau”.

Esta transcripción ha sido editada por motivos de claridad y extensión.

¿Qué es la IA centrada en el ser humano?

Más perspectivas de McKinsey en Español

Mire nuestra colección de artículos en Español y suscríbase a nuestro newsletter mensual en Español.

Navegue por la colección

Lucia Rahilly: La IA, y en particular la IA generativa, ha irrumpido tanto en el léxico empresarial como en el popular en el último año. Melissa, háblenos de la “IA centrada en el ser humano”. ¿Qué queremos decir cuando usamos ese término?

Melissa Valentine: Hay diferentes aspectos que se refieren a distintos paradigmas de diseño. Pero la forma de verlo es que, si realmente usted se enfoca en aumentar las capacidades humanas, eso es la IA centrada en el ser humano.

La IA generativa es solo datos. Es solo un modelo de lenguaje. Pero también son todos los arreglos sociales que tienen que ocurrir a su alrededor para que realmente logre cualquiera de las cosas en las que vemos el potencial.

Lucia Rahilly: ¿Qué nos dice la investigación? ¿Realmente la gente tiene tanto miedo de la IA en el lugar de trabajo y de la amenaza que puede (o no) suponer para sus puestos de trabajo?

Melissa Valentine: Para las personas es fácil entender el potencial de la IA generativa, en la que todo el mundo tiene un “IA par” que le ayuda en su trabajo y no parece tan amenazadora. Creo que es un poco más difícil conectar lo que estamos viendo —donde hacer una presentación de diapositivas es mucho más rápido o donde los correos electrónicos se autocompletan— con esta sensación de pérdida existencial de empleo que preocupa a la gente. La retórica del miedo se refiere más bien a eso: miedo en un sentido más macroeconómico a que no haya trabajo en el futuro. La adopción local parece ser menos amenazadora para las personas.

En la década de 1990, había muchos economistas del trabajo e investigadores ocupacionales que estudiaban la aparición de las tecnologías digitales. La tendencia que estaban documentando era que algunas ocupaciones se estaban recalificando —se ampliaban— y otras se estaban descalificando. Y surgieron algunas nuevas ocupaciones. Como vemos, las predicciones de pérdida de empleos de esa década no han ocurrido como anticiparon las predicciones más catastróficas. Sin embargo, se han producido muchos cambios en las ocupaciones entre la década de 1990 y ahora. Es profundo lo que ha pasado.

Habrá muchos cambios. Éste es el debate ahora mismo: ¿será un cambio continuo? ¿Será como en el pasado, cuando se producen cambios profundos en la apariencia de las ocupaciones, pero no hay una pérdida de empleos social generalizada?

Pasando del ‘uf’ al ‘guau’

Lucia Rahilly: ¿Cuáles son algunas formas de abordar el escepticismo y superar la resistencia inicial a la adopción de la IA generativa en el lugar de trabajo?

Melissa Valentine: Hice un estudio en una empresa tecnológica de San Francisco llamada Stitch Fix, y elegí a uno de sus equipos de ciencia de datos para estudiarlo. Estaban desarrollando un nuevo algoritmo y tratando de ayudar a su fuerza laboral a adoptarlo. Al final del estudio, habían logrado una amplia adopción en un departamento enorme y realmente habían recapacitado a sus trabajadores.

Entre las acciones clave, el equipo analizó lo que estaban haciendo los trabajadores, con su kit de herramientas de ciencia de datos en mente, y se preguntó: “¿Cómo podemos ayudar a nuestros equipos a cumplir mejor sus objetivos? ¿Cómo podemos utilizar algunas de estas capacidades de la ciencia de datos para aumentar realmente los análisis de la gente?”. Todo su encuadre era en términos de nuevas capacidades: ¿cómo podemos ayudar a las personas a hacer todo esto mejor? Creo que esa es la clave.

La segunda pieza que parecía poderosa era que tenían un desarrollador líder de interfaz de usuario (user interface, o UI) realmente talentoso. Los usuarios eran compradores de moda de Stitch Fix, por lo que adquirían inventario. El desarrollador principal creó una interfaz de usuario que mostraba al equipo de compras imágenes de todo lo que la empresa almacenaba en el inventario, junto con tablas dinámicas para guiar la toma de decisiones. Y las burbujas que mostraban la ropa se hacían más grandes en función del volumen de artículos que el equipo de compras estaba seleccionando.

A los compradores les encantó. Realmente les revelaba lo que estaba haciendo el algoritmo. Se hizo mucho más fácil para ellos explorar lo que habían introducido. Les permitía explorar lo que recomendaba el algoritmo. Les permitía jugar con diferentes maneras de tomar la decisión. Así que todo se organizó en torno a darles nuevas capacidades. La interfaz de usuario fue poderosa para ayudarles a adoptar la tecnología.

Bryan Hancock: Las conversaciones con mis clientes sobre la IA generativa a veces comienzan con: “Bueno, ¿cuál es el potencial de la automatización? ¿Cuál es el ahorro de costos?”. Pero al final de la conversación, dicen: “Espera un minuto. ¿Cuál es el potencial de ingresos? Porque creo que tenemos una oportunidad real de vender mejor, estar más en sintonía con los mercados, captar mejor las tendencias y sintetizar mejor la información de múltiples fuentes para, en última instancia, servir mejor a nuestros clientes y luego aumentar los ingresos”.

Entonces, la energía en la sala pasa de esta conversación de “uf” en torno a “Sí, ésas son las funciones, ésas son las tareas, ésas son las piezas” a “Guau, aquí hay un enorme potencial de oportunidades de mercado sin explotar si tan solo pudiéramos ir tras ellas”. ¿Es algo parecido a lo que ocurre cuando las capacidades conducen al crecimiento de los ingresos y al entusiasmo?

Melissa Valentine: Sí exactamente. Es una excelente manera de decirlo.

Repensar las funciones con la IA como copiloto

Lucia Rahilly: Melissa, ¿la adopción de la IA generativa se ve afectada por la autoidentidad de los empleados? Me refiero sobre todo a los campos creativos, en los que la gente puede ver los algoritmos como un anatema o como un mal sustituto de la imaginación o el ingenio. O incluso en el ejemplo de la moda, simplemente por los años de experiencia y perspicacia que se han ganado con esfuerzo.

Melissa Valentine: Sí, creo que la importancia de la identidad profesional está realmente poco explorada, en gran parte porque mucho de esto es nuevo y no ha habido tiempo para que las identidades evolucionen.

Me recuerda a un gran estudio de la Universidad de Nueva York, en el que se analizaba cómo los equipos de la NASA aprendían a usar plataformas de innovación abierta, donde se publica un problema en línea y alguien externo puede resolverlo. Eso es muy amenazador para los científicos que están acostumbrados a resolver los problemas por sí mismos. Creo que fue un período de cinco años en el que la identidad de los científicos de la NASA pasó de ser la de los que resolvían problemas a la de los que buscaban soluciones.

Cuando estuve en Stitch Fix vi algo similar. Mi estudio duró solo unos 18 meses, así que no diría que las identidades habían evolucionado completamente cuando terminó. Pero sí vi ese conflicto de identidad del que usted habla, porque las personas no se dedican a la moda porque quieran hacer modelos de optimización. Se dedican a la moda porque aman la moda. Así que los mejores compradores de moda también estaban a la moda. Y tenían relaciones excelentes con los proveedores y estaban al tanto de lo que ocurría en la industria.

Pero éstas son las personas que se supone que están en este tablero de instrumentos mirando el riesgo y la incertidumbre, y preguntando: “¿Cómo estoy optimizando? ¿Y cuáles son las compensaciones que estoy haciendo?”. Fue realmente un cambio para ellos tener que integrar lo que significaba ser un gran comprador de moda con lo que significaba utilizar los datos de manera estratégica y apoyar la toma de decisiones y las compensaciones estratégicas.

Bryan Hancock: ¿Qué opina de esta idea del copiloto cruzándose con la identidad?

Melissa Valentine: Si un copiloto está haciendo las tareas que usted no quería hacer en primer lugar, como calcular todas sus métricas financieras, entonces usted está encantado. Pero si se dedica a la moda y de repente su copiloto está diseñando ropa para usted, ¿qué significa eso? ¿Qué le hace eso a su identidad?

Bryan Hancock: Es fascinante. Me recuerda a un artículo que leí sobre un profesor universitario de inglés que animaba a sus estudiantes a utilizar herramientas de IA generativa porque “tienen que escribir mejor que eso”. Ésta es una línea de base. Esto es el comienzo. Esto no es reemplazar. Usted está proporcionando la visión humana, la comprensión. Así es como se construye encima. Algunas de las áreas con mayor potencial para la IA generativa se encuentran en el marketing, las ventas y las comunicaciones.

Melissa Valentine: De manera similar, me pregunto cuáles de nuestros productos son lo suficientemente buenos, cuando son solo ese primer borrador de IA generativa. ¿Y cuáles son los productos en los que realmente vamos a innovar y mejorar con una gran cantidad de prototipos, interactividad, conocimiento humano y creatividad?

Brooke Weddle: Además, ¿cómo se puede aportar esta lente más perspicaz de sesgo y cuestionar el impacto de ese sesgo, teniendo esa capa de pensamiento crítico que necesitamos perfeccionar como una habilidad para obtener el máximo valor de la IA generativa?

Melissa Valentine: Estoy totalmente de acuerdo. Lo interesante que se añadirá a esto es averiguar cómo evaluar el impacto. Volviendo a mi estudio de Stitch Fix, las habilidades que los compradores de moda tuvieron que aprender incluían cómo estar al tanto del algoritmo para medir el impacto de su intuición.

En ese caso no se trataba de IA generativa; el algoritmo haría una recomendación y mostraría las métricas asociadas a su recomendación. Los compradores entrarían y sobrescribirían una recomendación. Y entonces el algoritmo le diría automáticamente al usuario: “Está bien, aquí estás imponiendo esa intuición. Te va a costar (aquí solo estoy inventando una cifra) $1 dólar de ingresos”. Y entonces los compradores podrían decir: “OK, vale la pena”. Así que estaban evaluando cómo intervenir en el algoritmo les costaría $1 dólar.

Aprender a medir el impacto de la intervención humana en lo que el algoritmo esté generando es una habilidad que será necesaria, incluso para la IA generativa.

IA generativa y cultura organizacional

Brooke Weddle: Desde un punto de vista más amplio de la cultura organizacional, si tengo un copiloto y me aconseja sobre rebajas, ¿es menos probable que interactúe con el departamento de precios o con el financiero? ¿Estamos creando silos al permitir que la gente utilice este copiloto? Y todos sabemos que las organizaciones se basan en una serie de valores. La confianza es importante. Las relaciones son importantes para que una empresa funcione bien. ¿Alguna idea al respecto?

Melissa Valentine: Sí, absolutamente. Pensemos por un momento en la forma en que algunas empresas han establecido algoritmos como sistemas de calificación, como este producto algorítmico interactivo de datos para los trabajadores. Un buen ejemplo es Tripadvisor, donde confluyen todo tipo de valoraciones y datos. Los hoteles, cuando están tratando de reaccionar a una puntuación de Tripadvisor, no saben de dónde proceden todos esos datos que han sido recopilados por estos algoritmos. Así que terminan teniendo este algoritmo opaco con el que están intentando trabajar para aprender cómo mejorar.

Estoy usando el ejemplo del hotel porque la gente puede imaginarse lo que supone para un hotel recibir una lista de un evaluador profesional sobre lo que debe cambiar, frente a tener que tratar con Tripadvisor. Pero esa misma dinámica también está ocurriendo con los trabajadores, especialmente en los mercados laborales en línea. Reciben una puntuación que evalúa su desempeño. Y a la gente le resulta muy difícil aprender a mejorar. ¿Qué significa cuando no tienes un gestor profesional, cuando solo tienes este algoritmo que te dice lo que significa mejorar?

Bryan Hancock: Lo que eso me hace pensar, Melissa, es en el potencial de los grandes modelos de lenguaje para ayudar a las personas a examinar todos los datos no estructurados y comentarios, para volver con la lista de lo que hay que hacer.

Uno de los casos de uso que interesan a los directivos son las quejas de los empleados. El responsable de una región puede tener miles de empleados. ¿Se trata de una queja puntual o de una tendencia? ¿Y hay algo que pueda obtener de los datos para ayudarme rápidamente a comprenderlo? Existe la promesa de que la tecnología futura será capaz de examinar los datos y decir: “Oye, ese caso aislado parece un caso atípico. No lo vemos en ninguna parte de Glassdoor, ni en ninguna de las encuestas, ni en ningún otro sitio”. O podría decir: “En realidad, temáticamente aquí están las cuatro cosas que han surgido de nuestras encuestas a los empleados, y lo que vemos en línea, lo que vemos en Reddit.”

Me pregunto si algunas de estas tecnologías pueden proporcionar mucha más información sobre lo que está sucediendo y recomendaciones sobre qué hacer.

Melissa Valentine: Lo que pide —y creo que es totalmente correcto— es imaginar, con toda la información, todo el sentimiento que está en juego, lo que se puede aprender.

Lucia Rahilly: ¿Teme la gente que la IA generativa pueda decir a Recursos Humanos a quién contratar y, quizás más premonitorio, a quién despedir, basándose en este tipo de quejas que surgen a través del algoritmo?

Melissa Valentine: Mucha más vigilancia, muchas más contrataciones y despidos automatizados; está claro que veremos que la gente se resiste a eso. No es una forma empática de configurar las cosas. Pero en una misma organización, algunas ocupaciones tienen mucha autonomía y es probable que eso aumente. Y también puede haber ocupaciones de menor estatus que estén sujetas a mucha más vigilancia, a mucha más gestión algorítmica, a muchos más aspectos desagradables del control algorítmico.

Un ejemplo muy conocido en la prensa es el de un conductor que fue despedido por un bot y no tuvo ningún recurso. Ni siquiera pudo hablar con el área de Recursos Humanos para averiguar qué había pasado. Creo que ahí es donde estamos viendo mucha resistencia.

Brooke Weddle: Si bien una forma de pensar acerca de la IA generativa es con este marco de control, otra es utilizar estos enfoques para tratar de liberar a los empleados de nuevas maneras, de forma productiva, para llevarlos del agotamiento a la prosperidad.

Una de las organizaciones con las que estoy trabajando está intentando construir lo que podrían llamar un nuevo modelo operativo de gestión, tomando todos sus datos de pulso y combinándolos con la ciencia de la gestión en torno a las prácticas que ayudan a los equipos a impulsar resultados productivos. Para ser claros, habría que pensar en formas de cultivar la aceptación de los directivos y los empleados, y hacer que esto sea bidireccional. Creo que eso formaría absolutamente parte de ello. Pero entonces podría imaginarse un sistema que animara a los empleados a ser la mejor versión de sí mismos.

Ésa es la gran idea. Y creo que es muy emocionante. Pero está claro que hay muchos campos minados que atravesar para que esto no sea un estado de control, sino más bien un estado de habilitación.

El futuro del diseño organizacional

Bryan Hancock: Una de las cosas que me entusiasma es la idea de aplicar la IA generativa para diseñar las funciones gerenciales. Veamos todas las cosas que un gerente odia hacer y usemos la IA para eliminar algunas de estas tareas administrativas. Me encantaría conocer su opinión sobre el uso de una lente de diseño para eliminar el trabajo que los gerentes hacen y que les vuelve locos.

Melissa Valentine: El pensamiento de diseño utilizando IA generativa para examinar realmente a los mandos intermedios me parece muy inteligente. Gran parte de la atención se centra actualmente en la toma de decisiones de primera línea, en los médicos o en las personas de las que hablaba: compradores de moda, comerciantes y el algoritmo de fijación de precios. Pero algo que me fascina es que los gerentes toman regularmente decisiones de diseño organizacional. Y el diseño organizacional no es una ciencia, es un arte. Así que si los gerentes se basaran más en datos o si tuvieran una visión más empírica de las decisiones de diseño organizacional que tomaron, creo que se desbloquearían cosas realmente emocionantes. Me encantaría verlo.

Lucia Rahilly: Melissa, sobre la cuestión del diseño organizacional, ¿cuál es un ejemplo de la forma en que la IA o la IA generativa podrían alterar la forma en que trabajan los proyectos de personal de las empresas? Y aquí estoy pensando en los experimentos que usted ha estado realizando sobre los equipos flash y las organizaciones flash en particular.

Melissa Valentine: Con los equipos flash, las empresas estarían haciendo una tarea y el bot les haría una recomendación sobre algo nuevo que deberían probar, como una toma de decisiones más centralizada, más turnos en la toma de decisiones o algo parecido: pequeñas intervenciones.

Con el tiempo, pudimos ayudar a los equipos a experimentar con esas recomendaciones y demostrar que los que recibían recomendaciones específicas sobre su diseño organizacional mejoraban. En cuanto a la dotación de personal y el despliegue de equipos flash en un proyecto, una plataforma de software podría anticipar la necesidad de diferentes funciones y luego llegar a un mercado laboral, en este caso, y formar automáticamente el equipo. Podría reunir al equipo y luego estructurar el trabajo del equipo a lo largo del tiempo: por ejemplo, mostrarles quién debería pasar a quién y cuándo, dónde cargar el trabajo, quién es el gestor en este caso, cosas así.

Bryan Hancock: ¿Se trata en gran medida de aprovechar los mercados de freelance? ¿O hay otras formas de aprovechar el mercado laboral para atraer a esos equipos flash?

Melissa Valentine: Hemos hecho investigaciones con empresas que realizan despliegues internos de equipos flash. Antes era más fácil hacerlo con los mercados de trabajo porque están en línea y tienen plataformas muy inteligentes. Pero aún se puede hacer con una gran empresa y una fuerza laboral interna.

Protección de datos y otros riesgos

Lucia Rahilly: Todo lo que estamos hablando gira en torno a los datos y la proliferación de datos y la aceleración de la proliferación de datos. ¿Cómo se evalúan los riesgos para la privacidad de los datos en el contexto de los recursos humanos?

Brooke Weddle: Esto es algo que surge en el 100 por ciento de mis conversaciones sobre datos de IA generativa, no solo desde el punto de vista de recursos humanos, que por supuesto es extremadamente importante. Sino incluso en el contexto de McKinsey, donde hay gente al servicio de competidores. ¿Cómo se segmentan los datos cuidadosamente?

¿Cómo se etiquetan los datos de una manera para que ciertos datos sean fungibles, portátiles, y otros no lo sean? ¿Quién toma esa decisión? ¿Cómo se hace a nivel mundial en varios países? Es un desafío realmente complejo en el que mucha gente ya está pensando, pero que es fundamental para que la IA generativa forme parte de la ecuación y el impacto de eso.

Melissa Valentine: Absolutamente. Incluso cuando la gente teclea sus preguntas prompt. Eso sigue diciendo algo sobre la empresa.

Brooke Weddle: Sí, 100 por ciento.

Bryan Hancock: Me hace pensar en los riesgos de manera más amplia. Mencionamos esto en un pódcast anterior, pero una de las cosas que me preocupa es el riesgo de que nos volvamos menos interesantes. No tenemos tiempo para ir más allá de los límites de lo que hace que las respuestas y los resultados sean excepcionales. Ese es mi riesgo contraintuitivo.

Brooke Weddle: El otro tema que ha surgido mucho en las conversaciones que he tenido es que, si vamos a un modelo en el que nos está asistiendo un algoritmo, un copiloto, la preocupación gira en torno a la acumulación de experiencia, el acto de fallar, y las cosas que aprender de eso. Eso tiene valor en términos de desarrollo profesional. Si me ayudan de esta manera, si siempre tengo esta ventaja, ¿a qué estoy renunciando? Especialmente si soy un colega junior, ¿qué es lo que no estoy experimentando que podría hacer que tenga menos perspectiva en el futuro?

Melissa Valentine: Sí, la depreciación de la experiencia. Cuanto más nos ayudan, menos pasamos por todas las repeticiones en las que desarrollamos experiencia todo el tiempo.

Lucia Rahilly: Exactamente. Una última pregunta: ¿el uso de una perspectiva centrada en el ser humano cambia la forma en que evaluamos el éxito de las herramientas de IA en una organización? ¿Cuál es el protocolo allí?

Melissa Valentine: ¿Puedo contar una última historia que empatice tanto con los trabajadores como con los desarrolladores? Estábamos analizando la clasificación algorítmica de los equipos flash. Realmente queríamos asegurarnos de que toda esta gestión algorítmica estuviera muy centrada en el trabajador, en el ser humano.

Estábamos jugando con la idea de añadir una variable a un algoritmo que fuera algún factor de ponderación para el centrado en el ser humano. La empresa con la que colaborábamos tenía un plazo de entrega trimestral y, de repente, necesitábamos resultados mañana. Entonces dijimos: “OK, solo esta vez lo haremos sin esta variable”.

Y entonces, ¡bam! Así es como sucede. La presión de tener que obtener resultados empresariales rápidamente, esos son los momentos de hacer concesiones. Necesitamos tener el espacio para poder hacer algo centrado en el ser humano, porque lleva más tiempo. Es más difícil.

Brooke Weddle: No podría estar más de acuerdo.

Bryan Hancock: A mí me recuerda a las clásicas compensaciones entre el corto y el largo plazo. Puede haber una compensación verdadera de beneficios a corto plazo: “Oye, el algoritmo tiene algunas cosas realmente geniales que puede hacer ahora mismo. Saquémoslo a la luz”.

Pero a largo plazo, adoptar un enfoque centrado en el ser humano descubrirá aún más oportunidades para los empleados y los clientes, ayudará a la sostenibilidad de las organizaciones y a desbloquear nuevos mercados, nuevos conjuntos de oportunidades, nuevos conjuntos de conocimientos.

Brooke Weddle: Sí, creo que el clásico cuadro de mando de rendimiento y salud en torno a la IA será muy importante, de modo que en esos momentos en los que las cosas se ponen difíciles y todos se sienten tentados a volver al rendimiento, tengamos el lado de la salud de la ecuación justo ahí mirándonos. Creo que eso va a ser fundamental. Y si eso significa moverse un poco más despacio, entonces creo que la compensación está clara.

Melissa Valentine: Exactamente.

Explore a career with us