¿Qué pasaría si una empresa construyera cada componente de su producto desde cero con cada pedido, sin piezas, procesos y protocolos de garantía de calidad estandarizados o coherentes? Lo más probable es que cualquier director general consideraría este enfoque como una importante señal de alarma que impediría crear economías de escala e introduciría niveles de riesgo inaceptables, por lo que trataría de solucionarlo de inmediato.
Sin embargo, es así como cada día muchas organizaciones abordan el desarrollo y la gestión de la inteligencia artificial (IA) y la analítica en general, colocándose en una tremenda desventaja competitiva. Se introducen riesgos e ineficiencias significativas cuando equipos dispersos por toda la empresa inician regularmente sus esfuerzos desde el principio, trabajando manualmente sin mecanismos empresariales para desplegar y supervisar de forma eficaz y coherente el rendimiento de los modelos de IA en vivo.
Más perspectivas de McKinsey en Español
Mire nuestra colección de artículos en Español y suscríbase a nuestro newsletter mensual en Español.
En última instancia, para que la IA contribuya de forma considerable a los resultados de una empresa, las organizaciones deben ampliar la tecnología en toda su estructura, incorporándola a los procesos empresariales básicos, los flujos de trabajo y los recorridos de los clientes para optimizar la toma de decisiones y las operaciones cotidianas. Para lograr esta escala se necesita una línea de producción de IA altamente eficiente, en la que cada equipo de IA produzca rápidamente docenas de modelos fiables, listos para competir y que cumplan con la normativa para evitar riesgos. Nuestro estudio indica que las empresas que adoptan este enfoque tienen muchas más probabilidades de conseguir escala y valor, y algunas de ellas añaden hasta un 20 por ciento a sus ganancias antes de intereses e impuestos mediante el uso de la IA, ya que aprovechan el potencial de valor económico de entre $9 y $15 billones de dólares que ofrece la tecnología.
Los directores generales suelen reconocer su papel a la hora de proporcionar un impulso estratégico en torno a los cambios culturales, los cambios de mentalidad y el enfoque basado en el dominio necesarios para ampliar la IA, pero nos encontramos con que pocos reconocen su papel a la hora de establecer una visión estratégica para que la organización desarrolle, despliegue y gestione las aplicaciones de IA con tal velocidad y eficiencia. El primer paso para asumir este papel activo es comprender el valor en juego y lo que es posible con las tecnologías y prácticas adecuadas. El enfoque altamente personalizado y cargado de riesgos de las aplicaciones de IA que es común hoy en día se debe, en parte, a las prácticas de la ciencia de datos de hace una década, necesarias en una época en la que había pocas plataformas (si acaso había alguna) de IA fácilmente disponibles, herramientas automatizadas o bloques de construcción que pudieran ensamblarse para crear modelos y aplicaciones de análisis, y no había una forma fácil de que los profesionales compartieran el trabajo. En los últimos años, las mejoras masivas en las herramientas y tecnologías de IA han transformado drásticamente los flujos de trabajo de la IA, agilizando el ciclo de vida de las aplicaciones correspondientes y permitiendo una ampliación coherente y fiable de la IA en todos los ámbitos empresariales. Un marco de referencia de primera clase para las formas de trabajo, a menudo llamadas "operaciones de aprendizaje automático" o MLOps (abreviatura de "machine learning operations"), puede permitir a las organizaciones aprovechar estos avances y crear una "fábrica" de IA estándar en toda la empresa capaz de alcanzar la escala.
En este artículo, ayudaremos a los directores generales a entender cómo se combinan estas herramientas y prácticas, y a identificar las palancas correctas de las que pueden tirar para apoyar y facilitar los esfuerzos de sus líderes de IA para poner estas prácticas y tecnologías firmemente en su lugar.
Se siguen elevando los estándares para la IA
Ya han pasado los días en que las organizaciones podían permitirse adoptar un enfoque estrictamente experimental de la IA y la analítica en general, llevando a cabo programas piloto dispersos y un puñado de sistemas de IA dispares construidos en silos. En los primeros tiempos de la IA, los beneficios empresariales de la tecnología no eran evidentes, por lo que las organizaciones contrataban a científicos de datos para explorar el arte de lo posible con poca atención a la creación de modelos estables que pudieran funcionar de forma fiable las 24 horas del día. Sin centrarse en lograr la IA a escala, los científicos de datos crearon entornos de TI "a la sombra" en sus computadoras portátiles, utilizando sus herramientas preferidas para crear modelos personalizados desde cero y preparando los datos de forma diferente para cada modelo. Dejaron de lado muchas tareas de ingeniería de apoyo a la escala, como la construcción de una infraestructura crucial en la que todos los modelos pudieran desarrollarse de forma fiable y ejecutarse fácilmente.
Hoy en día, las fuerzas del mercado y las demandas de los consumidores no permiten estas ineficiencias. Las organizaciones que reconocen el valor de la IA han pasado rápidamente de explorar lo que puede hacer la tecnología a explotarla a escala para conseguir el máximo valor. Los gigantes tecnológicos que aprovechan esta tecnología siguen alterando y ganando cuota de mercado en los sectores tradicionales. Además, las expectativas de los consumidores en cuanto a experiencias personalizadas y fluidas siguen aumentando, a medida que se deleitan con más y más interacciones impulsadas por la IA.
Por fortuna, a medida que la IA ha madurado, también lo han hecho los roles, los procesos y las tecnologías diseñadas para impulsar su éxito a escala. Han surgido funciones especializadas, como la de ingeniero de datos e ingeniero de aprendizaje automático, que ofrecen habilidades vitales para alcanzar amplitud. Una pila de tecnologías y servicios en rápida expansión ha permitido que los equipos pasen de un enfoque manual y centrado en el desarrollo a otro más automatizado, modular y apto para abordar todo el ciclo de vida de la IA, desde la gestión de los datos entrantes hasta la supervisión y corrección de las aplicaciones en vivo. Las start-up tecnológicas y las soluciones de código abierto ofrecen ahora todo tipo de productos, desde los que traducen el lenguaje natural a código hasta capacidades automatizadas de supervisión de modelos. Los proveedores de la nube incorporan herramientas de las MLOps como servicios nativos dentro de su plataforma. Y los nativos de la tecnología, como Netflix y Airbnb, que han invertido mucho en la optimización de los flujos de trabajo de la IA, han compartido su trabajo a través de las comunidades de desarrolladores, permitiendo a las empresas incorporar flujos de trabajo probados.
Junto a este flujo constante de innovación, las MLOps han surgido como un plano para combinar estas plataformas, herramientas, servicios y funciones con el modelo operativo de equipo adecuado y los estándares para ofrecer IA de forma fiable y a escala. Las MLOps se basan en las mejores prácticas de ingeniería de software existentes, denominadas “operaciones de desarrollo” o DevOps (acrónimo en inglés de Development Operations), a las que muchas empresas tecnológicas atribuyen el mérito de permitir la entrega más rápida de un software más robusto, que cumple con la normativa para evitar riesgos y proporciona un nuevo valor a sus clientes. Las MLOps están preparadas para hacer lo mismo en el espacio de la IA, al ampliar las DevOps para abordar las características únicas de la IA, como la naturaleza probabilística de los resultados de la IA y la dependencia de la tecnología de los datos subyacentes. Las MLOps estandarizan, optimizan y automatizan los procesos, eliminan la repetición de tareas y garantizan que cada miembro del equipo de IA se concentre en lo que sabe hacer mejor (gráfica).
Dado que las MLOps son relativamente nuevas y aún están en evolución, las definiciones de lo que abarcan dentro del ciclo de vida de la IA pueden variar. Algunos, por ejemplo, utilizan el término para referirse solo a las prácticas y tecnologías aplicadas a la supervisión de los modelos en funcionamiento. Otros consideran que se trata únicamente de los pasos necesarios para trasladar los nuevos modelos a entornos activos. Nosotros pensamos que, cuando la práctica abarca todo el ciclo de vida de la IA —la gestión de datos, el desarrollo e implantación de modelos, y las operaciones de modelos en vivo— y está respaldada por las personas, los procesos y las tecnologías adecuadas, puede elevar drásticamente los estándares de lo que las empresas pueden conseguir.
El impacto empresarial de las MLOps
Para entender el impacto empresarial de las MLOps de extremo a extremo, es útil examinar las mejoras potenciales desde cuatro ángulos esenciales: productividad y velocidad, fiabilidad, riesgo, y adquisición y retención de talento. Las ineficiencias en cualquiera de estas áreas pueden asfixiar la capacidad de una organización para alcanzar escala o amplitud.
Aumentar la productividad y la velocidad para integrar la IA en toda la organización
Con frecuencia escuchamos a los ejecutivos decir que llevar las soluciones de IA de la idea a la implementación toma de nueve meses a más de un año, lo que dificulta seguir el ritmo de la dinámica cambiante del mercado. Incluso después de años de inversión, los líderes suelen decirnos que sus organizaciones no avanzan más rápido. Por el contrario, las empresas que aplican las MLOps pueden pasar de la idea a una solución en vivo en solo dos a 12 semanas, sin aumentar el número de empleados o la deuda técnica, reduciendo el tiempo de obtención de valor y liberando a los equipos para ampliar la IA más rápido. Lograr la productividad y la velocidad requiere agilizar y automatizar los procesos, así como construir activos y componentes reutilizables, gestionados estrechamente para la calidad y el riesgo, para que los ingenieros pasen más tiempo juntando componentes en lugar de construir todo desde cero.
Las organizaciones deben invertir en muchos tipos de activos y componentes reutilizables. Un ejemplo es la creación de "productos" de datos listos para usar que unifican un conjunto específico de datos (por ejemplo, la combinación de todos los datos de los clientes para formar una visión de 360 grados del cliente), utilizando estándares comunes, seguridad y gobernanza integradas, y capacidades de autoservicio. Esto hace que sea mucho más rápido y fácil para los equipos aprovechar los datos en múltiples casos de uso actuales y futuros, lo que es especialmente crucial cuando se escala la IA dentro de un dominio específico donde los equipos de IA a menudo dependen de datos similares.
Por ejemplo, una empresa asiática de servicios financieros fue capaz de reducir el tiempo de desarrollo de nuevas aplicaciones de IA en más de un 50 por ciento, en parte mediante la creación de una capa de modelo de datos común sobre los sistemas de origen que ofrecía productos de datos de alta calidad y listos para usar en numerosas aplicaciones de IA centradas en el producto y el cliente. La empresa también estandarizó las herramientas y los procesos de gestión de datos de apoyo para crear un canal de datos sostenible, y creó activos para estandarizar y automatizar pasos que consumen mucho tiempo, como el etiquetado de datos y el seguimiento del linaje de datos (data-lineage). Esto supuso una gran diferencia con respecto al enfoque anterior de la empresa, en el que los equipos estructuraban y limpiaban los datos brutos de los sistemas de origen utilizando procesos y herramientas dispares cada vez que se desarrollaba una aplicación de IA, lo que contribuía a alargar el ciclo de desarrollo de la IA.
Otro elemento crítico para mejorar la velocidad y la productividad es el desarrollo de componentes modulares, como los conductos de datos y los modelos genéricos que son fácilmente personalizables para su uso en diferentes proyectos de IA. Consideremos el trabajo de una empresa farmacéutica mundial que desplegó un sistema de recomendación de IA para optimizar la participación de los profesionales de la salud e informarles mejor sobre más de 50 combinaciones de medicamentos, ayudando, en última instancia, a que poblaciones de pacientes más adecuadas tengan acceso a estos medicamentos y se beneficien de ellos. Al construir una plataforma central de IA y componentes modulares prefabricados, la empresa pudo industrializar una solución básica de IA que podía adaptarse rápidamente para tener en cuenta las diferentes combinaciones de medicamentos en cada mercado. Como resultado, completó este despliegue masivo en menos de un año y con solo diez equipos de proyecto de IA (un equipo global y uno en cada país objetivo), cinco veces más rápido y con menos recursos que si se hubiera entregado de la manera "tradicional". Para conseguirlo, los ejecutivos invirtieron en nuevos modelos operativos, talento y tecnologías. Por ejemplo, crearon un centro de excelencia de IA, contrataron a ingenieros de MLOps y estandarizaron y automatizaron el desarrollo de modelos para crear "conductos de producción de modelos", que aceleran el tiempo de obtención de valor y reducen los errores que pueden causar retrasos e introducir riesgos.
Mejorar la fiabilidad para garantizar el funcionamiento ininterrumpido de las soluciones de IA
Las organizaciones suelen invertir mucho tiempo y dinero en el desarrollo de soluciones de IA, solo para descubrir que la empresa deja de utilizar casi el 80 por ciento de ellas porque ya no aportan valor, y nadie puede averiguar por qué ocurre esto ni cómo solucionarlo. Por el contrario, descubrimos que las empresas que utilizan prácticas integrales de las MLOps archivan un 30 por ciento menos de modelos y aumentan el valor que obtienen de su trabajo de IA hasta en un 60 por ciento.
Una de las formas en que pueden hacerlo es integrando la supervisión continua y las pruebas de eficacia de los modelos en sus flujos de trabajo, en lugar de añadirlas a posteriori, como es habitual. La integridad de los datos y el contexto empresarial para determinados análisis pueden cambiar rápidamente con consecuencias imprevistas, lo que hace que este trabajo sea esencial para crear sistemas de IA siempre activos. Al crear un equipo de supervisión, las organizaciones deberían asegurarse, en la medida de lo posible, de que este equipo sea independiente de los otros que construyen los modelos, para garantizar la validación independiente de los resultados.
La empresa farmacéutica antes mencionada, por ejemplo, puso en marcha un equipo de supervisión interfuncional para garantizar un despliegue estable y fiable de sus aplicaciones de IA. El equipo incluía ingenieros especializados en fiabilidad de sitios, DevOps, aprendizaje automático y nube, junto con científicos de datos e ingenieros de datos. El equipo tenía una amplia responsabilidad en la gestión de la salud de los modelos en producción, desde la detección y resolución de problemas básicos, como el tiempo de inactividad del modelo, hasta problemas complejos, como la degradación del modelo. Gracias a la automatización de los flujos de trabajo clave de supervisión y gestión, y a la instauración de un proceso claro para intervenir y solucionar los problemas de los modelos, el equipo pudo detectar y resolver con rapidez los problemas e incorporar fácilmente las lecciones aprendidas en todo el ciclo de vida de la aplicación para mejorar con el tiempo. Como resultado, casi un año después del despliegue, el rendimiento del modelo sigue siendo alto, y los usuarios de la empresa siguen confiando y aprovechando los conocimientos del modelo a diario. Además, al trasladar el monitoreo y la gestión a un equipo de operaciones especializado, la empresa redujo la carga de los que desarrollan nuevas soluciones de IA, para que pueden mantener un enfoque de láser en llevar nuevas capacidades de IA a los usuarios finales.
Reducir el riesgo para garantizar el cumplimiento de la normativa y la confianza a escala
A pesar de las importantes inversiones en gobernanza, muchas organizaciones aún carecen de visibilidad sobre los riesgos que plantean sus modelos de IA y las medidas que se han tomado para mitigarlos, si es que se han tomado. Se trata de un problema importante, dado el papel cada vez más importante que desempeñan los modelos de IA en el apoyo a la toma de decisiones diaria, el aumento del escrutinio normativo y el peso del daño a la reputación, operativo y financiero al que se enfrentan las empresas si los sistemas de IA funcionan mal o contienen sesgos inherentes.
Si bien un programa sólido de gestión de riesgos impulsado por profesionales jurídicos, de riesgos y de IA debe ser la base del programa de IA de cualquier empresa, muchas de las medidas para gestionar estos riesgos dependen de las prácticas utilizadas por los equipos de IA. Las MLOps incorporan medidas integrales de mitigación de riesgos en el ciclo de vida de las aplicaciones de IA, por ejemplo, al reducir los errores manuales mediante pruebas automatizadas y continuas. Los componentes reutilizables, repletos de documentación sobre su estructura, uso y consideraciones de riesgo, también limitan la probabilidad de que se produzcan errores y permiten que las actualizaciones de los componentes se transmitan en cascada a las aplicaciones de IA que las aprovechan. Una empresa de servicios financieros que utiliza las prácticas de las MLOps ha documentado, validado y auditado los modelos desplegados para comprender cuántos modelos se utilizan, cómo se construyeron, de qué datos dependen y cómo se gobiernan. Esto proporciona a sus equipos de riesgos un rastro auditable para que puedan mostrar a los reguladores qué modelos podrían ser sensibles a un riesgo concreto y cómo lo están corrigiendo, lo que les permite evitar fuertes sanciones y daños a su reputación.
Mejor retención y adquisición de talento para implementar la IA a escala
En muchas empresas, la disponibilidad de talento técnico es uno de los mayores cuellos de botella para escalar la IA y la analítica en general. Cuando se despliegan bien, las MLOps pueden servir como parte de la propuesta para atraer y retener el talento crítico. La mayoría de los talentos técnicos se entusiasman al hacer un trabajo de vanguardia con las mejores herramientas que les permiten centrarse en problemas analíticos desafiantes y ver el impacto de su trabajo en la producción. Sin una práctica sólida de MLOps, los mejores talentos técnicos se frustrarán rápidamente al trabajar en tareas transaccionales (por ejemplo, la limpieza y la integridad de los datos) y no ver que su trabajo tiene un impacto tangible en el negocio.
El papel del director general
La implementación de MLOps requiere cambios culturales significativos para relajar formas de trabajo firmemente arraigadas y aisladas, y enfocar a los equipos en la creación de un ambiente similar al de una fábrica en torno al desarrollo y la gestión de la IA. La creación de una capacidad de MLOps cambiará materialmente la forma de trabajar de los científicos de datos, los ingenieros y los tecnólogos, ya que pasarán de las construcciones a la medida a un enfoque de producción más industrializado. Como resultado, los directores generales desempeñan un papel fundamental en tres áreas clave: establecer aspiraciones, facilitar objetivos compartidos y responsabilidades, e invertir en talento.
Establecer una aspiración clara de impacto y productividad
Como en cualquier transformación tecnológica, los directores generales pueden derribar las barreras organizacionales al expresar los valores de la empresa y sus expectativas de que los equipos desarrollen, entreguen y mantengan rápidamente sistemas que generen un valor sostenible. Los directores generales deben tener claro que los sistemas de IA operan al nivel de otros sistemas críticos para el negocio que deben funcionar 24 horas al día, 7 días a la semana, e impulsar el valor del negocio a diario. Si bien el establecimiento de la visión es clave, vale la pena ser específico en lo que se espera.
Entre las métricas de rendimiento clave que pueden defender los directores generales se encuentran las siguientes:
- el porcentaje de modelos construidos que se despliegan y aportan valor, con la expectativa de que el 90 por ciento de los modelos en producción tengan un impacto real en el negocio
- el impacto total y la rentabilidad (return on investment, o ROI) de la IA como medida de la verdadera escalabilidad
- identificación casi en tiempo real de la degradación y los riesgos del modelo, incluidos los cambios en los datos subyacentes (especialmente importante en los sectores regulados)
La realización completa de estos objetivos puede llevar de 12 a 24 meses, pero con una priorización cuidadosa de las prácticas de MLOps, muchos equipos con los que trabajamos ven un progreso significativo hacia esos objetivos en solo dos o tres meses.
Garantizar los objetivos compartidos y la responsabilidad conjunta entre los equipos de negocios, IA, datos y TI
Una de las pruebas de fuego fundamentales para tener impacto es el grado en que los objetivos se comparten entre los líderes empresariales y los respectivos equipos de IA, datos y TI. Lo ideal es que la mayoría de los objetivos de los equipos de IA y datos estén al servicio de los objetivos de los líderes empresariales. A la inversa, los líderes empresariales deberían ser capaces de articular el valor que esperan de la IA y cómo se hará realidad.
Otra medida es el nivel de colaboración en torno a las inversiones tecnológicas estratégicas para proporcionar herramientas, tecnologías y plataformas que optimicen los flujos de trabajo de la IA. Con el acelerado ritmo del cambio tecnológico, al departamento de TI a menudo se le dificulta equilibrar la necesidad de nuevas herramientas y tecnologías de IA con la preocupación de que las soluciones a corto plazo aumenten los costos tecnológicos a largo plazo. Las prácticas integrales de MLOps garantizan una hoja de ruta para reducir tanto la complejidad como la deuda técnica al integrar nuevas tecnologías.
La mayoría de los líderes de IA que conocemos dedican mucho tiempo a establecer relaciones sólidas con sus homólogos de TI para obtener el apoyo que necesitan. Pero cuando los directores generales fomentan activamente estas asociaciones, se acelera su desarrollo de manera considerable.
Invertir en la mejora de las competencias de los actuales talentos de la IA y en nuevos roles
El papel de los científicos de datos, por ejemplo, está cambiando. Mientras que antes dependían de la codificación de bajo nivel, ahora deben poseer conocimientos de ingeniería de software para ensamblar modelos a partir de componentes modulares y construir aplicaciones de IA listas para la producción desde el principio.
También han surgido nuevos roles necesarios en los equipos de IA. Uno de ellos es el del ingeniero de aprendizaje automático (ML engineer), que está capacitado para convertir los modelos de IA en sistemas de producción de nivel empresarial que funcionen de forma fiable. Para construir su equipo de ingeniería de aprendizaje automático, un minorista norteamericano combinó la experiencia existente de los desarrolladores de TI internos, que entendían y podían navegar eficazmente por los sistemas de la organización, con nuevas contrataciones externas que aportaron una amplia experiencia en las MLOps de diferentes industrias.
La IA ya no es solo una frontera para la exploración. Mientras que las organizaciones se dan cuenta cada vez más del valor de las aplicaciones de IA, muchas no logran escalarlas porque carecen de las prácticas operativas, las herramientas y los equipos adecuados. A medida que la demanda de IA ha aumentado, también lo ha hecho el ritmo de las innovaciones tecnológicas que pueden automatizar y simplificar la creación y el mantenimiento de los sistemas de IA. Las MLOps pueden ayudar a las empresas a incorporar estas herramientas con prácticas de ingeniería de software probadas para acelerar el desarrollo de sistemas de IA fiables. Con el conocimiento de lo que pueden hacer las buenas MLOps y de las palancas que deben accionar, los directores generales pueden facilitar el cambio hacia un desarrollo y una gestión más sistemáticos de la IA.