Skip to main content

Hacia una inteligencia artificial responsable en las organizaciones

Los valores corporativos pueden servir como guía para aplicar la inteligencia artificial de manera adecuada, pero es necesario que los directores ejecutivos le brinden una orientación todavía más amplia al personal de sus empresas.

Los directores ejecutivos se suelen regir por cifras: rentabilidad, resultados antes de interés e impuestos, y retorno de la inversión. Por lo general, estos datos se toman como prueba contundente del éxito o fracaso de un CEO, aunque definitivamente no son el único criterio de evaluación. Hay otros factores, más «blandos» pero no menos importantes, como tomar decisiones acertadas que crean valor sin acarrear consecuencias negativas.

Si bien la inteligencia artificial (IA) se está sumando rápidamente a las nuevas herramientas de los directores ejecutivos, también queda claro que para implementar la inteligencia artificial hace falta una gestión cuidadosa para evitar daños no intencionales pero significativos, no solo para la reputación de una marca, sino también para los trabajadores, las personas y la sociedad en su conjunto.

Una multitud de empresas, gobiernos y organizaciones sin fines de lucro está empezando a beneficiarse a raíz del valor de la inteligencia artificial. Las investigaciones realizadas por McKinsey entre 2017 y 2018 indican que la cantidad de empresas que incorporaron al menos una capacidad de IA a sus procesos de negocios creció más del cincuenta por ciento, y casi todas las empresas que aplican IA informan haber logrado un determinado nivel de valor.

Adoptar la inteligencia artificial requiere de una gestión cuidadosa para evitar daños no intencionales pero significativos, no solo para la reputación de una marca sino, lo que es más importante, también para los trabajadores, las personas y la sociedad en su conjunto.

Sin embargo, no nos sorprende que, a medida que la IA potencia a las empresas y a la sociedad, los directores ejecutivos estén expuestos y deban garantizar que las empresas a su cargo utilicen los sistemas de IA de manera responsable, más allá del cumplimiento de la legislación aplicable en todos sus aspectos. Se están dando debates éticos acerca del «bien» y el «mal» en el uso de aplicaciones de IA de alta sensibilidad, como es el caso de las armas y los sistemas de vigilancia autónomos. A eso se suman una enorme preocupación y escepticismo acerca de cómo podemos dotar a los sistemas de IA de un discernimiento humano y ético, siendo que los valores morales con frecuencia varían según cada cultura y pueden ser difíciles de codificar en un software.

Si bien estos grandes cuestionamientos morales afectan a un grupo selecto de organizaciones, casi todas las empresas tienen que lidiar con otro nivel de consideraciones éticas, puesto que hasta los usos aparentemente inocuos de la IA pueden tener graves consecuencias. Los casos de prejuicios, discriminación y violación de la privacidad a través de la IA abundan en las noticias. Es entendible, entonces, ver que los líderes de las organizaciones se preocupan por asegurarse de que no ocurra nada malo cuando implementen sus sistemas de IA.

Casi con seguridad, la mejor solución no es evitar la IA por completo —el valor en juego puede ser muy significativo y hacer la primera movida en el juego de la IA tiene sus ventajas. La alternativa para las organizaciones es asegurarse de desarrollar y aplicar la IA de manera responsable, ocupándose de confirmar que los resultados de la IA sean equitativos, que los nuevos niveles de personalización no deriven en discriminación, que la obtención y el uso de datos no sean a costa de la privacidad de los usuarios, y que sus organizaciones equilibren el rendimiento de sus sistemas con la transparencia en las predicciones de sus sistemas de IA.

La opción lógica sería dejar estas inquietudes en manos de líderes y equipos dedicados a la ciencia de datos, ya que son los expertos en el funcionamiento de la IA. Sin embargo, nuestro trabajo nos demuestra que el rol del CEO es vital para lograr sistemas responsables de IA en toda su organización. Además, el CEO debe tener al menos un sólido conocimiento operativo del desarrollo de la IA para cerciorarse de formular las preguntas correctas y así evitar posibles conflictos éticos. En este artículo, aportamos este conocimiento junto con un enfoque práctico para que los directores ejecutivos tengan la certeza de que sus equipos desarrollen sistemas de IA que los hagan sentir orgullosos.

Explicar y desglosar valores corporativos

En el mundo corporativo actual, donde las organizaciones suelen tener muchas partes dinámicas, una toma de decisiones distribuida y trabajadores empoderados para innovar, los valores corporativos son una guía importante para los empleados — desde un gerente de marketing que decide una campaña publicitaria hasta un científico de datos que determina dónde aplicar IA y cómo desarrollarla. Aun así, llevar estos valores a la práctica cuando se desarrolla y aplica IA no es tan sencillo como parece. Plasmar un valor en una declaración general y breve no siempre es la manera más clara de orientar a las personas en un mundo donde el «bien» y el «mal» pueden ser ambiguos, y el límite entre lo innovador y lo ofensivo es muy difuso. Los directores ejecutivos pueden brindar orientación crítica en tres áreas clave (Grafico 1).

We strive to provide individuals with disabilities equal access to our website. If you would like information about this content we will be happy to work with you. Please email us at: McKinsey_Website_Accessibility@mckinsey.com

1. Aclarar cómo se plasman los valores en la selección de las aplicaciones de IA.

Es necesario que los líderes expliquen y desglosen las declaraciones de principios generales. Para ello, pueden recurrir a ejemplos que muestren cómo cada valor de la empresa se plasma en elecciones de la vida real que los equipos de analítica realizan acerca de los procesos (y las decisiones) que deberían automatizarse.

Hemos visto algunos ejemplos muy buenos de cómo las empresas usan «mapas conceptuales» para plasmar sus valores corporativos en una guía concreta para determinar cuándo y cómo utilizar IA. Una firma que brinda servicios financieros en Europa realizó un mapeo sistemático de sus valores corporativos y los riesgos que la IA implicaba para su reputación. Gracias a este ejercicio, la firma decidió que, si bien aplicaría IA para recomendar nuevos servicios a sus clientes, siempre debería incluir un “humano en el proceso” al asesorar a sus clientes en situación de vulnerabilidad financiera o que hayan perdido a un ser querido recientemente.

Además de liderar ejercicios de mapeo, los directores ejecutivos deberían pedirles a las empresas y a los encargados de analítica que expliquen cómo interpretan los valores en su trabajo y cómo aplican estos valores para tomar mejores decisiones. Esto permite iniciar conversaciones para detectar y aclarar zonas grises.

2. Brindar orientación sobre definiciones y criterios de medición para analizar la IA, detectar prejuicios y garantizar equidad.

Las declaraciones de principios pueden ser insuficientes para explicar el modo en que conceptos como prejuicios y equidad se miden al evaluar soluciones de IA. Por ejemplo, cuando los científicos de datos analizan un sistema automatizado para seleccionar curriculum vitae, pueden aplicar un criterio de medición que asegure la selección de porcentajes similares de postulantes (paridad) o bien un criterio que permita predecir de forma equitativa el éxito a futuro de los postulantes (igualdad de oportunidades); si la empresa para la cual trabajan desea incrementar la representatividad en su personal, pueden desarrollar un sistema que recomiende un conjunto diverso de postulantes.

En definitiva, es necesario que los líderes guíen a sus equipos para que definan y apliquen los criterios de medición que mejor armonicen la IA con los valores y objetivos de la empresa. Los directores ejecutivos deben dejar en claro cuáles son exactamente los valores y objetivos de la empresa en distintos contextos, pedirles a sus equipos que articulen valores en el contexto de la IA e incentivar un proceso colaborativo para definir criterios de medición. En respuesta a las inquietudes de sus empleados respecto de proyectos de IA para el sector de defensa, Google generó un conjunto amplio de principios para definir los conceptos de prejuicios e IA responsable y luego complementó este conjunto de principios con herramientas y capacitación para su personal. Gracias a un módulo de capacitación técnica sobre el concepto de equidad, más de 21000 empleados aprendieron maneras en que los prejuicios pueden surgir en datos sobre capacitación e incorporaron técnicas para su detección y mitigación.

3. Comunicar la jerarquía de los valores corporativos.

Los desarrollos de IA siempre implican compensaciones. Por ejemplo, cuando se desarrolla un modelo, se suele percibir una compensación entre la precisión del algoritmo y la transparencia de su proceso de toma de decisiones, o cuán sencillo resultará explicarles las predicciones a los grupos de interés de la empresa. Un foco excesivo en la precisión puede derivar en una «caja negra» de algoritmos donde nadie pueda decir con certeza por qué un sistema de IA realizó tal o cual recomendación. Del mismo modo, cuanto mayor sea el volumen de datos analizados en los modelos, mayor será la precisión de sus predicciones y, a menudo, también habrá más inquietudes en materia de privacidad.

La diversidad de integrantes en un equipo aporta también diversidad de experiencias, lo cual posibilita enfoques innovadores necesarios para resolver problemas complejos y evitar prejuicios.

Entonces, ¿qué debería hacer un equipo encargado de desarrollar un modelo, por ejemplo, si los valores de su empresa contemplan desarrollar los mejores productos y siempre garantizar la satisfacción de sus clientes? Es necesario el criterio empresarial de los líderes para ayudar a sus equipos a tomar las mejores decisiones posibles en el proceso de acordar compensaciones.

Los líderes también deberían hacer hincapié en los valores de diversidad de su organización y asegurarse de que se plasmen en la diversidad de sus equipos de analítica. La diversidad de los integrantes en un equipo aporta también diversidad de experiencias, lo cual posibilita enfoques innovadores para resolver problemas complejos y evitar prejuicios. Por ejemplo, un equipo íntegramente masculino que desarrolla un modelo para analizar curriculum vitae podría elaborar la hipótesis de que la continuidad laboral es un indicador de buen desempeño, sin tener en cuenta la necesidad de modificar su hipótesis para contemplar la licencia por maternidad en el historial laboral. Sin embargo, con la diversidad de género no alcanza. Los líderes también deberían promover otras clases de diversidad, como la diversidad generacional, étnica, académica y cultural para cerciorarse de que sus equipos representan un amplio abanico de experiencias y perspectivas.

Más allá de los valores: cinco áreas que requieren liderazgo desde los niveles más altos

Asegurarnos de que los valores corporativos se puedan aplicar más fácilmente a las decisiones en el proceso de desarrollo de IA es fundamental para desarrollar IA con responsabilidad, pero no es suficiente. En muchos casos, científicos de datos con buenas intenciones y equipos talentosos en el campo de la ciencia de datos se adentraron involuntariamente en terrenos pantanosos y sus organizaciones quedaron atrapadas en un torbellino de prensa negativa. Sumado a ello, los avances en las técnicas y el uso cada vez más amplio de la IA complican esta situación, ya que modifican continuamente el marco de acción de los científicos. Por lo tanto, los directores ejecutivos deben indagar más a fondo, instando a sus equipos de analítica a evaluar sus acciones en cinco áreas clave de cara al fragor de la opinión pública.

1. Adquisición de datos apropiada

Los datos son el combustible de la inteligencia artificial. En general, a mayor cantidad de datos destinados a entrenar sistemas, mayor precisión y profundidad de las predicciones. Sin embargo, la presión para que los equipos de analítica generen ideas innovadoras puede derivar en el uso de datos de terceros o en el redireccionamiento de datos de clientes con fines que, si bien no están alcanzados por las normas vigentes, son percibidos como incorrectos por los consumidores. Por ejemplo, una empresa prestadora de atención médica podría comprarle información sobre sus pacientes (como los restaurantes que frecuentan o el tiempo que pasan frente a la televisión) a un agente de datos para ayudar a su plantel médico a evaluar los riesgos de salud de cada paciente. El sistema de salud considera que la adquisición y el uso de estos datos obedece al mejor interés de sus pacientes (después de todo, las consultas son breves y este conocimiento puede orientar a los médicos acerca de los riesgos de salud más graves de las personas a las que atienden). Sin embargo, muchos pacientes consideran que esto invade su privacidad y se preocupan porque los datos pueden dar un panorama incompleto de sus vidas y derivar en recomendaciones médicas innecesarias o imprecisas.

La presión para que los equipos de analítica generen ideas innovadoras puede derivar en el uso de datos de terceros o en el redireccionamiento de datos de clientes con fines que, si bien no están alcanzados por las normas vigentes, son percibidos como incorrectos por los consumidores.

Como resultado, los líderes deben estar atentos y preguntarles a sus equipos de ciencia de datos por el origen de la información obtenida y el modo en que piensan utilizarla. También es necesario que los equipos se cuestionen cómo pueden reaccionar los consumidores y la sociedad en general al enfoque que piensan poner en práctica. Por ejemplo, una institución financiera que quería ampliar su cobertura a las personas en situación de vulnerabilidad económica desarrolló capacidades para identificar conductas digitales que indicaban posibles problemas de salud mental. Sin embargo, si bien sus intenciones eran buenas, la institución optó por no incluir este aspecto en la versión final de su sistema de IA por la posible reacción de sus clientes ante esa clasificación.

2. Pertinencia de los datos

Garantizar que los datos reflejen con precisión a todos los grupos analizados es un tema sumamente delicado, puesto que la falta de representación adecuada de determinados sectores puede tener distintos impactos para distintos grupos. Por ejemplo, un sistema de reconocimiento facial entrenado con datos que incluyen una cantidad significativamente mayor de imágenes de hombres blancos puede fallar en la identificación de mujeres, como también de personas de distinto origen étnico. Los prejuicios raciales y de género, entre otros, son los más frecuentes. Eso no quita que los líderes consideren el impacto de otras tendencias un tanto más superficiales, como la elección de periodos de tiempo, con datos destinados a entrenar un algoritmo de mantenimiento predictivo que no detecta fallas porque solamente abarca datos de un periodo de nueve meses en lugar de varios años.

La experiencia nos muestra casos de científicos de datos muy dedicados a su tarea que, inmersos en plazos que cumplir y una gran cantidad de datos, pueden creer que cubrieron todos los frentes cuando, en realidad, no es ese el caso. Por ejemplo, hemos visto como muchos equipos en el área de analítica excluyen variables protegidas al desarrollar un modelo y no verifican si confluyen con otras variables, como sucede con los códigos postales y los datos sobre ingresos.

Por consiguiente, los líderes tienen que plantearles preguntas con el suficiente nivel de detalle a sus equipos de ciencia de datos para entender cómo hicieron el muestreo de datos para preparar sus modelos. ¿Los datos reflejan poblaciones reales? ¿Incluyeron datos pertinentes para grupos minoritarios? Cuando se realicen pruebas de rendimiento durante el desarrollo y la puesta en práctica del modelo ¿van a surgir problemas con los datos? ¿Qué puede estar faltando?

3. Equidad de los resultados de la inteligencia artificial

Aun cuando los datos reflejen poblaciones reales, los resultados del modelo de IA pueden no ser equitativos a causa de prejuicios históricos. Los algoritmos de aprendizaje automático, que son el motor de los avances más recientes en IA, detectan patrones, y formulan predicciones y recomendaciones, a partir de datos y experiencia. Estos algoritmos no conocen el contexto de aplicación de sus decisiones o sus implicancias. En consecuencia, los sesgos y juicios humanos históricos pueden afectar a las predicciones en un amplio espectro: desde qué internos penitenciarios deberían recibir su libertad condicional hasta qué clientes deberían obtener un préstamo, cuáles deberían ser las ofertas especiales o qué candidatos entrevistar para un puesto de trabajo. Incluso las organizaciones sofisticadas pueden caer en la inercia de industrializar o perpetuar prejuicios históricos. Eso le sucedió a una empresa líder en el campo de la tecnología que descubrió que su algoritmo de selección de curriculum vitae discriminaba a favor de los postulantes masculinos porque, históricamente, los que ocupaban el puesto vacante eran hombres.

Por lo tanto, quienes están en puestos de liderazgo necesitan delinear y garantizar la implementación de un proceso centrado en la «equidad desde el diseño» — primero, estableciendo definiciones y criterios de medición para evaluar la equidad, tal como describimos previamente, y luego haciendo un seguimiento constante de los equipos dedicados a la ciencia de datos para que tengan en cuenta la equidad en las siguientes acciones a lo largo de todo su trabajo:

  • Elección de los datos. Lograr el máximo nivel de equidad no es algo tan claro como eliminar un atributo protegido o justificar un prejuicio histórico de manera artificial. Por ejemplo, excluir el género de la aplicación para seleccionar curriculum vitae podría generar una falsa sensación de equidad, como sucedió con la empresa tecnológica de nuestro ejemplo anterior. Del mismo modo, exagerar la proporción de postulantes femeninas en los datos puede igualar las condiciones para las mujeres pero generar resultados injustos para las demás categorías de postulantes. Es importante que los líderes hablen con sus equipos acerca de los prejuicios humanos históricos que podrían afectar a sus sistemas de IA y qué puede hacer la empresa ante esta situación. En este caso, para garantizar que las postulantes mujeres estén mejor representadas, una empresa quizás tenga que recabar datos sobre género para medir el impacto de la inclusión de género, pero no usar esos datos al preparar su modelo de IA. Si bien la recolección de atributos protegidos o de carácter sensible puede ser esencial para demostrar que un sistema de IA funciona con equidad, es imperativo contar con una estricta gestión de datos para garantizar que no se los utilice con otro fin.
  • Elección de «características» de los datos sin procesar. Al construir algoritmos, los científicos de datos deben elegir los elementos (conocidos como características) de los datos sin procesar (o «datos en crudo») que un algoritmo debería tener en cuenta. En el caso del sistema para seleccionar curriculum vitae, estas características podrían incluir el tiempo de permanencia de los postulantes en su empleo anterior, su nivel educativo, o los programas de computación que saben usar. La elección de estas características es un proceso iterativo y, en cierto modo, un arte. Los científicos de datos suelen trabajar con expertos de la empresa para generar hipótesis acerca de qué características considerar, identificar los datos necesarios, hacer una prueba y repetir el proceso. El desafío que enfrentan es que, si miden el desempeño del modelo sobre la base de un solo criterio de medición (como la exactitud de sus predicciones), corren el riesgo de pasar por alto realidades que podrían tener un impacto sobre la equidad. Por ejemplo, una hipótesis para considerar el tiempo de permanencia en puestos anteriores quizás no tenga en cuenta los cambios laborales frecuentes de los cónyuges de miembros de las fuerzas armadas a causa de sus traslados. Los líderes que incentivan el uso de un amplio espectro de criterios de medición por parte de sus equipos para evaluar el desempeño de los modelos que crean y seleccionar características en el marco de las metas corporativas más integrales contribuyen a garantizar la equidad.
  • Desarrollo, evaluación y monitoreo de modelos.< Es fácil suponer que, si los equipos eligen datos y características acertadamente, el algoritmo que generen los conducirá a un resultado equitativo. Sin embargo, hay al menos una decena de técnicas de uso frecuente en la construcción de modelos y los distintos enfoques (o sus combinaciones) pueden conducir a resultados diferentes para los mismos datos y características. En la etapa de desarrollo, los equipos suelen hacer pruebas para medir el desempeño del modelo (por ejemplo, para verificar si el desempeño es el esperado) y están convocando cada vez más a equipos especialmente entrenados dentro de su organización, y también a proveedores externos, para llevar a cabo pruebas adicionales. Esta misma disciplina se debería aplicar cuando se evalúan los modelos de cara a la definición de equidad de la empresa y sus criterios para medir este valor. Así como el desempeño del modelo se debería monitorear durante todo el ciclo de vida de un sistema de IA, también tiene que haber equipos especializados en riesgo para monitorear la equidad del modelo y así garantizar que no surjan prejuicios en el trascurso del tiempo a medida que los sistemas integren nuevos datos «en crudo» a su proceso de toma de decisiones. Por ejemplo, una empresa líder del sector farmacéutico aplicó modelos de aprendizaje automatizado para detectar sedes para ensayos clínicos con la mayor probabilidad de tener problemas en cuanto a la seguridad de los pacientes o el cumplimiento de las normas aplicables —las primeras versiones de los modelos fueron evaluadas en base a la realidad en distintas sedes, y los cientos de resultados obtenidos a través de los usuarios se ajustaron para detectar todo tipo de anomalías.

4. Cumplimiento regulatorio y compromiso

En el pasado, las organizaciones cuyas actividades no estaban reguladas, como sucede con el sector bancario y de atención médica, tenían estándares menos exigentes en cuanto a la protección de la privacidad de los datos. A la luz de las reglamentaciones vigentes y recientemente aprobadas, como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea o la Ley de Privacidad del Consumidor de California (CCPA), todos los líderes se vieron obligados a reexaminar la manera en que sus organizaciones usan los datos de sus consumidores y reinterpretar cuestiones regulatorias como el derecho a ser evaluado por un humano, el derecho al olvido y la creación de perfiles automáticos. En tal sentido, podemos citar el caso de las empresas de telecomunicaciones en Estados Unidos que se comprometieron a dejar de venderles datos a las empresas que comercializan bases de datos a la luz de las denuncias de uso de datos privados de los consumidores sin su consentimiento. Corresponde que los líderes consulten a sus equipos acerca de las normativas aplicables a su trabajo y la manera de garantizar su cumplimiento, pero también que se cercioren de que sus equipos de ciencia de datos, asuntos legales y cumplimiento regulatorio trabajen en conjunto para definir criterios claros para corroborar el cumplimiento de las normas aplicables en todas las iniciativas de IA.

Además, quienes ejercen roles de liderazgo deben incentivar un cambio de mentalidad en sus organizaciones: del cumplimiento a la creación conjunta. De esta manera, pueden compartir el conocimiento técnico y comercial de la empresa cuando se desarrollen nuevas normativas. Un proyecto implementado recientemente en el Reino Unido, en el cual participaron la Autoridad de Conducta Financiera (FCA, entidad reguladora del sector bancario) y el sector bancario de ese país, nos brinda un modelo para este nuevo enfoque de trabajo en conjunto. La FCA y el sector bancario se asociaron para crear un «entorno de prueba para normas regulatorias» donde los bancos pueden experimentar con enfoques de IA que cuestionan o están por fuera de las normas regulatorias vigentes, como el uso de nuevos datos para mejorar la detección de estafas o la predicción de las tendencias de un cliente a adquirir nuevos productos.

5. Explicabilidad del modelo

Existe la tentación de creer que, si un modelo complejo funciona según lo esperado, los beneficios logrados son más importantes que el hecho de no comprender cómo funciona el modelo. De hecho, no comprender cómo un algoritmo realizó una predicción puede ser aceptable en algunos casos. Por ejemplo, una aplicación médica clasifica imágenes para predecir de manera adecuada, uniforme y precisa qué tipo de manchas en la piel tienen un alto riesgo de derivar en cáncer. Es poco probable que a un paciente le preocupe si el modelo utiliza el tono de la mancha, su forma, su cercanía a otra mancha en la piel, o cualquier otra característica en el millón de atributos que permiten formular esta recomendación. En definitiva, lo que le preocupa al paciente es si la recomendación es correcta o no y, en el caso de un paciente de alto riesgo, cuáles son sus opciones ante este pronóstico.

Poder explicarles los resultados de un modelo a los grupos de interés es un factor sumamente importante para asegurar el cumplimiento de la creciente cantidad de normas regulatorias y expectativas del público, como también para fomentar la confianza en el modelo y así acelerar su adopción.

En otros casos, por el contrario, la opacidad de un modelo resulta inaceptable (por ejemplo, es razonable que quienes se postulan para un préstamo o un puesto de trabajo quieran saber por qué fueron rechazados) y hasta puede impedir la adopción y el uso del modelo (por ejemplo, el encargado de una tienda probablemente desee entender por qué el sistema recomienda un mix de productos en particular para los clientes de su tienda antes de seguir esa recomendación). Poder explicarles los resultados de un modelo a los grupos de interés es un factor sumamente importante para asegurar el cumplimiento de la creciente cantidad de normas regulatorias y expectativas del público, como también para fomentar la confianza en el modelo y así acelerar su adopción. La capacidad de poder explicar un modelo hace que los especialistas, el personal que está en contacto con el público y los científicos de datos tengan un lenguaje en común para analizar los resultados de sus modelos y así eliminar todo posible prejuicio mucho tiempo antes de su lanzamiento.

La incipiente disciplina de la «IA explicable» se está desarrollando rápidamente y está empezando a facilitar herramientas —como SHAP (SHapley Additive exPlanations), LIME (Local Interpretable Model-Agnostic Explanations) y atlas de activación— capaces de quitar el velo de misterio de las predicciones de la IA.

Para garantizar que los resultados de los modelos se les puedan explicar a los grupos de interés, quienes tienen roles de liderazgo deben indagar a sus equipos de ciencia de datos acerca de los tipos de modelos que utilizan. Por ejemplo, pueden pedir que sus equipos les demuestren que han elegido el modelo más sencillo y efectivo (y no la última versión de una red neuronal compleja) y exigirles que puedan explicar las técnicas dentro del modelo que son opacas por naturaleza (Gráfico 2). Un equipo de analítica en una empresa de medios aplica frecuentemente estas técnicas de IA explicable en sus informes de marketing para que su equipo ejecutivo pueda entender no solo cuáles son los clientes con más probabilidad de dejar la empresa sino también sus motivos. La inteligencia artificial explicable permite aplicar modelos predictivos más eficaces y hace posible que el equipo de marketing adopte acciones preventivas sobre la base de los datos del modelo para evitar la pérdida de clientes.

We strive to provide individuals with disabilities equal access to our website. If you would like information about this content we will be happy to work with you. Please email us at: McKinsey_Website_Accessibility@mckinsey.com

No hay respuestas fáciles. Aun así, los líderes que explican y desglosan los valores de su empresa, arman equipos con diversidad de perspectivas, crean un lenguaje y un conjunto de puntos de referencia para orientar los proyectos de IA, e interactúan frecuentemente con los equipos que desarrollan IA en su organización (y también los cuestionan), están bien posicionados para crear y aplicar IA de manera responsable.

Lo más importante es que la inteligencia artificial responsable genera la confianza de empleados y consumidores. Los empleados van a confiar en los resultados de la IA y estarán más dispuestos a aplicarlos en su trabajo diario, y querrán ayudar a generar nuevas maneras de aplicar la IA para generar valor. La confianza de los consumidores nos habilita a usar sus datos de manera correcta. Estos datos son, precisamente, la materia prima con la cual mejoramos constantemente la inteligencia artificial. Los consumidores van a estar dispuestos a usar productos que incorporen IA porque confían en nuestra organización. También estarán felices de usar estos productos porque mejoran todo el tiempo. Se trata de un círculo virtuoso que mejora la reputación de nuestra marca y la capacidad de nuestra organización de innovar y competir. Y, lo que es más importante, hace que la sociedad disfrute los beneficios de la IA en lugar de padecer sus consecuencias no deseadas. Definitivamente, esto es motivo de orgullo.

Sobre los autores

Roger Burkhardt es socio de McKinsey con base en la oficina de Nueva York; Nicolas Hohn es experto sénior en QuantumBlack, una empresa de McKinsey con sede en Melbourne; y Chris Wigley es socio de QuantumBlack con base en Londres.