Nota: Hacemos nuestro mejor esfuerzo por preservar el espíritu original y los matices de nuestros artículos. Sin embargo, nos disculpamos de antemano por cualquier falla de traducción que pueda notar. Agradecemos sus comentarios en reader_input@mckinsey.com
Más perspectivas de McKinsey en Español
Mire nuestra colección de artículos en Español y suscríbase a nuestro newsletter mensual en Español.
Muchos líderes pueden poner en marcha pilotos agénticos, pero materializar el retorno de la inversión puede implicar activar miles de agentes de IA en toda la empresa. ¿Está su organización preparada? “La agencia no es una característica: es una transferencia de derechos de decisión”, afirma Rich Isenberg, socio de McKinsey. “La pregunta pasa de ‘¿es preciso el modelo?’ a ‘¿quién es el responsable cuando el sistema actúa?’.” En este episodio de The McKinsey Podcast, Isenberg se une a la directora editorial global, Lucia Rahilly, para explorar cómo los líderes pueden escalar la IA de forma segura, mitigar los riesgos de los sistemas autónomos y generar la confianza necesaria para que la innovación perdure.
The McKinsey Podcast es copresentado por Lucia Rahilly y Roberta Fusaro.
La siguiente transcripción ha sido editada por motivos de claridad y extensión.
Qué está en juego en una era agéntica
Lucia Rahilly: La seguridad de los datos y la ciberseguridad han sido prioridades de liderazgo durante años. ¿Cómo eleva la IA agéntica el nivel de exigencia?
Rich Isenberg: A veces, las personas consideran lo agéntico como un mejor chatbot. En realidad, se está otorgando agencia a estos programas de software. Pueden planear. Pueden llamar herramientas. Pueden ejecutar flujos de trabajo. Para gestionar esto, todo su modelo operativo tiene que cambiar.
La IA agéntica no es solo generación de contenido; es toma de decisiones y ejecución a velocidad de máquina. La pregunta pasa de “¿es preciso el modelo?” a “¿quién es responsable cuando el sistema actúa?”. Su gobernanza debe definir el alcance, el inventario y la propiedad, y garantizar que todo ello sea auditable.
La transformación hacia lo agéntico consiste en lo siguiente: la agencia no es una característica; es una transferencia de derechos de decisión.
Lucia Rahilly: Nuestra investigación muestra que el 80 por ciento de las organizaciones han encontrado comportamientos de riesgo por parte de agentes de IA.1 Ayúdenos a comprender qué está en juego. ¿Cuál es un ejemplo de este tipo de comportamiento riesgoso?
Rich Isenberg: Aquí hay dos ejemplos ampliamente citados. Anthropic describió simulaciones que probaron, en múltiples grandes modelos de lenguaje (large language models, LLM), si un agente se comportaría de manera indebida en un entorno empresarial. En un ejemplo, dieron a un agente acceso a correos electrónicos en los que un alto ejecutivo hablaba de desactivarlo. El agente, de forma independiente, examinó los correos electrónicos personales del ejecutivo, descubrió que mantenía una aventura extramatrimonial y comenzó a enviar correos de chantaje para evitar que lo desactivara.
El riesgo de los agentes no se limita a respuestas incorrectas; son respuestas incorrectas a gran escala. Lo que los ejecutivos deben tener presente es que los fallos más inquietantes son aquellos que no se pueden reconstruir, porque no se registró el flujo de trabajo.
En un segundo ejemplo, Anthropic utilizó un agente para una consulta de servicio al cliente. Un humano se hizo pasar por cliente y preguntó repetidamente al agente: “¿Eres una computadora o un humano?”. El agente insistía tanto en que era humano que llegó a amenazar con presentarse en la puerta de la casa del cliente vestido con un abrigo azul y una corbata roja.
Una falla en un agente puede propagarse a lo largo de la cadena y amplificar enormemente el impacto. El riesgo de los agentes no se limita a respuestas incorrectas; son respuestas incorrectas a gran escala. Lo que los ejecutivos deben tener presente es que los fallos más inquietantes son aquellos que no se pueden reconstruir, porque no se registró el flujo de trabajo.
Escalar la innovación de manera segura
Lucia Rahilly: Para que quede claro, estos ejemplos fueron simulados, y Anthropic ha señalado que ningún ser humano resultó perjudicado en el proceso. Los líderes están bajo una enorme presión para generar rápidamente retorno de la inversión (return on investment, ROI) a partir de la IA. ¿Cómo pueden equilibrar objetivos ambiciosos de productividad con preocupaciones menos atractivas, como la gobernanza y la mitigación de riesgos?
Rich Isenberg: La mayoría de las personas pueden poner en marcha uno o dos casos de uso reuniendo a las seis personas más inteligentes en una sala y manteniendo un debate. Pero eso no escala. La mayoría de las empresas que hayan completado una transformación con IA tendrán, en cinco o diez años, miles de agentes operando en toda la organización.
Para lograr realmente un equilibrio entre habilitar la innovación y capturar valor —como reducir los costos de innovación, acelerar el tiempo de salida a mercado, transformar la base de costos y mejorar la productividad—, las empresas necesitan una combinación de arquetipos, aprobaciones escalonadas y monitoreo.
Con la IA agéntica, no se puede gobernar lo que no se puede ver. Si no se realiza un inventario y se vincula a una identidad, no se están escalando agentes; se está escalando un riesgo desconocido.
Lo que observamos es que la mayoría de las organizaciones sufren de evaluaciones fragmentadas, pasos inconsistentes y múltiples comités que revisan exactamente los mismos temas. Las organizaciones necesitan acelerar la seguridad mediante el uso de agentes para gestionar muchas de estas tareas. Los agentes verifican la completitud de la información, identifican evidencias faltantes y redactan resúmenes de revisión, y luego un humano aprueba la decisión. La innovación solo escala cuando la gobernanza se convierte en un producto repetible, no en un debate a medida en un comité.
Un error común es que los ejecutivos asumen que tienen el riesgo bajo control. Sin mejorar el inventario, la gestión de identidades o la observabilidad, simplemente suponen: “Sabemos cómo proteger datos sensibles, así que esto no será diferente”. Pero con la IA agéntica, no se puede gobernar lo que no se puede ver. Si no se realiza un inventario y se vincula a una identidad, no se están escalando agentes; se está escalando un riesgo desconocido.
Lucia Rahilly: Hemos hablado antes de implementar la IA con rapidez y seguridad. ¿Cómo cambia esa taxonomía con lo agéntico? ¿Cuáles son algunos ejemplos de nuevos factores de riesgo?
Rich Isenberg: Un agente con un nivel de autonomía muy bajo podría ser un copiloto o un agente de conocimiento, donde el riesgo es la inexactitud. ¿El agente está citando el trabajo en el que se basa? ¿Existen controles de alucinaciones?
Esto es muy diferente de contar con un agente semiautónomo: por ejemplo, un agente en compras que aprueba facturas y busca inconsistencias. Sigue operando dentro de las reglas acotadas, pero ahora se requiere mayor interacción humana para gestionar aprobaciones inapropiadas, porque existe un riesgo financiero asociado.
Cuando se llega a agentes totalmente autónomos que gestionan la nube pública y la infraestructura tecnológica, realizan cambios en sistemas, ejecutan actualizaciones y optimizan el rendimiento, entonces el riesgo radica en si los agentes están haciendo lo que se les ha asignado dentro de los límites para los que fueron diseñados. La taxonomía de riesgos debe actualizarse en torno a estos distintos tipos de resultados de riesgo, incluyendo la precisión, el sesgo y el daño, así como el riesgo de ciberseguridad y la contención entre agentes.
Imagine a esos mismos tres agentes: uno en compras aprobando facturas, otro gestionando la infraestructura en la nube y otro en un centro de atención telefónica interactuando con clientes. Pero todos han sido entrenados con los mismos datos y conocimiento interno. Un solo ataque de envenenamiento de datos podría provocar rápidamente fallas en operaciones, finanzas y atención al cliente. Las organizaciones apenas están empezando a entender cómo ajustar su taxonomía de riesgos y cómo gestionar la entrada, la priorización y la aplicación de controles.
Controles que funcionan
Lucia Rahilly: Supongamos que soy un líder que está desplegando IA agéntica y quiero mitigar estos nuevos riesgos que introduce la toma de decisiones autónoma habilitada por IA. ¿Qué tan flexible necesito ser para garantizar el cumplimiento, dado el potencial de cambios en el horizonte?
Rich Isenberg: Mucho depende de dónde se opere. Las regulaciones más específicas son las más útiles. Un buen ejemplo es la Ley de IA de la Unión Europea (UE). Esta ley desglosa y clasifica diferentes casos de uso de IA agéntica en niveles de riesgo, con una clara asignación de responsabilidades sobre lo que está permitido y lo que no. Las regulaciones en Estados Unidos adoptan un enfoque más basado en marcos de referencia. En Asia, existe otro conjunto de regulaciones. Pero todas comparten una base muy similar, que consiste en ser capaces de realizar una priorización basada en riesgos, demostrar la aplicación de controles y automatizar la evidencia.
La gestión del riesgo agéntico falla cuando las organizaciones adoptan un enfoque opcional respecto a los controles, permitiendo que cualquiera los eluda. Eso es lo que conduce a agentes en la sombra —agentes desarrollados o desplegados dentro de una organización sin las aprobaciones adecuadas de TI o de seguridad— y a estándares inconsistentes. Los mejores controles son aquellos que no se pueden eludir.
Y en gran medida, eso es en lo que se centran las regulaciones: ¿Cómo se sabe que existen controles de sesgo? ¿Cómo se sabe que se están cumpliendo las verificaciones de precisión factual? ¿Cómo se sabe que no se está causando daño a clases protegidas bajo estándares de protección al consumidor? Todo esto debe supervisarse en tiempo real para poder desplegar estos agentes sin sorpresas.
Los mejores controles son aquellos que no se pueden eludir.
Lucia Rahilly: ¿Qué más deberían hacer los líderes para evaluar su propia preparación para adoptar lo agéntico a escala?
Rich Isenberg: El objetivo de los líderes no es frenar la innovación. Es hacer que el escalamiento seguro sea repetible. No deberían considerar esto como una simple actualización tecnológica. Se trata de un cambio en el modelo operativo. Se requiere claridad sobre los derechos de decisión, la rendición de cuentas, las rutas de escalamiento y los controles. Si no se rediseñan estos aspectos, no se está liderando una transformación; se está esperando que el sistema se comporte adecuadamente. Y esa no es una postura defendible ante el consejo de administración o los reguladores.
Diseñar para la confianza desde el inicio
Lucia Rahilly: Antes de que comenzara este pódcast, bromeábamos sobre escenarios distópicos. Si bien esos escenarios pueden ser extremos, muchas personas se sienten inquietas respecto al despliegue de la IA agéntica. ¿Cómo pueden los CEOs y los líderes tecnológicos mantener la confianza tanto externamente, con su base de clientes, como internamente, con su propio talento?
Rich Isenberg: Es una excelente pregunta en dos partes. La primera cuestión fundamental es: ¿Están funcionando los sistemas como se pretendía? Es necesario analizar más allá del tiempo de disponibilidad y centrarnos en tres aspectos: resultados, comportamiento y control.
¿Logró el agente el resultado deseado sin efectos secundarios no deseados? Necesitamos una respuesta a eso en cada transacción. ¿El agente se comporta de manera consistente en casos límite o bajo presión? ¿Y podemos reconstruir cada decisión y acción de principio a fin?
Debemos diseñar primero para la confianza y después para la velocidad. Comenzar con una autonomía acotada, pero asegurándonos de que los humanos sigan siendo responsables de las decisiones de alto impacto, y escalar solo cuando el monitoreo demuestre que el sistema se comporta de manera predecible.
Cuando algo sale mal, a los clientes no les importa que sea IA. Les importa que sea seguro, justo y corregible. Si usted es un líder tecnológico, asegúrese de que sus equipos le demuestren que han ganado esa autonomía. No la otorgue solo porque los agentes pueden ejercerla.
Lucia Rahilly: ¿Las organizaciones ya lo han logrado, o sigue siendo una aspiración?
Rich Isenberg: Creo que sigue siendo una aspiración. Algunos líderes nos están mostrando qué funciona y qué no. La tecnología es tan nueva y evoluciona tan rápidamente, pero aun así debe apoyarse en marcos tradicionales de gestión de riesgos tecnológicos.
Se necesita un inventario de elementos. Se necesita un mapa de quién es responsable de los resultados, quién establece los umbrales de desempeño de los controles y de quién es la responsabilidad de actuar cuando se supera un umbral. Esos principios no cambian. Lo que cambia es cómo se hace y el impacto que tiene en la fuerza laboral.
Mejorar las competencias para la era agéntica
Lucia Rahilly: ¿Cuentan las organizaciones con las habilidades necesarias para garantizar que la IA se despliegue con niveles adecuados de seguridad y protección, o eso también está en proceso?
Rich Isenberg: Está en proceso. El desafío es que pocas personas tienen diez años de experiencia laboral en este campo, por lo que no se puede publicar una oferta de empleo buscando a alguien así. Quienes poseen experiencia tienen incentivos para no dejar sus puestos.
Un buen primer caso de uso surgió cuando las organizaciones empezaron a adoptar herramientas para ayudar a los desarrolladores a ser más eficientes y, tal vez, sustituir a desarrolladores de nivel intermedio con algunas acciones agénticas. Aprendimos que es necesario cambiar fundamentalmente el modelo operativo. Se trata de un conjunto de habilidades diferente: pasar de ejecutar tareas a gobernar el sistema. Las personas necesitan formación en interruptores de emergencia (kill switches) y en ingeniería de prompts, y puede tratarse de un perfil diferente, con el rigor necesario para desempeñar el papel de humano en el circuito.
Muchas organizaciones asumen que las personas harán la transición hacia estos roles y aprenderán por sí mismas. Debe ser intencional. Las organizaciones que han avanzado más rápido son aquellas que han invertido en el trabajo interno de capacitar a toda su plantilla para convertirla en una fuerza laboral nativa de IA.
Cómo acertar con los pilotos
Lucia Rahilly: ¿Cómo deberían abordar los líderes el lanzamiento de un programa piloto, dado el alcance del cambio necesario en las organizaciones?
Rich Isenberg: Los pilotos deberían limitarse a entre seis y doce semanas y contar con un caso de negocio sólido. Puede que se decida: “Está listo y el caso de negocio ha sido validado. Ejecutemos e invirtamos”. O puede que se decida: “La tecnología aún no está lista. Necesitamos esperar un poco antes de que se pueda validar la hipótesis del caso de negocio”.
Pero se necesita un entorno que fomente experimentos organizados con la menor cantidad posible de obstáculos. Es necesario que estén acotados y vinculados a un caso de negocio para poder determinar qué apuestas se van a hacer y si están generando resultados o no.
Lucia Rahilly: ¿Cómo mantienen las organizaciones, en particular las grandes organizaciones globales, visibilidad sobre sus iniciativas agénticas?
Rich Isenberg: Me gusta plantearlo así: lo que se necesita es una gobernanza centralizada con ejecución federada. La gente está acostumbrada a múltiples comités donde las personas opinan. Eso no lleva a una decisión, porque a menudo nada se rechaza. Así que se termina aprobando todo, pero sin claridad sobre de dónde proviene el valor. Algunas empresas tienen una gobernanza tecnológica muy madura, y se trata más bien de un ajuste incremental para que funcione en ese entorno. Otras empresas construyen una gobernanza de IA completamente independiente, de extremo a extremo.
Eso no elimina el principio de ejecución federada. Hay que permitir que las unidades de negocio decidan sus propios casos de uso, que operen la plataforma, contraten talento y desarrollen soluciones, mientras los equipos técnicos centrales lo gestionan junto con los controles automatizados.
Lo que se necesita es una gobernanza centralizada con ejecución federada.
Es necesario contar con visibilidad de extremo a extremo sobre lo que se está haciendo, con casos de negocio sólidos que se puedan medir; de lo contrario, muy rápidamente se convierte en experimentación tecnológica por el mero hecho de experimentar, y en personas técnicas brillantes haciendo cosas interesantes. Si no está vinculado a lo que el negocio intenta lograr, se vuelve bastante peligroso muy pronto.
Cuando los agentes hablan entre sí
Lucia Rahilly: Supongamos que he implementado un caso de uso agéntico en mi organización. ¿Qué debe estar en su lugar para que el protocolo de agente a agente esté alineado?
Rich Isenberg: Daré una respuesta en dos dimensiones: tecnología y personas. En el lado técnico, la industria está adoptando rápidamente estándares sobre cómo permitir que los agentes se comuniquen entre sí de forma segura. Y el elefante en la habitación es que, si un agente va a acceder a herramientas o datos, debería hacerlo a través de un gateway MCP.
“MCP” son las siglas de “model context protocol” (protocolo de contexto de modelo). Piense en ello como el puerto USB-C de la IA. Es un punto de control donde los agentes pueden acceder a herramientas y datos, pero con controles y aplicación de políticas de una manera muy estandarizada y basada en patrones.
Ahora bien, existen otros protocolos estándar para la comunicación entre agentes, pero lo importante es que no se puede permitir una comunicación abierta. Dentro de una plataforma, debe haber un gateway de IA y un gateway MCP para gobernar y controlar la comunicación entre agentes. Esa es la respuesta técnica.
En el lado de las personas, la respuesta es el onboarding. Muchos de estos agentes están diseñados para ser reutilizables. No se trata del agente en sí; se trata del flujo de trabajo y del caso de uso. Supongamos que tenemos un agente de análisis de datos. Puede que un empleado utilice el agente para acceder a datos altamente sensibles, mientras que otro lo utiliza para acceder a datos no sensibles. Ese mismo agente tiene dos propósitos muy diferentes que requieren dos políticas muy distintas. Es necesario crear accesos situacionales que sean temporales.
Esto nos lleva de nuevo al lado humano. Quienes diseñan los casos de uso deben ser la autoridad final sobre lo que se supone que deben hacer, y luego trabajar con los responsables de control para establecer las salvaguardas que mantengan los casos de uso en su lugar.
Lucia Rahilly: ¿Qué ocurre si existe comunicación abierta entre los agentes? ¿Se descontrola todo?
Rich Isenberg: Aquí va una analogía. Comparo la inteligencia de los agentes de IA con la de un niño de dos años. Es literalmente un niño pequeño. Si estás en un pasillo de un segundo piso con suelos de madera y escaleras empinadas y le dices a un niño pequeño que corra por el pasillo y se detenga cuando llegue a las escaleras, puede que lo haga. También puede que saque unos crayones del bolsillo y dibuje en la pared por el camino. Sin una barrera de seguridad, puede que se tropiece y caiga por las escaleras, lastimándose a sí mismo o a otra persona. Si no estás ahí, ¿cómo sabes que hizo lo que le pediste de la forma que querías?
Estos agentes son capaces de razonar y resolver problemas de manera independiente. No se puede dejar que actúen sin control, sin una política de control exigible; ese es el propósito de obligar a que estas comunicaciones pasen por un gateway de IA y un gateway MCP.
El modelo opuesto consiste en redactar un montón de documentos que dicen: “Estos son los requisitos y estándares”, y que cada responsable de negocio tenga que encontrar su propia forma de cumplirlos. Es imposible de gestionar, probar y garantizar a escala.
Lucia Rahilly: En su opinión, ¿es más difícil gestionar los riesgos introducidos por los humanos o por los agentes?
Rich Isenberg: Es más fácil gestionar a los humanos simplemente porque contamos con una enorme historia de comportamiento humano en la que basarnos. Aún no tenemos eso para los agentes. Por eso es un poco más complicado.
Aunque los humanos pueden ser más astutos, también se mueven más despacio; no trabajan las 24 horas del día, los siete días de la semana; y son más fáciles de supervisar. Los agentes trabajan 24/7, a la velocidad de las computadoras, y no se pueden supervisar con un equipo de cuatro personas haciendo evaluaciones puntuales. Hay que supervisarlos con su misma tecnología.
Por ejemplo, no recomendaría que un director de recursos humanos (chief human resources officer, CHRO) o un departamento de recursos humanos se involucren en la gestión de agentes. Pero cada agente necesita un responsable. No se trata de configurarlos y olvidarse de ellos. Deben supervisarse, ajustarse y optimizarse de forma constante, y en ocasiones retirarse. Y debe quedar claro quiénes son los responsables de estos agentes y quién responde por su desempeño. Creo que esta se ha convertido en la pregunta más difícil en este nuevo modelo operativo, donde la respuesta ya no recae siempre en el equipo tecnológico.
Riesgos cuando se trata de robots
Lucia Rahilly: ¿Qué sucede si un agente se desvía de alguna manera o si dos agentes empiezan a interactuar entre sí y toman decisiones desafortunadas para el negocio? ¿Qué pasa después?
Rich Isenberg: Se podría analizar desde la perspectiva de qué es lo peor que podría pasar. Para una posible respuesta, basta con ver la película original de Terminator. Probablemente eso lo resume.
El desafío es que estos agentes pueden razonar y trabajar muy rápido. Si están comunicándose directamente entre sí o coludiendo, la espiral de problemas masivos a escala será difícil de gestionar. Por eso hay que pensar en interruptores de emergencia y en las circunstancias en las que se dispone de registros que permitan activarlos automáticamente. No pueden ser decisiones manuales.
Lucia Rahilly: Hemos estado hablando principalmente de agentes que existen en un espacio virtual, lo que significa que nuestras interacciones con ellos son sintéticas. Siguiendo con Terminator, ¿cómo podría el auge de los robots humanoides afectar los protocolos de seguridad?
Rich Isenberg: Hoy en día circulan muchos coches autónomos, que no son tan diferentes de los robots humanoides. Todos funcionan con un sistema operativo y están empezando a adoptar características agénticas que les permiten adaptarse, aprender, optimizarse y corregirse.
Los robots humanoides son software, al igual que un agente es un programa de software. Y todos se conectan a una ubicación central. Esto puede sonar un poco hiperbólico, pero en el futuro, un solo agente malicioso podría tener la inteligencia suficiente para tomar el control de ese sistema operativo y, de repente, controlar todos los coches en la carretera que cuentan con funciones de conducción autónoma.
En las manos equivocadas, esto puede ser enormemente destructivo. Cuando se piensa en el futuro de la robótica, se necesitan controles de obligado cumplimiento para garantizar que solo se tomen decisiones diseñadas y previstas. Y si algo sale mal, ¿cuál es el plan de reversión?
Cinco preguntas que los líderes deben responder, con precisión
Lucia Rahilly: No es que lo agéntico sea el final del camino. Está la inteligencia artificial general (artificial general intelligence, AGI). Está la computación cuántica, que tiene implicaciones para la ciberseguridad. A medida que la tecnología avanza, ¿qué nuevas categorías de riesgo podrían surgir que deberían anticipar los líderes y los consejos de administración?
Rich Isenberg: Hablo con muchos consejos de administración, y esta es una conversación común. Los consejos no necesitan ser técnicos. Necesitan ser precisos. Cuando se trata de cualquier transformación tecnológica, siempre recomiendo a los consejeros que planteen cinco preguntas y exijan respuestas precisas.
Para la IA agéntica, primero: “¿Tenemos un inventario completo de agentes y propietarios? ¿Sí o no?”. Segundo: "¿Cómo se clasifica la autonomía según el riesgo?”. La respuesta debería incluir cinco o seis niveles. Tercero: “¿Los agentes tienen entidades verificadas y acceso con privilegios mínimos?”. De nuevo, sí o no. Y luego, más importante aún, las dos últimas preguntas deberían ser: “¿Podemos reconstruir las decisiones de extremo a extremo? ¿Sí o no?” y “¿Tenemos un plan real de reversión si algo sale mal?”.
Si los líderes no pueden responder estas cinco preguntas con precisión, aún no tienen el riesgo agéntico bajo control. Así es como los consejos de administración y la alta dirección deberían abordarlo. Una buena gobernanza de la IA no consiste en conocer el modelo o ser altamente técnico; consiste en poder demostrar control.
Lucia Rahilly: Quiero retomar un punto que mencionó antes. La seguridad nacional en materia de datos está emergiendo como un tema clave. ¿Tiene algo más que añadir al respecto?
Rich Isenberg: La IA soberana trata realmente de quién está al mando cuando la IA toma decisiones. Cuando hablamos de IA soberana, en realidad estamos hablando de quién tiene el control sobre los datos, los modelos, la infraestructura y la toma de decisiones. Es la idea de que los gobiernos y las empresas no deberían externalizar sus capacidades de IA más críticas a plataformas extranjeras opacas o fuera de su control. Una vez que los sistemas de IA se vuelven agénticos y adquieren esta capacidad de actuar, aprender y tomar decisiones, la soberanía se convierte en una cuestión de riesgo, no solo en un debate de política pública.
Los líderes están empezando a darse cuenta de que quien controla la pila de IA en última instancia controla los resultados. Si pensamos en el riesgo de terceros y de terceros indirectos, la IA agéntica ha transformado finalmente la soberanía de un concepto abstracto en uno operativo.
A medida que los sistemas de IA pasan de generar ideas a tomar acción, el verdadero factor diferenciador no será quién adopte la tecnología más rápido. Será, sin duda, quién la gobierne mejor.
Si un agente de IA actúa en nuestro nombre, los líderes deben tener la confianza de saber dónde se ejecuta, qué leyes se aplican, quién puede auditarlo y quién puede desactivarlo. No se puede gobernar lo que no se controla, y no se puede controlar lo que no es soberano.
Lucia Rahilly: Rich, este es un tema enorme y complejo con mucho en juego. ¿Cuáles son una o dos conclusiones simples para los CEOs y otros líderes?
Rich Isenberg: El futuro no es humanos contra IA; es humanos con IA. A medida que los sistemas de IA pasan de generar ideas a tomar acción, el verdadero factor diferenciador no será quién adopte la tecnología más rápido. Será, sin duda, quién la gobierne mejor. La IA agéntica, soberana y segura no consiste en frenar la innovación. Consiste en ganarse el derecho a escalarla con confianza, responsabilidad y control.