Llevo años observando cómo las grandes tecnológicas nos venden el «siguiente gran cambio» como si fuera una revelación mística bajada del monte Sinaí. Sin embargo, lo que estamos viviendo con Salesforce es un caso de estudio fascinante: el descenso en picado por el Valle de la Desilusión. Ya sabéis, ese punto del Ciclo Hype de Gartner (una gráfica que mide cómo nos emocionamos con la tecnología para luego llevarnos el chasco, hasta que repuntamos parcialmente y se consolida la tecnología) donde las expectativas infladas chocan de frente con la factura de la realidad y el motor empieza a echar humo y tiene que pasar por el taller. Sin ánimo de que se me malinterprete, como defensor y usuario habitual de la IA, considero necesario contrastar el actual optimismo maximalista con una perspectiva diferente; es probable que el equilibrio resida en un punto intermedio.
Marc Benioff (CEO de Salesforce), que no es precisamente un hombre que peque de discreto ni de humilde, ha empezado a pinchar, parcialmente, la burbuja que él mismo ayudó a inflar. Ya no se trata de visiones futuristas de ciencia ficción, sino de un repliegue táctico hacia lo que yo llamo «el pragmatismo de las trincheras». Este giro nace de una admisión de culpa que todos los que gestionamos equipos deberíamos tatuarnos en el antebrazo:
«Si bien los LLM son sorprendentes, no pueden administrar su negocio por sí solos. Las empresas necesitan conectar la IA con datos precisos, lógica empresarial y gobernanza».
Para los que no habláis «silicon-valleynés», un LLM (Modelo de Lenguaje Extenso) es, en esencia, un simulador de lenguaje basado en probabilidades. Su función no es razonar, sino calcular qué palabras suenan mejor juntas. La clave es que hemos pasado de modelos de IA deterministas a modelos de IA Generativa probabilísticos. Tiene una gran maestría gramatical, pero su capacidad para la gestión real es nula, ya que no distingue entre un dato correcto y una invención que parezca creíble (lo que en el mundillo llaman «alucinación»).
En resumen: la IA sabe mucho de juntar palabras de forma elegante, pero tiene la misma capacidad para gestionar una empresa que un becario en su primer lunes de agosto al que le han tapado los ojos y solo le dejan leer recortes de periódico. Esta declaración de Benioff es el acta de defunción de la «IA mágica» y, eso espero, el avance de la «IA pragmática y con sentido». Sin datos limpios y alguien que mande, la IA es solo un juguete caro para entretenerse en las reuniones de los jueves; mucho ruido y pocas nueces, como diríamos por aquí.
El muro de las «ocho instrucciones» (o por qué la IA se agobia antes que tú)
Lo que Salesforce ha descubierto es algo que cualquier gestor de proyectos sabe por instinto: la complejidad mata la ejecución. Muralidhar Krishnaprasad, el jefe técnico de Agentforce (la nueva herramienta de IA de la casa), ha admitido una limitación que debería ponernos los pelos de punta: los modelos de IA empiezan a «perder el hilo» y a omitir pasos lógicos en cuanto les das una cadena de más de ocho instrucciones complejas.
Para un entorno empresarial donde la precisión es la ley, esto es un fallo crítico. Imagina a un miembro de tu equipo que, ante una lista de diez tareas, decidiera ignorar las dos últimas porque «se ha saturado». Pues eso es lo que pasa bajo el capó: la IA pierde el hilo cuando la realidad se vuelve más compleja que pedirle una receta de huevos rotos. Es como mandar a alguien a la plaza a por el pan, el periódico, el vino y el azúcar, y que te vuelva solo con el pan porque «había mucha gente y se despistó».
Luces y sombras: un análisis desde la gestión
Si analizamos este movimiento con un poco de visión crítica, el panorama es de lo más revelador:
Lo que parece que funciona (Las Fortalezas):
- Vuelta a los básicos: Benioff ahora reconoce que lo importante son los datos y la lógica, no solo el «modelo». Una IAG sin contexto es una fuente inagotable de mentiras dichas con mucho descaro.
- Del Chatbot al Agente: El enfoque en el «Trabajador Digital» que ejecuta tareas específicas (actualizar registros, enviar correos) es el camino correcto. Menos promesas etéreas de «transformación total» y más herramientas que un gerente pueda usar mañana mismo.
- Realismo operativo: Admitir que necesitamos sistemas híbridos que combinen reglas fijas («si pasa A, haz B») con la flexibilidad de la IAG es un signo de madurez. Al final, el orden manda.
Los puntos ciegos (Las Debilidades):
- La cuenta no sale: Salesforce ha recortado su plantilla de soporte de 9.000 a 5.000 personas confiando en una tecnología que, según ellos mismos admiten ahora, no puede administrar el negocio sola. Es como vender el paraguas justo cuando ves que el cielo se pone negro.
- El problema del 93%: Benioff presume de una precisión del 93%. En el mundo real, un 7% de error en un millón de interacciones son 70.000 clientes frustrados. En gestión de proyectos críticos, un margen de error del 7% es una invitación al desastre.
- La fragilidad del invento: Casos como el de la empresa Vivint son para nota: su IA dejaba de enviar encuestas de satisfacción porque sí, porque le apetecía. Tuvieron que recurrir a la programación tradicional para obligarla a cumplir. Si la IA no sigue una lógica básica, la confianza se va por el desagüe.
Recomendaciones: cómo no naufragar en esta marea
Si eres líder de equipo o responsable de estrategia, graba a fuego estos puntos antes de que la próxima presentación comercial te nuble la vista:
- La simplicidad es la ley (Regla del 8): Si la tecnología se agobia con la complejidad, tu labor es simplificar. Si un proceso tiene diez pasos, divídelo. La IA no sabe gestionar el caos; solo lo acelera.
- Los datos son la gasolina, no el motor: Una IA es tan buena como los datos que consume. Si tu información está fragmentada o sucia, la máquina solo «alucinará» con más confianza. Limpia la casa antes de invitar a la tecnología: recuerda que si entra basura, sale basura.
- La trampa del porcentaje: Una precisión del 93% suena muy bien en un PowerPoint, pero en el barro del día a día, ese 7% de error es una mina antipersona. El objetivo siempre debe ser el error cero en lo crítico.
- La lógica empresarial es humana: La IA puede ejecutar procesos, pero no puede decidir la estrategia ni gestionar la excepción compleja. No tiene sentidiño. Las vacas, de toda la vida, se cuentan de una en una y con alguien presente que sepa distinguirlas de un buey.
Antes de embarcarte en utilizar IA en un proceso, aplícale el «filtro del sentido común»: ¿Le confiarías esta tarea a alguien que se olvida de lo que le has dicho a la octava frase?

Al final del día, la IAG es un motor potente, pero sin el chasis de tus datos y el volante de tu lógica, solo te servirá para estrellarte a mucha más velocidad. Gestionar no es seguir la última moda de Silicon Valley; gestionar es aplicar el sentidiño, que suele ser el menos común de los sentidos.