Del producto al sistema cognitivo
El Product Management ha sido, durante años, la disciplina encargada de liderar el desarrollo de productos digitales. El mantra era claro: entender al usuario, definir el problema, priorizar bien, colaborar con equipos técnicos y entregar valor de forma iterativa. Pero ese modelo ha caducado.
La IA está transformando no solo lo que podemos construir, sino el cómo, el para qué y bajo qué principios lo hacemos. El cambio es más estructural que incremental. Lo que antes era producto, ahora es un sistema cognitivo. Lo que antes era backlog, ahora es arquitectura algorítmica. El AI Product Management es una evolución de la disciplina tradicional a algo más complejo y menos controlable.
Qué es (y qué no es) el AI Product Management
El AI Product Management no se limita a traducir necesidades de negocio en requerimientos ni a gestionar funcionalidades. Se convierte en una práctica que comprende arquitecturas algorítmicas, integración de modelos de lenguaje, límites morales, sistemas de inferencia y gobernanza de agentes.
El pensamiento clásico basado en backlogs, roadmaps y MVPs es insuficiente. Trabajamos con sistemas adaptativos, estocásticos, que actúan por sí mismos. El producto ya no es lo que el sistema “hace”, sino cómo decide hacerlo, en qué contexto, con qué datos y bajo qué principios de autonomía, trazabilidad y alineación.
Esto nos obliga a hacernos preguntas nuevas: ¿Qué tipo de agencia le otorgamos a este sistema? ¿En qué condiciones puede o no actuar? ¿Cómo sabremos si lo que hace es «bueno» o «correcto»? ¿Qué grados de reversibilidad y control tiene el usuario final?
El delivery ya no es una feature. Es un comportamiento autónomo. Una acción futura. Una respuesta probabilística. Una decisión contextual.
Diseñar capacidades: del flujo al comportamiento
El nuevo AI Product Management debe operar con un marco que articule al menos tres niveles interconectados:
Diseño de capacidades cognitivas: ¿Qué sabe el sistema? ¿Qué infiere? ¿Qué memoriza? ¿Qué olvida? ¿Qué decide?
Orquestación de sistemas: ¿Con qué se conecta el sistema? ¿Qué datos necesita? ¿Cómo interactúa con otros modelos o agentes? ¿Qué funciones automatiza?
Gobernanza y consecuencias: ¿Quién responde cuando el sistema se equivoca? ¿Dónde están los límites de la autonomía? ¿Cómo se corrigen errores sin deteriorar la confianza?
Ejemplo 1: Gestión de siniestros con RAG
Una aseguradora despliega un sistema IA de resolución semi-autónoma de siniestros. El agente, basado en un modelo LLM con acceso RAG, indexa documentos internos, informes médicos, tickets y normativas. Cuando llega un nuevo caso, el sistema consulta contexto, propone una resolución y genera un informe justificativo. Incluso calcula el impacto económico y propone alternativas.
El AI Product Management ha definido qué casos se resuelven sin intervención humana, qué casos se resuelven con interacción humana (human-in-the-loop), los límites de importe y riesgos, los patrones de fraude y los mecanismos de explicabilidad para auditorías.
Ejemplo 2: Soporte técnico SaaS con agentes autónomos
Un entorno SaaS incorpora un sistema IA de soporte. Ya no hay solo respuestas: hay decisiones. Si detecta una configuración errónea, la repara, informa al cliente y documenta la acción. El AI Product Management define los umbrales de intervención, los logs, el tono del agente y su comportamiento en escenarios ambiguos.
Ejemplo 3: Plataforma inteligente de aprendizaje personalizada
Un sistema IA de e-learning adapta los contenidos a cada estudiante: ritmo, estilo cognitivo, errores, preferencias. Detecta frustración, repite conceptos creativamente y sugiere retos. El AI Product Management define los límites de personalización, protege la diversidad cognitiva y evita sesgos o bucles de confirmación.
Nuevas competencias del AI Product Manager
Comprensión arquitectónica
El AI Product Manager no necesita programar, pero sí entender cómo funciona un LLM, cómo se conecta con un vector store, cómo se recupera contexto en un sistema RAG, qué implica el top-k de documentos, cómo afectan los prompts mal diseñados al comportamiento emergente.
De gestionar entregables a diseñar agentes
Ya no diseñamos pantallas: diseñamos sistemas que actúan. Cada componente debe pensarse como una capacidad cognitiva. El AI Product Manager diseña intenciones delegadas, comportamientos autónomos, acciones situadas en contextos dinámicos.
Gobernanza algorítmica y experiencia interactiva
No hay agencia sin frenos. El AI Product Manager define mecanismos de rendición de cuentas, puntos de intervención humana, explicabilidad, reversibilidad. Y diseña cómo se siente interactuar con un sistema que decide, que anticipa, que pide disculpas. Define personalidad, tono y estilo del agente.
Rediseñar las organizaciones para pensar con IA
La transformación no se acaba en el producto: se extiende a los procesos y la cultura. El verdadero cambio ocurre cuando los equipos de atención al cliente, legal, marketing o operaciones empiezan a pensar con IA.
Empoderar no es sólo capacitar, sino diseñar entornos donde cualquier miembro pueda prototipar con agentes, automatizar decisiones y reconfigurar flujos. ¿Qué tareas repetitivas podría hacer un agente hoy? ¿Qué decisiones centralizadas podrían distribuirse con IA? ¿Qué casos exigen deliberación humana?
El AI Product Management, más que un rol, se disuelve entre quienes han entendido el impacto de la IA, y ya no piensan en outputs, sino en ecologías de decisión. La integración de IA no es una capa funcional. Es una transformación de cómo se prioriza, cómo se comunica, cómo se gobierna.
Infraestructura, poder y política del diseño
Hasta aquí he hablado de capacidades, sistemas y organizaciones. Pero hay un nivel más profundo —e incómodo—: ¿quién diseña, quién decide, quién se beneficia?
Las grandes LLMs (GPT, Claude, Gemini…) no son bienes públicos ni herramientas neutras. Son infraestructuras cognitivas en manos de pocas empresas privadas, con incentivos opacos, a menudo incompatibles con la transparencia, la autonomía de usuarios o la redistribución de poder.
Los ejemplos anteriores, aunque aparentemente sencillos, no deben ser simplificados.
En el ejemplo de la gestión de siniestros, será necesario garantizar no solo la trazabilidad técnica de las decisiones, sino también la comprensión y la capacidad de reclamación por parte de los asegurados. La explicabilidad deberá orientarse al usuario final, no solo a los auditores, e incluir mecanismos accesibles para cuestionar decisiones automatizadas. Además, habrá que contemplar cómo se distribuye la responsabilidad cuando el sistema actúa sin intervención humana.
En el ejemplo del soporte técnico en SaaS, será clave definir con precisión los umbrales de autonomía del agente, incluyendo criterios explícitos para la intervención humana. También habrá que diseñar mecanismos de validación de acciones correctivas invisibles para el usuario, y asegurar la coherencia entre el tono del agente, su comportamiento y las expectativas del cliente. El diseño deberá contemplar la gestión de errores silenciosos y la documentación transparente de las decisiones automatizadas.
En el ejemplo del e-learning, la personalización deberá ir acompañada de salvaguardas que protejan la diversidad cognitiva y eviten la homogeneización. Será necesario auditar regularmente los modelos para detectar sesgos culturales o pedagógicos, y establecer límites a la adaptación excesiva que pueda encerrar al estudiante en su perfil actual. También deberá contemplarse la intervención pedagógica humana como contrapeso a las decisiones del sistema.
Diseñar con IA significa trabajar sobre sistemas que no controlamos del todo, construidos por otros, con reglas que a menudo no podemos ver ni modificar. El AI Product Management no debería limitarse a hacer que las cosas funcionen o que los sistemas sean eficientes. Su función es garantizar que, cuando una máquina toma decisiones, esas decisiones puedan entenderse, revisarse y corregirse. No basta con cumplir lo mínimo ni con añadir una capa ética superficial. Es necesario integrar desde el principio la posibilidad de intervenir, de explicar lo que ha ocurrido y de ajustar el sistema si es necesario. Hay que formular todas las preguntas, desde todas las perspectivas. Diseñar bien no es hacer que todo parezca fácil o automático, sino explicitar los límites, los impactos y las dependencias. El diseño debe dejar a la vista las condiciones técnicas, políticas y materiales que configuran el comportamiento del sistema.
Por cierto, ¿tiene sentido seguir hablando de «producto»?
El concepto de producto implica un objeto definido, con funcionalidades delimitadas y un ciclo de vida gestionable. Pero los sistemas de IA generativa no se comportan así: son fluidos, adaptativos, mutables. No entregan un resultado fijo, sino comportamientos en tiempo real. Operan en múltiples capas: técnica, semántica, ética, legal, emocional y política.
Llamarlos productos es una forma de mantener la ilusión de control. Una nostalgia de marcos gestionables. Pero lo que está en juego es más que una entrega: es una delegación de agencia.
No necesitamos más Product Managers en el sentido clásico del término. Necesitamos diseñadores de agencia algorítmica, curadores de contexto y arquitectos de consecuencias. Porque lo que antes se gestionaba como «producto», ahora actúa y decide.
Conclusión
La transición del Product Management al AI Product Management no es simplemente una mejora técnica. Es un desplazamiento cultural, político y de visión del conocimiento y cultural. El AI Product Manager no debe limitarse a orquestar decisiones algorítmicas. Debe preguntarse a quién sirven, quién queda fuera, quién decide cómo pensamos y con qué límites.
Diseñar sistemas inteligentes no es neutro. Cada decisión técnica es una apuesta política. Toda delegación algorítmica redistribuye agencia, poder y responsabilidad.
Pensar producto cuando el producto piensa ya es complejo. El reto es mayor: es pensar sociedad cuando las máquinas deciden.
Glosario y conceptos clave del texto
- Modelos de lenguaje (LLM): Large Language Models. Son modelos entrenados con grandes volúmenes de texto que pueden generar, resumir, traducir o responder preguntas en lenguaje natural. No «entienden» como un humano, pero infieren patrones complejos con precisión estadística. Ejemplos: GPT-4o, Claude, Gemini.
- Agentes de IA: Instancias autónomas basadas en modelos de lenguaje que toman decisiones, ejecutan acciones y aprenden de su entorno. No se limitan a responder: pueden interactuar con APIs, consultar bases de datos, programar tareas y modificar flujos de trabajo.
- Workflow vs agente: Mientras un workflow describe una secuencia lineal o condicional de pasos predeterminados, un agente se mueve de forma más adaptativa, toma decisiones en tiempo real, explora rutas y modifica sus acciones en función del entorno. Los workflows son prescriptivos; los agentes son inferenciales. Un AI PM debe saber cuándo conviene usar uno u otro, y cómo articular ambos si coexisten. La diferencia implica preguntarse si estamos programando acciones o delegando decisiones.
- Orquestación de agentes: Diseño y coordinación de múltiples agentes que colaboran o se reparten tareas dentro de un sistema. Incluye cómo se comunican, cómo se supervisan entre sí y cómo se resuelven conflictos o redundancias.
- RAG (Retrieval-Augmented Generation): Arquitectura que combina generación de lenguaje con recuperación de información. El modelo accede a un repositorio de datos vectorizado, recupera documentos relevantes y genera respuestas basadas en ese contexto. Permite respuestas más precisas, actualizadas y auditables.
- Retrieval vs grounding: Retrieval es el proceso de recuperar información externa (p. ej., documentos) para alimentar un modelo. Grounding es asegurar que la respuesta del modelo se base en esa información y no en invenciones del modelo. Es posible recuperar datos correctos y aún así tener alucinaciones si no se asegura el grounding.
- Store vectorial: Base de datos especializada en almacenar representaciones vectorizadas de texto (embeddings). Permite búsquedas semánticas: se recupera el contenido más «parecido» (similitud de significado) al input, aunque no coincida literalmente. Esencial para implementar sistemas RAG.
- Embeddings: Representaciones numéricas (vectores) que capturan el significado semántico de palabras, frases o documentos. Permiten que los modelos de lenguaje comparen similitudes de contenido de forma matemática. Son la base de las búsquedas semánticas en stores vectoriales.
- Base de datos vectorial vs base de datos relacional: Una base vectorial almacena representaciones numéricas de textos, imágenes u otros datos. Permite búsquedas semánticas: por «similitud de significado».Una base relacional almacena datos estructurados (tablas, filas, columnas) y permite búsquedas exactas o condicionales. Ambas pueden coexistir.
- Top-k de documentos recuperados: Parámetro que define cuántos documentos se devuelven desde el store vectorial para ser procesados por el modelo. Determina la profundidad y calidad del contexto. Un valor demasiado bajo puede generar respuestas pobres; uno demasiado alto introduce ruido y ambigüedad. Forma parte de los llamados hiperparámetros de recuperación y es crítico para el rendimiento de sistemas RAG.
- Prompt: Instrucción o entrada que se le da al modelo para generar una respuesta. El diseño de prompts se ha convertido en una disciplina clave, ya que determina el comportamiento, tono y precisión de la IA.
- Context window (ventana de contexto): Cantidad máxima de información (tokens) que un modelo puede procesar en una única interacción. Limita cuánta información histórica o externa puede considerarse en una respuesta. Si se supera, parte del contexto se pierde o es truncado, afectando la calidad de la inferencia.
- Alucinación: Fenómeno en el que un modelo de lenguaje genera una respuesta que es gramaticalmente coherente pero fácticamente falsa. Ocurre cuando el modelo infiere patrones sin suficiente información real o contextual. Es uno de los principales retos en la adopción de IA generativa en entornos críticos.
- Gobernanza algorítmica: Conjunto de principios, mecanismos y reglas que regulan el comportamiento de un sistema algorítmico. Incluye límites de actuación, supervisión humana, derechos del usuario, control de sesgos y mecanismos de corrección.
- Feedback loop: Ciclo de retroalimentación que permite a un sistema de IA aprender de sus propios errores, aciertos o del comportamiento del usuario. Puede ser automático (reinforcement learning) o mediado (revisión humana).
- Capacidad cognitiva delegada: Función o decisión que antes tomaba un humano y que ahora se transfiere a un sistema inteligente. Puede ir desde responder preguntas hasta proponer soluciones, analizar riesgos o tomar decisiones de negocio.
- Human-in-the-Loop (HITL): En sistemas de IA, Human-in-the-Loop se refiere a un enfoque en el que las personas participan activamente en el ciclo de decisión del sistema automatizado. Esta intervención humana puede darse para supervisar, validar, corregir o enriquecer las salidas de la IA, especialmente en tareas críticas, ambiguas o éticamente sensibles. El modelo HITL permite combinar la eficiencia de los algoritmos con el juicio y la responsabilidad humanas, asegurando mayor precisión, control y alineación con valores sociales o normativos.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.
