
29 de Septiembre de 2025
En un artículo del Blog de Philipp Schmid, AI Developer Experience en Google DeepMind, se analiza cómo la conversación sobre inteligencia artificial está pasando de la “ingeniería de prompts” a un concepto más amplio y poderoso: la ingeniería de contexto. Según el autor, Tobi Lutke la describe como “el arte de proporcionar todo el contexto para que la tarea sea plausiblemente resoluble por el LLM”, en referencia a los Large Language Models o modelos de lenguaje de gran escala.
Con el crecimiento de los agentes de IA, cada vez pesa más la información que se carga en su “memoria de trabajo limitada”. Schmid explica que lo que determina si un agente cumple o no con lo esperado es la calidad del contexto que recibe. Hoy la mayoría de los fallos no provienen del modelo, sino de un contexto mal planteado.
¿Qué significa contexto?
Para comprender qué es la ingeniería de contexto, primero hay que ampliar la idea de “contexto”. No se trata solo de la instrucción puntual que se envía a un modelo, sino de todo lo que este recibe antes de generar una respuesta.
Elementos del contexto
- Instrucciones iniciales: Un conjunto de reglas que guían el comportamiento del modelo en la conversación, donde se pueden incluir ejemplos y normas claras.
- Solicitud del usuario: La pregunta o tarea que se plantea en ese momento.
- Historial de la conversación: Lo que se ha dicho previamente, tanto por el usuario como por el modelo.
- Memoria a largo plazo: Conocimientos acumulados de interacciones anteriores, como preferencias, resúmenes de proyectos o información que se pidió guardar.
- Información recuperada: Datos externos actualizados, obtenidos de documentos, bases de datos o servicios, necesarios para responder con precisión.
- Herramientas disponibles: Funciones que el modelo puede usar, por ejemplo enviar un correo o revisar un inventario.
- Formato de salida: Cómo debe entregarse la respuesta, como un texto estructurado o un archivo en un formato específico.
De la demo barata al producto “mágico”
Según Schmid, el éxito de un agente no depende tanto del código o la plataforma, sino del contexto que lo acompaña. Esa es la diferencia entre un prototipo limitado y un agente que parece “mágico”.
Imagina que a un asistente se le pide organizar una reunión a partir de un correo breve:
Hola, quería confirmar si mañana estás disponible para una reunión rápida.
Un agente con poco contexto solo vería ese mensaje y respondería de forma mecánica:
Gracias por tu mensaje. Mañana me funciona. ¿Podrías decirme a qué hora pensabas?
En cambio, un agente con buen contexto usaría más información antes de generar la respuesta:
- Tu agenda, que muestra que estás ocupado todo el día.
- Conversaciones previas con esa persona, para usar un tono adecuado.
- Tu lista de contactos, que confirma que se trata de un socio clave.
- Herramientas para enviar invitaciones o correos.
Con eso podría contestar de manera más útil:
¡Hola Jim! Mañana lo tengo completamente lleno, reuniones seguidas todo el día. El jueves en la mañana estoy libre, ¿te funciona? Ya te envié una invitación, dime si te sirve.
Lo importante, dice el autor, no es tener un modelo más avanzado ni un algoritmo más complejo, sino darle al sistema el contexto correcto para cada tarea.
De escribir prompts a diseñar contexto
Mientras que la ingeniería de prompts se limita a redactar instrucciones efectivas en un solo texto, la ingeniería de contexto va mucho más allá. En palabras simples:
La ingeniería de contexto consiste en diseñar sistemas dinámicos que entreguen la información y las herramientas necesarias, en el formato y momento correctos, para que un modelo de lenguaje tenga todo lo necesario para realizar una tarea con éxito.
De acuerdo con Schmid, esto implica que:
- Es un sistema, no un texto fijo: El contexto no es una plantilla estática, sino el resultado de un proceso previo a la llamada al modelo.
- Es dinámico: Se construye en tiempo real, adaptado a cada petición, ya sea con datos del calendario, correos o una búsqueda en línea.
- Combina información y herramientas: El objetivo es que el modelo no quede limitado por falta de detalles. Debe recibir tanto conocimiento como recursos prácticos solo cuando son útiles.
- El formato importa: La manera de presentar la información es clave. Un resumen claro funciona mejor que una lista interminable de datos, y un esquema bien definido de herramientas es más útil que una instrucción ambigua.
Conclusión
Para Schmid, crear agentes de IA potentes y confiables depende cada vez menos de encontrar el prompt perfecto o de esperar nuevas versiones de los modelos. Lo fundamental es la ingeniería de contexto: organizar y ofrecer la información y las herramientas adecuadas, en el formato y el momento precisos.
Es un desafío que no solo es técnico, sino también estratégico. Implica entender el caso de uso, definir los resultados esperados y estructurar todo lo necesario para que un modelo de lenguaje realmente pueda “cumplir la tarea”.
Otras noticias
La guía para identificar el gaslighting de las plataformas tecnológicas
IA en el periodismo: ganadores, perdedores y la desaparición del punto medio
Crece la dependencia de Google Discover y los riesgos para los editores
Editores advierten sobre la “explotación” de noticias por la IA