A finales de 2023 la revista Nature señalaba el prompt engineering como la «alfabetización digital del próximo lustro». Hoy, miles de profesionales ya externalizan borradores de código, resúmenes de investigación y campañas de marketing a modelos de lenguaje (LLMs).
El problema: la curva de aprendizaje no está en la IA, sino en pedir bien. Un prompt confuso genera respuestas vagas, mientras que una instrucción milimétrica puede ahorrarte horas de depuración y reescritura.
Este eBook —conciso y práctico— te guía en:
Entender la anatomía de un prompt.
Dominar fórmulas reutilizables (SCQA, Sandwich, Few-shot).
Aplicar casos reales (resumen, análisis de datos, redacción técnica).
Integrar prompts en flujos de automatización con n8n.
Adoptar buenas prácticas de ética y verificación.
Ideal para desarrolladores, analistas, gestores de contenido y consultores que quieran multiplicar su productividad y entregar resultados premium con IA.
¿Qué es un Prompt?
Un prompt es la instrucción —en lenguaje natural o semiestructurado— que das a un LLM para obtener una respuesta específica. Funciona como un contrato: define qué esperas, en qué contexto y con qué formato.
Prompt pobre | Prompt efectivo |
---|---|
«Explícame GPT-4» | «En 150 palabras, explica a un abogado corporativo qué ventajas ofrece GPT-4o frente a GPT-3.5 en análisis de contratos; usa ejemplos sencillos y lista 3 riesgos jurídicos en viñetas.» |
Prompting vs. Programación tradicional
Característica | Programación clásica | Prompting |
---|---|---|
Sintaxis | Estricta (C-Like, Python) | Lenguaje natural (+ opcional pseudo-código) |
Ejecución | Determinista | Probabilística |
Curva aprendizaje | Alta (lenguajes, compiladores) | Baja (literacidad + lógica) |
Mantenimiento | Refactor de código | Refactor de prompt/template |
Anatomía de un Prompt Efectivo
Fórmula base
[Tarea] + [Contexto] + [Estilo/Tono] + [Formato de salida] (+ Restricciones)
Componente | Descripción | Ejemplo |
---|---|---|
Tarea | Acción principal | «Resume el siguiente texto…» |
Contexto | Info relevante, rol, audiencia | «Artículo científico sobre LiDAR para arqueólogos» |
Estilo/Tono | Voz, formalidad, idioma | «tono divulgativo, español neutro» |
Formato | Estructura clara | «lista de 5 viñetas con 1 cita APA c/u» |
Restricciones / Condiciones | Opcional | «solo si supera 300 palabras» |
Plantilla genérica
pythonActúa como [rol]. Tu tarea es [acción]. Usa el siguiente contexto: """{contenido}""". Responde en [idioma] con [estilo] y entrega la salida en [fo
Condición – «Si el texto contiene tablas, transcribe en Markdown; si no, resume.»
Lugarholders –
{texto}
,{nombre}
,{csv}
inyectados vía n8n.Meta-prompts – «Piensa paso a paso antes de responder (Chain-of-Thought)».
SCQA (Situation–Complication–Question–Answer)
S: Presenta el contexto → «El equipo legal necesita analizar 200 contratos»
C: Expone el problema → «El plazo es de 48 h»
Q: Formula la pregunta → «¿Cómo puede la IA acelerar la revisión?»
A: Entrega la respuesta condensada y accionable.
Prompt Sandwich
Instrucción inicial — «Genera un plan de proyecto…»
Contexto detallado — «Cliente: ONG medioambiental, Presupuesto: 10 k, Equipo: 3 personas»
Instrucción final + formato — «Devuélvelo como tabla Markdown (Fase | Acción | Responsable | Duración)».
Bueno para evitar que el modelo «olvide» el formato deseado.
Zero-shot vs. Few-shot
Modalidad | Cuándo usar | Ventaja | Riesgo |
---|---|---|---|
Zero-shot | Tareas simples o bien formuladas | Rápido | Ambigüedad |
Few-shot (1–3 ejemplos) | Salidas con estilo o esquema específico | Consistencia | Mayor coste tokens |
Casos de Uso Prácticos
Eres redactor científico. Resume el artículo adjunto en <220 palabras, 3 párrafos>,
manteniendo citas APA paréntesis. Lenguaje divulgativo universitario.
Herramientas & Plataformas
Herramienta | Rol clave | Punto fuerte distintivo |
---|---|---|
ChatGPT (o3 / GPT-4o) | Generalista API & chat | Razonamiento y creatividad, respuesta multimodal |
Claude 3 | Lotes de documentos extensos | Contexto 200 k tokens; buen alineamiento ético |
Gemini Advanced | Ecosistema Google | Análisis de imágenes + Docs & Sheets integration |
n8n | Low-code automation | Flujo drag-and-drop con webhooks y DB |
LangChain / Flowise | Orquestación | Agentes, retrieval, ruteo de prompt por criterio |
Prompt-tools (PromptLayer, Helicone) | Observabilidad | Versionado, métricas y trazabilidad de prompts |
Integrar Prompts en Flujos n8n
[1] Webhook › recibe JSON {«texto»: «…», «idioma»:»es»}
[2] Set › variables prompt = plantillas.prompt_base.replace(«{texto}», $json.texto)
[3] HTTP Request › POST https://api.openai.com/v1/chat/completions
body: {model:»gpt-4o», messages:[{«role»:»user»,»content»:{{$node[«Set»].json.prompt}}}]}
[4] Function › limpia espacios, recorta a 4k tokens
[5] WhatsApp Cloud › envía $json.respuesta al remitente.
Buenas Prácticas & Ética
Transparencia — Avisa cuando el texto proviene parcial o totalmente de un LLM.
Privacidad — Ofusca emails, nombres o IDs antes de enviar al modelo.
Verificación — No confíes ciegamente en cifras; contrasta con fuentes primarias.
Citación — Si el modelo genera texto basado en fuente externa que tú suministraste, cítalo.
Sesgos — Ajusta prompts y revisa salidas para evitar reproducir estereotipos.
El prompt engineering es la palanca que convierte un LLM genérico en tu copiloto experto. Con fórmulas claras, ejemplos bien elegidos y automatización low-code podrás:
Reducir tiempos de entrega un 30–70 %.
Liberar horas para tareas de alto valor.
Mejorar la calidad y coherencia de informes, análisis y contenidos.
La maestría llega practicando: itera, mide y refina. Cada proyecto pulirá tu biblioteca de prompts y acercará tus resultados al estándar de “consultor IA” top-tier.