Aprende a reducir las alucinaciones de la IA en la escritura con prompts “fuentes primero”, límites de afirmaciones, pasos de verificación y comprobaciones rápidas para detectar texto no verificable.

Las alucinaciones ocurren cuando una IA escribe algo que suena seguro y específico, pero está equivocado o simplemente inventado. El peligro está en el tono. Una frase puede leerse como un hecho verificado aun cuando sea solo una conjetura.
A menudo puedes detectar alucinaciones por sus detalles “demasiado perfectos”. Un borrador de la nada incluye números exactos, fechas precisas o citas perfectas que no proporcionaste. Puede citar un estudio, un libro o un experto que no existe.
Señales comunes incluyen:
Esto sucede porque los modelos de lenguaje predicen secuencias de palabras probables. Cuando el modelo no tiene suficiente información, rellena los huecos con algo que encaje en el patrón de un buen artículo. Los prompts que piden autoridad ("incluye estadísticas" o "añade una cita") sin aportar fuentes empujan al modelo a improvisar.
El objetivo no es la perfección. Es asegurarse de que las afirmaciones arriesgadas estén respaldadas por evidencia o claramente etiquetadas como no verificadas. Un proceso sólido mantiene el borrador útil mientras tú controlas lo que se afirma como hecho.
Una regla simple ayuda: si una afirmación pudiera afectar una decisión, la reputación o el cumplimiento, trátala como de alto riesgo y exige una fuente antes de dejarla en el texto.
Si quieres reducir las alucinaciones, empieza antes del primer prompt. Dile al modelo qué se le permite decir, qué debe evitar y para quién escribe. Límites claros facilitan la verificación del borrador y reducen la probabilidad de que "invente".
Escribe un presupuesto de afirmaciones simple. No se trata de ser tímido. Se trata de ser explícito.
Define al lector en una frase. Ejemplo: "Gerente de marketing ocupado, no técnico, leyendo en móvil, quiere una checklist práctica." Esa línea cambia el tono y elección de palabras más que la mayoría de los prompts de estilo.
Establece límites de alcance para que el modelo no mezcle contextos.
Finalmente, elige el tipo de salida desde el inicio (sección de blog, resumen de noticias, entrada de glosario). Cuando esto es vago, los modelos tienden a rellenar con afirmaciones de relleno.
Si dejas que una IA escriba primero y justifique después, estás invitando a la ficción confiada. Invierte el orden: haz que reúna evidencia antes de hacer afirmaciones.
Empieza pidiendo un plan de fuentes, no un borrador. La meta es un conjunto pequeño de fuentes (o marcadores) en las que el modelo debe apoyarse cuando escriba.
Usa una petición en dos pasos: primero fuentes, luego el borrador. Mantén la etapa de redacción restringida a esas fuentes.
Esa etiqueta "No source" es el objetivo. Resalta lo que hay que comprobar y bloquea que el modelo invente una referencia que suene real.
Elige un formato estricto y aburrido para poder escanearlo rápido:
Ejemplo (puedes pegarlo en cualquier herramienta o llamada API):
Task: Write a 700-word section.
Step 1: Propose 6 sources (S1-S6). For each: title, publisher, date, what it supports.
Step 2: Draft the section using ONLY S1-S6. After every factual claim add [S#].
If you cannot support a claim, write [No source] and do not guess.
Output: sources list, then draft.
La mayoría de las alucinaciones se esconden en detalles que suenan creíbles: porcentajes, fechas de lanzamiento, listas "top 10" y citas exactas. Trata estos como afirmaciones de alto riesgo que necesitan reglas extra.
Una salvaguarda práctica es simple: si el borrador incluye números, fechas, clasificaciones, nombres o citas, debe incluir también una fuente que puedas comprobar. Si no hay fuente disponible, el modelo debe eliminar el detalle o marcarlo como desconocido.
Restricciones útiles que puedes incorporar en los prompts:
Las etiquetas de incertidumbre mantienen los borradores útiles sin pretender certeza. Pide al modelo que etiquete las afirmaciones riesgosas como confirmado, probable o desconocido. Solo permite "probable" cuando explique por qué (por ejemplo, "basado en el extracto de changelog proporcionado").
La mayor ganancia es la consistencia. Usa el mismo flujo pequeño cada vez para que la verificación no sea una ocurrencia tardía.
Un bucle rápido que aún captura lo riesgoso:
Ejemplo: si un borrador dice "Google confirmó X en 2023," la lista de afirmaciones obliga a hacer seguimiento: ¿qué anuncio, qué fecha y dónde está registrado? Si no puedes responder rápido, suaviza o elimina.
La edición se vuelve lenta cuando cada frase se convierte en un juicio. Un enfoque más rápido es hacer que el borrador se identifique a sí mismo sobre lo que necesita comprobación, y luego verificar solo las líneas de alto riesgo.
En lugar de decirle al modelo "sé preciso", dile que etiquete la incertidumbre. Si no vio una fuente, no debe sonar seguro.
Usa marcadores que llamen la atención durante la edición:
Luego ejecuta una segunda pasada que reescriba las líneas marcadas de forma más segura.
Ejemplo: "Acme se lanzó en 2018 y ahora atiende a 10.000 clientes." Si no tienes fuente, reescribe a: "Acme se lanzó en [VERIFICAR: año de lanzamiento] y atiende [VERIFICAR: número de clientes]." Una alternativa segura es: "Acme ha crecido desde su lanzamiento, atendiendo clientes en varios mercados." Menos llamativo, pero no incorrecto.
Cuando revises las marcas, decide rápido:
Puedes reducir alucinaciones sin construir un proceso pesado. El truco es mantener pocos artefactos pequeños que viajen con el borrador y hagan la comprobación rápida.
Mantén una pequeña tabla junto al borrador (incluso como nota). Cada vez que el modelo haga una afirmación factual, captúrala una vez y decide qué hacer:
Si no puedes respaldar "La empresa X se lanzó en 2017", trátala como alto riesgo y reescribe el párrafo para que siga funcionando si la fecha cambia.
Separado del borrador, lleva un registro de citaciones que ya has verificado. Con el tiempo, esto se convierte en tu estantería de referencias confiables y reduce la tentación de aceptar lo que el modelo inventa.
Mantenlo simple: nombre de la fuente, para qué sirve y sus límites (por ejemplo, "bueno para definiciones, no para estadísticas de mercado").
Las señales rojas merecen una segunda mirada: superlativos ("el mejor"), estadísticas precisas, personas/empresas nombradas, citas, fechas y afirmaciones de "primero/único/más".
Un guion de revisión corto basta:
Las alucinaciones suelen aparecer cuando se permite al modelo rellenar huecos y nadie lo nota. La mayor parte de la solución es eliminar esos huecos.
Trampas comunes:
Si necesitas estadísticas, exige un tipo de fuente específico (informe nombrado, dataset público, filing anual) y fuerza "desconocido" cuando no esté disponible.
Antes de publicar, trata el borrador como un conjunto de afirmaciones, no como un conjunto de frases.
Lee una vez por el sentido. Luego escanea de nuevo buscando detalles de alto riesgo: números, fechas, rankings, citas y cualquier cosa demasiado específica.
Un truco práctico: etiqueta las líneas dudosas con [VERIFICAR] mientras editas. Si queda algún [VERIFICAR] al final, la pieza no está lista.
Imagina que redacts un post sobre una pregunta de finanzas personales: "¿Debo pagar mi hipoteca anticipada o invertir?" Aquí es común que la IA produzca afirmaciones seguras sobre rentabilidades, inflación, normas fiscales y promedios históricos.
Trátalo como una tarea "fuentes primero", no creativa. Empieza con un prompt corto pero estricto:
Task: Write a 900-word blog post for US readers deciding between extra mortgage payments vs investing.
Scope: General education only. No personal advice.
Allowed claims: Only claims supported by the sources I provide.
High-risk claims (must be cited): rates of return, inflation, tax rules, dates, named products, quotes.
Citations: After any sentence with a high-risk claim, add [S1], [S2], etc.
If a claim cannot be supported: mark it as [UNVERIFIED] and suggest what source is needed.
Sources:
S1: (paste a trusted explainer)
S2: (paste IRS page excerpt or official guidance excerpt)
S3: (paste a reputable calculator methodology page excerpt)
Luego sigue un flujo estricto:
Una línea típica de riesgo es: "El mercado de acciones rinde en promedio 10% anual." Si tus fuentes no dicen eso, reescríbela para evitar precisión falsa: "Los rendimientos a largo plazo varían según el periodo y no existe una rentabilidad anual garantizada. [UNVERIFIED: necesita fuente y periodo específico]" O reemplázala por una afirmación más estrecha y citada (por ejemplo, "Algunos estudios a largo plazo muestran promedios históricos en periodos concretos. [S1]").
La forma más rápida de reducir alucinaciones es dejar de tratar cada post como un caso aislado. Guarda tus mejores prompts como plantillas con las mismas salvaguardas: fuentes permitidas, tipos de afirmaciones prohibidas y cómo etiquetar la incertidumbre.
Si publicas a escala, ayuda que tus herramientas soporten la misma estructura entre borradores, reescrituras y actualizaciones. GENERATED (generated.app) es un ejemplo de plataforma de contenido que puede generar contenido vía API, soportar pulido y traducciones, y ayudar a mantener un flujo consistente alrededor de borradores y revisiones.
Una alucinación ocurre cuando la IA afirma algo específico y con confianza que en realidad no está respaldado por tu entrada o por ninguna fuente real. Suele aparecer como números exactos, fechas concretas o frases con forma de cita que suenan creíbles pero no se pueden rastrear.
Busca detalles que se sientan “demasiado ordenados”: porcentajes precisos, años exactos, atribuciones perfectas o frases entre comillas que no proporcionaste. Si no puedes señalar rápidamente de dónde salió una afirmación, trátala como no verificada y añade una fuente o reescríbela de forma más general.
Trata como de alto riesgo todo aquello que pueda cambiar una decisión, dañar la credibilidad o afectar el cumplimiento. Por defecto, exige una fuente verificable para números, fechas, rankings, nombres y citas, y no dejes esos detalles en el texto sin evidencia.
Define un “presupuesto de afirmaciones” antes de redactar: lo que el modelo puede hacer (explicar, resumir material provisto) y lo que no puede hacer (inventar estadísticas, fechas, citas o líneas de “según X”). Límites claros facilitan la verificación y reducen la inclinación del modelo a rellenar huecos.
Define de antemano la geografía, el periodo de tiempo y las fuentes permitidas, y cíñete a ellas. Si no estableces límites, el modelo puede mezclar regiones, información desactualizada y contexto no relacionado que suena coherente pero no es fiable.
Pide las fuentes primero y luego exige que el borrador use solo esas fuentes con una clave de citación simple como [S1] después de las afirmaciones fácticas. Si el modelo no puede respaldar una afirmación, debería escribir algo como “[No source]” en lugar de inventar.
Sigue una regla estricta: todo número, fecha, estudio nombrado o cita debe incluir una etiqueta de fuente, y las citas deben provenir del texto que tú suministres (no parafraseadas entre comillas). Si no tienes una fuente, sustituye el detalle por una afirmación general o márcalo como que necesita verificación.
Añade marcadores visibles que el modelo deba usar cuando no esté seguro, como [VERIFICAR] o [FUENTE NECESARIA]. Esto mantiene el flujo del borrador y hace que las líneas riesgosas sean obvias, de modo que luego verifiques solo lo que importa en lugar de comprobar cada frase.
Extrae una lista simple de afirmaciones del borrador y verifica primero solo los ítems de alto riesgo. Luego reescribe únicamente las oraciones que cambien y haz una pasada final para eliminar cualquier marcador de incertidumbre antes de publicar.
Trata tus prompts y reglas de verificación como plantillas reutilizables, no como instrucciones únicas. Si generas contenido a escala, una plataforma como GENERATED (generated.app) puede ayudar a estandarizar el flujo entre borradores, reescrituras, traducciones y actualizaciones para mantener consistentes las reglas de “solo fuentes” y “marcar incertidumbre”.