Saltar al contenido

5 estrategias para obtener mejores “prompts” en chatgpt

Detalle de ChatGPT, el chatbot de OpenAI | Pexels

La ingeniería de instrucciones o “prompts engineer” es un área fundamental desde la irrupción de los grandes modelos de lenguaje. Son, como hemos hablado anteriormente, las recetas de cocina. Pero requiere de una curva de aprendizaje alta. Y, sobre todo, de la adopción de una dinámica de prueba, ensayo y error. De primeras, los resultados que obtenemos desde servicios como ChatGPT o MidJourney no van a satisfacernos plenamente. Hay errores, fallos e incongruencias. A medida que hacemos una prospección en ellas descubrimos algunos trucos y estrategias para sacarle un mejor partido y de que, por fin, puedan ser en verdad útiles.

El mayor punto de fricción de los servicios generativos es pasar de la parte lúdica a la profesional. Vemos cada día la aparición de numerosas plataformas que nos “venden” que se trata de la solución mágica a nuestras tareas engorrosas. Pero la realidad es que todavía estamos en ese punto en el que nos sorprenden pero no sabemos bien cómo adoptarlas. OpenAI, empresa desarrolladora de ChatGPT, ha actualizado recientemente las guías de uso de su joya tecnológica para ofrecer algunos consejos prácticos para sacar provecho al chatbot. Os resumo las seis mejores estrategias para lograr “prompts” más eficientes:

Escribir instrucciones claras

Estos modelos “no pueden leer su mente”. Y es cierto: la clave es aprender a susurrar bien al oído de las máquinas. Si las respuestas son demasiado extensas, pide respuestas más breves. Si las respuestas son demasiado simples, sugiere una redacción a nivel de experto. Si no te gusta el formato, muestra aquel que te gustaría ver. Cuanto menos tenga que adivinar el modelo lo que desea es más probable que obtenga un mejor resultado.

Tácticas:

  • Incluye detalles más precisos para obtener respuestas más relevantes
  • Pide al modelo que adopte una personalidad o rol (experto, periodista, profesional del marketing)
  • Acota para indicar claramente partes distintas de la entrada
  • Especifica los pasos necesarios para completar una tarea
  • Proporciona ejemplos
  • Especifica la longitud deseada del resultado

Proporcionar textos de referencia

Esto es de los apartados más controvertidos de las herramientas generativas, la cesión de datos. Estos servicios se “entrenan” con grandes bases de datos. Es importante evitar proporcionar datos sensibles, al menos si se trata de una compañía, pero para obtener mejores resultados es posible entregarles un texto base. ¿Por qué es importante hacerlo? Los modelos de lenguaje pueden “inventar respuestas falsas”, especialmente al añadir citas y direcciones. Del mismo modo que una hoja de notas puede ayudar a un estudiante sacar mejor nota en un examen, facilitarle a ChatGPT o cualquiera de estos modelos un texto de referencias puede ayudar a responder con menos “alucinaciones” y errores.

Tácticas:

  • Instruye al modelo para que responda utilizando un texto de referencia
  • Entrena al modelo para que responda con citas de un texto de referencia

Dividir tareas complejas en peticiones simples

De la misma manera en en ingeniería de software es recomendable descomponer un sistema complejo en un conjunto de componentes modulares, en las herramientas generativas sucede tres cuartos de lo mismo. ¿Por qué? Porque las tareas complejas tienden a tener tasas de error más altas que las simples. Además, las complejas a menudo se pueden redefinir como un flujo de trabajo más simples en el que las peticiones anteriores se utilizan para construir un resultado final más apropiado.

Tácticas:

  • Introduce una serie de intenciones para identificar las instrucciones más relevantes
  • Para diálogos que requieren de conversaciones largas, resume o filtra la petición anterior
  • Resume documentos largos por partes

Dar tiempo al modelo para «pensar»

OpenAI pone de ejemplo que, si se le pide al modelo que multiplique 17 por 28, “es posible que no lo sepa instantáneamente”, pero “aún puede resolverlo” si le dejamos cierto tiempo. De manera similar, los modelos cometen más errores de razonamiento al intentar responder de inmediato en lugar de tomarse el tiempo para trabajar en una respuesta. La técnica de añadir una «cadena de pensamiento» (una metodología para guiar al modelo a través de un proceso lógico) antes de una respuesta puede ayudar al modelo a razonar de manera más eficiente hacia las respuestas correctas. Nos podemos servir de ello a través de los llamados “prompts” secuenciales, es decir, que vas estructurando como si estuvieras deshojando una cebolla.

Tácticas:

  • Entrena al modelo para que elabore su propia solución antes de apresurarse a una conclusión errónea
  • Usa un monólogo interno o una secuencia de consultas para ocultar el proceso de razonamiento del modelo
  • Pregúntale al modelo si se le pasó algo extraño en los pasos anteriores

Usar herramientas externas

La compañía lo deja claro: puedes intentar compensar las debilidades del modelo alimentándolo con otras herramientas. Por ejemplo, un sistema de recuperación de texto (a veces llamado RAG o generación aumentada por recuperación) que puede informar al modelo sobre documentos relevantes. Un motor de ejecución de código como el Code Interpreter de OpenAI puede ayudar a hacer cálculos y ejecutar código. Si una tarea se puede realizar de manera más eficiente mediante una herramienta en lugar de un modelo de lenguaje, cambia esta tarea para obtener lo mejor de ambos. No sé si me explico…

Tácticas:

  • Usa la ejecución de código para realizar cálculos más precisos o utiliza API externas
  • Dale acceso al modelo a funciones específicas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *