Publicado el en Notion HQ

Cómo escribir buenos prompst para la IA

Por Michael Krantz

Marketing, Notion

Tiempo estimado de lectura: 10 min

Puedes hacer cosas asombrosas con la inteligencia artificial, si sabes cómo escribir (y reescribir) buenas instrucciones en el prompt de la IA.

No lo hice. Así que hablé con mi colega Theo Bleier, un desarrollador de IA que se pasa el día retocando las instrucciones de prompt predefinidas, que ves cuando utilizas la IA Notion. Ahora puedo explicarte cómo puedes utilizar el asombroso poder de la IA generativa para mejorar tu trabajo y tu vida, desde hoy mismo.

Nota: Todas las indicaciones y respuestas en esta publicación se realizaron con la IA de Notion. Pero los principios que analizamos deberían funcionar de manera similar en cualquier modelo de lenguaje grande estándar (LLM).

Cómo funcionan realmente los LLM

Los grandes modelos de lenguaje (LLM) como la IA de Notion, ChatGPT y Llama utilizan conjuntos de datos que comprenden grandes cantidades de lenguaje, el equivalente a millones de libros, páginas web, entre otros. El modelo convierte cada palabra (o partes de una palabra) en estos miles de millones de oraciones en un token y, luego, clasifica cada token de acuerdo con la frecuencia que se utiliza junto a otro token en ese conjunto de datos.

Cuando realizas una solicitud en el prompt, la IA utiliza estas clasificaciones para estudiar tu solicitud y devolver lo que considera una respuesta ideal. Para los mensajes simples, este proceso parece bastante sencillo.

La respuesta de la IA

Pero los LLM se desvían ocasionalmente de sus clasificaciones simbólicas para generar una "respuesta creativa", de ahí el nombre de “IA generativa”. El resultado puede ser un poco espeluznante.

La respuesta de la IA

¿De qué manera la estrategia de clasificación de tokens de modelos lingüísticos produce un lenguaje complejo y capacidad de conversación? Esa pregunta sigue siendo un área de investigación activa. Pero no tenemos que entender completamente este proceso para encontrar formas de manipularlo.

Habla con el modelo como si fuera un humano

Habla normalmente

Los modelos de IA generativa no son como Siri o Google Assistant, que solo responden de manera efectiva a frases exactas. Al haber sido entrenados con inmensas cantidades de diálogos conversacionales, su modelo lingüístico conoce todas las matices de la forma en que las personas conversan y se envían mensajes de texto. Háblale como si fuera un humano y obtendrás una mejor respuesta (más humana).

Sé conciso

Haz que la instrucción de tu prompt sea lo más simple posible, pero con todos los detalles relevantes (más información sobre esto más adelante). Cuanto más claro sea tu texto, menos probable es que el modelo malinterprete tus palabras (también hay más información sobre esto, más adelante).

No utilices formas negativas como “No usar frases negativas”

Cuando dices algo como “No hagas…”, un LLM podría centrarse en el “Hagas” e ignorar el “No”, y conseguir el resultado opuesto al que buscabas.Así que:

MALO:No incluyas listas incompletas.

BUENO:Incluye solo listas completas.

Dile a tu modelo todo lo que necesita saber

Ahora que vimos cómo hablar con nuestro LLM, veamos sobre qué vamos a conversar. Yo elegí un proyecto de investigación con el que un analista de mercado típico podría querer ayuda, pero puedes preguntar a la IA sobre cualquier cosa que quieras, desde el trabajo escolar hasta cómo armar un menú excelente para una cena en la víspera de Año Nuevo. Se aplican los mismos principios.

Supongamos que eres analista de mercado de una empresa de artículos deportivos y tienes que redactar un informe sobre las mejores ciudades de los EE. UU. para lanzar una nueva línea de artículos de camping. ¿Cómo deberías preguntar?

Proporciona una identidad a tu modelo

¿Quieres que tu modelo haga el trabajo de un analista de mercado? Comienza diciendo esto:

Sí, es raro, pero funciona. Los LLM están capacitados en lenguaje humano. Dile a tu modelo que asuma que es un analista de mercado y hará hincapié en los patrones de token que están vinculados con analistas del mercado reales. Cuando lo piensas en esos términos, darle a tu modelo una identidad, no es tan extraño. Decirle que

antes que responda a tu instrucción lo que es es realmente raro y, aparentemente, eso también funciona.

Sé específico

Los modelos lingüísticos comprenden el idioma de un token a la vez. Cada uno de esos tokens cuenta (por eso es importante la concisión), pero tampoco puedes asumir que tu modelo interpretará correctamente una instrucción vaga.

La respuesta de la IA

Esta respuesta reflexiva señala amablemente que no dimos a nuestro modelo casi suficiente información para que nos ofrezca una respuesta significativa. Hay que ajustar la instrucción en consecuencia:

La respuesta de la IA

¡Vaya!, queríamos que nuestro informe especificara ubicaciones:

La respuesta de la IA

Observa ¿cómo un ajuste menor a un prompt, puede producir un cambio significativo en la respuesta de nuestra IA?Esto te hace pensar sobre qué produciría un ajuste importante.

Evita errores para producir grandes resultados

La forma en que la respuesta de la IA se acerca cada vez más a lo que queremos en función de la mayor claridad de nuestras instrucciones, nos lleva a uno de nuestros consejos más importantes:

Sé minucioso

Hasta ahora nuestras instrucciones fueron bastante breves. Sin embargo, los LLM son capaces de procesar grandes cantidades de datos. Lo que significa que una vez que seas bueno escribiendo instrucciones en el prompt, podrás pedirles mucho más. De hecho, una ventaja que tiene la IA de Notion sobre los LLM, como ChatGPT, es que en lugar de comenzar desde una página en blanco, puedes comenzar en una página existente y decirle a la IA algo como “Basado en las pautas anteriores” o “Consulta la tabla anterior para conocer las estadísticas actualizadas”.

La respuesta de la IA

Escribe algo más que lo aleje de los malos resultados

También puedes agregar oraciones aclaratorias a tu prompt, que anticipan problemas que el modelo podría tener o decisiones que podría tener que tomar.

La respuesta de la IA

Esto es un resultado que vale la pena pensar. Nuestra IA eligió cuatro ciudades: Denver, Seattle, Austin y Minneapolis. Cuando agregamos que solo queremos ciudades que tengan al menos seis pulgadas de nieve por año, el modelo cambió en Anchorage y Burlington por Seattle y Austin, mientras cambia su racionalidad para enfatizar la nieve total de cada ciudad.

Pero, ¿esta es realmente una lista ideal? La ciudad de Nueva York tiene 23 pulgadas (58,42 cm) de nieve al año; ¿queremos enfatizar a Anchorage sobre la Gran Manzana para vender nuestro equipo de campamento?

Aquí hay un par de lecciones de escritura rápida de un prompt.

Una lección es que los modelos lingüísticos pueden ser impredecibles, incluso cometer errores. Nuestra IA nos informa que Anchorage es “la ciudad con la nieve más alta en los EE. UU. (promedio de 101 pulgadas [256,5 cm] por año)”. Mis búsquedas me dicen que Anchorage tiene una media de 77 pulgadas (195,6 cm) de nieve al año y que la ciudad más nevada de América es Buffalo, Nueva York, con más de 110 pulgadas (279 cm) al año. Y, de hecho, cuando le hago la misma pregunta al modelo unos días después, obtengo un resultado más preciso:

La respuesta de la IA

Los científicos informáticos llaman “alucinación” a la tendencia de los modelos generativos de la IA de arrojar resultados falsos periódicamente. Podemos protegernos de la tendencia de nuestro modelo a darnos información falsa ocasionalmente, dirigiéndolo hacia lo que mejor sabe hacer.

Agrega un ejemplo de entrada y salida (“ejemplo de pocas tomas”)

Hasta ahora solicitamos a nuestra IA que recopile información de Internet. Sin embargo, la habilidad más potente de un LLM es el lenguaje: comprenderlo, trabajar con él, cambiarlo y mejorarlo.

La IA nos ayudó a elegir ciudades en las que centrar nuestra campaña. Para el informe final, pídele que convierta un desglose de información sobre cada ciudad en una conclusión pulida. Le mostraremos lo que tiene que hacer dándole una instrucción que empiece con un “ejemplo de algunas tomas”: un ejemplo de la entrada que recibirá el modelo y la salida que queremos que produzca. Luego, agregaremos notas para una ciudad sobre la que nos gustaría que informara:

Nuestro aviso

La respuesta de la IA

Bastante bien, ¿no? Nos llevó mucho tiempo, pero descubrimos cómo usar nuestro modelo para explorar Internet y hacer sugerencias, y luego tomar la información que seleccionamos y convertirla en escritura con la que podamos trabajar. ¡La IA incluso tiene las cifras de población correctas!

Aunque, al comprobar los datos básicos de la IA sobre Salt Lake City, me di cuenta de que no menciona que las montañas que rodean la ciudad reciben unas 500 pulgadas (1270 cm) de nieve al año. ¿No debería incluirse en el resumen?

Bueno, claro, pero a estas alturas ya estarás reflexionando sobre la segunda lección importante de la escritura de instrucciones: ¡que en realidad es mucho trabajo! Los humanos se han comunicado entre sí durante decenas de miles de años. Solo estuvimos estudiando cómo comunicarnos con modelos lingüísticos durante unos meses. ¿Cómo sabemos cuándo lo estamos haciendo bien? ¿No podríamos seguir ajustando nuestras instrucciones de forma indefinida?

Sí, podríamos, y esa es una idea importante sobre el trabajo con inteligencia artificial: cuanto más esfuerzo pongas, más beneficios recibirás. La IA no borra nuestro trabajo, complementa nuestras habilidades, complementa nuestros esfuerzos y nos lleva a lugares que nunca podríamos haber alcanzado solos.

Y, por supuesto, apenas estamos comenzando. ¿Qué maravillas podrá hacer la IA del mañana? El cielo es el límite. Empecemos a aprender a volar.

Compartir esta publicación


Prueba Notion ahora mismo

Escoge dónde comenzar

También tenemos las correspondientes apps para Mac y Windows.

Desde web, escritorio o las apps de iOS y Android correspondientes.

App web

App de escritorio