¿Qué es un prompt en inteligencia artificial?

Aprende cuáles son los tipos de prompts más populares, qué son los tokens y porque son importantes.

INTELIGENCIA ARTIFICIAL

Sergio Bobadilla

12/4/20254 min read

Computadora generando imágenes a partir de un prompt
Computadora generando imágenes a partir de un prompt

Después de haber visto en el artículo anterior que es la inteligencia artificial y comprender los fundamentos de esta tecnología. Ahora es el momento de hablar sobre los famosos prompts y cómo sacarles el máximo provecho.

¿Qué es un prompt?

El prompt es simplemente la instrucción que le damos a los servicios de inteligencia artificial para obtener un resultado. Por ejemplo, cuando le pedimos a Gemini que "Dibuja una infografía con las distintas versiones de ChatGPT para mostrar cómo ha ido evolucionando el modelo" De esta forma ya estamos generando el prompt.

Sin embargo, para obtener mejores resultados y mayor personalización es indispensable brindarle dos elementos claves: el contexto y la data. Recuérdalo de esta forma: el contexto es el rey y la data la reina. Para todos aquellos que tienen algo de experiencia en Internet, se solía mencionar que para los sitios de Internet, el contenido era el rey. El contenido era y es uno de los factores más importante para posicionar los sitios de Internet en los motores de búsqueda. Ahora en la era de la IA para obtener mejores resultados necesitamos el contexto y la data. 🤴👸

Supongamos que estás haciendo una búsqueda de empleo y quieres mejorar tu CV. Entonces, en tu prompt le indicas a la inteligencia artificial que estás buscando una vacante de trabajo en San Francisco California, para una vacante de programador en el cual se habla el idioma inglés y le pides que adapte tu CV al formato del país y al idioma. Con este prompt tu ya estás dando un contexto específico de lo que está buscando. Ahora en este caso, la data (información) sería cargar tu CV para que la IA tome de ahí todos elementos para construir tu nuevo CV. El resultado que obtendrás sera mucho mejor que solamente haber pedido a la inteligencia artificial que tradujera tu CV al inglés.

Desde la aparición de ChatGPT en 2022 muchos creadores de contenidos aparecían compartiendo algunos prompts para copiar y pegar. Y aunque algunos pudieron resultar interesantes, son instrucciones genéricas que no adaptan necesariamente a tus necesidades porque faltan tanto el contexto como la data.

El Prompt engineering

En el 2023, el MIT publicó un artículo en el cual categorizó por primera vez los tipos de prompts y los clasificó en 6 categorías:

  1. Zero-Shot Prompt

    Se trata de un prompt con una instrucción muy clara. Por ejemplo, "Revisa la ortografía de este artículo"

  2. Few-Shot Prompt
    Este tipo de prompt lo utilizamos para obtener consistencia en el resultado. Por ejemplo, cuando escribes un artículo y le das una referencia para que use el mismo estilo o tono de escritura de otro artículo.

  3. Instructional Prompt

    Son esos prompts que le damos con una instrucción precisa: Investiga, dibuja, reescribe, resume este artículo, entre otros.

  4. Role-Based Prompt
    Este prompt se trata de cuando le pides a la inteligencia artificial que adopte el rol de un creador de contenido, un profesor de matemáticas, un psicólogo, etc. para abordar un tema y obtener mejores resultados.

  5. Contextual Prompt
    En este prompt le pedimos a la inteligencia artificial que se adapte a un contexto o audiencia en específico. Por ejemplo, "Explícame como funciona el producto interno bruto (PIB) como si fuera un niño de 10 años" El resultado es que adapta el lenguaje y los ejemplos a la audiencia que le pediste, lo cual es muy útil por cierto cuando quieres aprender un tema complejo.

  6. Meta Prompt / System Prompt

En este prompt le fijas instrucciones antes de comenzar la interacción. Por ejemplo, cuando le pides desde tu teléfono a la Inteligencia artificial que te hable como un profesor de francés antes de comenzar la interacción.

Seguramente, sin saberlo, has utilizado más de una vez este tipo de prompts en tu vida diaria. Pero al ser consciente de lo que puedes obtener con la instrucción correcta puede ahorrarte mucho tiempo y mejorar la calidad de los resultados.

Actualmente existen cada vez más servicios de inteligencia artificial tratando de competir por dominar el mercado. Tenemos ChatGPT, Gemini, Claude, Perplexity, Deepseek, Copilot entre otros. Conforme pase el tiempo, cada vez tendremos menos acceso a servicios gratuitos por parte de estos proveedores de inteligencia artificial porque están invirtiendo mucho dinero, y necesitan monetizar esta tecnología lo más pronto posible. Por lo tanto, hacer un prompt engineering efectivo es una habilidad profesional que deberíamos dominar con el objetivo de obtener mejores resultados al menor costo.

¿Qué son los tokens y su importancia en el prompt engineering?

Un token es la unidad básica que utilizan los modelos de lenguaje (LLM) de inteligencia artificial para construir los prompts. Es decir, los modelos de lenguaje no operan con palabras o caracteres, operan con tokens como la métrica para cobrar el servicio de consultas a los modelos de inteligencia artificial.

Tomemos el siguiente ejemplo:
Prompt de entrada: Dime la capital de Francia.
7 Tokens de entrada: Dime (1) la(2) capital(3) de(4) Franc(5) ia(6) .(7)

Prompt de salida: La capital de Francia es París
9 Tokens de salida con la respuesta: La(1) capital(2) de(3) Franc(4) ia(5) es(6) Par(7) ís(8) . (9)

Como puedes ver, no siempre un token representa una palabras. Además, el número de tokens también depende del servicio de inteligencia artificial que estés usando y la versión que estés utilizando.

Con el fin de comprender mejor cómo se calculan los tokens y cuánto costarían, he desarrollado una calculadora gratuita en la cual puedes ingresar tu prompt y darte una idea de las estimaciones aproximadas. 👇

Finalmente, si quieres saber más acerca de la inteligencia artificial te invito a descargar el e-book gratuito sobre los fundamentos de inteligencia artificial.

Nos vemos en el siguiente artículo.

Esta calculadora tiene un objetivo educativo y no pretende ser una fuente oficial para tomar decisiones. Los costos oficiales deben consultarse directamente en la empresa OpenAI, propietaria de ChatGpt.