Headlines

Ingeniería de indicaciones para maximizar las capacidades del Modelo de Lenguaje

Una nueva herramienta conocida como ChatGPT fue lanzada en el otoño de 2022, causando un frenesí entre los usuarios ansiosos por experimentar con la ingeniería de indicaciones para maximizar las capacidades del Modelo de Lenguaje Grande (LLM) de Inteligencia Artificial. Numerosos recursos en línea ofrecen orientación, hojas de trucos y consejos sobre cómo utilizar eficazmente la ingeniería de indicaciones para mejorar el rendimiento de los LLM. Empresas de diversos sectores están adoptando copilotos impulsados por LLM para el desarrollo de productos, automatización de tareas y creación de asistentes personales, como revelan una serie de entrevistas realizadas por Austin Henley, un ex empleado de Microsoft que ha observado de cerca la tendencia.

Sin embargo, investigaciones recientes indican que la ingeniería de indicaciones puede ser mejor realizada por el propio modelo en lugar de por un ingeniero humano. Este cambio ha generado dudas sobre el futuro de la ingeniería de indicaciones y ha suscitado sospechas de que una parte de los trabajos de ingeniería de indicaciones pueden ser temporales, dada la evolución del campo. Técnicas exitosas de ingeniería de indicaciones, como los indicadores de Autotune, han dado lugar a resultados intrigantes. Por ejemplo, Rick Battle y Teja Gollapudi de una empresa de computación en la nube con sede en California, VMware, descubrieron que técnicas de indicación no convencionales podían impactar significativamente en el rendimiento de los LLM. Preguntar a los modelos para que expliquen el razonamiento paso a paso o proporcionar indicaciones positivas condujo a mejoras en la resolución de problemas matemáticos y lógicos.

En una prueba sistemática de diferentes métodos de ingeniería de indicaciones, Battle y Gollapudi examinaron varios modelos de lenguaje de código abierto con diferentes combinaciones de indicaciones. Sorprendentemente, encontraron una falta de consistencia en la efectividad de la indicación de cadena de pensamiento, lo que indica que no hay un enfoque único para la ingeniería de indicaciones. Un nuevo enfoque implica el uso de herramientas automatizadas para generar indicaciones óptimas para los LLM, lo que resulta en un mejor rendimiento en comparación con la optimización manual a través de prueba y error. Las indicaciones generadas algorítmicamente arrojaron resultados impresionantes, optimizando el rendimiento de los LLM de manera más eficiente que las indicaciones diseñadas por humanos.

De manera similar, en el ámbito de la generación de imágenes, se han realizado intentos para automatizar la optimización de indicaciones para estos modelos. Un equipo en los laboratorios de Intel, liderado por Vasudev Lal, utilizó una herramienta llamada NeuroPrompts para mejorar la generación de imágenes basada en indicaciones mediante la automatización del proceso. La herramienta no solo superó a las indicaciones expertas humanas, sino que también proporcionó a los usuarios control sobre la estética de las imágenes generadas, permitiendo resultados más personalizados. Esta automatización de la optimización de indicaciones se ve como un avance significativo en la reducción de la dependencia de la ingeniería de indicaciones manual y en garantizar un rendimiento consistente en diferentes tareas.

Mientras los ingenieros de indicaciones continúan desempeñando un papel crucial en la refinación y optimización del rendimiento de los LLM, la industria está evolucionando hacia herramientas y procesos automatizados para agilizar la implementación de estos modelos en diversas aplicaciones. Las empresas están creando nuevos títulos de trabajo como ingenieros de Operaciones de Modelos de Lenguaje Grande (LLMOps), a cargo de gestionar el ciclo de vida de la implementación y mantenimiento de los LLM. Este cambio refleja una tendencia creciente hacia la automatización de tareas de ingeniería de indicaciones e incorporándolas en los propios modelos base, convirtiendo a los ingenieros de indicaciones en parte de un panorama industrial que cambia rápidamente.

En resumen, la ingeniería de indicaciones es un componente crítico para maximizar el potencial de los LLM, pero su futuro puede implicar más automatización y optimización algorítmica en lugar de ajustes manuales. A medida que la industria se adapta a las demandas cambiantes de los modelos de IA generativos, los ingenieros de indicaciones y los profesionales de LLMOps seguirán desempeñando roles esenciales para garantizar la eficiencia y efectividad de los grandes modelos de lenguaje en diversas aplicaciones. El panorama de la ingeniería de indicaciones está en constante evolución, caracterizado por la innovación, la automatización y un espíritu de exploración del Oeste Salvaje hacia las posibilidades de la tecnología de IA.

Fuente: https://spectrum.ieee.org/prompt-engineering-is-dead