Desde el lanzamiento de Alpaca, el modelo de lenguaje de gran tamaño de Meta, y la filtración de sus pesos, ha habido una explosión de modelos de código abierto. Primero, tuvimos Alpaca del grupo de Stanford, seguido de Dolly de Databricks y luego una serie de modelos de Cerebris y, más recientemente, GPT4All de Nomec AI. Pero hay un nuevo modelo que afirma ser tan bueno como ChatGPT. Se llama Vicuna. Es un chatbot de código abierto que afirma tener el 90% de la calidad de ChatGPT. Han utilizado un conjunto de datos de entrenamiento muy interesante y una estrategia de evaluación. Más detalles sobre esto en un momento. En este artículo, vamos a comparar directamente ChatGPT y Vicuna en diversas tareas. Solo como adelanto, es muy impresionante. Así que sigue leyendo para obtener una comparación detallada.

Entrenamiento de Vicuna: Un proceso meticuloso y refinado

El excepcional modelo llamado Vicuna se ha creado gracias a la implementación de innovadoras técnicas y estrategias de entrenamiento. Este asombroso chatbot se ha desarrollado cuidadosamente utilizando datos altamente específicos y valiosos, lo que le permite alcanzar una calidad similar a la de ChatGPT. Adentrémonos en los detalles y las intrincaciones del proceso de entrenamiento de Vicuna, dividido en varias secciones para facilitar la comprensión de cada concepto crucial en el proceso.

Recopilación de datos inmersiva y selectiva

El entrenamiento de Vicuna comienza con una elección consciente y meticulosa de su conjunto de datos. En lugar de utilizar conjuntos de datos comunes o genéricos, los desarrolladores recurrieron a una fuente muy específica: SharedGPT. Este sitio web reúne conversaciones reales entre usuarios y modelos de ChatGPT, proporcionando una mina de oro de datos relevantes y únicos. La recopilación de estos datos permite a Vicuna ajustarse con precisión a la forma en que ChatGPT interactúa con los usuarios en situaciones del mundo real.

El equipo de investigación no solo se enfocó en obtener datos de alta calidad, sino que también aprovechó con maestría las herramientas adicionales proporcionadas por SharedGPT. La extensión de Chrome de SharedGPT fue utilizada de manera eficiente para recolectar conversaciones compartidas por la comunidad, lo que enriqueció aún más el conjunto de datos y mejoró la calidad de las interacciones en las que Vicuna fue entrenado.

En total, se utilizaron alrededor de 70.000 conversaciones de SharedGPT, lo que equivale a una cantidad significativa pero manejable de datos de entrenamiento.

Avanzados ajustes de parámetros y optimizaciones

Vicuna ha sido llevado al éxito inigualable de su desempeño gracias a ajustes precisos y adaptativos en sus parámetros y optimizaciones. Con un total de 13 mil millones de parámetros, la envergadura del modelo de Vicuna es innegable. Para impulsar su rendimiento, los investigadores ajustaron finamente el modelo LLaMA (Large Language Model Meta AI) utilizando los datos de entrenamiento recolectados de SharedGPT.

Adaptación de la longitud del contexto

Uno de los aspectos más intrigantes en el proceso de entrenamiento de Vicuna es la adaptación de la longitud del contexto. Aumentando la longitud máxima del contexto de 512 a 2048, los desarrolladores consiguieron ensanchar el alcance y la capacidad de Vicuna para gestionar interacciones más extensas y complejas. Si bien este ajuste aumenta los requisitos de memoria de la GPU, se compensa con optimizaciones de memoria adicionales que permiten un funcionamiento eficiente del modelo.

Rigurosa evaluación y comparación de los modelos

Para garantizar que Vicuna estuviese a la par con sus competidores y con modelos de referencia como ChatGPT, los investigadores recurrieron a un proceso de evaluación exhaustiva y multifacético. Se realizaron comparaciones valiosas y variadas entre diferentes modelos, como LLaMA, Alpaca, ChatGPT y Vicuna.

Los investigadores emplearon una estrategia compuesta por ocho estrategias de evaluación distintas, que abarcaban problemas de Fermi, escenarios de juegos de roles, tareas de escritura, codificación y matemáticas, entre otros. Esta diversidad permitió evaluar con precisión y equilibrio el desempeño de Vicuna en comparación con los otros modelos.

El fruto de este meticuloso y bien ejecutado proceso de entrenamiento es Vicuna, un extraordinario chatbot que puede llegar a ser tan bueno como el 92% de las respuestas de ChatGPT, según las evaluaciones de GPT-4. Las técnicas innovadoras y la atención minuciosa a los detalles han llevado a Vicuna a la vanguardia de los chatbots de código abierto, ofreciendo una calidad de interacción comparable a los líderes del mercado en el ámbito de los modelos de lenguaje.

¿Puedo utilizar Vicuna en mi ordenador?

La creciente popularidad de Vicuna ha llevado a muchos entusiastas del aprendizaje automático a cuestionarse sobre la viabilidad de implementar este prometedor chatbot en sus propias máquinas. Con su imponente calidad, equiparable a la de ChatGPT, indudablemente es una característica muy ansiada. Sin embargo, su disponibilidad efectiva para ser utilizada localmente aún está en exploración, lo que genera cierta indecisión en la comunidad. A continuación, se abordan varios aspectos fundamentales que ayudarán a arrojar luz sobre esta relevante incógnita.

Entendiendo el plan de lanzamiento

El equipo de investigadores detrás de Vicuna es consciente del gran interés que han suscitado en la comunidad tecnológica y académica con respecto a su modelo de lenguaje. En una muestra de compromiso y apertura, ya han compartido el código de entrenamiento, servicio y evaluación en un repositorio de GitHub. Desvelando ese primer velo, han dado un paso valioso al permitir que la comunidad tenga acceso a estos aspectos clave del proyecto.

Esperando el lanzamiento de los pesos del modelo

Actualmente, la pieza faltante en el rompecabezas de Vicuna es el lanzamiento de los pesos del modelo. Los investigadores han mencionado que planean proporcionar una versión de los pesos delta, que se basa en los pesos originales de LLaMA, pero aún están resolviendo este aspecto. Con la oferta de estos pesos esenciales, se allanaría el camino para que los usuarios interesados implementen  en sus propios dispositivos.

Consideraciones técnicas y de recursos

Es importante tener en cuenta que trabajar con Vicuna no es simplemente una cuestión de despliegue. Dada su gran envergadura y complejidad, los usuarios deben entender que su implementación podría requerir una inversión significativa en términos de recursos, tanto de hardware como de tiempo. Por ejemplo, se necesitan al menos ocho GPU A100 para entrenar a Vicuna a sus capacidades óptimas. Sin embargo, estas circunstancias pueden variar según el nivel de adaptación y configuración personalizada que un usuario decida implementar.

Estar en sintonía con las actualizaciones

Aquellos interesados en utilizar Vicuna localmente deben estar atentos a futuras actualizaciones de la documentación y el progreso del lanzamiento del chatbot. Mantenerse en contacto con la comunidad de GitHub y el servidor de Discord permitirá a los entusiastas mantenerse informados sobre las últimas noticias relacionadas con Vicuna y garantizará que tengan acceso a los recursos más actualizados del proyecto.

En conclusión

La posibilidad de utilizar Vicuna en máquinas locales sigue siendo objeto de debate en la comunidad tecnológica y académica. Si bien el equipo de desarrolladores ha mostrado voluntad de compartir ampliamente los elementos clave del proyecto, aún queda por verse si se revelarán completamente los detalles que permitan la implementación local. Los entusiastas de este potente chatbot deben seguir de cerca el desarrollo, prepararse para enfrentar desafíos técnicos y de recursos y ajustar sus expectativas en función de la evolución de Vicuna en el futuro próximo.

Comparte esta publicación