Domina AutoGen Tutorial: Guía paso a paso para crear un chatbot LOCAL con Ollama y LM Studio
Contenido
- Introducción 🌟
- Paso 1: Configuración del chatbot 🤖
- Paso 2: Instalación de LM Studio y O Lama 💻
- Paso 3: Creación del archivo JSON de configuración 📂
- Paso 4: Creación del archivo principal de Python 🐍
- Paso 5: Creación del agente asistente y usuario proxy 🧑💻
- Paso 6: Ejecución del chat con LM Studio y O Lama 🚀
- Paso 7: Ejecución del chat con la API de Open AI 🌐
- Conclusión 🎉
Cómo configurar tu propio chatbot con autogen
1. Introducción 🌟
¡Hola y bienvenido de nuevo! En este artículo te enseñaré cómo configurar tu propio chatbot utilizando autogen. Además de eso, también utilizaremos la API de Open AI, LM Studio y O Lama. Esto significa que podrás ejecutarlo en un LLM de código abierto local sin costo alguno, y podrás elegir el modelo que desees. ¡Comencemos!
2. Paso 1: Configuración del chatbot 🤖
Lo primero que debes hacer es descargar e instalar Pyar Community Edition, que es una versión gratuita de autogen. Puedes encontrar el enlace de descarga en la descripción. Una vez que hayas descargado e instalado Pyar, crea un nuevo proyecto llamado "autogen chat". Ahora que hemos configurado el entorno, pasemos al siguiente paso.
3. Paso 2: Instalación de LM Studio y O Lama 💻
Para utilizar LM Studio, es necesario descargar e instalar el software. En la descripción encontrarás un enlace para descargarlo. Una vez que lo hayas instalado, podrás seleccionar un modelo y cargarlo en LM Studio. Posteriormente, inicia el servidor. Para utilizar O Lama, descarga y ejecuta el programa desde el enlace que encontrarás en la descripción. Después de tener LM Studio y O Lama preparados, estaremos listos para continuar.
4. Paso 3: Creación del archivo JSON de configuración 📂
Lo siguiente que haremos es crear un archivo JSON que contendrá nuestras propiedades de configuración. Haz clic con el botón derecho en la carpeta del proyecto, selecciona "Nuevo" y elige "Archivo". Nombre el archivo "oi_config_list.json" y pega el siguiente contenido:
{
"config": [
{
"LLM_Studio": {
"model": "LLM Studio",
"API_key": "<tu_clave_de_API>",
"base_URL": "<la_URL_base_de_LLM_Studio>"
}
},
{
"O_Lama": {
"model": "F",
"API_key": "<tu_clave_de_API>",
"base_URL": "<la_URL_base_de_O_Lama>"
}
},
{
"Open_AI_API": {
"model": "<modelo_deseado>",
"API_key": "<tu_clave_de_API>"
}
}
]
}
En este archivo, puedes configurar los modelos y claves de API que deseas utilizar para tu chatbot. Asegúrate de reemplazar <tu_clave_de_API>
, <la_URL_base_de_LLM_Studio>
, <la_URL_base_de_O_Lama>
y <modelo_deseado>
con la información correspondiente.
5. Paso 4: Creación del archivo principal de Python 🐍
Ahora vamos a crear el archivo principal de Python. Haz clic con el botón derecho en la carpeta del proyecto, selecciona "Nuevo" y elige "Archivo". Nombre el archivo "main.py" y pega el siguiente código:
import autogen
import json
filter_criteria = [{"model": ["LLM Studio"]}]
config_list = autogen.do_config_list_from_json("oi_config_list.json", filter_dictionary=filter_criteria)
assistant = autogen.do_assistant_agent("assistant_agent", llm_config={"cache_seed": 42, "temperature": 0.7, "config_list": config_list})
user = autogen.do_user_proxy_agent("user", human_input_mode="always", is_termination_message=autogen.get_content().strip().endswith("terminate"))
code_execution_config = {"working_directory": "coding", "use_Docker": False}
user.initiate_chat(assistant, recipient=assistant, message="Hello, let's chat!", silence=False, summary_prompt="reflection with llm", summary_method="reflection with llm")
json.dump(user.chat_messages, open("conversations.json", "w"), indent=2)
En este código, importamos el módulo autogen
y el módulo json
. Luego, creamos un criterio de filtro y una lista de configuración utilizando el archivo JSON que creamos anteriormente. A continuación, creamos un agente asistente y un agente de usuario proxy. Por último, iniciamos el chat entre el usuario y el asistente, guardamos las conversaciones en un archivo JSON y terminamos la ejecución.
6. Paso 5: Ejecución del chat con LM Studio y O Lama 🚀
Ahora estamos listos para ejecutar el chatbot utilizando LM Studio y O Lama. Abre una terminal y ejecuta el siguiente comando: python3 main.py
. Esto ejecutará el programa y comenzará el chat. Podrás ver las funciones creadas por el asistente, los mensajes de la conversación y más. Recuerda que LM Studio y O Lama están configurados para ejecutarse localmente, lo que significa que no tendrás que pagar por su uso.
7. Paso 6: Ejecución del chat con la API de Open AI 🌐
Si deseas utilizar la API de Open AI en lugar de LM Studio y O Lama, puedes hacerlo. Solo necesitas cambiar el modelo y la clave de API en el archivo oi_config_list.json
. Una vez que hayas realizado los cambios, puedes ejecutar el programa nuevamente y el chatbot utilizará la API de Open AI para responder a tus mensajes.
8. Conclusión 🎉
En este artículo, has aprendido cómo configurar tu propio chatbot utilizando autogen. Has explorado las opciones de LM Studio, O Lama y la API de Open AI. Ahora tienes la capacidad de ejecutar tu chatbot localmente o a través de la API de Open AI. ¡Diviértete creando tu propio chatbot!
Recuerda que este es solo uno de los métodos disponibles para crear un chatbot. Existen otras herramientas y técnicas que puedes utilizar para lograr resultados similares. Explora diferentes opciones y encuentra la que mejor se adapte a tus necesidades.
Destacados 🌟
- Aprende cómo configurar tu propio chatbot con autogen.
- Utiliza LM Studio y O Lama para ejecutar tu chatbot localmente sin costo.
- Explora la API de Open AI para ejecutar tu chatbot en línea.
- Personaliza tu chatbot utilizando diferentes modelos y claves de API.
- Diviértete creando tu propio chatbot y experimentando con diferentes configuraciones.
Si tienes alguna pregunta o sugerencia, déjala en los comentarios. También puedes suscribirte a mi boletín semanal gratuito para recibir más contenido relacionado. ¡Gracias por leer y nos vemos la próxima vez!
Preguntas frecuentes ❓
P: ¿Cuál es la diferencia entre LM Studio y O Lama?
R: LM Studio es una herramienta de código abierto que te permite ejecutar modelos de lenguaje localmente. Por otro lado, O Lama es una plataforma basada en la nube que ofrece modelos de lenguaje pre-entrenados para su uso en proyectos de chatbot.
P: ¿Puedo utilizar otros modelos de lenguaje con autogen?
R: Sí, autogen es compatible con otros modelos de lenguaje además de LM Studio y O Lama. Solo necesitas ajustar la configuración en el archivo JSON y asegurarte de tener las claves de API correctas.
P: ¿Cuánto cuesta utilizar la API de Open AI?
R: El costo de utilizar la API de Open AI depende del plan que elijas y de la cantidad de llamadas que realices. Puedes consultar la página de precios en el sitio web de Open AI para obtener más información.
P: ¿Puedo usar mi propia infraestructura en lugar de LM Studio y O Lama?
R: Sí, puedes usar tu propia infraestructura para ejecutar autogen y tu chatbot. Solo necesitas configurar los modelos de lenguaje y las claves de API en consecuencia.
Recursos: