Domina AutoGen Tutorial: Guía paso a paso para crear un chatbot LOCAL con Ollama y LM Studio

Find AI Tools
No difficulty
No complicated process
Find ai tools

Domina AutoGen Tutorial: Guía paso a paso para crear un chatbot LOCAL con Ollama y LM Studio

Contenido

  1. Introducción 🌟
  2. Paso 1: Configuración del chatbot 🤖
  3. Paso 2: Instalación de LM Studio y O Lama 💻
  4. Paso 3: Creación del archivo JSON de configuración 📂
  5. Paso 4: Creación del archivo principal de Python 🐍
  6. Paso 5: Creación del agente asistente y usuario proxy 🧑‍💻
  7. Paso 6: Ejecución del chat con LM Studio y O Lama 🚀
  8. Paso 7: Ejecución del chat con la API de Open AI 🌐
  9. Conclusión 🎉

Cómo configurar tu propio chatbot con autogen

1. Introducción 🌟

¡Hola y bienvenido de nuevo! En este artículo te enseñaré cómo configurar tu propio chatbot utilizando autogen. Además de eso, también utilizaremos la API de Open AI, LM Studio y O Lama. Esto significa que podrás ejecutarlo en un LLM de código abierto local sin costo alguno, y podrás elegir el modelo que desees. ¡Comencemos!

2. Paso 1: Configuración del chatbot 🤖

Lo primero que debes hacer es descargar e instalar Pyar Community Edition, que es una versión gratuita de autogen. Puedes encontrar el enlace de descarga en la descripción. Una vez que hayas descargado e instalado Pyar, crea un nuevo proyecto llamado "autogen chat". Ahora que hemos configurado el entorno, pasemos al siguiente paso.

3. Paso 2: Instalación de LM Studio y O Lama 💻

Para utilizar LM Studio, es necesario descargar e instalar el software. En la descripción encontrarás un enlace para descargarlo. Una vez que lo hayas instalado, podrás seleccionar un modelo y cargarlo en LM Studio. Posteriormente, inicia el servidor. Para utilizar O Lama, descarga y ejecuta el programa desde el enlace que encontrarás en la descripción. Después de tener LM Studio y O Lama preparados, estaremos listos para continuar.

4. Paso 3: Creación del archivo JSON de configuración 📂

Lo siguiente que haremos es crear un archivo JSON que contendrá nuestras propiedades de configuración. Haz clic con el botón derecho en la carpeta del proyecto, selecciona "Nuevo" y elige "Archivo". Nombre el archivo "oi_config_list.json" y pega el siguiente contenido:

{
  "config": [
    {
      "LLM_Studio": {
        "model": "LLM Studio",
        "API_key": "<tu_clave_de_API>",
        "base_URL": "<la_URL_base_de_LLM_Studio>"
      }
    },
    {
      "O_Lama": {
        "model": "F",
        "API_key": "<tu_clave_de_API>",
        "base_URL": "<la_URL_base_de_O_Lama>"
      }
    },
    {
      "Open_AI_API": {
        "model": "<modelo_deseado>",
        "API_key": "<tu_clave_de_API>"
      }
    }
  ]
}

En este archivo, puedes configurar los modelos y claves de API que deseas utilizar para tu chatbot. Asegúrate de reemplazar <tu_clave_de_API>, <la_URL_base_de_LLM_Studio>, <la_URL_base_de_O_Lama> y <modelo_deseado> con la información correspondiente.

5. Paso 4: Creación del archivo principal de Python 🐍

Ahora vamos a crear el archivo principal de Python. Haz clic con el botón derecho en la carpeta del proyecto, selecciona "Nuevo" y elige "Archivo". Nombre el archivo "main.py" y pega el siguiente código:

import autogen
import json

filter_criteria = [{"model": ["LLM Studio"]}]
config_list = autogen.do_config_list_from_json("oi_config_list.json", filter_dictionary=filter_criteria)

assistant = autogen.do_assistant_agent("assistant_agent", llm_config={"cache_seed": 42, "temperature": 0.7, "config_list": config_list})
user = autogen.do_user_proxy_agent("user", human_input_mode="always", is_termination_message=autogen.get_content().strip().endswith("terminate"))
code_execution_config = {"working_directory": "coding", "use_Docker": False}

user.initiate_chat(assistant, recipient=assistant, message="Hello, let's chat!", silence=False, summary_prompt="reflection with llm", summary_method="reflection with llm")

json.dump(user.chat_messages, open("conversations.json", "w"), indent=2)

En este código, importamos el módulo autogen y el módulo json. Luego, creamos un criterio de filtro y una lista de configuración utilizando el archivo JSON que creamos anteriormente. A continuación, creamos un agente asistente y un agente de usuario proxy. Por último, iniciamos el chat entre el usuario y el asistente, guardamos las conversaciones en un archivo JSON y terminamos la ejecución.

6. Paso 5: Ejecución del chat con LM Studio y O Lama 🚀

Ahora estamos listos para ejecutar el chatbot utilizando LM Studio y O Lama. Abre una terminal y ejecuta el siguiente comando: python3 main.py. Esto ejecutará el programa y comenzará el chat. Podrás ver las funciones creadas por el asistente, los mensajes de la conversación y más. Recuerda que LM Studio y O Lama están configurados para ejecutarse localmente, lo que significa que no tendrás que pagar por su uso.

7. Paso 6: Ejecución del chat con la API de Open AI 🌐

Si deseas utilizar la API de Open AI en lugar de LM Studio y O Lama, puedes hacerlo. Solo necesitas cambiar el modelo y la clave de API en el archivo oi_config_list.json. Una vez que hayas realizado los cambios, puedes ejecutar el programa nuevamente y el chatbot utilizará la API de Open AI para responder a tus mensajes.

8. Conclusión 🎉

En este artículo, has aprendido cómo configurar tu propio chatbot utilizando autogen. Has explorado las opciones de LM Studio, O Lama y la API de Open AI. Ahora tienes la capacidad de ejecutar tu chatbot localmente o a través de la API de Open AI. ¡Diviértete creando tu propio chatbot!

Recuerda que este es solo uno de los métodos disponibles para crear un chatbot. Existen otras herramientas y técnicas que puedes utilizar para lograr resultados similares. Explora diferentes opciones y encuentra la que mejor se adapte a tus necesidades.


Destacados 🌟

  • Aprende cómo configurar tu propio chatbot con autogen.
  • Utiliza LM Studio y O Lama para ejecutar tu chatbot localmente sin costo.
  • Explora la API de Open AI para ejecutar tu chatbot en línea.
  • Personaliza tu chatbot utilizando diferentes modelos y claves de API.
  • Diviértete creando tu propio chatbot y experimentando con diferentes configuraciones.

Si tienes alguna pregunta o sugerencia, déjala en los comentarios. También puedes suscribirte a mi boletín semanal gratuito para recibir más contenido relacionado. ¡Gracias por leer y nos vemos la próxima vez!

Preguntas frecuentes ❓

P: ¿Cuál es la diferencia entre LM Studio y O Lama? R: LM Studio es una herramienta de código abierto que te permite ejecutar modelos de lenguaje localmente. Por otro lado, O Lama es una plataforma basada en la nube que ofrece modelos de lenguaje pre-entrenados para su uso en proyectos de chatbot.

P: ¿Puedo utilizar otros modelos de lenguaje con autogen? R: Sí, autogen es compatible con otros modelos de lenguaje además de LM Studio y O Lama. Solo necesitas ajustar la configuración en el archivo JSON y asegurarte de tener las claves de API correctas.

P: ¿Cuánto cuesta utilizar la API de Open AI? R: El costo de utilizar la API de Open AI depende del plan que elijas y de la cantidad de llamadas que realices. Puedes consultar la página de precios en el sitio web de Open AI para obtener más información.

P: ¿Puedo usar mi propia infraestructura en lugar de LM Studio y O Lama? R: Sí, puedes usar tu propia infraestructura para ejecutar autogen y tu chatbot. Solo necesitas configurar los modelos de lenguaje y las claves de API en consecuencia.


Recursos:

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.