Eliminación automática de mensajes anteriores con GPT 3.5 Turbo OpenAI API
Tabla de Contenidos
- Introducción
- Demostración de GPT 3.5 Turbo
- Requisitos
- Configuración Inicial
- Cómo implementar la eliminación de mensajes anteriores
- Bucles y entrada de usuario
- Creación de una respuesta utilizando GPT 3.5 Turbo
- Control de tokens y remoción de mensajes anteriores
- Resultados y Conclusiones
- Cómo adaptar el código a tu caso de uso
Introducción
En este artículo, aprenderemos cómo utilizar las nuevas funciones de completado de chat de Open AI con GPT 3.5 Turbo. Exploraremos una demostración y describiremos los requisitos necesarios para ponerla en práctica.
1. Demostración de GPT 3.5 Turbo
Comenzaremos con una demostración práctica que ilustra cómo podemos eliminar mensajes anteriores a medida que el contador de tokens alcanza un nivel específico. Esto nos permitirá mantener un límite de tokens y evitar excedernos.
2. Requisitos
Antes de comenzar, hay dos requisitos que debemos tener en cuenta. Primero, necesitaremos realizar llamadas a la API de Open AI, por lo que debemos asegurarnos de tener instaladas las librerías "OpenAI" y "pprint". Puedes instalarlas fácilmente utilizando el comando "pip install openai" y "pip install pprint".
3. Configuración Inicial
Una vez que hayamos instalado las librerías necesarias, podemos proceder a importarlas en nuestro código. También necesitaremos importar las librerías "openai.token", para contar los tokens, y "os", para realizar determinadas configuraciones.
4. Cómo implementar la eliminación de mensajes anteriores
Para implementar la eliminación de mensajes anteriores, necesitaremos definir nuestra clave de API de Open AI. A continuación, configuraremos el número máximo de tokens mixtos, que en nuestro caso será de 20, para poder observar la eliminación de mensajes anteriores en acción.
5. Bucles y entrada de usuario
Para interactuar con el modelo de GPT 3.5 Turbo, utilizaremos un bucle "while true" que nos permitirá hacer preguntas continuamente. Dentro del bucle, solicitaremos la entrada del usuario utilizando la función "input" de Python.
6. Creación de una respuesta utilizando GPT 3.5 Turbo
Una vez que obtengamos la entrada del usuario, la agregaremos al mensaje original que enviaremos a la API de Open AI. Esto nos permitirá mantener el contexto de la conversación.
7. Control de tokens y remoción de mensajes anteriores
Después de recibir la respuesta de la API, verificaremos el número total de tokens utilizados. Si superamos un límite determinado, utilizaremos el contador de tokens para eliminar mensajes anteriores.
8. Resultados y Conclusiones
Finalmente, imprimiremos la respuesta recibida de Open AI y el número total de tokens utilizados. También mostraremos los mensajes acumulados hasta el momento, incluyendo los mensajes previamente eliminados.
9. Cómo adaptar el código a tu caso de uso
Si deseas utilizar este código para otro caso de uso, puedes adaptarlo fácilmente modificando los mensajes, ajustando los límites de tokens y realizando otros cambios según tus necesidades.
Ahora que hemos presentado la estructura de nuestro artículo, pasemos a escribir el contenido. Recuerda utilizar un tono conversacional y personificar el texto para mantener atractiva la lectura para los lectores. Utiliza también pronombres personales e incorpora preguntas retóricas o analogías para mantener el interés del lector.