clase:iabd:pia:proyectos:agentes:paso2
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| clase:iabd:pia:proyectos:agentes:paso2 [2026/02/18 17:34] – Lorenzo | clase:iabd:pia:proyectos:agentes:paso2 [2026/02/19 17:03] (actual) – [Anexo Técnico: Emulación del Estándar OpenAI Chat Completions] Lorenzo | ||
|---|---|---|---|
| Línea 65: | Línea 65: | ||
| * **content: | * **content: | ||
| - | ===== Paso 4: Conexión | + | |
| + | ===== Paso 4: Consumo | ||
| - | Para terminar, integraremos el flujo en la interfaz de chat: | + | Finalmente, integramos nuestro n8n como un proveedor de servicios |
| - | 1. Entrar | + | **Instrucciones: |
| - | 2. En la sección | + | * En **Open WebUI**, ir a //Settings > Connections > OpenAI API//. |
| - | 3. **URL:** Poner la URL base de tu n8n (ej: '' | + | * Añadir la URL de nuestro webhook de n8n (omitiendo el final ''/ |
| + | * Seleccionar el nuevo modelo | ||
| + | |||
| + | ===== Anexo Técnico: Emulación del Estándar OpenAI Chat Completions ===== | ||
| + | |||
| + | Para que una interfaz como **Open WebUI** | ||
| + | |||
| + | ==== 1. Configuración del Endpoint (Ruta) ==== | ||
| + | |||
| + | Open WebUI busca por defecto el recurso en la ruta estándar de la API de Chat. Por lo tanto, el nodo **Webhook** de n8n debe configurarse con: | ||
| + | |||
| + | | ||
| + | | ||
| + | * **Response Mode:** '' | ||
| + | |||
| + | ==== 2. La Estructura del JSON de Respuesta ==== | ||
| + | |||
| + | El cliente de chat espera un objeto JSON complejo. Si n8n responde solo con texto plano, el chat dará un error de " | ||
| + | |||
| + | <code json> | ||
| + | { | ||
| + | " | ||
| + | " | ||
| + | | ||
| + | " | ||
| + | " | ||
| + | { | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | }, | ||
| + | " | ||
| + | } | ||
| + | ], | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | } | ||
| + | } | ||
| + | </ | ||
| + | |||
| + | ==== 3. Desglose de Campos Clave ==== | ||
| + | |||
| + | | Campo | Función | | ||
| + | | **id** | Identificador único de la respuesta. Usamos un prefijo estático seguido de un ID aleatorio si se desea. | | ||
| + | | **created** | Marca de tiempo en formato Unix (segundos). En n8n usamos la expresión '' | ||
| + | | **model** | Nombre que aparecerá en la interfaz del chat como " | ||
| + | | **choices[0].message.content** | Aquí es donde insertamos la respuesta generada por el nodo de **Ollama**. Es el texto que el usuario leerá en su burbuja de chat. | | ||
| + | | **finish_reason** | Indica que la IA ha terminado de hablar. Debe ser ''" | ||
| + | |||
| + | ==== 4. Conexión en el Cliente (Open WebUI) ==== | ||
| + | |||
| + | En la configuración de conexiones de Open WebUI: | ||
| + | | ||
| + | * Automáticamente, | ||
clase/iabd/pia/proyectos/agentes/paso2.1771432442.txt.gz · Última modificación: por Lorenzo
