Administración del Sistema

Proveedor de IA (LLM)

Selecciona el proveedor de IA generativa que utilizará el sistema RAG. Puedes cambiarlo en cualquier momento.

Actual: Gemini Modelo activo: gemini-2.5-flash

Estado de dependencias
  • Gemini API Key: Configurada
  • Modelo Gemini: gemini-2.5-flash
Embeddings
En uso: Google Modelo activo: models/text-embedding-004
Configuración Google Embeddings
Requiere GEMINI_API_KEY válida.
Nota: no es necesario incluir el prefijo models/; el backend lo normaliza automáticamente (p.ej. text-embedding-004 se usará como models/text-embedding-004).

Disponible: -
Información sobre soporte local

El soporte para modelos locales (Ollama/FastEmbed) ha sido deshabilitado en la interfaz administrativa para favorecer la integración con Gemini. Si necesitas volver a habilitarlo, contacta con el administrador o restaura la configuración manualmente.

  • LLM gestionado por: Gemini
  • Embeddings: configurables, por defecto models/text-embedding-004
Monitor del sistema
Intervalo
CPU- %
Memoria-
Swap-
Temperaturas -
Red -
-
Discos -
Uptime: -