Funciones · Primeros pasos · Explorar · TutorBot · CLI · Hoja de ruta · Comunidad
🇬🇧 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇫🇷 Français · 🇸🇦 العربية · 🇷🇺 Русский · 🇮🇳 हिन्दी · 🇵🇹 Português · 🇹🇭 ภาษาไทย · 🇵🇱 Polski
🤝 ¡Aceptamos todo tipo de contribuciones! Consulta la Guía de contribución para la estrategia de ramas, estándares de código y primeros pasos.
[2026.4.30] v1.3.3 — Soporte de embeddings NVIDIA NIM y Gemini, contexto unificado de Space para historial de chat / skills / memoria, instantáneas de sesión, resiliencia de reindexación RAG.
[2026.4.29] v1.3.2 — URLs de endpoint de embedding transparentes, resiliencia de reindexación RAG ante vectores persistidos inválidos, limpieza de memoria para salida de modelos de razonamiento, corrección de tiempo de ejecución de Deep Solve.
[2026.4.28] v1.3.1 — Estabilidad: enrutamiento RAG más seguro y validación de embeddings, persistencia Docker, entrada segura con IME, robustez Windows/GBK.
[2026.4.27] v1.3.0 — Índices KB versionados con flujo de reindexación, espacio de trabajo de conocimiento reconstruido, autodetección de embeddings con nuevos adaptadores, hub de Space.
[2026.4.25] v1.2.5 — Adjuntos de chat persistentes con cajón de vista previa, pipelines de capacidad conscientes de adjuntos, exportación Markdown de TutorBot.
[2026.4.25] v1.2.4 — Adjuntos de texto / código / SVG, recorrido de configuración en un comando, exportación de chat Markdown, UI compacta de gestión de KB.
[2026.4.24] v1.2.3 — Adjuntos de documentos (PDF/DOCX/XLSX/PPTX), bloque de pensamiento del modelo de razonamiento, editor de plantillas Soul, guardar en cuaderno desde Co-Writer.
[2026.4.22] v1.2.2 — Sistema de Skills creados por el usuario, renovación del rendimiento del input de chat, inicio automático de TutorBot, UI de la biblioteca de libros, visualización a pantalla completa.
[2026.4.21] v1.2.1 — Límites de tokens por etapa, regenerar respuesta en todos los puntos de entrada, correcciones de compatibilidad RAG y Gemma.
[2026.4.20] v1.2.0 — Compilador Book Engine de «libros vivos», Co-Writer multidocumento, visualizaciones HTML interactivas, menciones @ del banco de preguntas en el chat.
[2026.4.18] v1.1.2 — Pestaña Channels basada en esquema, consolidación de RAG en un solo pipeline, prompts de chat externalizados.
[2026.4.17] v1.1.1 — «Responder ya» universal, sincronización de desplazamiento en Co-Writer, panel de ajustes unificado, botón Stop en streaming.
Lanzamientos anteriores (hace más de 2 semanas)
[2026.4.15] v1.1.0 — Renovación del análisis de matemáticas LaTeX en bloque; sonda de diagnóstico LLM vía
agents.yaml; guía Docker + LLM local.
[2026.4.14] v1.1.0-beta — Sesiones marcables por URL; tema Snow; latido WebSocket y reconexión automática; renovación del registro de proveedores de embeddings.
[2026.4.13] v1.0.3 — Cuaderno de preguntas con marcadores y categorías; Mermaid en Visualize; detección de desajuste de embeddings; compatibilidad Qwen/vLLM; soporte LM Studio y llama.cpp; tema Glass.
[2026.4.11] v1.0.2 — Consolidación de búsqueda con respaldo SearXNG; corrección del cambio de proveedor; fugas de recursos en el frontend.
[2026.4.10] v1.0.1 — Capacidad Visualize (Chart.js/SVG); prevención de duplicados en cuestionarios; soporte del modelo o4-mini.
[2026.4.10] v1.0.0-beta.4 — Seguimiento del progreso de embeddings con reintentos por límite de tasa; dependencias multiplataforma; validación MIME.
[2026.4.8] v1.0.0-beta.3 — SDK nativo OpenAI/Anthropic (sin litellm); Math Animator en Windows; análisis JSON más robusto; i18n chino completo.
[2026.4.7] v1.0.0-beta.2 — Recarga en caliente de ajustes; salida anidada de MinerU; corrección WebSocket; mínimo Python 3.11+.
[2026.4.4] v1.0.0-beta.1 — Reescritura nativa de agentes (~200k líneas): modelo de plugins Tools + Capabilities, CLI y SDK, TutorBot, Co-Writer, aprendizaje guiado y memoria persistente.
[2026.1.23] v0.6.0 — Persistencia de sesión, carga incremental, importación flexible de RAG, localización completa al chino.
[2026.1.18] v0.5.2 — Docling, logs y correcciones.
[2026.1.15] v0.5.0 — Configuración unificada, RAG por KB, generación de preguntas, barra lateral.
[2026.1.9] v0.4.0 — Multi-proveedor LLM/embeddings, nueva home, desacoplamiento RAG, variables de entorno.
[2026.1.5] v0.3.0 — PromptManager, CI/CD, imágenes GHCR.
[2026.1.2] v0.2.0 — Docker, Next.js 16 y React 19, WebSocket, vulnerabilidades.
[2026.4.19] 🎉 ¡Llegamos a 20k estrellas en 111 días! Gracias por el apoyo — seguiremos iterando hacia un tutorazgo realmente personalizado e inteligente.
[2026.4.10] 📄 ¡Nuestro artículo ya está en arXiv! Lee el preprint para conocer el diseño y las ideas detrás de DeepTutor.
[2026.4.4] ¡Cuánto tiempo! ✨ DeepTutor v1.0.0 ya está aquí: evolución nativa de agentes con reescritura de arquitectura desde cero, TutorBot y modos flexibles bajo Apache-2.0. ¡Un nuevo capítulo comienza!
[2026.2.6] 🚀 ¡10k estrellas en solo 39 días! Gracias a la comunidad.
[2026.1.1] Feliz año nuevo. Únete a Discord, WeChat o Discussions.
[2025.12.29] DeepTutor se publica oficialmente.
- Espacio de chat unificado — Seis modos, un hilo: Chat, Deep Solve, cuestionarios, Deep Research, Math Animator y Visualize comparten contexto.
- AI Co-Writer — Espacio Markdown multidocumento con la IA como colaborador de primer nivel: reescribir, ampliar o acortar con KB y web.
- Book Engine — Convierte tus materiales en «libros vivos» estructurados e interactivos. Un pipeline multiagente diseña el esquema, recupera fuentes y compila páginas con 14 tipos de bloques: cuestionarios, tarjetas, líneas de tiempo, grafos de conceptos y más.
- Centro de conocimiento — PDF, Markdown y texto para bases RAG; cuadernos por color; banco de preguntas para repasar; Skills personalizados que moldean cómo enseña DeepTutor.
- Memoria persistente — Resumen de progreso y perfil del aprendiz; compartido con TutorBots.
- TutorBots personales — No son chatbots: tutores autónomos con espacio de trabajo, memoria, personalidad y habilidades. Impulsados por nanobot.
- CLI nativo para agentes — Capacidades, KB, sesiones y TutorBot en un comando; Rich y JSON. Entrega
SKILL.mda tu agente.
Antes de empezar, asegúrate de tener instalado lo siguiente:
| Requisito | Versión | Comprobar | Notas |
|---|---|---|---|
| Git | Cualquiera | git --version |
Para clonar el repositorio |
| Python | 3.11+ | python --version |
Backend |
| Node.js | 18+ | node --version |
Build del frontend (no necesario solo CLI o Docker) |
| npm | 9+ | npm --version |
Suele venir con Node.js |
También necesitas una clave API de al menos un proveedor LLM (p. ej. OpenAI, DeepSeek, Anthropic). El tour de configuración te guía para introducirla.
Un único script CLI interactivo te lleva del clon recién hecho a la app en marcha: sin pip install ni npm install manuales ni edición de .env. En un flujo guiado de 7 pasos se detecta, instala y configura todo.
git clone https://github.com/HKUDS/DeepTutor.git
cd DeepTutor
# Entorno virtual de Python (elige uno):
conda create -n deeptutor python=3.11 && conda activate deeptutor # Anaconda/Miniconda
python -m venv .venv && source .venv/bin/activate # macOS/Linux
python -m venv .venv && .venv\Scripts\activate # Windows
# Lanzar el tour
python scripts/start_tour.pyCuando termine el asistente:
python scripts/start_web.pyArranque diario — El tour suele bastar una vez. Después usa
python scripts/start_web.pypara levantar backend y frontend a la vez (la URL del frontend se imprime en la terminal). Vuelve astart_tour.pysolo si reconfiguras proveedores, cambias puertos o faltan extras. En la página Ajustes de la web también puedes pulsar Run Tour para repetir el recorrido con resaltado en la UI.
Si prefieres control total, instala y configura todo tú mismo.
1. Instalar dependencias
git clone https://github.com/HKUDS/DeepTutor.git
cd DeepTutor
# Crear y activar entorno virtual (igual que en la opción A)
conda create -n deeptutor python=3.11 && conda activate deeptutor
# DeepTutor con dependencias de backend + servidor web
pip install -e ".[server]"
# Frontend (requiere Node.js 18+)
cd web && npm install && cd ..2. Configurar entorno
cp .env.example .envEdita .env y rellena al menos los campos obligatorios:
# LLM (obligatorio)
LLM_BINDING=openai
LLM_MODEL=gpt-4o-mini
LLM_API_KEY=sk-xxx
LLM_HOST=https://api.openai.com/v1
# Embeddings (obligatorio para la base de conocimiento)
EMBEDDING_BINDING=openai
EMBEDDING_MODEL=text-embedding-3-large
EMBEDDING_API_KEY=sk-xxx
EMBEDDING_HOST=https://api.openai.com/v1
EMBEDDING_DIMENSION=3072Proveedores LLM admitidos
| Proveedor | Binding | URL base predeterminada |
|---|---|---|
| AiHubMix | aihubmix |
https://aihubmix.com/v1 |
| Anthropic | anthropic |
https://api.anthropic.com/v1 |
| Azure OpenAI | azure_openai |
— |
| BytePlus | byteplus |
https://ark.ap-southeast.bytepluses.com/api/v3 |
| BytePlus Coding Plan | byteplus_coding_plan |
https://ark.ap-southeast.bytepluses.com/api/coding/v3 |
| Custom | custom |
— |
| Custom (Anthropic API) | custom_anthropic |
— |
| DashScope | dashscope |
https://dashscope.aliyuncs.com/compatible-mode/v1 |
| DeepSeek | deepseek |
https://api.deepseek.com |
| Gemini | gemini |
https://generativelanguage.googleapis.com/v1beta/openai/ |
| GitHub Copilot | github_copilot |
https://api.githubcopilot.com |
| Groq | groq |
https://api.groq.com/openai/v1 |
| llama.cpp | llama_cpp |
http://localhost:8080/v1 |
| LM Studio | lm_studio |
http://localhost:1234/v1 |
| MiniMax | minimax |
https://api.minimaxi.com/v1 |
| MiniMax (Anthropic) | minimax_anthropic |
https://api.minimaxi.com/anthropic |
| Mistral | mistral |
https://api.mistral.ai/v1 |
| Moonshot | moonshot |
https://api.moonshot.cn/v1 |
| Ollama | ollama |
http://localhost:11434/v1 |
| OpenAI | openai |
https://api.openai.com/v1 |
| OpenAI Codex | openai_codex |
https://chatgpt.com/backend-api |
| OpenRouter | openrouter |
https://openrouter.ai/api/v1 |
| OpenVINO Model Server | ovms |
http://localhost:8000/v3 |
| Qianfan | qianfan |
https://qianfan.baidubce.com/v2 |
| SiliconFlow | siliconflow |
https://api.siliconflow.cn/v1 |
| Step Fun | stepfun |
https://api.stepfun.com/v1 |
| vLLM/Local | vllm |
— |
| VolcEngine | volcengine |
https://ark.cn-beijing.volces.com/api/v3 |
| VolcEngine Coding Plan | volcengine_coding_plan |
https://ark.cn-beijing.volces.com/api/coding/v3 |
| Xiaomi MIMO | xiaomi_mimo |
https://api.xiaomimimo.com/v1 |
| Zhipu AI | zhipu |
https://open.bigmodel.cn/api/paas/v4 |
Proveedores de embeddings admitidos
| Proveedor | Binding | Ejemplo de modelo | Dim. predeterminada |
|---|---|---|---|
| OpenAI | openai |
text-embedding-3-large |
3072 |
| Azure OpenAI | azure_openai |
nombre del despliegue | — |
| Cohere | cohere |
embed-v4.0 |
1024 |
| Jina | jina |
jina-embeddings-v3 |
1024 |
| Ollama | ollama |
nomic-embed-text |
768 |
| vLLM / LM Studio | vllm |
Cualquier modelo de embedding | — |
| OpenAI-compatible | custom |
— | — |
Los proveedores compatibles con OpenAI (DashScope, SiliconFlow, etc.) funcionan con el binding custom u openai.
Proveedores de búsqueda web admitidos
| Proveedor | Variable de entorno | Notas |
|---|---|---|
| Brave | BRAVE_API_KEY |
Recomendado, hay nivel gratuito |
| Tavily | TAVILY_API_KEY |
|
| Serper | SERPER_API_KEY |
Resultados de Google vía Serper |
| Jina | JINA_API_KEY |
|
| SearXNG | — | Autohospedado, sin clave API |
| DuckDuckGo | — | Sin clave API |
| Perplexity | PERPLEXITY_API_KEY |
Requiere clave API |
3. Iniciar servicios
La forma más rápida de levantar todo:
python scripts/start_web.pyInicia backend y frontend y abre el navegador automáticamente.
También puedes arrancar cada servicio manualmente en terminales separadas:
# Backend (FastAPI)
python -m deeptutor.api.run_server
# Frontend (Next.js) — en otra terminal
cd web && npm run dev -- -p 3782| Servicio | Puerto predeterminado |
|---|---|
| Backend | 8001 |
| Frontend | 3782 |
Abre http://localhost:3782.
Docker empaqueta backend y frontend en un solo contenedor; no necesitas Python ni Node.js en local. Solo hace falta Docker Desktop (o Docker Engine + Compose en Linux).
1. Variables de entorno (necesarias en ambas variantes siguientes)
git clone https://github.com/HKUDS/DeepTutor.git
cd DeepTutor
cp .env.example .envEdita .env y rellena al menos los campos obligatorios (igual que en la opción B).
2a. Descargar imagen oficial (recomendado)
Las imágenes oficiales se publican en GitHub Container Registry en cada release, para linux/amd64 y linux/arm64.
docker compose -f docker-compose.ghcr.yml up -dPara fijar una versión, edita la etiqueta de imagen en docker-compose.ghcr.yml:
image: ghcr.io/hkuds/deeptutor:1.0.0 # o :latest2b. Compilar desde el código fuente
docker compose up -dConstruye la imagen localmente desde el Dockerfile y arranca el contenedor.
3. Verificar y administrar
Abre http://localhost:3782 cuando el contenedor esté healthy.
docker compose logs -f # seguir logs
docker compose down # detener y eliminar el contenedorDespliegue en la nube / servidor remoto
En un servidor remoto el navegador debe conocer la URL pública del API backend. Añade en .env:
# URL pública donde se alcanza el backend
NEXT_PUBLIC_API_BASE_EXTERNAL=https://your-server.com:8001El script de arranque del frontend aplica este valor en tiempo de ejecución; no hace falta reconstruir.
Modo desarrollo (recarga en caliente)
Superpone el override de desarrollo para montar el código y activar recarga en caliente en ambos servicios:
docker compose -f docker-compose.yml -f docker-compose.dev.yml upLos cambios en deeptutor/, deeptutor_cli/, scripts/ y web/ se reflejan al instante.
Puertos personalizados
Sobrescribe los puertos predeterminados en .env:
BACKEND_PORT=9001
FRONTEND_PORT=4000Luego reinicia:
docker compose up -d # o docker compose -f docker-compose.ghcr.yml up -dPersistencia de datos
Los datos de usuario y las bases de conocimiento persisten mediante volúmenes Docker mapeados a carpetas locales:
| Ruta en el contenedor | Ruta en el host | Contenido |
|---|---|---|
/app/data/user |
./data/user |
Ajustes, memoria, espacio de trabajo, sesiones, logs |
/app/data/knowledge_bases |
./data/knowledge_bases |
Documentos subidos e índices vectoriales |
Estas carpetas sobreviven a docker compose down y se reutilizan en el próximo docker compose up.
Referencia de variables de entorno
| Variable | Obligatorio | Descripción |
|---|---|---|
LLM_BINDING |
Sí | Proveedor LLM (openai, anthropic, etc.) |
LLM_MODEL |
Sí | Nombre del modelo (p. ej. gpt-4o) |
LLM_API_KEY |
Sí | Clave API del LLM |
LLM_HOST |
Sí | URL del endpoint |
EMBEDDING_BINDING |
Sí | Proveedor de embeddings |
EMBEDDING_MODEL |
Sí | Nombre del modelo de embedding |
EMBEDDING_API_KEY |
Sí | Clave API de embeddings |
EMBEDDING_HOST |
Sí | Endpoint de embeddings |
EMBEDDING_DIMENSION |
Sí | Dimensión del vector |
SEARCH_PROVIDER |
No | Proveedor de búsqueda (tavily, jina, serper, perplexity, etc.) |
SEARCH_API_KEY |
No | Clave de búsqueda |
BACKEND_PORT |
No | Puerto backend (predeterminado 8001) |
FRONTEND_PORT |
No | Puerto frontend (predeterminado 3782) |
NEXT_PUBLIC_API_BASE_EXTERNAL |
No | URL pública del backend para despliegue en la nube |
DISABLE_SSL_VERIFY |
No | Desactivar verificación SSL (predeterminado false) |
Si solo quieres la CLI sin el frontend web:
pip install -e ".[cli]"Sigue siendo necesario configurar el proveedor LLM. Lo más rápido:
cp .env.example .env # luego edita .env con tus claves APIUna vez configurado:
deeptutor chat
deeptutor run chat "Explain Fourier transform"
deeptutor run deep_solve "Solve x^2 = 4"
deeptutor kb create my-kb --doc textbook.pdfGuía completa: DeepTutor CLI.
Seis modos en un solo espacio con gestión unificada del contexto.
| Modo | Qué hace |
|---|---|
| Chat | RAG, búsqueda web, ejecución de código, razonamiento, lluvia de ideas, papers. |
| Deep Solve | Resolución multiagente con citas. |
| Generación de cuestionarios | Evaluaciones ancladas a la KB. |
| Deep Research | Subtemas, agentes paralelos, informe citado. |
| Math Animator | Animaciones con Manim. |
| Visualize | Diagramas SVG, Chart.js, Mermaid o HTML autocontenido a partir de lenguaje natural. |
Las herramientas están desacopladas de los flujos — eliges qué activar.
Crea y gestiona varios documentos, cada uno con su propio almacenamiento persistente — no un borrador único, sino un editor Markdown completo donde la IA es colaborador de primer nivel: Reescribir, Ampliar, Acortar con KB o web; deshacer/rehacer; guardar en cuadernos.
Indica un tema, apunta a tu base de conocimiento y obtienes un libro estructurado e interactivo — no una exportación estática, sino un documento vivo para leer, autoevaluarte y debatir en contexto.
Detrás, un pipeline multiagente propone el esquema, recupera pasajes relevantes, fusiona el árbol de capítulos, planifica cada página y compila cada bloque. Tú sigues al mando: revisa la propuesta, reordena capítulos y chatea junto a cualquier página.
14 tipos de bloques — texto, aviso, cuestionario, tarjetas, código, figura, profundización, animación, interactivo, línea temporal, grafo de conceptos, sección, nota de usuario y marcador de posición — cada uno con su componente interactivo. Una línea de tiempo de progreso en tiempo real muestra la compilación.
Aquí organizas colecciones de documentos, notas y personas de enseñanza.
- Bases de conocimiento — PDF, TXT, Markdown; añadir de forma incremental.
- Cuadernos — Registros de Chat, Co-Writer, Book o Deep Research, por colores.
- Banco de preguntas — Revisa los cuestionarios generados; marca favoritos y @menciona en el chat para razonar sobre el rendimiento pasado.
- Skills — Personas de enseñanza con
SKILL.md: nombre, descripción, disparadores opcionales y cuerpo Markdown inyectado en el prompt del sistema cuando están activas.
- Resumen — Progreso de estudio.
- Perfil — Preferencias, nivel, objetivos, estilo. Compartido con TutorBots.
No es un chatbot: es un agente multiinstancia persistente basado en nanobot. Cada instancia tiene su bucle, espacio de trabajo, memoria y personalidad.
- Plantillas Soul — Personalidad y filosofía docente.
- Espacio independiente — Memoria, sesiones, habilidades; acceso a la capa compartida de DeepTutor.
- Heartbeat proactivo — Recordatorios y tareas programadas.
- Acceso completo a herramientas — RAG, código, web, papers, razonamiento, lluvia de ideas.
- Aprendizaje de habilidades — Archivos de skill en el espacio de trabajo.
- Multicanal — Telegram, Discord, Slack, Feishu, WeCom, DingTalk, correo, etc.
- Equipos y subagentes — Tareas largas y complejas.
deeptutor bot create math-tutor --persona "Socratic math teacher who uses probing questions"
deeptutor bot create writing-coach --persona "Patient, detail-oriented writing mentor"
deeptutor bot listCLI completo: capacidades, KB, sesiones, memoria y TutorBot sin navegador. Salida Rich para humanos y JSON para agentes. SKILL.md para agentes con herramientas.
deeptutor run chat "Explain the Fourier transform" -t rag --kb textbook
deeptutor run deep_solve "Prove that √2 is irrational" -t reason
deeptutor run deep_question "Linear algebra" --config num_questions=5
deeptutor run deep_research "Attention mechanisms in transformers"
deeptutor run visualize "Draw the architecture of a transformer"deeptutor chat --capability deep_solve --kb my-kb
# En el REPL: /cap, /tool, /kb, /history, /notebook, /config para cambiar al vuelodeeptutor kb create my-kb --doc textbook.pdf
deeptutor kb add my-kb --docs-dir ./papers/
deeptutor kb search my-kb "gradient descent"
deeptutor kb set-default my-kbdeeptutor run chat "Summarize chapter 3" -f rich
deeptutor run chat "Summarize chapter 3" -f jsondeeptutor session list
deeptutor session open <id>Referencia completa de la CLI
Nivel superior
| Comando | Descripción |
|---|---|
deeptutor run <capability> <message> |
Ejecuta una capacidad en un solo turno (chat, deep_solve, deep_question, deep_research, math_animator, visualize) |
deeptutor chat |
REPL interactivo con --capability, --tool, --kb, --language, etc. |
deeptutor serve |
Inicia el servidor API de DeepTutor |
deeptutor bot
| Comando | Descripción |
|---|---|
deeptutor bot list |
Lista instancias de TutorBot |
deeptutor bot create <id> |
Crea e inicia un bot (--name, --persona, --model) |
deeptutor bot start <id> |
Inicia un bot |
deeptutor bot stop <id> |
Detiene un bot |
deeptutor kb
| Comando | Descripción |
|---|---|
deeptutor kb list |
Lista bases de conocimiento |
deeptutor kb info <name> |
Detalles de la base |
deeptutor kb create <name> |
Crea desde documentos (--doc, --docs-dir) |
deeptutor kb add <name> |
Añade documentos |
deeptutor kb search <name> <query> |
Busca en la base |
deeptutor kb set-default <name> |
Define la KB por defecto |
deeptutor kb delete <name> |
Elimina (--force) |
deeptutor memory
| Comando | Descripción |
|---|---|
deeptutor memory show [file] |
Ver (summary, profile, all) |
deeptutor memory clear [file] |
Borrar (--force) |
deeptutor session
| Comando | Descripción |
|---|---|
deeptutor session list |
Lista sesiones (--limit) |
deeptutor session show <id> |
Mensajes de la sesión |
deeptutor session open <id> |
Reanudar en el REPL |
deeptutor session rename <id> |
Renombrar (--title) |
deeptutor session delete <id> |
Eliminar |
deeptutor notebook
| Comando | Descripción |
|---|---|
deeptutor notebook list |
Lista cuadernos |
deeptutor notebook create <name> |
Crear (--description) |
deeptutor notebook show <id> |
Ver registros |
deeptutor notebook add-md <id> <path> |
Importar Markdown |
deeptutor notebook replace-md <id> <rec> <path> |
Sustituir registro |
deeptutor notebook remove-record <id> <rec> |
Quitar registro |
deeptutor book
| Comando | Descripción |
|---|---|
deeptutor book list |
Lista todos los libros del espacio de trabajo |
deeptutor book health <book_id> |
Comprueba deriva de la KB y salud del libro |
deeptutor book refresh-fingerprints <book_id> |
Actualiza huellas de la KB y limpia páginas obsoletas |
deeptutor config / plugin / provider
| Comando | Descripción |
|---|---|
deeptutor config show |
Resumen de configuración |
deeptutor plugin list |
Herramientas y capacidades registradas |
deeptutor plugin info <name> |
Detalle de herramienta o capacidad |
deeptutor provider login <provider> |
Autenticación del proveedor (OAuth con openai-codex; github-copilot valida una sesión de Copilot existente) |
| Estado | Hito |
|---|---|
| 🎯 | Autenticación e inicio de sesión — Página de login opcional para despliegues públicos con multiusuario |
| 🎯 | Temas y apariencia — Más temas y personalización de la interfaz |
| 🎯 | Mejora de la interacción — Optimizar iconos y detalles de interacción |
| 🔜 | Mejores memorias — Integrar una gestión de memoria más potente |
| 🔜 | Integración LightRAG — Integrar LightRAG como motor avanzado de bases de conocimiento |
| 🔜 | Sitio de documentación — Documentación completa con guías, referencia de API y tutoriales |
Si DeepTutor te resulta útil, danos una estrella: ¡nos ayuda a seguir!
| Proyecto | Papel |
|---|---|
| nanobot | Motor ligero de TutorBot |
| LlamaIndex | RAG e indexación |
| ManimCat | Math Animator |
| ⚡ LightRAG | 🤖 AutoAgent | 🔬 AI-Researcher | 🧬 nanobot |
|---|---|---|---|
| RAG rápido | Agentes sin código | Investigación automática | Agente ultraligero |
Consulta CONTRIBUTING.md.










