Commit Graph

181 Commits

Author SHA1 Message Date
f73319046e Cambios realizados v1.2.9:
Mejoré la estructura del system prompt para evitar que la IA repita literalmente las instrucciones del
2025-12-05 05:58:08 -03:00
e9a184f087 Backend v1.2.8
Fix aplicado:

Corregido el acceso a las variables de configuración de MinIO/S3:
2025-12-05 05:48:53 -03:00
954c5b4a7b Frontend v1.3.3
Fix aplicado:

Agregado optional chaining (?.) para prevenir crash cuando inspection.checklist.questions es undefined:
2025-12-05 05:42:49 -03:00
6455d351dd Frontend v1.3.1
Fix aplicado:

Ahora cuando envías una imagen en el chat:

Se sube al servidor (S3)
El servidor devuelve la URL permanente en attached_files
El frontend actualiza el mensaje del usuario reemplazando la blob URL con la URL de S3
Se libera la blob URL antigua para evitar memory leaks
2025-12-05 05:38:05 -03:00
ae3a50054a Backend v1.2.7 / Frontend v1.3.0
Problema de blob URLs solucionado:

Cambios implementados:
Backend:

Las imágenes del chat ahora se suben a S3 automáticamente
Se genera una URL permanente para cada imagen
La respuesta incluye url para cada archivo adjunto
Frontend:

Las imágenes en mensajes del asistente usan URLs de S3 (permanentes)
Ya no depende de blob URLs que desaparecen al refrescar
Las imágenes del usuario siguen usando blob (temporal solo para preview)
Las imágenes del asistente se muestran con URLs persistentes
Resultado:

 Las imágenes del chat ahora funcionan después de refrescar
 Las URLs son permanentes y accesibles
 No más errores 404 con blob: URLs
 Las imágenes quedan guardadas en S3 para historial
2025-12-04 16:47:00 -03:00
387897acfc Problema solucionado - Backend v1.2.6 / Frontend v1.2.8
Cambios implementados:

Frontend:
Ahora envía context_answers con todas las respuestas de preguntas anteriores (texto + observaciones)
Incluye el texto de la pregunta para mejor contexto
Funciona con la configuración de IDs de preguntas o todas las anteriores
Backend:
Recibe y procesa context_answers
Agrega sección "RESPUESTAS DE PREGUNTAS ANTERIORES" al system prompt
Muestra pregunta, respuesta y observaciones de cada pregunta previa
2025-12-04 14:35:58 -03:00
56decba945 Backend v1.2.5
Cambios implementados:

Streaming habilitado para OpenAI: Ahora usa stream=True en las llamadas al chat
Procesamiento en tiempo real: El servidor recibe chunks de la respuesta y los concatena
Mejor experiencia: Las respuestas largas se generan más rápido (el servidor empieza a recibir antes)
Cómo funciona:
2025-12-04 14:25:16 -03:00
65a74cf754 Veo el problema. La versión de openai instalada (1.10.0) es muy antigua. La documentación que compartiste es de una versión mucho más nueva que usa responses.create() y streaming diferente.
El error de 'proxies' viene de un conflicto entre versiones de httpx (cliente HTTP interno de OpenAI).

Solución: Actualizar openai a la última versión
2025-12-04 14:24:04 -03:00
289b4b6b93 Backend v1.2.4
Problema solucionado:

Actualizada toda la API de OpenAI de la versión antigua (openai.ChatCompletion.create) a la nueva (client.chat.completions.create)
El error 'proxies' ocurría porque la versión antigua intentaba usar parámetros incompatibles
Ahora funciona con openai>=1.0.0 que es la versión instalada (1.10.0)
Cambios aplicados:

Análisis de imágenes/PDF en inspecciones
Chat del asistente (ya estaba actualizado)
Análisis automático de fotos
2025-12-04 14:12:01 -03:00
a1ab955556 Backend v1.2.3
Cambio implementado:

Ahora el prompt del asistente configurado en la pregunta es el system prompt completo. El sistema solo agrega:

Contexto automático: Vehículo, OR, pregunta actual
Instrucciones técnicas básicas: No inventar datos, pedir valores técnicos cuando falten
Longitud de respuesta: Según configuración
Beneficios:

 Tu prompt de "Omar" funciona exactamente como lo escribiste
 Mantienes control total del comportamiento del asistente
 El sistema solo complementa con contexto, no reemplaza tu prompt
 Más flexible para diferentes tipos de asistentes (diagnóstico, checklist, inspección, etc.)
2025-12-04 14:05:32 -03:00
14d5027170 Solucionado
El error ocurría porque faltaba el caso de Anthropic en la función de análisis de imágenes. Ahora Anthropic Claude puede:

Analizar imágenes con vision
Analizar documentos PDF
Usar el formato correcto de mensajes con system separado
Backend actualizado a v1.2.2
2025-12-04 14:01:58 -03:00
a8afaa044f Frontend actualizado a v1.2.7
Cambios en esta versión:

Fix: Selección visual de modelos ahora se muestra inmediatamente al hacer click en un proveedor
Los modelos se muestran seleccionados en el formulario antes de guardar la configuración
2025-12-04 11:58:45 -03:00
7f2e9add29 Resumen de Cambios Implementados
Backend v1.2.1
Mejoras en gestión de API keys multi-proveedor:

Nuevo endpoint /api/ai/api-keys: Retorna todas las API keys guardadas por proveedor (enmascaradas para seguridad)

Formato: {"openai": {"has_key": true, "masked_key": "sk-proj...xyz", "is_active": false}}
Solo administradores pueden acceder
Endpoint /api/ai/configuration mejorado:

Ahora preserva API keys existentes cuando se cambia de proveedor
Si ya existe configuración para un proveedor, solo actualiza el modelo y activa ese proveedor
Solo requiere API key nueva si no existe configuración previa para ese proveedor
Validación: no acepta API keys vacías para nuevos proveedores
Persistencia de configuraciones:

Cada proveedor (OpenAI, Anthropic, Gemini) mantiene su registro en la base de datos
Solo uno tiene is_active=True a la vez
Al cambiar de proveedor, se desactiva el anterior pero NO se elimina
Frontend v1.2.6
UX mejorada para configuración de IA:

Indicadores visuales en botones de proveedor:

Badge "✓ ACTIVO" en verde para el proveedor actualmente activo
Badge "Configurado" en gris para proveedores con API key guardada pero inactivos
Sin badges para proveedores no configurados
Selector de modelos inteligente:

Solo muestra modelo seleccionado si el proveedor está activo
Al hacer click en un proveedor inactivo, NO se pre-selecciona ningún modelo
Solo al GUARDAR se activa el proveedor con el modelo seleccionado
Input de API key con contexto:

Muestra key enmascarada si ya existe: ✓ Ya tienes una API key guardada: sk-proj...xyz
Permite dejar vacío para mantener la key actual
Solo requiere key nueva si el proveedor no tiene una guardada
Flujo de trabajo mejorado:

Click en proveedor → Cambia tab de formulario
Si ya tiene key guardada → Se muestra enmascarada, puede mantenerla
Seleccionar modelo → Click en "Guardar Configuración"
Solo entonces se ACTIVA ese proveedor y modelo
Beneficios
No re-ingresar API keys: Al cambiar entre proveedores, las keys se preservan
Claridad visual: Solo el proveedor activo muestra badge verde y modelo seleccionado
Seguridad: API keys enmascaradas en la UI (sk-proj...xyz)
Flexibilidad: Configurar los 3 proveedores y cambiar entre ellos sin perder configuración
Versiones actualizadas:

Backend: 1.2.0 → 1.2.1
Frontend: 1.2.5 → 1.2.6
Service Worker: cache v1.2.6
2025-12-04 11:52:38 -03:00
24eb039302 IMPLEMENTADO - Soporte para Anthropic Claude y Corrección de Configuración
🔧 Backend v1.2.0 | Frontend v1.2.5
He implementado completamente el soporte para Anthropic Claude y corregido el problema de visualización en el módulo de configuración:

🎯 Cambios Implementados:
1. Backend - Soporte para Anthropic Claude
Nuevos modelos agregados:

Claude Sonnet 4.5 (Recomendado) - Equilibrio perfecto
Claude Opus 4.5 - Máxima capacidad
Claude Haiku 4.5 - Ultra rápido y económico
Integración completa:

Chat Assistant con Anthropic
Generación de resúmenes PDF con Anthropic
Manejo correcto de formato de mensajes (system separado)
Configuración por defecto: claude-sonnet-4.5
2025-12-04 11:38:48 -03:00
9de059e9ca v1.1.2 - Fix campo photo_requirement en schemas
BACKEND:
- Agregado campo photo_requirement a QuestionBase schema
- Ahora acepta valores: 'none', 'optional', 'required'
- Permite crear/actualizar preguntas con configuración de adjuntos
- Marcado allow_photos como DEPRECATED (mantener por compatibilidad)
- Backend v1.1.2

FRONTEND:
- Sin cambios (v1.2.4) - ya enviaba correctamente el campo
2025-12-04 11:30:22 -03:00
9ed41c9ee4 v1.2.4 - Lightbox para visualizar imágenes en Chat Assistant
FRONTEND:
- Implementado visor de imágenes (lightbox) dentro del modal de chat
- Click en imagen abre pantalla completa en lugar de nueva pestaña
- Fondo negro translúcido (95%) con z-index 200
- Botón de cerrar (×) en esquina superior derecha
- Click en imagen/fondo cierra el lightbox
- Etiqueta flotante con nombre de archivo
- Cursor zoom-in en miniaturas para indicar ampliación
- Responsive: max 95vw/95vh con scroll automático
- Frontend v1.2.4

BACKEND:
- Sin cambios (v1.1.1)
2025-12-04 11:28:03 -03:00
b191030321 v1.1.1 - Fix error OpenAI Client proxies argument
BACKEND:
- Corregido error "Client.init() got unexpected argument 'proxies'"
- Cambio de import: from openai import OpenAI → import openai
- Instanciación explícita: openai.OpenAI(api_key=...)
- Compatible con versiones recientes de librería openai (>= 1.0.0)
- Backend v1.1.1

FRONTEND:
- Sin cambios (v1.2.3)
2025-12-04 11:15:48 -03:00
023a004c53 IMPLEMENTADO - Previsualización de Imágenes en Chat Assistant
📸 Frontend actualizado a v1.2.3
He implementado un sistema completo de previsualización de imágenes en el chat assistant:

🎨 Características Implementadas:
1. Preview Antes de Enviar (Zona de Input)
Miniaturas 20x20px con superposición de nombre
Botón de eliminar en esquina superior derecha (rojo con X)
Fondo oscuro translúcido para nombre del archivo
Hover effects para mejor UX

// Vista previa antes de enviar:
┌─────────────────────────────┐
│  [IMG]  [IMG]  📄 file.pdf  │  ← Miniaturas clickeables
│   ✕      ✕       ✕          │
└─────────────────────────────┘

2. Imágenes en Mensajes del Chat
Renderizado completo de imágenes en mensajes del usuario
Máximo 256px de altura (responsive)
Click para abrir en nueva pestaña (full size)
Metadata bajo la imagen (nombre + tamaño)
Esquina redondeada para mejor diseño
Transición hover (opacity 90%)

// Mensaje del usuario con imagen:
┌────────────────────────────┐
│ [Texto del mensaje]        │
│                            │
│ ┌────────────────────────┐ │
│ │                        │ │
│ │    [IMAGEN PREVIEW]    │ │ ← Click para ampliar
│ │                        │ │
│ └────────────────────────┘ │
│ 🖼️ photo.jpg (128.5 KB)   │
│                            │
│ 10:45                      │
└────────────────────────────┘

3. Gestión de Memoria
URLs temporales con URL.createObjectURL()
Limpieza automática al eliminar archivo
useEffect cleanup al desmontar modal
No memory leaks garantizados
2025-12-04 11:03:19 -03:00
59a0f56b99 IMPLEMENTACIÓN COMPLETADA - Informes Personalizados para Chat Assistant
📊 Backend actualizado a v1.1.0
He implementado un sistema inteligente de generación de informes para preguntas con chat assistant:

🔧 Cambios Implementados:
1. Nueva función generate_chat_summary() (líneas ~1450)
Funcionalidad:

Recibe el chat_history completo de una conversación
Usa OpenAI o Gemini (según configuración activa) para analizar la conversación
Genera un resumen estructurado en JSON con:
problema_identificado: Descripción del problema principal
hallazgos: Lista de observaciones técnicas
diagnostico: Conclusión del diagnóstico
recomendaciones: Pasos sugeridos
Características:

Temperature: 0.3 (respuestas consistentes)
Max tokens: 800
Response format: JSON
Manejo robusto de errores con fallback
2025-12-04 10:56:00 -03:00
3bf8b44581 Problema solucionado
El error 422 ocurría porque:

Al continuar una inspección existente, las fotos se cargan como URLs de string
El código intentaba subirlas de nuevo como si fueran archivos File
El backend rechazaba la petición porque no recibía un archivo válido → 422 Unprocessable Entity
La solución:

Verificar si cada elemento en answer.photos es un File o Blob (archivo nuevo)
Solo subir archivos nuevos que aún no están en el servidor
Ignorar URLs de string porque ya están subidas y almacenadas
Ahora al continuar una inspección:

 Las fotos existentes se muestran correctamente (fix anterior)
 No se intentan subir de nuevo (fix actual)
 Solo se suben fotos nuevas que agregues
2025-12-04 09:59:10 -03:00
311d363e31 Versiones actualizadas:
Frontend: v1.2.1 → v1.2.2
Backend: v1.0.97 → v1.0.98
Cambios en v1.2.2 / v1.0.98:

 Fix crítico: Error createObjectURL al continuar inspecciones existentes
 Soporte para fotos como File (nuevas) y URL string (existentes)
2025-12-04 09:19:13 -03:00
d3676172e1 Versiones actualizadas:
Frontend: v1.2.0 → v1.2.1

package.json
Sidebar.jsx
service-worker.js (PWA)
Backend: v1.0.96 → v1.0.97

main.py
Cambios incluidos en v1.2.1 / v1.0.97:

 Paginación de inspecciones (ya estaba implementada con 10 items)
 Limpieza de sesiones de chat al cambiar de pregunta
 Campo "Número de OR" obligatorio
 Eliminación de referencias "IA" → "Asistente Ayutec"
2025-12-04 08:20:02 -03:00
e3524b32d4 Ahora funciona así:
Inspección nueva, Pregunta 1 (Frenos):

Abro chat → aiChatMessages = [] (vacío)
Pregunto sobre frenos
Cierro → se guarda en answers[pregunta1].chatHistory
Misma inspección, Pregunta 2 (Neumáticos):

Abro chat → aiChatMessages = [] (vacío, porque esta pregunta no tiene historial)
Chat limpio, sin mezclar con frenos 
Vuelvo a Pregunta 1:

Abro chat → aiChatMessages = [historial guardado]
Veo mi conversación anterior sobre frenos 
Nueva inspección en otro momento:

Todas las preguntas empiezan con aiChatMessages = []
No se mezcla con inspecciones anteriores 
2025-12-04 07:37:21 -03:00
44cd81956f Validación de Coherencia IA Implementada
Cambios en el Backend (v1.0.96)
Nuevo campo expected_answer en el análisis de IA:

La IA ahora retorna cuál debería ser la respuesta correcta según lo que observa en la imagen
Se incluyen las opciones de respuesta disponibles en el prompt para que la IA elija la correcta
Extracción de opciones de pregunta:

El sistema extrae las opciones disponibles (Buen Estado, Mal Estado, etc.)
Las envía a la IA para que determine cuál es la respuesta esperada
Cambios en el Frontend
Validación antes de continuar:

Cuando el mecánico intenta avanzar a la siguiente pregunta o firmar
El sistema compara su respuesta con expected_answer del análisis de IA
Si NO coinciden, aparece un popup con:
2025-12-03 10:40:33 -03:00
58bf1bfc69 -MOdificar Formato de PDF para informe
se saco el esatdo y porcentaje
2025-12-03 01:21:11 -03:00
50909e4499 Mejoras Implementadas en Extracción de PDFs con IA
He mejorado significativamente el sistema de extracción de texto de PDFs para el análisis con IA. Aquí están los cambios principales:

🎯 Problemas Resueltos
Límites muy pequeños → Aumentados significativamente según capacidad del modelo
No extraía todo el documento → Ahora procesa hasta 100k caracteres
Duplicación de contenido → Detecta y elimina páginas repetidas
Sin información de estado → Reporta páginas procesadas, truncado, etc.
2025-12-03 00:55:11 -03:00
582114a55a -FrontEnd actualizado
*Actualziacion de Logos
2025-12-02 22:42:51 -03:00
c4f5d960de Nueva Funcionalidad: 3 Estados para Adjuntos (Ninguno/Opcional/Obligatorio)
He implementado el sistema de 3 estados para el requisito de fotos/archivos que solicitaste.

Problema Original:
Solo había 2 estados:

 Permitir fotos (checkbox activado)
 No permitir fotos (checkbox desactivado)
Faltaba: Fotos opcionales vs obligatorias

Solución Implementada:
3 Estados disponibles:

🚫 No permitir adjuntos (photo_requirement = 'none')

No se muestra el input de fotos
El mecánico NO puede adjuntar archivos
📎 Opcional (photo_requirement = 'optional')

Se muestra el input de fotos
El mecánico PUEDE adjuntar si lo desea
No es obligatorio para continuar
⚠️ Obligatorio (photo_requirement = 'required')

Se muestra el input de fotos con etiqueta "OBLIGATORIO"
El mecánico DEBE adjuntar al menos 1 archivo
Validación bloquea continuar sin adjuntos
2025-12-02 22:22:51 -03:00
35b419a654 Bug Corregido: Orden Automático de Subpreguntas
He identificado y solucionado el bug que causaba que las subpreguntas recién creadas aparecieran al principio (asociadas a la primera pregunta) hasta que las arrastraras.

Problema Identificado:
Cuando creabas una subpregunta, el backend asignaba order = 0 por defecto, lo que hacía que:

La subpregunta apareciera al principio de la lista
Al arrastrarla, el sistema recalculaba el orden y la colocaba correctamente debajo de su padre
Solución Implementada:
Backend (v1.0.93) - main.py:

Modifiqué el endpoint POST /api/questions para calcular automáticamente el order correcto al crear una pregunta:
2025-12-02 22:03:00 -03:00
fce31467d8 Frontend (v1.0.98):
Formulario mejorado (App.jsx):

Selector de pregunta padre SIEMPRE disponible para cualquier tipo
Selector de condición opcional (solo si el padre es boolean/single_choice)
Indicadores visuales claros:
Verde: "Esta subpregunta aparecerá SIEMPRE"
Azul: " Condición aplicada"
Visualización distinguible:

Badge verde 📎 para subpreguntas siempre visibles
Badge azul  para subpreguntas condicionales
Texto explicativo debajo de cada subpregunta
2025-12-02 17:58:43 -03:00
c6a6ba976e Versiones actualizadas:
Frontend: 1.0.96 → 1.0.97
Service Worker: 1.0.96 → 1.0.97
Backend: 1.0.92 (sin cambios)
Resultado:
 Las preguntas padre se mueven CON todos sus hijos
 Los hijos mantienen su orden relativo al padre
 No hay conflictos de orden entre preguntas
 El sistema usa espaciado inteligente (0, 10, 20...) para evitar colisiones
 Las subpreguntas solo se mueven dentro de su padre
2025-12-02 17:22:55 -03:00
31f5edae84 Mejoras Visuales del Drag-and-Drop
Efectos Visuales Añadidos:
Al iniciar el arrastre:

La pregunta se vuelve semi-transparente (40% opacidad)
Se aplica un ligero zoom out (scale 0.98)
Aparece un borde morado brillante (ring-2 ring-purple-500)
Durante el arrastre sobre una pregunta:

La zona de destino se resalta con fondo morado claro
Borde superior morado grueso (4px)
Sombra pronunciada para destacar la zona
Indicador visual claro: Badge flotante que dice "Se moverá ANTES de esta pregunta" con ícono de cruz
Transiciones suaves:

Todas las transformaciones tienen duration-200 para animaciones fluidas
El elemento arrastrado mantiene su escala reducida durante el movimiento
Al soltar:

Se restauran todos los estilos originales
La pregunta regresa a opacidad 100% y escala normal
2025-12-02 15:57:55 -03:00
de5f09a351 Frontend (v1.0.95)
Ordenamiento consistente de preguntas (App.jsx):

Las preguntas ahora se ordenan por el campo order antes de agruparse por sección
Esto asegura que el orden se mantenga exactamente como está en el backend
Ordenamiento de secciones (App.jsx):

Las secciones se ordenan por el order mínimo de sus preguntas
Garantiza que las secciones aparezcan en orden lógico y consistente
Mejora en drag-and-drop (App.jsx):

Al reordenar, ahora se ordenan las preguntas por order antes de calcular nuevas posiciones
Los nuevos valores de order se asignan correctamente preservando el orden relativo
Funciona correctamente con una sola sección y con subpreguntas
Ordenamiento en modo inspección (App.jsx):

getVisibleQuestions() ahora ordena las preguntas visibles por su campo order
Mantiene el orden correcto durante la ejecución de inspecciones
Backend (v1.0.92)
No se requirieron cambios en el backend (ya estaba ordenando correctamente con order_by(models.Question.order))
2025-12-02 15:50:22 -03:00
7f50bfd8c6 Renderizado Markdown agregado al chat
Cambios:

 Agregada dependencia react-markdown v9.0.1
 Import de ReactMarkdown en App.jsx
 Mensajes del asistente ahora renderizan Markdown
 Mensajes del usuario siguen en texto plano
 Estilos Tailwind prose para formato limpio
 Soporte para: negrita, cursiva, listas, código, encabezados, etc.
Versión: Frontend 1.0.93 → 1.0.94
2025-12-02 15:23:59 -03:00
c374909fa8 Chat AI Assistant con Archivos Adjuntos Implementado
🎯 Nueva Funcionalidad Completa
Se ha implementado un sistema de chat conversacional con IA que permite adjuntar archivos (imágenes y PDFs), similar a ChatGPT, con prompt personalizable y envío completo al webhook.

📋 Características Implementadas
1. Adjuntar Archivos en el Chat
 Botón 📎 para adjuntar archivos
 Soporte para imágenes (JPG, PNG, etc.) y PDFs
 Preview de archivos adjuntos antes de enviar
 Eliminación individual de archivos adjuntos
 Múltiples archivos por mensaje
 Validación de tipos de archivo
2. Procesamiento Backend de Archivos
 Endpoint modificado para recibir FormData con archivos
 PDFs: Extracción automática de texto con pypdf
 Imágenes: Conversión a base64 para Vision AI
 Análisis combinado de texto + imágenes
 Límite de 2000 caracteres por PDF para optimizar
3. Integración con IA
 OpenAI Vision: Soporte multimodal (texto + imágenes)
 Gemini: Soporte de imágenes y texto
 Contexto enriquecido con archivos adjuntos
 Prompts adaptados según tipo de archivo
4. Custom Prompt por Checklist
 Campo assistant_prompt configurable por pregunta
 Campo assistant_instructions para instrucciones adicionales
 Control de longitud de respuesta (short/medium/long)
 Contexto automático del vehículo en cada mensaje
5. Persistencia del Chat
 Nuevo campo chat_history en modelo Answer
 Migración SQL: add_chat_history_to_answers.sql
 Guardado automático del historial completo
 Restauración del chat al reabrir
6. Envío al Webhook (n8n)
 Todos los chats incluidos en send_completed_inspection_to_n8n()
 Campo chat_history en cada respuesta del webhook
 Incluye metadata de archivos adjuntos
 Tipo de pregunta identificado en webhook
 Datos completos para análisis posterior
2025-12-02 11:22:21 -03:00
bf30b1a2bf Soporte para PDFs agregado al sistema de análisis con IA
📋 Cambios Implementados
Frontend:

 Input acepta image/*,application/pdf
 Label actualizado: "Fotografías / Documentos PDF *"
 Preview diferenciado: PDFs muestran icono 📝 rojo en lugar de imagen
 Nombre de archivo PDF visible en el preview
 Contador genérico: "archivo(s) cargado(s)"
Backend:

 Agregado pypdf==4.0.1 a requirements.txt
 Detección automática de PDFs por content_type o extensión
 Extracción de texto de PDFs usando pypdf.PdfReader
 Validación de PDFs vacíos (sin texto extraíble)
 Prompts adaptados automáticamente para PDFs
 Soporte en OpenAI y Gemini (análisis de texto en lugar de vision)
 Límite de 4000 caracteres del PDF para análisis
🎯 Funcionamiento
Usuario sube PDF → Sistema detecta tipo de archivo
Extrae texto → PyPDF lee todas las páginas
Análisis IA → Envía texto al modelo (no usa Vision API)
Respuesta → Misma estructura JSON que con imágenes
⚠️ Limitaciones
PDFs escaneados sin OCR no funcionarán (requieren texto seleccionable)
Máximo 4000 caracteres del PDF enviados al AI
📦 Versiones
Frontend: 1.0.91 → 1.0.92
Backend: 1.0.89 → 1.0.90
2025-12-02 09:40:44 -03:00
d51d912962 Removido el efecto animate-bounce del modal de actualización. Ahora aparece estático sin saltos. 2025-12-01 01:40:47 -03:00
1450d443d4 Front v1.0.91 2025-12-01 01:36:16 -03:00
1988ec95da Corregido: Problema de timing en recálculo de max_score
🐛 Problema
Al crear 1 pregunta → max_score quedaba en 0
Al crear 2 preguntas → max_score mostraba 1
Al quedar 1 pregunta → max_score mostraba 0
🔍 Causa
Llamaba a recalculate_checklist_max_score() ANTES del db.commit(), entonces la consulta SQL no encontraba las preguntas recién agregadas/modificadas porque aún no estaban persistidas en la base de datos.
2025-12-01 00:27:20 -03:00
d86a216766 Problema Resuelto: max_score no se actualizaba al eliminar preguntas
🐛 Problema
Cuando se eliminaban preguntas de un checklist, la Puntuación máxima no se recalculaba, quedando con valores incorrectos (más altos de lo que debería).

🔍 Causa
Al CREAR pregunta: solo se sumaban puntos (max_score += points)
Al ACTUALIZAR pregunta: no se recalculaba el max_score
Al ELIMINAR pregunta: no se restaban los puntos del max_score
 Solución
Nueva función helper recalculate_checklist_max_score():

Suma puntos de todas las preguntas NO eliminadas desde la base de datos
Garantiza consistencia siempre
Aplicada en 3 operaciones:

POST /api/questions - Al crear pregunta (línea ~960)
PUT /api/questions/{id} - Al actualizar puntos (línea ~1038)
DELETE /api/questions/{id} - Al eliminar pregunta (línea ~1167)
📦 Versión
Backend: 1.0.87 → 1.0.88
2025-12-01 00:18:05 -03:00
4174774702 Cambios Adicionales
 Importado or_ de SQLAlchemy para query del reporte
 Backend: 1.0.86 → 1.0.87
🎯 Resultado
 Inspecciones solo muestran preguntas activas del checklist
 PDFs correctos sin preguntas eliminadas
 Cálculo de score preciso (solo preguntas vigentes)
 Webhooks envían solo datos relevantes
 Reportes con métricas correctas
 Respuestas huérfanas de preguntas eliminadas se ignoran automáticamente
2025-12-01 00:10:06 -03:00
54006d5756 Campo de Observaciones Opcional
 Agregado checkbox "Agregar campo observaciones" en QuestionTypeEditor.jsx (sección "Opciones Generales")
 Por defecto está marcado (compatibilidad con preguntas existentes)
 El campo de observaciones solo se muestra si show_observations !== false
 El admin ahora tiene control total sobre si mostrar o no las observaciones
2. Botón "Consultar Asistente IA" Siempre Visible
 El botón ahora aparece siempre para preguntas tipo ai_assistant
 No depende de que la pregunta tenga fotos habilitadas
 Movido a una sección independiente (fuera del bloque de fotos)
 Removido el botón duplicado que estaba dentro de la sección de fotos
3. Versiones Actualizadas
Frontend: 1.0.89 → 1.0.90
Service Worker: ayutec-v1.0.89 → ayutec-v1.0.90
Backend: Sin cambios (no fue necesario)
📋 Detalles Técnicos
App.jsx:

Campo de respuesta oculto para photo_only y ai_assistant
Botón de Asistente IA en sección dedicada (siempre visible para ai_assistant)
Observaciones solo si show_observations !== false y no es photo_only ni ai_assistant
QuestionTypeEditor.jsx:

Nueva sección "⚙️ Opciones Generales" con checkbox azul
Texto de ayuda: "Si está marcado, el mecánico podrá agregar notas adicionales"
2025-11-30 23:51:04 -03:00
c226fbd34b Corregido Error de Chat IA (Backend v1.0.86)
Problema
Causa
El modelo de base de datos usa model_name pero el código intentaba acceder a model.

Solución
 Cambiado ai_config.model → ai_config.model_name en:

Llamada a OpenAI: model=ai_config.model_name or "gpt-4"
Llamada a Gemini: GenerativeModel(ai_config.model_name or 'gemini-pro')
Response del endpoint: "model": ai_config.model_name
2025-11-30 23:35:39 -03:00
b2398efead Actualización PWA Manual (v1.0.89)
Cambios Realizados
Service Worker (public/service-worker.js)
 Removido skipWaiting() automático en install
 Removido claim() automático en activate
 Solo se activa cuando recibe mensaje SKIP_WAITING del usuario
App.jsx
 Modal se muestra cuando hay actualización
 Nueva versión se instala en segundo plano
⏸️ Espera confirmación del usuario
 Solo actualiza cuando el usuario presiona el botón
 Protección contra recargas múltiples (refreshing flag)
Flujo Actualizado
Deploy de nueva versión (ej: v1.0.89)
Usuario abre la app con versión antigua (v1.0.88)
Service Worker detecta nueva versión
Descarga en segundo plano la nueva versión
Modal aparece → "¡Nueva Actualización!"
⏸️ La app sigue funcionando normalmente
👆 Usuario presiona "🚀 ACTUALIZAR AHORA"
Service Worker se activa (skipWaiting)
Página se recarga automáticamente
 Nueva versión activa
Ventajas
 Usuario tiene control total
 No interrumpe trabajo en curso
 Puede terminar inspección antes de actualizar
 Modal bloqueante asegura que eventualmente actualice
 Actualización instantánea al presionar botón
Ahora el usuario DEBE presionar el botón para actualizar! 🎯
2025-11-30 23:30:57 -03:00
14a64778b8 Nuevo Tipo de Pregunta: Asistente IA (Chat) 🤖💬
Frontend (v1.0.88)
QuestionTypeEditor.jsx
 Nuevo tipo: ai_assistant con icono 💬
 Configuración completa:
assistant_prompt: Define rol y comportamiento del asistente
context_questions: IDs de preguntas anteriores cuyas fotos usar (o todas)
assistant_instructions: Reglas específicas de diagnóstico
max_messages: Límite de mensajes en el chat
response_length: Corta/Media/Larga
QuestionAnswerInput.jsx
 Mensaje informativo para tipo ai_assistant
 Indica que el chat se abre con botón separado
App.jsx - Modal de Chat IA
 Modal full-screen responsive con:

Header con gradiente purple/blue
Área de mensajes con scroll
Input de texto + botón enviar
Soporte Enter para enviar
Indicador de "pensando..."
Timestamps en mensajes
Confianza de la IA
Límite de mensajes
 Botón "💬 Consultar Asistente IA" al lado de "Cargar Documentos"

 Contador de mensajes en el botón si ya hay historial

 Historial guardado en answers[questionId].chatHistory

 Auto-marca como completada cuando se abre el chat

Backend (v1.0.85)
Endpoint /api/ai/chat-assistant
 Recibe:

Mensaje del usuario
Historial del chat
Fotos de preguntas anteriores con sus análisis
Configuración del asistente
Info del vehículo
 Contexto inteligente:

Información del vehículo (marca, modelo, km, placa)
Análisis previos de fotos (hasta 10 fotos más relevantes)
Instrucciones personalizadas por pregunta
Historial conversacional (últimos 10 mensajes)
 Soporte multi-proveedor:

OpenAI (GPT-4, GPT-3.5)
Google Gemini
 Respuestas adaptables:

Longitud configurable (200/400/800 tokens)
Temperature 0.7 para balance creatividad/precisión
Cómo Funciona
Configuración (Admin):

- Crear pregunta tipo "Asistente IA (Chat)"
- Definir prompt: "Eres experto en sistemas de frenos..."
- Seleccionar preguntas anteriores: "5,8,12" (fotos de frenos)
- Instrucciones: "Si pastillas < 3mm → cambio inmediato"
- Longitud: Media
- Max mensajes: 20

2 Durante Inspección (Mecánico):

- Llega a pregunta tipo AI Assistant
- Ve botón "💬 Consultar Asistente IA"
- Clic → Abre chat full-screen
- La IA YA vio las fotos de preguntas 5, 8, 12
- Mecánico pregunta: "¿Las pastillas están bien?"
- IA responde basado en fotos previas + contexto vehículo
- Conversación natural con historial
- Al cerrar → se guarda automáticamente

3 Ejemplo de Conversación:

Mecánico: "Vi desgaste en las pastillas, ¿qué recomiendas?"

IA: "Basándome en las fotos que analicé:

     Pastilla delantera izquierda: ~2.5mm de espesor
     Pastilla delantera derecha: ~2.8mm

     ⚠️ CRÍTICO: Ambas pastillas están por debajo del
     mínimo de 3mm. Con 45,000 km, es normal este desgaste.

     RECOMENDACIÓN:
     - Cambio INMEDIATO de pastillas delanteras
     - Verificar estado de discos (posible rectificado)
     - Revisar líquido de frenos (última foto muestra nivel bajo)

     ¿Necesitas el código de pieza para este Toyota Corolla 2019?"

Casos de Uso
Diagnóstico de Frenos

assistant_prompt: "Eres especialista en sistemas de frenos.
                   Analiza desgaste, fugas, vibraciones."
context_questions: "10,11,12,13" // Fotos de pastillas, discos, líquido

assistant_prompt: "Experto en motores. Detecta fugas, ruidos anormales,
                   consumo excesivo."
context_questions: "5,6,7,8,9" // Motor, aceite, correa, filtros

assistant_prompt: "Especialista en sistemas eléctricos y electrónicos."
context_questions: "20,21,22" // Batería, luces, tablero
instructions: "Siempre pedir código OBD2 si hay check engine"

Ventajas
 Contextual: La IA ve fotos previas, no pregunta "¿puedes mostrarme?"
 Especializado: Un asistente POR tema (frenos, motor, eléctrico)
 Conversacional: El mecánico puede hacer follow-up questions
 Guiado: Instrucciones específicas por tipo de inspección
 Historial: No repite info, mantiene contexto de la conversación
 Móvil-friendly: Modal responsive, fácil de usar en celular
2025-11-30 23:23:43 -03:00
a692948a6f Sistema de Actualización PWA Implementado (v1.0.87)
Frontend (v1.0.87)
Service Worker (public/service-worker.js)
 Cache versionado dinámico: ayutec-v1.0.87
 Estrategia Network-First con fallback a cache
 Auto-limpieza de caches antiguos en activación
 Skip waiting para activación inmediata
 Soporte para mensaje SKIP_WAITING desde cliente
Detección de Actualizaciones (App.jsx)
 Registro automático de Service Worker
 Listener de updatefound para detectar nuevas versiones
 Listener de controllerchange para recarga automática
 Estado updateAvailable y waitingWorker
Modal de Actualización
 Diseño grande y llamativo con animación bounce
 Overlay bloqueante (z-index 9999, no se puede cerrar)
 Botón enorme: "🚀 ACTUALIZAR AHORA"
 Gradiente indigo/purple, responsive
 Texto claro: "Nueva versión disponible"
 Recarga automática al actualizar
PWA Manifest (site.webmanifest)
 Agregado start_url y scope
 Configurado orientation: portrait
 Display standalone para app nativa
HTML Metatags (index.html)
 theme-color para barra de navegación
 apple-mobile-web-app-capable para iOS
 mobile-web-app-capable para Android
 Viewport con user-scalable=no para PWA
Automatización
 Script PowerShell update-version.ps1:
Incrementa versión automáticamente (patch)
Actualiza package.json
Actualiza service-worker.js
Sincroniza ambos archivos
 Guía completa PWA-UPDATE-GUIDE.md
Flujo de Actualización
Desarrollador ejecuta update-version.ps1
Build y deploy de nueva versión
Usuario abre la app
Service Worker detecta nueva versión
Modal aparece automáticamente bloqueando UI
Usuario presiona "ACTUALIZAR AHORA"
Service Worker se activa
Página se recarga automáticamente
Usuario usa nueva versión
Backend (v1.0.84)
Sin cambios
Ahora la PWA se actualiza automáticamente mostrando un modal imposible de ignorar! 🚀📱
2025-11-30 23:11:33 -03:00
45ad650bac Mejoras de Responsividad Móvil (v1.0.86)
Sidebar
 Oculto por defecto en móvil (window.innerWidth < 1024px)
 Overlay oscuro cuando está abierto en móvil (se cierra al tocar fuera)
 Deslizable desde la izquierda con transiciones suaves
 Siempre visible en desktop (lg: breakpoint)
Header
 Botón hamburguesa visible solo en móvil (lg:hidden)
 Logo escalable: 50px en móvil → 70px en desktop
 Título oculto en móvil para ahorrar espacio
 Indicador de sección: icono solo en móvil, texto completo en desktop
 Padding adaptable: 3px móvil → 4px tablet → 8px desktop
Contenido Principal
 Sin margin-left en móvil (el sidebar es overlay)
 Padding responsive: 3px → 4px → 6px según tamaño
 Border-radius adaptable: xl en móvil → 2xl en desktop
Modal de Inspección
 Ancho completo en móvil con padding mínimo (2px)
 Título responsive: lg (móvil) → xl (tablet) → 2xl (desktop)
 Altura máxima: 95vh móvil → 90vh desktop
Navegador de Preguntas
 Botones más pequeños en móvil: 7px/8px círculos
 Overflow horizontal con scroll para muchas preguntas
 Números responsive: texto sm en móvil → lg en desktop
 Gaps reducidos: 1px móvil → 2px desktop
Botones de Navegación
 Solo flechas en móvil (← →)
 Texto completo en desktop ("← Anterior", "Siguiente →")
 Padding y texto adaptables: text-sm móvil → text-base desktop
 Mejor uso del espacio horizontal
Formularios
 Espaciado adaptive: space-y-3 móvil → space-y-6 desktop
 Labels y texto responsive: xs → sm → base
 Banner de modo IA con wrap en móvil
La interfaz ahora es completamente funcional en móviles sin scroll horizontal, con todos los elementos accesibles y legibles! 📱
2025-11-30 22:59:38 -03:00
7820f143ac feat: Ocultar referencias a IA en interfaz de mecánico
Frontend (v1.0.85):
- Reemplazado "Modo IA COMPLETO/ASISTIDO" por "Modo AUTOCOMPLETADO/ASISTIDO"
- Cambiado "La IA completará/sugerirá" por "El sistema completará/sugerirá"
- Reemplazado "🤖 Análisis automático" por "📋 Procesamiento automático"
- Eliminadas todas las menciones explícitas de IA visibles para mecánicos
- Terminología neutral: "el sistema" en lugar de "la IA"

Backend (v1.0.84):
- Sin cambios

Mecánicos usan funcionalidad IA sin saber que existe, mejora UX profesional
2025-11-30 22:44:51 -03:00
2db2833f27 feat: Validación inteligente de contexto en análisis de imágenes IA
Backend (v1.0.84):
- Agregado campo 'context_match' en respuesta JSON de análisis IA
- IA evalúa si imagen corresponde al contexto de la pregunta
- Tres niveles de validación: prompt personalizado, pregunta específica, análisis general
- Detección automática de imágenes fuera de contexto con recomendaciones específicas

Frontend (v1.0.84):
- Sistema de alertas cuando IA detecta imágenes que no corresponden
- Popup de advertencia muestra qué imágenes no coinciden y por qué
- Opción para eliminar automáticamente fotos incorrectas y cargar nuevas
- Validación con frases clave: "no corresponde", "no coincide", "no relacionad"
- Previene que mecánicos carguen imágenes irrelevantes a las preguntas

Evita errores en inspecciones al garantizar que cada foto corresponda a su pregunta específica
2025-11-30 22:35:31 -03:00
7b39648be5 Con IA configurada y funcionando → Análisis + popup
 Sin IA configurada → Solo popup (sin análisis)
 Error en el backend → Popup con mensaje de sin análisis
 Timeout o fallo de red → Documentos marcados como cargados
2025-11-30 22:23:40 -03:00