Este proyecto implementa un sistema de clasificación de voz que distingue entre voces humanas reales y las generadas por inteligencia artificial (IA), como ElevenLabs o Bark. Utiliza modelos de aprendizaje profundo (CNN+LSTM) en espectrogramas de audio y Blockchain para registrar de forma segura los resultados de las predicciones.