Perplexity AI ha presentado «Comet», innovadora arquitectura backend que redefine la búsqueda conversacional. Busca superar deficiencias de LLMs actuales (altos costes, latencia y «alucinaciones»), impulsando su eficiencia y fiabilidad.
Comet es diez veces más económico y siete a diez veces más rápido, con escalabilidad diez veces superior. Permite procesar masivo volumen de consultas, minimizando respuestas incorrectas y garantizando precisión y fiabilidad.
Crucialmente, Comet es agnóstico al modelo, integrándose con LLMs variados (código abierto como Llama/Mistral o propietarios), asegurando flexibilidad. Optimiza la Retrieval-Augmented Generation (RAG), mejorando la recuperación de información para generar respuestas exactas y actualizadas.
Esta información es clave para desarrolladores de IA, gerentes de producto, empresas tecnológicas e investigadores. Permite diseñar y desplegar aplicaciones de IA conversacional más rápidas, rentables y robustas, impulsando la adopción masiva y la innovación.
Fuente: Perplexity AI Blog













