Habla con DeepSeek R1 usando ElevenLabs Conversational AI
Le dimos voz a DeepSeek R1 con la plataforma ElevenLabs Conversational AI
Últimamente todos hablan de DeepSeek, pero nadie se ha detenido a preguntar: ¿cómo sonaría DeepSeek si pudiera hablar? Aquí es donde podemos utilizar ElevenLabs’ Conversational AI para hacer posible hablar con DeepSeek R1.
ElevenLabs Conversational AI es una plataforma para desplegar agentes de voz conversacionales personalizados en tiempo real. Un gran beneficio de la plataforma es su flexibilidad, permitiéndote conectar diferentes LLMs según tus necesidades.
La opción Custom LLM funciona con cualquier proveedor de API compatible con OpenAI, siempre que el modelo soporte el uso de herramientas/llamadas a funciones. En nuestra documentación puedes encontrar guías para GroqCloud, Together AI, y Cloudflare. Para la siguiente demo estamos usando Cloudflare.
Estamos usando el modelo DeepSeek-R1-Distill-Qwen-32B, que es un modelo destilado de DeepSeek-R1 basado en Qwen2.5. Supera a OpenAI-o1-mini en varios benchmarks, logrando nuevos resultados de vanguardia para modelos densos.
La razón por la que usamos la versión destilada es principalmente porque las versiones puras aún no funcionan de manera confiable con llamadas a funciones. De hecho, el modelo de razonamiento R1 aún no soporta llamadas a funciones en absoluto. Puedes seguir este problema para mantenerte actualizado sobre su progreso.
Empieza con ElevenLabs Conversational AI
El proceso de conectar un LLM personalizado es bastante sencillo y comienza con la creación de un agente. Para este proyecto usaremos la plantilla de Tutor de Matemáticas. Si solo quieres ver cómo suena DeepSeek, tenemos una demo del agente que puedes probar tú mismo.
Para comenzar, dirígete a la página de la app ElevenLabs Conversational AI y crea un nuevo Agente de IA llamado “DeepSeeker”. Selecciona la plantilla de Tutor de Matemáticas, ya que este es un caso de uso donde el razonamiento de DeepSeek puede brillar, y selecciona “Crear Agente”.
La plantilla de matemáticas incluye un prompt del sistema que asegura que lea números y ecuaciones en lenguaje natural, en lugar de como lo escribe el LLM. Por ejemplo, le decimos que escriba "Alfa por x al cuadrado igual a 4" si la respuesta del LLM es "ax^2=4".

Los modelos de razonamiento generalmente explican su “cadena de pensamiento” pero también podemos expandir el prompt del sistema para asegurarnos de obtener una buena lección de matemáticas, especificando que proporcione el razonamiento paso a paso para la solución. Puedes dejar esto general o expandir el prompt para incluir ejemplos específicos de los que pueda extraer.
Sin embargo, si realmente quieres captar la personalidad de DeepSeek R1, puedes crear una plantilla en blanco pidiendo al agente que se presente como DeepSeek AI y configurando el prompt del sistema para que responda a una variedad de preguntas sobre diferentes temas.
Configura DeepSeek R1 con Cloudflare Workers AI
El siguiente paso es obtener una ruta de API para una versión de DeepSeek R1 que se use con nuestro agente. En este ejemplo usaremos Cloudflare, que proporciona DeepSeek-R1-Distill-Qwen-32B en su plataforma Workers AI para propósitos de evaluación, pero también puedes considerar otras opciones de alojamiento como fireworks.ai,