.webp&w=3840&q=95)
Habla con DeepSeek R1 usando ElevenLabs Conversational AI — copia
Le dimos una voz a DeepSeek R1 con la plataforma ElevenLabs Conversational AI
Últimamente todos hablan de DeepSeek, pero nadie se ha detenido a preguntar: ¿cómo sonaría DeepSeek si pudiera hablar? Aquí es donde podemos utilizar Conversational AI de ElevenLabs para hacer posible hablar con DeepSeek R1.
ElevenLabs Conversational AI es una plataforma para desplegar agentes de voz conversacionales personalizados en tiempo real. Una gran ventaja de la plataforma es su flexibilidad, permitiéndote conectar diferentes LLMs según tus necesidades.
La opción LLM personalizado funciona con cualquier API compatible con OpenAI, siempre que el modelo soporte el uso de herramientas/llamadas a funciones. En nuestra documentación puedes encontrar guías para GroqCloud, Together AI, y Cloudflare. Para la siguiente demo estamos usando Cloudflare.
Estamos usando el modelo DeepSeek-R1-Distill-Qwen-32B, que es un modelo destilado de DeepSeek-R1 basado en Qwen2.5. Supera a OpenAI-o1-mini en varios benchmarks, logrando nuevos resultados de vanguardia para modelos densos.
La razón por la que usamos la versión destilada es principalmente porque las versiones puras aún no funcionan de manera confiable con llamadas a funciones. De hecho, el modelo de razonamiento R1 aún no soporta llamadas a funciones en absoluto. Puedes seguir este problema para estar al tanto de su progreso.
Empieza con ElevenLabs Conversational AI
El proceso de conectar un LLM personalizado es bastante sencillo y comienza con la creación de un agente. Para este proyecto usaremos la plantilla de Tutor de Matemáticas. Si solo quieres ver cómo suena DeepSeek, tenemos una demo del agente que puedes probar tú mismo.
Para empezar, dirígete a la página de la app ElevenLabs Conversational AI y crea un nuevo Agente de IA llamado “DeepSeeker”. Selecciona la plantilla de Tutor de Matemáticas, ya que este es un caso de uso donde el razonamiento de DeepSeek puede brillar, y selecciona “Crear Agente”.
La plantilla de matemáticas incluye un prompt del sistema que asegura que lea números y ecuaciones en lenguaje natural, en lugar de como los escribe el LLM. Por ejemplo, le decimos que escriba "Alfa por x al cuadrado igual a 4" si la respuesta del LLM es "ax^2=4".

Los modelos de razonamiento generalmente explican su “cadena de pensamiento” pero también podemos expandir el prompt del sistema para asegurarnos de obtener una buena lección de matemáticas, especificando que proporcione el razonamiento paso a paso para la solución. Puedes dejar esto general o expandir el prompt para incluir ejemplos específicos de los que pueda extraer.
Sin embargo, si realmente quieres captar la personalidad de DeepSeek R1, puedes crear una plantilla en blanco pidiendo al agente que se presente como DeepSeek AI y configurando el prompt del sistema para que responda a una variedad de preguntas sobre diferentes temas.
Configura DeepSeek R1 con Cloudflare Workers AI
El siguiente paso es obtener una ruta de API para una versión de DeepSeek R1 para usar con nuestro agente. En este ejemplo usaremos Cloudflare, que proporciona DeepSeek-R1-Distill-Qwen-32B en su plataforma Workers AI para propósitos de evaluación, pero también puedes considerar otras opciones de alojamiento como fireworks.ai, GroqCloud, y together.ai
Primero, dirígete a dash.cloudflare.com y crea o inicia sesión en tu cuenta. En la navegación, selecciona AI > Workers AI, y luego haz clic en el widget “Use REST API”.

Para obtener una API key, haz clic en “Create a Workers AI API Token”, y asegúrate de guardarla de forma segura.
Una vez que tengas tu API key, puedes probarla inmediatamente con una solicitud curl. Cloudflare proporciona una ruta de API compatible con OpenAI, lo que hace esto muy conveniente. En este punto, toma nota del modelo y la ruta completa, incluyendo el ID de cuenta.
Por ejemplo: https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}c/ai/v1/
curl https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/v1/chat/completions \ -X POST \ -H "Authorization: Bearer {API_TOKEN}" \ -d '{ "model": "@cf/deepseek-ai/deepseek-r1-distill-qwen-32b", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "How many Rs in the word Strawberry?"} ], "stream": false }'
Configura tu LLM personalizado en ElevenLabs
El siguiente paso es añadir estos detalles a tu agente en ElevenLabs. Primero, navega a tu Agente de IA DeepSeeker en la app de ElevenLabs y al final, añade tu API key recién creada como un secreto. Dale un nombre como CLOUDFLARE_AUTH_TOKEN, luego guarda los cambios.

Luego, bajo LLM, selecciona la opción Custom LLM, y proporciona la ruta de API compatible con OpenAI de Cloudflare Workers AI: https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/v1 API ruta de API: https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/v1
Asegúrate de reemplazar “{ACCOUNT_ID}” en la URL con tu ID de cuenta mostrado en Cloudflare.
Añade el ID del modelo: @cf/deepseek-ai/deepseek-r1-distill-qwen-32b
Finalmente selecciona tu secreto que acabas de crear.

Pruébalo
Genial, ahora que todo está configurado, hagamos clic en “Probar agente de IA” y pruébalo con el siguiente problema matemático:
“Dos trenes se cruzan yendo este/oeste con velocidades de 65mph y 85mph. ¿Cuánto tiempo hasta que estén a 330 millas de distancia?”
Nota: si no tienes un método de pago configurado, la API de Cloudflare Workers AI será limitada y podrías experimentar tiempos de respuesta más largos. Asegúrate de configurar tu cuenta de facturación antes de pasar a producción. Esto puede no ser un problema con otras plataformas de alojamiento.
Conclusión
Construir agentes de IA conversacionales en tiempo real con la plataforma ElevenLabs Conversational AI te permite reaccionar rápidamente a nuevos modelos que se lanzan, permitiéndote conectar LLMs personalizados a través de cualquier proveedor de API compatible con OpenAI.
Siempre que el modelo que quieras usar sea compatible con OpenAI y soporte llamadas a funciones, puedes integrarlo con un agente de voz en tiempo real. Esto podría incluir modelos que hayas ajustado con conjuntos de datos personalizados. También puedes usar cualquier voz disponible en la biblioteca de ElevenLabs — o tu propia voz si has creado un clon de tu propia voz.
Descubre artículos del equipo de ElevenLabs
.webp&w=3840&q=95)
.webp&w=3840&q=95)
Creación de aplicaciones de IA conversacional con API avanzadas de texto a voz
Mejore las aplicaciones de inteligencia artificial conversacional con un diálogo natural.