Discutez avec DeepSeek R1 grâce à l'IA conversationnelle d'ElevenLabs
Nous avons donné une voix à DeepSeek R1 avec la plateforme d'IA conversationnelle d'ElevenLabs
Tout le monde parle de DeepSeek ces derniers temps, mais personne ne s'est arrêté pour se demander : à quoi ressemblerait DeepSeek s'il pouvait parler ? C'est là que nous pouvons utiliser l'IA conversationnelle d'ElevenLabs pour rendre possible la conversation avec DeepSeek R1.
L'IA conversationnelle d'ElevenLabs est une plateforme pour déployer des agents vocaux conversationnels personnalisés en temps réel. Un des principaux avantages de la plateforme est sa flexibilité, vous permettant d'intégrer différents LLM selon vos besoins.
L'option Custom LLM fonctionne avec tout fournisseur API compatible avec OpenAI, tant que le modèle supporte l'utilisation d'outils/appels de fonctions. Dans notre documentation, vous trouverez des guides pour GroqCloud, Together AI, et Cloudflare. Pour la démo suivante, nous utilisons Cloudflare.
Nous utilisons le modèle DeepSeek-R1-Distill-Qwen-32B qui est un modèle distillé de DeepSeek-R1 basé sur Qwen2.5. Il surpasse OpenAI-o1-mini sur divers benchmarks, atteignant de nouveaux résultats de pointe pour les modèles denses.
La raison pour laquelle nous utilisons la version distillée est principalement que les versions pures ne fonctionnent pas encore de manière fiable avec les appels de fonctions. En fait, le modèle de raisonnement R1 ne supporte pas encore du tout les appels de fonctions ! Vous pouvez suivre ce problème pour rester informé de leurs progrès.
Commencez avec l'IA conversationnelle d'ElevenLabs
Le processus de connexion d'un LLM personnalisé est assez simple et commence par la création d'un agent. Pour ce projet, nous utiliserons le modèle Math Tutor. Si vous voulez juste entendre à quoi ressemble DeepSeek, nous avons une démo de l'agent que vous pouvez essayer vous-même.