Porozmawiaj z DeepSeek R1 dzięki ElevenLabs Conversational AI — kopia

Daliśmy DeepSeek R1 głos dzięki platformie ElevenLabs Conversational AI

Flowchart diagram showing user interaction with speech-to-text and text-to-speech functions, involving an agent, LLM, and options for function calling and monitoring.

Wszyscy ostatnio mówią o DeepSeek, ale nikt nie zapytał: jak brzmiałby DeepSeek, gdyby mógł mówić? Tu możemy wykorzystać ElevenLabs’ Conversational AI, aby umożliwić rozmowę z DeepSeek R1.

ElevenLabs Conversational AI to platforma do wdrażania spersonalizowanych, konwersacyjnych agentów głosowych w czasie rzeczywistym. Jedną z głównych zalet platformy jest jej elastyczność, pozwalająca na podłączenie różnych LLM w zależności od potrzeb.

Opcja Custom LLM działa z każdym dostawcą API kompatybilnym z OpenAI, o ile model wspiera użycie narzędzi/wywoływanie funkcji. W naszych dokumentach znajdziesz przewodniki dla GroqCloud, Together AI, i Cloudflare. W poniższym demo używamy Cloudflare.

Używamy modelu DeepSeek-R1-Distill-Qwen-32B, który jest destylowanym modelem z DeepSeek-R1 opartym na Qwen2.5. Przewyższa OpenAI-o1-mini w różnych testach, osiągając nowe rekordy dla modeli gęstych.

Powodem, dla którego używamy wersji destylowanej, jest głównie to, że czyste wersje jeszcze nie działają niezawodnie z wywoływaniem funkcji. W rzeczywistości model R1 nie wspiera jeszcze wywoływania funkcji! Możesz śledzić ten problem, aby być na bieżąco z ich postępami.

Zacznij z ElevenLabs Conversational AI

Proces podłączania custom LLM jest dość prosty i zaczyna się od stworzenia agenta. W tym projekcie użyjemy szablonu Math Tutor. Jeśli chcesz tylko zobaczyć, jak brzmi DeepSeek, mamy demo agenta, które możesz wypróbować sam.

Aby zacząć, przejdź do strony aplikacji ElevenLabs Conversational AI i stwórz nowego agenta AI o nazwie „DeepSeeker”. Wybierz szablon Math Tutor, ponieważ to przypadek użycia, w którym rozumowanie DeepSeek może zabłysnąć, i wybierz „Create Agent”.