हम अपनी प्रमुख ऑडियो AI टेक्नोलॉजी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।

AI ऑडियो भाषा और कम्युनिकेशन की बाधाओं को पार करने में मदद करता है, जिससे एक ज्यादा जुड़ी हुई, क्रिएटिव और प्रोडक्टिव दुनिया बनती है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और तैनात करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।

ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, ये हमारी रणनीति का अहम हिस्सा है।

Mati Staniszewski

Co-founder at ElevenLabs

हमारा मिशन किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।

हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:

ElevenLabs की सुरक्षा असल में

हम तीन सिद्धांतों पर चलते हैं ताकि जोखिम को नियंत्रण करते हुए AI ऑडियो दुनियाभर के लोगों के लिए फायदेमंद रहे: मॉडरेशन, जवाबदेही और उत्पति

मॉडरेशन

हम अपनी टेक्नोलॉजी से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

Blurred yellow text box with a warning icon at the bottom left corner.

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसी का उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या रिव्यू के लिए फ़्लैग करते हैं।

मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट को रिव्यू करते है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।

अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।

वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे हाई क्वालिटी वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।

जवाबदेही

हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें जनरेट किए गए कॉन्टेंट को असली अकाउंट्स तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने अकाउंट्स को वेरिफाई किया है।

प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं

कानून प्रवर्तन के साथ पार्टनरशिप। हम अथॉरिटीज़ के साथ पूरा सहयोग करेंगे और ज़रूरत पड़ने पर गैरकानूनी कंटेंट या गतिविधियों से जुड़ी जानकारी रिपोर्ट या साझा करेंगे।

उत्पति

हम मानते हैं कि आपको यह पता होना चाहिए कि कोई ऑडियो AI से जनरेट किया गया है या नहीं।

Abstract black and white wavy lines on a light background.

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक डिटेक्शन टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल बनाए रखता है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी टेक्नोलॉजी से जनरेट किया गया है या नहीं।

AI डिटेक्शन स्टैंडर्ड्स। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए इंडस्ट्री स्टैंडर्ड्स को अपनाने का समर्थन करते हैं।

सहयोग। हम AI कंपनियों, शैक्षणिक संस्थानों और पॉलिसी निर्माताओं को AI कॉन्टेंट डिटेक्शन के लिए इंडस्ट्री-वाइड तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ मिलकर AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए काम करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST) के AI सेफ्टी इंस्टीट्यूट कंसोर्टियम के सदस्य हैं।