
ElevenLabs stöder kongressens ansträngningar för att främja AI-säkerhet och innovation
ElevenLabs är stolta över att stödja två lagar som främjar ansvarsfull AI.
Hur vårt samarbete stödjer bättre upptäckt av AI-genererade röster
När AI-genererade röster blir bättre, måste också verktygen som upptäcker dem förbättras. Under de senaste månaderna har vi arbetat med Reality Defender för att hjälpa till att förbättra upptäckten av syntetiska röster - så att allmänheten kan avgöra vad som är AI-genererat och vad som är äkta när röstteknologin utvecklas.
Reality Defender beskriver detta samarbete som “transformativt” för upptäcktsystem. Genom att integrera vår syntetiska röstdata i deras modeller har de “utökat och förbättrat [sin] förmåga att identifiera sofistikerade röstdeepfakes.”
En viktig lärdom från detta arbete är vikten av verklig, högkvalitativ data. Som de uttrycker det, har vårt samarbete hjälpt dem att träna upptäcktsystem på “den typ som mest sannolikt används i verkliga bedrägeriförsök.”
Reality Defender har publicerat en blogg om deras arbete med att upptäcka AI-genererade röster, inklusive deras samarbete med oss. Läs deras fullständiga perspektiv nedan.
Den ökande sofistikeringen av AI-genererat innehåll har intensifierat behovet av robusta upptäcktsmöjligheter för syntetiska medier. Under de senaste månaderna har Reality Defenders strategiska partnerskap med ElevenLabs lett till betydande teknologiska framsteg i vår förmåga att upptäcka AI-genererat röstinnehåll, vilket ger viktiga insikter i det föränderliga landskapet för upptäckt av syntetiska medier. Vår analys av detta samarbete avslöjar transformativa förbättringar både i omfattning och noggrannhet av våra upptäcktsmöjligheter, vilket sätter nya standarder för branschen.
Reality Defenders uppdrag att säkra kritiska kommunikationskanaler mot deepfake-imitationer stämmer perfekt överens med ElevenLabs engagemang för ansvarsfull AI-utveckling. Detta samarbete representerar en gemensam vision: att säkerställa att när röstsyntestekniken utvecklas, så gör även verktygen för att upptäcka dess missbruk.
Genom detta partnerskap har Reality Defender integrerat ElevenLabs omfattande röstsyntesdata från befintliga och framtida modeller i våra upptäcktsystem, vilket dramatiskt utökar och förbättrar vår förmåga att identifiera sofistikerade röstdeepfakes. Effekten har varit transformativ. Våra träningsdatamängder har berikats med över 295 timmar av högkvalitativ syntetisk röstdata, vilket ger en oöverträffad djup och variation i våra upptäcktsmöjligheter.
Våra ljudupptäcktsmodeller har uppnått full integration med alla ElevenLabs röstmodeller, vilket möjliggör omfattande täckning över det syntetiska röstlandskapet. Detta samarbete har resulterat i en tiofaldig förbättring av datagenereringseffektiviteten, vilket påskyndar vår förmåga att anpassa oss till nya hot. Jämfört med andra syntetiska röstplattformar erbjuder ElevenLabs ett av de mest användarvänliga gränssnitten, vilket gör att vi kan generera och bearbeta data minst 10 gånger snabbare än alternativa lösningar. Kanske mest betydelsefullt, tack vare vårt partnerskap med ElevenLabs, har Reality Defender-teamet utökat våra upptäcktsmöjligheter till att omfatta flera språk och accenter, vilket speglar den globala naturen av syntetiska röstutmaningar.
Det som gör detta partnerskap särskilt kraftfullt är kvaliteten och mångfalden av ElevenLabs syntetiska röstdata. Som representerar cirka 20% av vår totala träningsdatamängd, ger denna data våra upptäcktsmodeller exponering för kommersiella syntetiska röster — den typ som mest sannolikt används i verkliga bedrägeriförsök. Utan ElevenLabs bidrag skulle vår träningsuppsättning sakna kritisk verklig mångfald och skulle vara betydligt svagare i att upptäcka syntetiska röster som används i praktiska scenarier. Denna kommersiella kvalitetsdata har visat sig vara avgörande för att upprätthålla vårt toppmoderna upptäcktsystem mot sofistikerade röstdeepfakes.
Den tekniska implementeringen fokuserar på tre nyckelområden:
Resultaten av detta samarbete talar sitt tydliga språk. Vårt team har uppnått en betydande utvidgning av våra upptäcktsmöjligheter för syntetiska röster, vilket sätter nya standarder för noggrannhet och tillförlitlighet inom området. Vår förbättrade förmåga att identifiera kommersiella röstdeepfakes representerar ett viktigt framsteg i skyddet mot sofistikerade hot. Genom mer effektiva datagenereringsprocesser har vi påskyndat våra utvecklingscykler, vilket möjliggör snabbare respons på nya syntetiska röstteknologier. Dessutom ger vår bredare språktäckning nu robusta upptäcktsmöjligheter för globala hotscenarier, vilket adresserar den internationella naturen av syntetiska medieutmaningar.
Detta partnerskap representerar mer än bara ett tekniskt samarbete — det är en modell för hur AI-företag kan arbeta tillsammans för att säkerställa ansvarsfull utveckling av kraftfulla nya teknologier. När röstsynteskapaciteter fortsätter att utvecklas, säkerställer vårt partnerskap med ElevenLabs att Reality Defenders upptäcktsmöjligheter utvecklas parallellt.
Vi är stolta över att arbeta med ElevenLabs i denna viktiga insats för att skydda digital autenticitet och upprätthålla förtroendet i vår alltmer AI-drivna värld. Tillsammans sätter vi nya standarder för ansvarsfull AI-utveckling samtidigt som vi tillhandahåller de verktyg som behövs för att identifiera och förhindra missbruk av syntetiska medier.
Hotlandskapet fortsätter att utvecklas, med förluster från finansiella bedrägerier med deepfakes som förväntas nå tiotals miljarder dollar under de kommande åren. Genom partnerskap som detta bygger vi den infrastruktur som behövs för att skydda organisationer och individer från sofistikerade imitationer samtidigt som vi stödjer de positiva tillämpningarna av AI-teknologi.
ElevenLabs är stolta över att stödja två lagar som främjar ansvarsfull AI.
Med hjälp av AI-ljud delar Ed en bekant röst med sina elever
Drivs av ElevenLabs Conversational AI