Främja AI-säkerhet med Reality Defender

Hur vårt samarbete stödjer bättre upptäckt av AI-genererade röster

Reality Defender logo with a shield icon and the text "Reality Defender" on a gray background.

När AI-genererade röster blir bättre, måste också verktygen som upptäcker dem förbättras. Under de senaste månaderna har vi arbetat med Reality Defender för att hjälpa till att förbättra upptäckten av syntetiska röster - så att allmänheten kan avgöra vad som är AI-genererat och vad som är äkta när röstteknologin utvecklas.

Reality Defender beskriver detta samarbete som “transformativt” för upptäcktsystem. Genom att integrera vår syntetiska röstdata i deras modeller har de “utökat och förbättrat [sin] förmåga att identifiera sofistikerade röstdeepfakes.”

En viktig lärdom från detta arbete är vikten av verklig, högkvalitativ data. Som de uttrycker det, har vårt samarbete hjälpt dem att träna upptäcktsystem på “den typ som mest sannolikt används i verkliga bedrägeriförsök.”

Reality Defender har publicerat en blogg om deras arbete med att upptäcka AI-genererade röster, inklusive deras samarbete med oss. Läs deras fullständiga perspektiv nedan.

Stärka digitalt förtroende: Hur ElevenLabs hjälper Reality Defender att förbättra upptäckten av röstdeepfakes

Den ökande sofistikeringen av AI-genererat innehåll har intensifierat behovet av robusta upptäcktsmöjligheter för syntetiska medier. Under de senaste månaderna har Reality Defenders strategiska partnerskap med ElevenLabs lett till betydande teknologiska framsteg i vår förmåga att upptäcka AI-genererat röstinnehåll, vilket ger viktiga insikter i det föränderliga landskapet för upptäckt av syntetiska medier. Vår analys av detta samarbete avslöjar transformativa förbättringar både i omfattning och noggrannhet av våra upptäcktsmöjligheter, vilket sätter nya standarder för branschen.

Ett strategiskt partnerskap för digital integritet

Reality Defenders uppdrag att säkra kritiska kommunikationskanaler mot deepfake-imitationer stämmer perfekt överens med ElevenLabs engagemang för ansvarsfull AI-utveckling. Detta samarbete representerar en gemensam vision: att säkerställa att när röstsyntestekniken utvecklas, så gör även verktygen för att upptäcka dess missbruk.

Genom detta partnerskap har Reality Defender integrerat ElevenLabs omfattande röstsyntesdata från befintliga och framtida modeller i våra upptäcktsystem, vilket dramatiskt utökar och förbättrar vår förmåga att identifiera sofistikerade röstdeepfakes. Effekten har varit transformativ. Våra träningsdatamängder har berikats med över 295 timmar av högkvalitativ syntetisk röstdata, vilket ger en oöverträffad djup och variation i våra upptäcktsmöjligheter.

Våra ljudupptäcktsmodeller har uppnått full integration med alla ElevenLabs röstmodeller, vilket möjliggör omfattande täckning över det syntetiska röstlandskapet. Detta samarbete har resulterat i en tiofaldig förbättring av datagenereringseffektiviteten, vilket påskyndar vår förmåga att anpassa oss till nya hot. Jämfört med andra syntetiska röstplattformar erbjuder ElevenLabs ett av de mest användarvänliga gränssnitten, vilket gör att vi kan generera och bearbeta data minst 10 gånger snabbare än alternativa lösningar. Kanske mest betydelsefullt, tack vare vårt partnerskap med ElevenLabs, har Reality Defender-teamet utökat våra upptäcktsmöjligheter till att omfatta flera språk och accenter, vilket speglar den globala naturen av syntetiska röstutmaningar.

Teknisk innovation i stor skala

Det som gör detta partnerskap särskilt kraftfullt är kvaliteten och mångfalden av ElevenLabs syntetiska röstdata. Som representerar cirka 20% av vår totala träningsdatamängd, ger denna data våra upptäcktsmodeller exponering för kommersiella syntetiska röster — den typ som mest sannolikt används i verkliga bedrägeriförsök. Utan ElevenLabs bidrag skulle vår träningsuppsättning sakna kritisk verklig mångfald och skulle vara betydligt svagare i att upptäcka syntetiska röster som används i praktiska scenarier. Denna kommersiella kvalitetsdata har visat sig vara avgörande för att upprätthålla vårt toppmoderna upptäcktsystem mot sofistikerade röstdeepfakes.

Den tekniska implementeringen fokuserar på tre nyckelområden:

  1. Omfattande modellträning: Genom att inkludera ElevenLabs mångsidiga röstsyntesdata får våra upptäcktsmodeller exponering för ett brett spektrum av syntetiska röstegenskaper, vilket förbättrar noggrannheten i olika scenarier.
  2. Flerspråkig kapacitet: Partnerskapet möjliggör upptäckt på 8 språk, med fler under utveckling, vilket adresserar den globala naturen av röstbaserade hot.
  3. Verklig tillämpning: Till skillnad från ursprungsbaserade metoder som förlitar sig på vattenmärkning eller verifiering av ursprungskällan, kan vår inferensbaserade upptäckt identifiera syntetiskt innehåll oavsett dess ursprung.

Påtaglig påverkan

Resultaten av detta samarbete talar sitt tydliga språk. Vårt team har uppnått en betydande utvidgning av våra upptäcktsmöjligheter för syntetiska röster, vilket sätter nya standarder för noggrannhet och tillförlitlighet inom området. Vår förbättrade förmåga att identifiera kommersiella röstdeepfakes representerar ett viktigt framsteg i skyddet mot sofistikerade hot. Genom mer effektiva datagenereringsprocesser har vi påskyndat våra utvecklingscykler, vilket möjliggör snabbare respons på nya syntetiska röstteknologier. Dessutom ger vår bredare språktäckning nu robusta upptäcktsmöjligheter för globala hotscenarier, vilket adresserar den internationella naturen av syntetiska medieutmaningar.

Framåt

Detta partnerskap representerar mer än bara ett tekniskt samarbete — det är en modell för hur AI-företag kan arbeta tillsammans för att säkerställa ansvarsfull utveckling av kraftfulla nya teknologier. När röstsynteskapaciteter fortsätter att utvecklas, säkerställer vårt partnerskap med ElevenLabs att Reality Defenders upptäcktsmöjligheter utvecklas parallellt.

Vi är stolta över att arbeta med ElevenLabs i denna viktiga insats för att skydda digital autenticitet och upprätthålla förtroendet i vår alltmer AI-drivna värld. Tillsammans sätter vi nya standarder för ansvarsfull AI-utveckling samtidigt som vi tillhandahåller de verktyg som behövs för att identifiera och förhindra missbruk av syntetiska medier.

Hotlandskapet fortsätter att utvecklas, med förluster från finansiella bedrägerier med deepfakes som förväntas nå tiotals miljarder dollar under de kommande åren. Genom partnerskap som detta bygger vi den infrastruktur som behövs för att skydda organisationer och individer från sofistikerade imitationer samtidigt som vi stödjer de positiva tillämpningarna av AI-teknologi.

Utforska artiklar av ElevenLabs-teamet

ElevenLabs

Skapa ljud och röster som imponerar med de bästa AI-verktygen

Kom igång gratis

Har du redan ett konto? Logga in