Estamos comprometidos em garantir o uso seguro da nossa tecnologia de áudio IA líder.
O áudio criado com IA ajuda a superar barreiras de linguagem e comunicação, abrindo caminho para um mundo mais conectado, criativo e produtivo. Também pode atrair pessoas mal-intencionadas. Nossa missão é construir e implantar os melhores produtos de áudio IA enquanto melhoramos continuamente as salvaguardas para prevenir seu uso indevido.
“A segurança em IA é inseparável da inovação na ElevenLabs. Garantir que nossos sistemas sejam desenvolvidos, implementados e utilizados com segurança continua sendo o centro da nossa estratégia.”
Mati Staniszewski
Co-fundador da ElevenLabs
Nossa missão é tornar o conteúdo acessível em qualquer idioma e em qualquer voz.
Somos um provedor confiável de áudio IA para milhões de usuários ao redor do mundo, bem como para empresas líderes de publicação e mídia, incluindo:
Segurança da ElevenLabs na prática
Somos guiados por três princípios para gerenciar riscos enquanto garantimos que o áudio IA beneficie pessoas em todo o mundo: moderação, responsabilidade, e proveniência.
Moderação
Monitoramos ativamente o conteúdo gerado com nossa tecnologia.

Moderação automatizada. Nossos sistemas automatizados escaneiam o conteúdo em busca de violações de nossas políticas, bloqueando-os imediatamente ou sinalizando-os para revisão.
Moderação humana. Uma equipe crescente de moderadores revisa o conteúdo sinalizado e nos ajuda a garantir que nossas políticas sejam adotadas de forma consistente.
Vozes proibidas. Embora nossas políticas proíbam imitações, usamos uma ferramenta de segurança adicional para detectar e prevenir a criação de conteúdo com vozes consideradas de alto risco.
voiceCAPTCHA. Desenvolvemos uma tecnologia proprietária de verificação de voz para minimizar o uso não autorizado de ferramentas de clonagem de voz, garantindo que os usuários da nossa ferramenta de clonagem de voz de alta fidelidade possam clonar apenas sua própria voz.
Política de conteúdo e usos proibidos
Saiba mais sobre os tipos de conteúdo e atividades que não são permitidos ao utilizar nossas ferramentas.
Responsabilidade
Acreditamos que o uso indevido deve ter consequências.

Rastreabilidade. Quando alguém mal-intencionado usa indevidamente nossas ferramentas, queremos saber quem são. Nossos sistemas nos permitem rastrear o conteúdo gerado até as contas de origem e nossas ferramentas de clonagem de voz estão disponíveis apenas para usuários que verificaram suas contas com detalhes de cobrança.
Banimentos. Queremos que pessoas mal-intencionadas saibam que não têm lugar em nossa plataforma. Banimos permanentemente usuários que violam nossas políticas.
Parceria com autoridades. Cooperaremos com as autoridades e, em casos apropriados, relataremos ou divulgaremos informações sobre conteúdo ou atividades ilegais.
Denunciar Conteúdo
Se você encontrar conteúdo que gere preocupações e acreditar que foi criado com nossas ferramentas, por favor, denuncie aqui.
Proveniência
Acreditamos que você deve saber se o áudio é gerado por IA.

Classificador de Fala IA. Desenvolvemos uma ferramenta de detecção altamente precisa que mantém 99% de precisão e 80% de recall se a amostra não foi modificada e permite que qualquer pessoa verifique se um arquivo de áudio pode ter sido gerado com nossa tecnologia.
Padrões de Detecção de IA. Acreditamos que ferramentas de detecção de IA, como metadados, marcas d'água e soluções de impressão digital, são essenciais. Apoiamos a adoção generalizada de padrões da indústria para proveniência através do C2PA.
Colaboração. Convidamos outras empresas de IA, academia e formuladores de políticas a trabalharem juntos no desenvolvimento de métodos para detecção de conteúdo de IA em toda a indústria. Fazemos parte da Iniciativa de Autenticidade de Conteúdo e colaboramos com distribuidores de conteúdo e a sociedade civil para estabelecer a transparência do conteúdo de IA. Também apoiamos os esforços governamentais em segurança de IA e somos membros do Consórcio do Instituto de Segurança de IA do Instituto Nacional de Padrões e Tecnologia dos EUA (NIST).
Classificador de Fala com IA da ElevenLabs
Nosso Classificador de Fala com IA permite detectar se um clipe de áudio foi criado usando a ElevenLabs.
Coalizão para Proveniência e Autenticidade de Conteúdo
Um padrão técnico aberto que permite rastrear a origem de mídias.
Iniciativa de Autenticidade de Conteúdo
Promovendo a adoção de um padrão aberto da indústria para autenticidade e proveniência de conteúdo.
“O volume de conteúdo gerado por IA continuará crescendo. Queremos oferecer a transparência necessária, ajudando a verificar a origem do conteúdo digital.”
Piotr Dąbkowski
Co-fundador da ElevenLabs
Foco especial: eleições em 2024
Metade do mundo votará em 2024. Para nos prepararmos para as eleições deste ano, estamos focados em avançar no uso seguro e justo de vozes IA.
Para facilitar esses esforços, somos signatários inaugurais do Tech Accord on Election Safety, que reúne líderes da indústria como Amazon, Google, Meta, Microsoft, OpenAI e ElevenLabs, entre outros, em um esforço conjunto para proteger as eleições globais do uso indevido de IA.
“À medida que a IA se torna parte do nosso dia a dia, estamos comprometidos em desenvolver produtos confiáveis e colaborar com parceiros na criação de proteções contra seu uso indevido.”
Aleksandra Pedraszewska
Segurança em IA na ElevenLabs