Estamos comprometidos em garantir o uso seguro da nossa tecnologia de áudio IA líder.

O áudio criado com IA ajuda a superar barreiras de linguagem e comunicação, abrindo caminho para um mundo mais conectado, criativo e produtivo. Também pode atrair pessoas mal-intencionadas. Nossa missão é construir e implantar os melhores produtos de áudio IA enquanto melhoramos continuamente as salvaguardas para prevenir seu uso indevido.

A segurança em IA é inseparável da inovação na ElevenLabs. Garantir que nossos sistemas sejam desenvolvidos, implementados e utilizados com segurança continua sendo o centro da nossa estratégia.

Mati Staniszewski

Co-fundador da ElevenLabs

Nossa missão é tornar o conteúdo acessível em qualquer idioma e em qualquer voz.

Somos um provedor confiável de áudio IA para milhões de usuários ao redor do mundo, bem como para empresas líderes de publicação e mídia, incluindo:

Segurança da ElevenLabs na prática

Somos guiados por três princípios para gerenciar riscos enquanto garantimos que o áudio IA beneficie pessoas em todo o mundo: moderação, responsabilidade, e proveniência.

Moderação

Monitoramos ativamente o conteúdo gerado com nossa tecnologia.

Blurred yellow text box with a warning icon at the bottom left corner.

Moderação automatizada. Nossos sistemas automatizados escaneiam o conteúdo em busca de violações de nossas políticas, bloqueando-os imediatamente ou sinalizando-os para revisão.

Moderação humana. Uma equipe crescente de moderadores revisa o conteúdo sinalizado e nos ajuda a garantir que nossas políticas sejam adotadas de forma consistente.

Vozes proibidas. Embora nossas políticas proíbam imitações, usamos uma ferramenta de segurança adicional para detectar e prevenir a criação de conteúdo com vozes consideradas de alto risco.

voiceCAPTCHA. Desenvolvemos uma tecnologia proprietária de verificação de voz para minimizar o uso não autorizado de ferramentas de clonagem de voz, garantindo que os usuários da nossa ferramenta de clonagem de voz de alta fidelidade possam clonar apenas sua própria voz.

Responsabilidade

Acreditamos que o uso indevido deve ter consequências.

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

Rastreabilidade. Quando alguém mal-intencionado usa indevidamente nossas ferramentas, queremos saber quem são. Nossos sistemas nos permitem rastrear o conteúdo gerado até as contas de origem e nossas ferramentas de clonagem de voz estão disponíveis apenas para usuários que verificaram suas contas com detalhes de cobrança.

Banimentos. Queremos que pessoas mal-intencionadas saibam que não têm lugar em nossa plataforma. Banimos permanentemente usuários que violam nossas políticas.

Parceria com autoridades. Cooperaremos com as autoridades e, em casos apropriados, relataremos ou divulgaremos informações sobre conteúdo ou atividades ilegais.

Proveniência

Acreditamos que você deve saber se o áudio é gerado por IA.

Abstract black and white wavy lines on a light background.

Classificador de Fala IA. Desenvolvemos uma ferramenta de detecção altamente precisa que mantém 99% de precisão e 80% de recall se a amostra não foi modificada e permite que qualquer pessoa verifique se um arquivo de áudio pode ter sido gerado com nossa tecnologia.

Padrões de Detecção de IA. Acreditamos que ferramentas de detecção de IA, como metadados, marcas d'água e soluções de impressão digital, são essenciais. Apoiamos a adoção generalizada de padrões da indústria para proveniência através do C2PA.

Colaboração. Convidamos outras empresas de IA, academia e formuladores de políticas a trabalharem juntos no desenvolvimento de métodos para detecção de conteúdo de IA em toda a indústria. Fazemos parte da Iniciativa de Autenticidade de Conteúdo e colaboramos com distribuidores de conteúdo e a sociedade civil para estabelecer a transparência do conteúdo de IA. Também apoiamos os esforços governamentais em segurança de IA e somos membros do Consórcio do Instituto de Segurança de IA do Instituto Nacional de Padrões e Tecnologia dos EUA (NIST).

O volume de conteúdo gerado por IA continuará crescendo. Queremos oferecer a transparência necessária, ajudando a verificar a origem do conteúdo digital.

Piotr Dąbkowski

Co-fundador da ElevenLabs

Foco especial: eleições em 2024

Metade do mundo votará em 2024. Para nos prepararmos para as eleições deste ano, estamos focados em avançar no uso seguro e justo de vozes IA.

Para facilitar esses esforços, somos signatários inaugurais do Tech Accord on Election Safety, que reúne líderes da indústria como Amazon, Google, Meta, Microsoft, OpenAI e ElevenLabs, entre outros, em um esforço conjunto para proteger as eleições globais do uso indevido de IA.

À medida que a IA se torna parte do nosso dia a dia, estamos comprometidos em desenvolver produtos confiáveis e colaborar com parceiros na criação de proteções contra seu uso indevido.

Aleksandra Pedraszewska

Segurança em IA na ElevenLabs

Leia mais sobre nossos esforços de segurança

Conformidade

Se você encontrar conteúdo que viole nossa Política de Conteúdo e Usos Proibidos e acreditar que foi criado em nossa plataforma, denuncie aqui. Usuários da UE podem nos notificar sobre conteúdo que acreditam poder constituir conteúdo ilegal (de acordo com o Artigo 16 da DSA do Ato de Serviços Digitais da UE) aqui. Também designamos um ponto de contato único para usuários da UE (de acordo com o Artigo 12 da DSA) onde eles podem nos contatar sobre outras preocupações aqui.

Como parte do nosso compromisso com a IA responsável, a ElevenLabs estabeleceu políticas de cooperação com autoridades governamentais, incluindo agências de aplicação da lei. Em casos apropriados, isso pode incluir relatar ou divulgar informações sobre conteúdo proibido, bem como responder a consultas legais de autoridades policiais e outras entidades governamentais. As autoridades policiais podem enviar consultas legais entrando em contato com nossa equipe jurídica aqui. De acordo com o Artigo 11 da DSA do Ato de Serviços Digitais da UE, as autoridades policiais na UE podem direcionar solicitações de processos legais não emergenciais para a ElevenLabs Sp. z o.o. enviando seu Pedido DSA através de um formulário aqui, que foi designado como o ponto de contato único para comunicações diretas com a Comissão Europeia, Autoridades dos Estados Membros e o Conselho Europeu de Serviços Digitais. As autoridades podem se comunicar com a Eleven Labs em inglês e polonês. Onde exigido pela lei aplicável, processos legais internacionais podem exigir submissão através de um Tratado de Assistência Jurídica Mútua.

Se você é um usuário da UE, tem seis meses para apelar de uma ação que a ElevenLabs tomou contra seu conteúdo ou conta. Se sua conta ou conteúdo foi restrito, você pode enviar sua apelação respondendo à notificação que recebeu. Se desejar apelar do resultado do seu relatório de conteúdo ilegal da DSA, use o formulário aqui

Os usuários da UE também podem entrar em contato com órgãos certificados de resolução de disputas fora do tribunal para ajudar a resolver suas disputas relacionadas a restrições de conteúdo ou conta, bem como apelações relacionadas. As decisões dos órgãos de resolução de disputas fora do tribunal não são vinculativas.
ElevenLabs

Crie com o áudio IA da mais alta qualidade