Cindy Cohn está deixando a EFF, mas não a luta pelos direitos digitais

Após um quarto de século defendendo os direitos digitais, Cindy Cohn anunciou na terça-feira que deixará o cargo de diretora executiva da Electronic Frontier Foundation. Cohn, que lidera a organização sem fins lucrativos sediada em São Francisco desde 2015, afirma que deixará o cargo ainda este ano, concluindo um capítulo que ajudou a definir a luta moderna pela liberdade online.
Cohn ganhou destaque como advogada principal no caso Bernstein v. Department of Justice , o caso da década de 1990 que anulou as restrições federais à publicação de códigos de criptografia. Como diretora jurídica e, posteriormente, diretora executiva da EFF, ela orientou o grupo em processos judiciais contra a vigilância governamental , reformas nas leis de crimes cibernéticos e esforços para responsabilizar as empresas pela coleta de dados. Na última década, a EFF expandiu sua influência, tornando-se uma força central na formação do debate sobre privacidade, segurança e liberdade digital.
Em entrevista à WIRED, Cohn refletiu sobre as vitórias fundamentais da EFF em criptografia, suas batalhas inacabadas contra a vigilância da Agência de Segurança Nacional (NSA) e o trabalho da organização na proteção de pesquisadores independentes de segurança. Ela falou sobre a mudança no equilíbrio de poder entre corporações e governos, a pressão por leis de privacidade mais rigorosas em nível estadual e os riscos crescentes representados pela inteligência artificial.
Apesar de ter deixado a liderança, Cohn disse à WIRED que planeja permanecer ativa na luta contra a vigilância em massa e o sigilo governamental. Descrevendo-se como "mais uma guerreira do que uma gestora", ela afirma que sua intenção é retornar à linha de frente da advocacia. Ela também está trabalhando em um livro, "Privacy's Defender" , com lançamento previsto para a próxima primavera (no hemisfério norte), que ela espera inspirar uma nova geração de defensores dos direitos digitais.
Esta entrevista foi editada para maior clareza e extensão.
WIRED: Conte-nos sobre as lutas que você venceu e aquelas que ainda parecem inacabadas depois de 25 anos.
CINDY COHN : A luta inicial que travamos para liberar a criptografia da regulamentação governamental ainda se destaca por preparar o cenário para uma internet potencialmente segura. Ainda estamos trabalhando para transformar essa promessa em realidade, mas estamos em uma posição muito diferente da que estaríamos se tivéssemos perdido a luta. A criptografia protege qualquer pessoa que compre algo online, qualquer pessoa que use o Signal para denunciar irregularidades ou jornalistas, ou apenas pessoas comuns que desejam privacidade e usam o WhatsApp ou o Signal . Até mesmo as autoridades de certificação de backend fornecidas pela Let's Encrypt — que garantem que, quando você pensa que está indo ao seu banco, na verdade está indo ao site do seu banco — são todas possíveis graças à criptografia. Tudo isso estaria em risco se não tivéssemos vencido a luta. Acho que essa vitória foi fundamental, mesmo que as lutas não tenham terminado.
As disputas que travamos em torno da NSA e da segurança nacional ainda estão em andamento. Não obtivemos sucesso em nossa grande contestação à espionagem da NSA no caso Jewel v. NSA , embora, ao longo do processo e das disputas legislativas que o acompanharam, tenhamos conseguido recuperar boa parte do que a NSA começou a fazer depois do 11 de Setembro.
Mas é um assunto inacabado. Uma questão relacionada é o uso indevido, pelo governo, de justificativas de segurança nacional para violar os direitos das pessoas, incluindo sua privacidade. Acho especialmente importante agora que façamos algo sobre o uso indevido de argumentos de segurança nacional e sigilo, porque, nas mãos do governo Trump, isso se tornou uma ferramenta multiuso para perseguir inimigos políticos, violar os direitos das pessoas e fazer tantas outras coisas sobre as quais temos alertado há anos.
Outra coisa que realmente conquistamos na EFF, e que às vezes é negligenciada, é o trabalho que chamamos de "direitos dos programadores", especialmente a proteção de pessoas que realizam pesquisas independentes de segurança. No meu primeiro ano na EFF, o FBI prendeu alguém na Defcon por ter a audácia de revelar que a segurança de um de seus produtos da Adobe era péssima — o sujeito era Dmitry Sklyarov. Prisões drásticas de pesquisadores de segurança não acontecem mais, felizmente. Vimos o mundo do software realmente evoluir nesse sentido. Agora, as empresas têm programas de recompensa por bugs para recompensar pesquisadores independentes de segurança. E empresas como a Microsoft percorreram um longo caminho na dedicação à segurança e no apoio à pesquisa em segurança. Embora ainda tenhamos que ocasionalmente defender alguém que revela falhas de segurança com mais frequência fora das áreas tradicionais de desenvolvimento de software, como segurança em carros ou dispositivos médicos, acabamos de passar por outra Defcon em que não tivemos que tirar ninguém da prisão ou contestar uma ordem de silêncio, e isso é motivo de comemoração.
As empresas de tecnologia frequentemente afirmam levar a privacidade a sério, mesmo com muitas expandindo modelos de negócios baseados em vigilância. Nesse ponto, quem representa o maior risco à privacidade pessoal: agências governamentais ou empresas?
Uma coisa que aprendi na EFF é que não existe uma linha tênue entre os dois. A espionagem da NSA de que falamos era a NSA usando as empresas de telecomunicações, internet e comunicações para nos espionar.
Estamos vendo muito mais ceticismo em relação às promessas das empresas de que "levam nossa privacidade a sério". O que me vem à mente agora é o maior veredito de júri da história que aconteceu aqui em São Francisco em uma questão de privacidade envolvendo o Google. Isso mostra que as pessoas estão bastante cansadas e realmente não acreditam que as empresas tenham os seus melhores interesses em mente. E isso nem sempre foi verdade.
As empresas também se voltaram contra a nossa privacidade ao longo do tempo. Gosto de lembrar que o Facebook se lançou como a rede social que protegia a privacidade, quando isso realmente era verdade. Depois, com o tempo, eles desintegraram essa proteção.
Não há dúvida de que precisamos de uma lei nacional abrangente sobre privacidade, que tenha força e capacite as pessoas a proteger sua privacidade por meio de medidas como o direito privado de ação. Isso não parece muito próximo no momento. O que estamos vendo são algumas leis estaduais que estão se aproximando, e está cada vez mais fácil aprová-las, porque proteger a privacidade das pessoas é muito popular.
Com o Congresso perpetuamente paralisado nessa questão, a EFF tem se esforçado mais nos níveis estadual e local. Essa mudança produziu resultados significativos ou vocês estão apenas preenchendo uma lacuna até que uma ação federal seja possível?
Há alguns anos, avaliamos que, em nível federal, o Congresso está falido por motivos muito maiores do que questões de direitos digitais. Embora a comunidade de direitos digitais ainda seja muito boa em impedir ações ruins em nível federal — não o tempo todo, mas podemos fazer isso como com o FOSTA/SESTA e a recente tentativa de impedir qualquer legislação sobre IA —, é muito difícil construir coisas boas no Congresso. Então, sim, decidimos que iríamos nos aprofundar e desenvolver nossa expertise nos estados, e começamos pela Califórnia porque é onde estamos e também onde grande parte da indústria de tecnologia está. Se uma boa lei for aprovada na Califórnia, ela pode ter um impacto mais amplo do que em outros lugares.
Temos tido bastante sucesso em aprovar projetos e impedir muitas ideias ruins, mais recentemente em torno da IA. Há algumas questões pendentes na legislatura da Califórnia que parecem muito boas, e espero que aprovem o projeto de lei "1337" .
Além disso, a vigilância em massa agora está acontecendo em nível local, o que não acontecia há alguns anos. Fizemos parcerias com grupos locais para tentar criar controle local e mais responsabilização. Por exemplo, no ano passado, apoiamos grupos em Austin e Denver. O trabalho em todo o estado é ótimo, mas também estamos tentando realmente fazer parcerias com grupos locais em nível comunitário, porque esse tipo de vigilância em massa está chegando muito rápido a eles e eles estão nos perguntando: "O que fazemos com esses leitores automatizados de placas? O que fazemos com a espionagem em massa? O que fazemos com as câmeras do Ring e os impactos que elas têm nas comunidades quando a polícia tem acesso a elas?"
Muitas dessas questões acabam sendo hiperlocais, e tentamos ser estratégicos. Buscamos proteger as pessoas onde for possível.
A EFF serviu como uma das maiores pontes entre tecnólogos, ativistas e advogados nos EUA. O que esse modelo revelou sobre a construção de coalizões que os observadores de fora muitas vezes ignoram?
Bem, temos esse tipo de coalizão se formando dentro da EFF porque somos formados por advogados, ativistas e tecnólogos. Para a maioria das questões em que trabalhamos, seja a proteção de crianças, a vigilância de rua ou a NSA, temos grupos de trabalho internos com representantes de cada uma das equipes. Acho que esse tem sido realmente o nosso superpoder. Tentamos conectar isso também no trabalho de coalizão que fazemos com outros grupos.
Contratamos o primeiro tecnólogo da EFF e agora temos uma equipe inteira. Acho que 12 ou 13 pessoas na equipe. Fomos realmente a primeira organização a ter expertise tecnológica interna para nos orientar sobre o que estamos fazendo. E isso nos ajuda de algumas maneiras. Uma delas é que é sagrado na EFF que, quando avaliamos o impacto de uma tecnologia nos direitos das pessoas, estejamos certos sobre como a tecnologia funciona. Essa é a principal função dos "tecnólogos de interesse público" da equipe, que agora chamamos de equipe do PIT.
Acho também que isso nos dá muito poder quando comparecemos em Washington, D.C., no Parlamento Europeu ou nas legislaturas estaduais. As pessoas com quem conversamos, quer concordem conosco ou não, sabem que, quando lhes dizemos como a tecnologia funciona, estamos falando diretamente e não as enganando.
O mesmo se aplica aos tribunais. Principalmente nos primeiros tempos, escrevemos muitos memoriais que, por exemplo, explicavam como o compartilhamento de arquivos peer-to-peer realmente funciona. Sempre defendemos uma posição, mas também dedicamos tempo para explicar a tecnologia, porque queremos que os tribunais sejam suficientemente informados para decidir corretamente.
Isso é verdade no legislativo e é verdade para o público. Acho que ter a equipe do PIT internamente — juntamente com os muitos cientistas da computação e acadêmicos que dedicam tempo para conversar conosco — garantiu que estejamos sempre certos em relação à tecnologia.
Estar certo sobre como a tecnologia funciona também significa que somos confiáveis por parte de pessoas que trabalham com tecnologia, que podem facilmente ignorar críticas baseadas em uma compreensão equivocada de como a tecnologia funciona. Tentamos nunca ser essas pessoas. Queremos vir de um lugar de profundo conhecimento.
O outro lado disso é garantir que os tecnólogos realmente entendam como a lei funciona. A ponte também funciona dessa forma. Por exemplo, queremos que as pessoas que estão desenvolvendo tecnologias que podem enfrentar solicitações de informações da polícia entendam a diferença entre um mandado, uma ordem judicial e uma intimação, e por que isso seria importante em termos de direitos das pessoas. Há muito mais pessoas com formação cruzada entre direito e tecnologia agora do que quando começamos na década de 1990, mas ter ambos os conjuntos de especialistas opinando sobre as questões realmente nos torna mais fortes. E, claro, nossa equipe de ativismo não apenas leva a conversa adiante com o público, mas também garante que nem os técnicos nem os advogados aborreçam todo mundo com a forma como explicamos as coisas.
Tribunais e legisladores frequentemente recorrem a metáforas desajeitadas ou enganosas para descrever a tecnologia. Vi um promotor comparar alguém que postou dados vazados online a uma pessoa que roubou um carro já roubado. Você tem algum exemplo favorito disso?
Isso é hilário.
A primeira coisa que me vem à mente não é uma metáfora tecnológica, mas sim "propriedade intelectual", porque configura tudo como se houvesse um problema de escassez quando não há. Se alguém vier e roubar sua vaca, você não a terá mais. Se alguém vier e fizer uma cópia do seu livro, você ainda terá o livro. Thomas Jefferson disse: "Aquele que recebe uma ideia minha, recebe instrução para si mesmo sem diminuir a minha; assim como aquele que acende sua vela na minha, recebe luz sem me escurecer." Essa é uma metáfora melhor para como a lei deveria funcionar na era digital.
Tenho muito orgulho de a EFF ter reconhecido a importância de se obter direitos autorais, patentes e marcas registradas corretamente para a saúde da internet aberta. E uma das coisas que me deixa louco são essas metáforas de "roubo" e "propriedade".
A criptografia de ponta a ponta continua sendo um ponto crítico. Onde você vê as ameaças mais imediatas hoje — e qual o seu nível de preocupação com a possibilidade de backdoors serem introduzidos sem o escrutínio público?
É uma questão extremamente importante. Já é bastante difícil, em outros tempos, fazer com que as empresas instalem criptografia de ponta a ponta nas ferramentas que nos oferecem, porque isso pode interferir no modelo de negócios de vigilância. Mas acho que mesmo as pessoas que não se preocupavam com a vigilância corporativa deveriam estar mais preocupadas agora, com o governo assumindo diretamente participações em algumas dessas empresas.
Lembro-me das coisas que aprendemos com as revelações de Snowden, especialmente os esforços da NSA, até mesmo no nível dos chips, para enfraquecer a segurança a fim de tentar garantir que eles sempre teriam acesso a tudo o que as pessoas diziam ou faziam usando a tecnologia.
Qualquer pessoa que pense nisso por 10 segundos entende que não se pode construir uma porta dos fundos em sistemas que só os mocinhos podem usar. Sempre que você torna um sistema inseguro para que os mocinhos tenham acesso, seja chamando isso de "acesso legal" ou qualquer outro nome, os bandidos vão usá-lo.
E por falar em metáforas, costumo dizer sobre criptografia que o governo costuma usar o espaço digital como uma cortina de fumaça para esconder o que está realmente fazendo com a nossa segurança quando ataca a criptografia. Se a polícia aparecesse na sua porta e dissesse: "Olha, temos um problema porque você pode ser um ladrão, então queremos que você deixe a porta dos fundos aberta para que possamos verificar e garantir que você não é um ladrão na próxima vez que houver uma invasão em algum lugar", a maioria das pessoas diria: "Isso é loucura e vai me deixar menos seguro, não só de você, mas também de bandidos". No entanto, é isso que vemos repetidamente nessas conversas sobre criptografia — as autoridades alegando que precisamos enfraquecer a segurança e alegando que isso nos tornará mais seguros. Não vai.
Uma coisa que mais me preocupa neste momento é que talvez nem estejamos mais tendo essas conversas em público. Com as empresas de tecnologia tão alinhadas com o governo Trump neste momento, essas infiltrações podem acontecer sem que tenhamos a chance de discutir publicamente se são uma boa ideia. Isso não seria inédito para a NSA.
Quais riscos você vê se repetindo dos booms tecnológicos do passado hoje, à medida que os sistemas de inteligência artificial estão se tornando mais incorporados à vida diária, e quais ameaças exigem atenção imediata?
Já vi duas coisas antes. Uma é essa propaganda insana, como se a IA fosse resolver todos os problemas. Essa ideia não é verdade. Mas o inverso também não é: a ideia de que a IA tornará tudo uma porcaria em todas as dimensões.
Precisamos ser sensatos sobre onde é útil e onde não é. Muitas vezes, quando as pessoas falam em IA, estão se referindo a grandes modelos de linguagem, mas há muitas áreas onde o aprendizado de máquina ou a IA podem ser usadas. É importante entendermos melhor como essas coisas falham. Porque elas não falham da mesma forma que as pessoas falham. E se não conhecemos a verdade fundamental de uma situação, não podemos nem mesmo avaliar se o sistema está falhando ou mentindo para nós. Essa é a minha preocupação com o "policiamento preditivo" e outras tentativas de usar sistemas de IA para prever o comportamento humano futuro, especialmente no contexto da aplicação da lei ou de decisões governamentais, como a de tirar uma criança de casa.
Não acho que tenhamos uma boa intuição sobre como e quando a IA falha, o que significa que não podemos construir o tipo de proteção que precisamos.
Sabemos, por exemplo, que juízes humanos se cansam à tarde e que suas decisões de sentença mudam como resultado disso de maneiras bastante previsíveis e monitoradas. A IA não tem esse problema. Ela nunca se cansa. Mas se uma IA estiver decidindo se você recebe fiança ou não, ela terá outras vulnerabilidades. Sabemos de algumas delas, com base em seu treinamento, que ela terá vieses que impedem que as pessoas sejam julgadas por seus méritos individuais. Sabemos bastante sobre isso neste momento, mas este é apenas um exemplo. Ainda não sabemos todas as maneiras pelas quais esses sistemas falharão, então é perigoso confiar neles para decisões importantes.
Outro ponto importante com a IA é que as decisões judiciais estão começando a sair, e a primeira delas se baseia em direitos autorais, o que não é um bom instrumento jurídico para lidar com problemas relacionados à IA. É uma pena que seja o primeiro, porque acho que isso obscurece as coisas. A lei de direitos autorais não foi projetada para ser aplicada ao contexto de treinamento de IAs — em geral, esse processo de treinamento deve ser de uso justo. E, no geral, os direitos autorais são um instrumento muito contundente, com danos estatutários e outras questões que não são adequadas para os problemas que a IA pode causar.
Para os defensores mais jovens que estão entrando nesse espaço — onde a vigilância é generalizada e as proteções de privacidade são escassas — qual é o argumento para permanecer na luta?
Organizações como a EFF foram feitas para este momento. Se tudo estivesse magicamente indo bem, os governos fossem excelentes e benevolentes e as empresas estivessem fazendo a coisa certa, não precisaríamos de uma sociedade civil digital ou de uma organização repleta de advogados, tecnólogos e ativistas briguentos. Precisamos da EFF, mas, mais do que isso, precisamos de uma sociedade civil digital robusta para tentar manter a linha hoje e tentar melhorar as coisas amanhã. Com a clara queda para a tirania, e a tecnologia tão central nessa queda, precisamos da sociedade digital mais do que nunca.
Então, a primeira coisa que eu diria a alguém que estivesse pensando em se tornar um defensor dos direitos digitais é: precisamos de você. Somos tão poucos em comparação com o tamanho e a complexidade dos problemas que estamos tentando resolver. Tive o privilégio de crescer em uma época em que muitas pessoas não entendiam de tecnologia e ela não estava nas mãos de muitas pessoas. Então, embora as lutas fossem importantes, elas eram mais sobre lançar as bases para o futuro. Não vencemos todas, embora tenhamos vencido muitas e ajudado a impulsionar o progresso de muitas outras pessoas.
Mas, independentemente disso, estamos no futuro agora. Há muito mais dinheiro em jogo, muito mais envolvimento governamental e muito mais atenção pública e dependência de ferramentas digitais. Então, de certa forma, é mais difícil, mas também mais importante, tentar construir um futuro digital melhor.
Acho que é fácil olhar para o que está em jogo e para o que enfrentamos e ficar desanimado. Mas podemos perder agora ou lutar e talvez perder mais tarde. Estou do lado da luta e da defesa daquilo em que acreditamos. Não vai dar certo magicamente, e nunca deu certo magicamente. Se os fundadores da EFF tivessem pensado nisso, não teriam criado a organização e contratado advogados como eu.
Está mais claro do que nunca que as pessoas precisam defender a liberdade, a justiça e a inovação para todas as pessoas do mundo, que é a missão da EFF.
Mas outra coisa que eu diria é que é muito divertido estar do lado dos justos. Você trabalha com pessoas realmente boas, inteligentes e hilárias. Costumo dizer que as pessoas que trabalham por um mundo melhor dão festas melhores, e essa tem sido minha experiência há 25 anos e continua crescendo.
Obviamente a última pergunta é: O que vem a seguir?
Ainda não sei. Eu queria muito preparar a EFF para o sucesso e garantir que ela pudesse decolar sem mim, então não gastei muita energia pensando nos meus próximos passos. Eu diria algumas coisas. Embora seja uma honra ser diretor executivo da EFF, nunca foi o emprego dos meus sonhos. Sou mais um guerreiro e um lutador, então estou procurando uma maneira de entrar mais diretamente na luta do que eu conseguiria com esta função. É maravilhoso, mas quando você é responsável por cuidar e alimentar 125 pessoas, você gasta muito tempo com RH, orçamentos e outras coisas que são muito, muito importantes, mas não são a parte que me alimenta.
Quero voltar à luta, e não sei exatamente como isso vai se concretizar. Continuo apaixonado por combater a vigilância governamental desnecessária, a vigilância em massa e o sigilo. Continuo interessado em lutar quando argumentos de segurança nacional são usados como pretexto para minar a privacidade e a liberdade de expressão das pessoas e prejudicar o devido processo legal.
Acredito que, depois de 25 anos, chegou a hora de outras pessoas terem a chance de liderar a EFF. Mas ainda não terminei. Quero continuar na luta.
wired