Sim, seus dados são usados para vender sapatos. Mas também pode ser usado para vender uma ideologia.

Quando digo às pessoas que escrevo sobre privacidade de dados, geralmente recebo algo da seguinte forma dessas duas respostas:

“O Facebook está me ouvindo? Recebi um anúncio de comida de papagaio, e a única explicação possível é que o Facebook ouviu meu amigo me contar sobre seu novo papagaio de estimação, porque ele mencionou essa marca exata, da qual eu nunca ouvi falar antes.”
(Não, o Facebook não está. – inglês)

Aqui está o outra:
“Tenho certeza de que isso é importante para alguém, mas não tenho nada a esconder. Por que eu deveria me preocupar com a privacidade dos dados?”
Uma tonelada de dados pessoais e granulares é coletada sobre nós todos os dias através de nossos telefones, computadores, carros, casas, televisores, alto-falantes inteligentes — qualquer coisa que esteja conectada à Internet, basicamente, bem como coisas que não estão, como compras com cartão de crédito e até mesmo as informações na sua carteira de motorista. Não temos muito controle sobre grande parte dessa coleta de dados e, muitas vezes, não percebemos quando ou como ela é usada. Isso inclui como ele pode ser usado para nos influenciar.

Talvez isso assuma a forma de um anúncio para comprar comida de papagaio. Mas também pode assumir a forma de uma recomendação para assistir a um vídeo no YouTube sobre como líderes mundiais globalistas e estrelas de Hollywood estão administrando um anel pedófilo que apenas o presidente Trump pode parar.

“Plataformas de Internet como o YouTube usam IA (Inteligência Artificial) que fornecem recomendações personalizadas com base em milhares de pontos de dados que coletam sobre nós”, disse Brandi Geurkink, uma ativista sênior da Mozilla Foundation que está pesquisando o mecanismo de recomendações do YouTube, à Recode.

Entre esses pontos de dados está o seu comportamento em outros produtos da empresa-mãe do YouTube, Google, como seus hábitos de navegação no Chrome. E é o seu comportamento no próprio YouTube: onde você rola uma página para baixo, em quais vídeos você clica, o que está nesses vídeos, quanto deles você assiste. Isso tudo é registrado e usado para informar recomendações cada vez mais personalizadas para você, que podem ser veiculadas através da reprodução automática (ativada por padrão) antes que você possa clicar.

Ela acrescentou: “Essa IA é otimizada para mantê-lo na plataforma para que você continue assistindo anúncios e o YouTube continue ganhando dinheiro. Ele não foi projetado para otimizar para o seu bem-estar ou ‘satisfação’, apesar do que o YouTube afirma. Como resultado, a pesquisa demonstrou como esse sistema pode dar às pessoas sua própria experiência privada e viciante que pode facilmente ficar cheia de teorias da conspiração, desinformação em saúde e desinformação política. ”

O dano do mundo real que isso pode causar ficou bastante claro em 6 de janeiro, quando centenas de pessoas invadiram o prédio do Capitólio para tentar derrubar a certificação de uma eleição que estavam convencidas, infundadamente, de que Trump venceu. Essa ilusão em massa foi alimentada por sites que, pesquisas mostraram, promovem e amplificam teorias da conspiração e desinformação eleitoral.

“Os sistemas algorítmicos de amplificação e recomendação que as plataformas empregam espalham conteúdo que é evocativo sobre o que é verdade,” Rep. Anna Eshoo (D-CA) disse em um comunicado recente. “Os danos horríveis à nossa democracia causados em 6 de janeiro demonstraram como essas plataformas de mídia social desempenharam um papel na radicalização e encorajamento de terroristas a atacar nosso Capitólio. Essas empresas americanas devem repensar fundamentalmente os sistemas algorítmicos que estão em desacordo com a democracia.”

Se os dados pessoais estão sendo usados para promover a divisão, os consumidores têm o direito de saber.

Durante anos, Facebook, Twitter, YouTube e outras plataformas empurraram conteúdo para seus usuários que seus algoritmos dizem que esses usuários vão querer ver, com base nos dados que eles têm sobre seus usuários. Os vídeos que você assiste, as postagens do Facebook e as pessoas com quem você interage, os tweets aos quais você responde, sua localização — isso ajuda a construir um perfil seu, que os algoritmos dessas plataformas usam para exibir ainda mais vídeos, postagens e tweets para interagir, canais para se inscrever, grupos para participar e tópicos a seguir. Você não está procurando por esse conteúdo; ele está procurando por você.

Isso é bom para os usuários quando os ajuda a encontrar conteúdo inofensivo em que já estão interessados, e para as plataformas, porque esses usuários passam mais tempo com eles. Não é bom para usuários que são radicalizados por conteúdo prejudicial, mas isso ainda é bom para plataformas porque esses usuários passam mais tempo com eles. É o modelo de negócio deles, tem sido muito lucrativo, e eles não têm vontade de mudá-lo — nem são obrigados a mudar.

“As plataformas digitais não devem ser fóruns para semear o caos e espalhar desinformação”, diz o Sen. Amy Klobuchar (D-MN), uma crítica frequente da Big Tech, disse à Recode. “Estudos mostraram como os algoritmos de mídia social empurram os usuários em direção a conteúdo polarizado, permitindo que as empresas capitalizem na divisão. Se os dados pessoais estão sendo usados para promover a divisão, os consumidores têm o direito de saber.”

Mas esse direito não é legal. Não existe uma lei federal de privacidade de dados (não é o caso do Brasil, pois temos a LGPD), e as plataformas são notoriamente opacas sobre como seus algoritmos de recomendação funcionam, mesmo que se tornem cada vez mais transparentes sobre quais dados do usuário coletam e tenham dado aos usuários algum controle sobre eles. Mas essas empresas também lutaram contra tentativas de parar de rastrear quando não está em seus próprios termos, ou não agiram de acordo com suas próprias políticas proibindo-o.

Ao longo dos anos, os legisladores introduziram projetos de lei que abordam algoritmos de recomendação, nenhum dos quais foi a lugar nenhum. Rep. Louis Gohmert (R-TX) tentou remover as proteções da Seção 230 de empresas de mídia social que usaram algoritmos para recomendar (ou suprimir) conteúdo com sua “Lei de Dissuasão de Algoritmos Anciosos”.

Um grupo bipartidário de senadores criou a “Lei de Transparência de Bolha de Filtro”, que forçaria as plataformas a dar aos usuários “a opção de se envolver com uma plataforma sem serem manipulados por algoritmos conduzidos por dados específicos do usuário”. Enquanto isso, Reps. Eshoo e Tom Malinowski (D-NJ) planejam reintroduzir sua “Lei de Proteção aos Americanos de Algoritmos Perigosos”, que removeria as proteções da Seção 230 de plataformas que amplificam conteúdo de ódio ou extremista.

Por sua vez, as plataformas têm feito esforços para conter alguns conteúdos extremistas e desinformação. Mas isso só veio depois de anos permitindo que fosse amplamente descontrolado — e lucrando com isso — e com resultados mistos.

Essas medidas também são reativas e limitadas; elas não fazem nada para impedir ou conter qualquer desenvolvimento de teorias da conspiração ou campanhas de desinformação.

Algoritmos aparentemente não são tão bons em erradicar conteúdo prejudicial quanto em espalhá-lo. (Facebook e YouTube não responderam ao pedido de comentário.)

É praticamente impossível impedir que as empresas coletem dados sobre você — mesmo que você não use os serviços delas, elas ainda têm seus caminhos.

Mas você pode pelo menos limitar como os algoritmos o usam contra você. O Twitter e o Facebook oferecem opções cronológicas reversas, onde tweets e postagens de pessoas que você segue aparecem na ordem em que são adicionadas, em vez de priorizar o conteúdo e as pessoas em quem elas acham que você está mais interessado. O YouTube tem um “modo anônimo” que diz que não usará seu histórico de pesquisa e visualização para recomendar vídeos. Há também mais navegadores privados para limitar a coleta de dados e impedir que sites o vinculem às suas visitas ou dados anteriores. Ou você pode simplesmente parar de usar esses serviços inteiramente.

E, mesmo em algoritmos, há agência. Só porque uma teoria da conspiração ou desinformação entra em sua linha do tempo ou vídeos sugeridos não significa que você precisa ler ou assistir, ou que você acreditará automaticamente e imediatamente neles se o fizer.

As conspirações podem ser muito mais fáceis de encontrar (mesmo quando você não estava procurando por elas); você ainda escolhe se deve ou não seguir o caminho que elas lhe mostram. Mas esse caminho nem sempre é óbvio. Você pode pensar que QAnon é estúpido, mas compartilhará o conteúdo #SaveTheChildren. Você pode não acreditar em QAnon, mas votará em um membro do Congresso que acredite. Você pode não cair na toca do coelho, mas seus amigos e familiares cairão.

Ou talvez um algoritmo recomende a coisa errada quando você estiver mais desesperado e suscetível. Você nunca, nunca será tão vulnerável? O Facebook e o YouTube sabem a resposta para isso melhor do que você, e estão dispostos e capazes de explorá-lo. Você pode ter mais a esconder do que pensa.


Fonte: VOX – Por Sara Morrison 



Gustavo Saez