O texto abaixo é uma tradução de How digital platforms shape our lives?
Nós agora vivemos em um mundo de separação algorítmica e de tomada de decisão; plataformas de mídia social colhem os nossos dados e apresentam e obscurecem conteúdo de formas diferentes nos nossos feeds; algoritmos de recomendação são utilizados para publicidade segmentada; algoritmos de busca mostram resultados sob medida; e algoritmos de previsão podem influenciar nossas chances de conseguir um empréstimo ou moldar o quanto pagamos no seguro de saúde.
O que se esconde dentro dessas “caixas pretas”? Como elas podem ser entendidas, governadas e responsabilizadas para a prestação de contas? Estas são questões societais desafiadoras, necessitadas de um debate público urgente. Abaixo apresentamos doze cenários potenciais para a prestação de contas e governança algorítmica.
Os primeiros seis cenários se concentram no fortalecimento individual e agência sobre algoritmos e plataformas. Estes são dispostos ao longo de um continuum dos usuários finais sendo espectadores desengajados aos indivíduos que negociam com as empresas em pé de igualdade. Mover-se de cenário para cenário empurra responsabilidade algorítmica de opacidade para transparência; de desconhecimento à agência; de nenhum controle sobre como os dados são utilizados para a propriedade plena e participação nos lucros de externalidades positivas; de desconhecimento para um acordo global público sobre os valores que os algoritmos devem consagrar.
- Sobrecarregando os inconscientes
Aqui os cidadãos não têm conhecimento do que acontece com seus dados, como eles são ordenados e classificados. Não está claro como a informação com a qual eles interagem pode ser tendenciosa de maneiras diferentes. Estas assimetrias de informação são alcançadas por meio de jargão jurídico complexo nos termos de serviço, que são opacos sobre como os dados são usados. Todos os riscos e responsabilidades residem no usuário individual, que essencialmente não tem agência.
- Os usuários devem ficar atentos
Aqui Termos de Serviço envolvem divulgação em torno de partilha de terceiros, estratégias de publicidade e acesso a dados privados. Plataformas se esforçam para explicar o alcance das mensagens: o percentual de audiência de usuários que provavelmente as verão, ou como o que os usuários vêem é filtrado com base nas preferências, localização e histórico de atividades. Embora o foco seja limitar a lacuna de informação, riscos e responsabilidades ainda estão com o indivíduo, que não tem agência.
- Painel de interface
Aqui os usuários são capazes de acessar informações e tomar o controle delas, capazes de personalizar seu envolvimento com a plataforma. Eles podem concordar em compartilhar suas informações com aplicações de terceiros para certas recompensas. Esta experiência opt in / out é feita de maneira fácil de usar, permitindo aos usuários personalizar as soluções que atendem às suas necessidades individuais específicas.
- Contrato inteligente
Aqui usuário e plataforma de entram em um <contrato inteligente> concordando coletivamente sobre os direitos e responsabilidades. Estes contratos contam com um blockchain capaz de ser executado por meio de um mecanismo de disparo automático incorporado no próprio contrato. Todos as decisões opt-in / out são especificadas e podem incluir determinadas disposições em caso de quebra de contrato. Aqui usuários individuais têm agência e contam com mecanismos de proteção embutidos. Se os mecanismos de proteção são acionados, um registro público é criado detalhando o comportamento da empresa. Usuários são compensados por tais violações.
- Lucros compartilhados
Este cenário prevê um modelo de negócio no qual os usuários são incluídos como beneficiários financeiros dos lucros que seus dados geram. Este cenário pode trabalhar em conjunto com outros descritos acima, mas, essencialmente, se concentra em uma abordagem mais equitativa, centrada no usuário e inclusiva para monetização. As empresas continuam a lucrar, mas os lucros são compartilhados com os usuários que as geram.
- Acordo público de valores
Este cenário prevê um conjunto de valores acordados, gerado na sequência da discussão pública sobre o que é um comportamento aceitável por parte de plataformas, incluindo como os dados são algoritmicamente ordenados e apresentados aos usuários. Este contrato público de valores, assim, cobre o que é considerado ético, justo, bem como o que é legal.
Os próximos seis cenários se concentram em uma série de possíveis arranjos de governança e prestação de contas que variam em um continuum de governança privada para uma abordagem supranacional de múltiplas partes interessadas. O cenário que prevalece terá consequências importantes sobre o sistema regulatório e sobre o futuro de muitas indústrias voltadas para dados.
- Governança privada
As empresas decidem se mudar para os cenários #2 a # 6 como parte de sua estratégia sem serem obrigadas a fazê-lo. Plataformas decidem que elas precisam fornecer Termos de acordos de serviços mais compreensíveis ou um mecanismo, um painel de controle, por exemplo, que permita aos usuários fazerem opt-in ou out de requisitos individuais de acesso à aplicação.
- Responsáveis perante um orgão do governo nacional
Devido às implicações sociais potencialmente de longo alcance; por exemplo, algoritmos sustentando plataformas de mídia social, este cenário enfatiza que eles não podem ser tratados como caixas pretas. Um órgão nacional governo está encarregado de fazer cumprir as condições de governança. Os recursos incluem multas de incumprimento, sanções e, em última instância pode-se recorrer ao uso da força. Limitações dentro da legislação nacional são suscetíveis de gerar um impacto sobre a capacidade da empresa em contornar acordos de governança.
- Órgão de governos internacionais
Devido ao provável problema de capacidade das empresas de tecnologia para contornar acordos de governança nacionais, um órgão internacional composto por representantes dos governos nacionais é formado para impor acordos de governança algorítmica. Um esforço é feito para compilar e promover a normalização da legislação nacional que impacta os mecanismos de governança.
- Órgão supranacional de múltiplas partes interessadas
No caso dos órgãos governamentais nacionais e internacionais não estando preparados para auditar algoritmos, um órgão independente supranacional e de múltiplas partes interessadas (multi-stakeholder) é criado. Este é composto por membros individuais, coletivamente encarregados da responsabilidade de fiscalizar a ética e o impacto social dos algoritmos. Isso inclui representantes de uma ampla variedade de partes, incluindo a mídia, as universidades, órgãos de governança da Internet e hackers que auditam em cenários onde o acesso é permitido ou encontram maneiras de fazer engenharia reversa onde o acesso não é concedido.
- Algoritmos como uma utilidade pública
Quando certas plataformas de facto se tornarem a internet (por causa do grande volume de usuários que acessam a internet utilizado somente aquela plataforma), plataformas já não podem simplesmente estar a serviço de acionistas, nem serem autorizadas a operar em uma base na qual a geração máxima lucros é o objetivo fundamental. Em vez disso, como os serviços públicos, eles são em parte financiadas por impostos cobrados em nível internacional, o que resulta em uma necessidade reduzida ou completamente eliminada de monetizar os dados do usuário.
- Jornalistas como agentes de prestação de contas
Este último cenário coloca os jornalistas investigativos no centro de monitoração da prestação de contas algorítmica. Necessidades de informação pública e serviços envolvidos centralmente na prestação destes serviços são continuamente monitorados e analisados em termos dos serviços que prestam, como podem diferir entre os usuários, portanto, expondo políticas de informação potencialmente problemáticas.
Estes cenários não são um roteiro, mas são, em vez disso, voltados para incentivar o pensamento de longo alcance e gerar mais debate público. Em última análise, nós perguntamos: que esforços podem e devem ser feitos para resolver essas questões?
Autores: Pia Mancini, Director, Net Democracy, and Farida Vis, Director, Visual Social Media Lab, Faculty Research Fellow, Information School, University of Sheffield. Both are members of the World Economic Forum’s Global Agenda Council on Social Media.