Pular para o conteúdo principal

Política e as Tecnologias Digitais: Uma Introdução


Binária, Mãos, Teclado, Torneira, Digite, Entrada, Loja
A partir da Revolução Industrial, ocorrida na Inglaterra no século XVIII, o processo de trabalho passou por importantes transformações. Três séculos depois, com o desenvolvimento e difusão das tecnologias da informação e comunicação (TICs), os computadores pessoais e as redes de comunicação globais como a Internet, a humanidade é colocada à frente de uma nova onda de transformações. E nesse cenário a informação se coloca como centro das atenções e vira sinônimo de capital e estratégia de competição.
A geração e a difusão da informação e do conhecimento passam a ser consideradas como principais fontes de valor e poder no século XXI, centros das atuais mudanças paradigmáticas, tanto do ponto de vista econômico, político e social (Castells, 1999).
A sociedade informacional é gerenciada, em grande medida, por diversos tipos de algoritmos, entendidos como um conjunto de instruções voltado para resolver um problema específico e bem definido, os quais oferecem os mais diversos serviços, mediando e influenciando ações cotidianas. Algoritmos podem ser definidos como rotinas logicamente encadeadas que trabalham dados, assim como podem ser compreendidos como o conjunto de instruções introduzidas em uma máquina para resolver um problema bem definido (Introna, 2013).
Com a ajuda de algoritmos as ações cotidianas passaram a ser “dataficadas” (transformadas em dados) e possibilitaram aquilo que se convencionou chamar de Big Data, isto é, a capacidade de se trabalhar com um grande volume de informação, em velocidade e variedade consideráveis, aumentando assim a eficácia de ações preditivas e prescritivas sobre o comportamento social, econômico ou político de indivíduos conectados, a partir de sofisticados cruzamentos estatísticos (Mayer-Schonberger; Cukier, 2013).
 As características definidoras dos grandes dados são conhecidas como “os três V’s”[1]: (i) volume, uma vez que a quantia de dados pessoais gerados em comunicação, transações, publicações e engajamento on-line é quase incomensurável: (ii) velocidade, diante da instantaneidade com que esses dados são produzidos e a rapidez de seu processamento; e (iii) variedade, tanto da origem dos dados – GPS, mídias sociais, aplicativos de compras etc. – quanto da estrutura destes[2]. Há quem acrescente a estes, mais dois “Vs”: (i) veracidade da fonte dos dados, tendo em conta a qualidade, precisão e atualidade destes; e (ii) valor dos dados no processo de tomada de decisão.
É preciso ressaltar que quando se fala de dados, refere-se a um símbolo, uma simples observação sobre algo ou um valor atribuído a algo – um nome, um tamanho, uma cor, uma característica – que por si só não possui nenhum sentido. Por serem mais facilmente organizados e estruturáveis, em uma planilha de Excel, por exemplo, eles podem ser armazenados e processados por um computador com maior facilidade. As informações, por sua vez, seriam dados dotados de relevância e propósito, ou seja, dados que foram organizados e comunicados, passando por um processo de atribuição de sentido e servem para a tomada de decisão humana. A organização de informações e a submissão dessas a um processo de reflexão, ponderando-se o contexto, seria o que constrói conhecimento .
A datificação permite, portanto, usar as informações de novas maneiras, como na construção de análise previsível a partir de dados dispersos e aparentemente irrelevantes. Neste contexto, “As plataformas de redes sociais não apenas nos oferecem uma maneira de encontrar e manter contato com amigos e colegas, mas usam elementos intangíveis do cotidiano e os transformam em dados que podem ser usados para outros fins” (Mayer-Schonberger; Cukier, 2013, p 63).
 O Facebook datifica a rede de amigos, o Google tem datificado a busca e recuperação de informações. Twitter é um datificador de notícias e de informações em tempo real, o Linkedin, por exemplo, tem datificado os contatos profissionais. Dessa forma, cada uma das empresas de relacionamento busca aproveitar essa grande quantidade de dados não estruturados (big data) para armazenar, analisar e rentabilizar a informação em torno das suas atividades e negócios, seja no campo comercial, seja no campo político.
A coleta massiva de dados se tornou possível graças à onipresença de aparelhos e sensores na vida cotidiana e do número crescente de pessoa conectadas a tais tecnologias. Trata-se de aparelhos de uso diário cada vez mais comuns, tais como computadores, celulares do tipo smartphone, GPS, entre outros, por meio dos quais organizamos nossas tarefas e nos relacionamos com os outros.
Em razão da complexidade, da velocidade de processamento e da capacidade de operar com uma gigantesca massa de dados, máquinas programadas com algoritmos estão substituindo os humanos em certas tomadas de decisão. Estes algoritmos se inserem no contexto de “computação autonômica”, termo cunhado para designar áreas da computação voltado para o desenvolvimento de sistemas computacionais capazes de autogerenciamento e de adaptação a mudanças imprevisíveis. Estes sistemas, conhecidos como aprendizado de máquinas (machine learning), extrapolam a noção de sistemas automáticos, que se limitam a reagir, automaticamente, a certos inputs que são pré-programados, sendo, portanto, baseados em uma gama fixa e bem definida de entradas e saídas.
Os sistemas autonômicos, são capazes de reagir a alterações no ambiente, oferecendo respostas às perturbações possíveis. Tais sistemas seguem apenas instruções básicas para processar rápida e consistentemente os dados inseridos, a partir dos quais eles extraem padrões, gerando e guardando associações. Neste contexto, o algoritmo é treinado “em um conjunto menor de dados (idealmente) representativos, que é chamada “de amostra de teste” e “é ‘solto’ no conjunto completo de dados para aprender” (Zimmerman, p.9, 2015). Assim, “esses sistemas não operam sob a lógica de resposta única ” (ibid, p.9), mas de modo probabilístico.
Em razão disso, além de automáticos, eles são capazes de aprender com a própria experiência e de alterar seu comportamento, a fim de melhorar seu funcionamento. Portanto, os sistemas autonômicos são capazes de oferecer um output adequado ao input recebido, sem necessitar de intervenções humanas diretas, o que garante maior segurança e eficiência, além de libertar o sujeito da obrigação de assumir todas as tarefas.
Cathy O’Neil, matemática e cientista de dados, explica que para construir um modelo algorítmico é necessário possuir dados (o que aconteceu no passado) e uma definição de sucesso (a finalidade almejada). O treinamento do algoritmo seria o processo por meio do qual ele aprende a identificar o que é associado ao sucesso (O´Neil, p.22). Avaliando se o sucesso foi ou não atingido, é possível fazer as adequações necessárias, incluindo parâmetros e restrições, o que torna o modelo “dinâmico” (Ibid, p.24).
O’Neil destaca que modelos são “por natureza, simplificações” (Ibid, p.24) e, portanto, “nenhum modelo pode incluir toda a complexidade do mundo real.” (Ibid, p.24). Sendo assim, programadores tem que fazer escolhas e definir prioridades no que tange os inputs a serem ou não incluídos em determinado modelo e o peso de cada um, bem como em relação a quais serão os dados substitutos – ou, representantes (proxies) – a serem inseridos quando o dado de interesse não for devidamente quantificável, e mesmo, qual será a definição de sucesso daquele modelo. 
Dessa forma, a autora ressalta que os algoritmos não são totalmente objetivos, imparciais e científicos. Pelo contrário, eles são opiniões incorporadas em código matemático, que refletem objetivos, ideologias, e as falhas de seus criadores (Ibid, p.26). Por essas razões, esses modelos podem acabar se transformando em “armas de destruição matemática”, um conceito elaborado pela autora para abarcar modelos matemáticos mal concebidos[3], podendo ser analisados em três dimensões: opacidade, escala e dano (Ibid, p.27).
Como são considerados por muitas empresas como essenciais a seus negócios, os algoritmos são, via de regra, protegidos por propriedade intelectual e desenvolvidos como “caixas pretas inescrutáveis”, sendo por isso, considerados por O´Neill como opacos. A questão da escala, por sua vez, exige analisar se o modelo tem a capacidade de crescer exponencialmente seu âmbito de aplicação. Por fim, o dano deve ser avaliado não apenas a partir das consequências diretas de aplicação do modelo, como demissões, penas mais altas ou incapacidade de conseguir crédito, mas também do círculo vicioso (pernicious feedback loop) que o modelo cria “auxiliando a construir um ambiente que justifica suas presunções ” (Ibid, p. 35).
A autora extrai, assim, algumas conclusões do cenário global por ela ilustrado: (i) as armas de destruição matemática se retroalimentam, num ciclo em que pessoas com menos recursos são vítimas de anúncios predatórios, tem menos probabilidade de conseguir bons créditos e seguros e, se julgadas criminalmente, provavelmente terão uma sentença mais longa; (ii) a natureza silenciosa desses modelos faz com que aqueles que seguem privilegiados não percebam seu potencial destrutivo; (iii) o objetivo da maioria dos modelos não é promover a equidade ou justiça do sistema, mas sim garantir maiores margens de lucro para as empresas que o utilizam, de forma que eventuais prejuízos a terceiros que não tenham influência na sociedade passam a ser ignorados; (iv) se o processo de tomada de decisão humana pode evoluir, o mesmo não pode ser dito da tomada de decisão algorítmica, que não tem a imaginação moral para, por si só, inserir valores em seu código; (v) é necessário medir o impacto dos modelos e auditar os algoritmos, estudando os outputs para descobrir as premissas envolvidas e verificar se elas atendem parâmetros de justiça/equidade (fainess), o que poderia ser feito por meio de engenharia reversa e detecção de vieses.
A auditoria dos algoritmos envolveria, inicialmente, a checagem da integridade dos dados, seguida pela avaliação da definição de sucesso e as implicações de sua escolha, pela análise da precisão do modelo, e pela consideração dos efeitos a longo prazo da aplicação. Assim, no que tange a regulação, O´Neil considera que o primeiro passo é exigir transparência e proteção de dados pessoais, processo que esbarra na opacidade dos algoritmos, que não constrói estimativas para o futuro segundo valores e escolhas explícitas e deliberadas. 
Segundo Zuboff (2019), o reforço da descriminação inserida em códigos algoritmo, em nome da eficiência, segue uma lógica capitalista, vez que os dados adquiridos das pessoas se tornaram uma nova forma de informação para o capitalismo explorar, dando origem ao que a autora denomina de capitalismo de vigilância (surveillance capitalismo), alterando as relações de poder.


[1] VIANNA, William Barbosa; DUTRA, Moisés Lima; FRAZZON, Enzo Morosini. Big data e gestão da informação: modelagem do contexto decisional apoiado pela sistemografia. Inf. Inf., Londrina, v. 21, n.1, jan./abr. 2016. p. 185-212. Disponível em http://www.uel.br/revistas/uel/index.php/informacao/article/viewFile/23327/18993. Acesso em 24/03/2019.
[2] A estrutura dos dados pode ser de três tipos: a) dados estruturados: são armazenados em bancos de dados, sequenciados em tabelas; b) dados semiestruturados: acompanham padrões heterogêneos, são mais difíceis de serem identificados pois podem seguir diversos padrões; c) dados não estruturados: são uma mistura de dados com fontes diversificadas como imagens, áudios e documentos online. 
[3] A autora apresenta e analisa, assim, inúmeros modelos – baseados predominantemente nos Estados Unidos – apresentando seus equívocos e consequências perniciosas. São algoritmos criados para: (i) pontuar professores de escolas públicas municipais; (ii) calcular o risco de reincidência de apenados; (iii) ranquear universidades; (iv) direcionar propagandas; (v) auxiliar no policiamento; (vi) simplificar processos seletivos em empresas; (vii) otimizar a rotina de trabalho; (viii) analisar concessão de créditos; (ix) calcular o valor de seguros.






CASTEL, M. A sociedade em rede. São Paulo: Paz e Terra, 1999.                                    INTRONA, L. Algorithms, Governance, and Governmentality: On Governing Academic Writing. Science, Technology, & Human Values, 3 June., 2015

MAYER-SCHONBERGER; CUKIER. Big Data: A Revolution That Will Transform How We Live, Work and Think, Canada: Eamon Dolan/Houghton Mifflin Harcourt, 2013.
O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.                                                                      ZUBOFF, Shoshana. Big other: surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, Palgrave Macmillan, pp.75-89, 2015.
Zimmerman, Evan, Machine Minds: Frontiers in Legal Personhood (February 12, 2015). Disponível emhttps://ssrn.com/abstract=2563965 

Comentários

Postagens mais visitadas deste blog

Existe um temperamento próprio de cada sexo? Resenha Sexo e Temperamento - Mead

Na introdução do livro “Sexo e Temperamento”, Margaret Mead (1901-1978) discorre sobre a construção dos valores sociais, a partir das características valorizadas e desvalorizadas nas sociedades, mostrando como estas não são fixas, variando no tempo e no espaço. A autora procura mostrar que valores sociais conduzem os indivíduos a certos tipos de temperamento e à aceitação de padrões de comportamento. Para fortalecer seu argumento, Mead mostra como situações aparentemente desvinculadas podem, quando enraizados na cultura, assumir extraordinária força, como o caso dos Mundugumor, que acreditavam que uma criança que nasce com o cordão enrolado no pescoço tem maiores aptidões artísticas. Este caso, assim como outros, por serem muito diferentes da nossa cultura, vemos com distanciamento, considerando-os como frutos da imaginação. Entretanto, vemos com outros olhos quando se trata das várias diferenças entre homens e mulheres, que ainda persistem em nossa sociedade, as quais se procurou

GIDDENS: O ESTADO-NAÇÃO E A VIOLÊNCIA

Pergunta para entender o lugar da força: Noção de Estado é válida para todas as sociedades? 1.       A existência de formas político-institucionais diversas 2. Feudalismo : a descentralização dos centros de poder . Funções do Estado desagregadas ao longo da cadeia hierárquica feudal . Soberania fragmentada . Direito consuetudinário e igualitário 3.       Estado absoluto: processo de concentração de diferentes poderes e centralização do poder. . Modernização jurídica: direito romano, lei passa a ter aplicação universal (exceto ao soberano) . Tributação regular e organização das finanças do Estado . Início da separação público x privado . “No Estado absolutista, o processo político deixou de ser primordialmente estruturado pela contínua e legítima tensão e colaboração entre dois centros independentes de autoridade, o governante e as cortes; agora desenvolve-se exclusivamente a partir do governante e em torno deste” (Poggi, livro: a evolução do estado moderno).

A PATRÍSTICA E A ESCOLÁSTICA

Apostila Parte 1: http://www.scribd.com/doc/71646281/Scan-Doc0040 (Livro "Fundamentos da Filosofia" digitalizado); Apostila Parte 3:  http://www.scribd.com/doc/73691190/Scan-Doc0042 (Livro "Fundamentos da Filosofia" digitalizado); Apostila Parte 2: COTRIM, Gilberto. Fundamentos da filosofia . 16 ed. São Paulo: Saraiva, 2006. REALE, G; ANTISSERI, D. História da filosofia : patrística e escolástica. v.2. 2 ed. São Paulo: Paulus, 2005. 1. O PENSAMENTO CRISTÃO: A PATRÍSTICA E A ESCOLÁSTICA "Quem não se ilumina com o esplendor de todas as coisas criadas, é cego. Quem não desperta com tantos clamores, é surdo. Quem, com todas essas coisas, não se põe a louvar a Deus, é mudo. Quem, a partir de indícios tão evidentes, não volta a mente para o primeiro princípio, é tolo" (São Boaventura). A queda do Império Romano foi causada por uma série de problemas internos que fragilizaram o Império e o colocaram à disposição de invasões de outros po