A partir da Revolução Industrial, ocorrida na
Inglaterra no século XVIII, o processo de trabalho passou por importantes
transformações. Três séculos depois, com o desenvolvimento e difusão das
tecnologias da informação e comunicação (TICs), os computadores pessoais e as
redes de comunicação globais como a Internet, a humanidade é colocada à frente
de uma nova onda de transformações. E nesse cenário a informação se coloca como
centro das atenções e vira sinônimo de capital e estratégia de competição.
A
geração e a difusão da informação e do conhecimento passam a ser consideradas como
principais fontes de valor e poder no século XXI, centros das atuais mudanças
paradigmáticas, tanto do ponto de vista econômico, político e social (Castells,
1999).
A
sociedade informacional é gerenciada, em grande medida, por diversos tipos de algoritmos,
entendidos como um conjunto de instruções voltado para resolver um problema
específico e bem definido, os quais oferecem os mais diversos serviços,
mediando e influenciando ações cotidianas. Algoritmos podem ser definidos como
rotinas logicamente encadeadas que trabalham dados, assim como podem ser
compreendidos como o conjunto de instruções introduzidas em uma máquina para
resolver um problema bem definido (Introna, 2013).
Com a ajuda de algoritmos as ações cotidianas passaram
a ser “dataficadas” (transformadas em
dados) e possibilitaram aquilo que se convencionou chamar de Big Data,
isto é, a capacidade de se trabalhar com um grande volume de informação, em
velocidade e variedade consideráveis, aumentando assim a eficácia de ações
preditivas e prescritivas sobre o comportamento social, econômico ou político
de indivíduos conectados, a partir de sofisticados cruzamentos estatísticos (Mayer-Schonberger; Cukier, 2013).
As
características definidoras dos grandes dados são conhecidas como “os três V’s”[1]:
(i) volume, uma vez que a quantia de dados pessoais gerados em comunicação,
transações, publicações e engajamento on-line é quase incomensurável: (ii)
velocidade, diante da instantaneidade com que esses dados são produzidos e a
rapidez de seu processamento; e (iii) variedade, tanto da origem dos dados –
GPS, mídias sociais, aplicativos de compras etc. – quanto da estrutura destes[2].
Há quem acrescente a estes, mais dois “Vs”: (i)
veracidade da fonte dos dados, tendo em conta a qualidade, precisão e
atualidade destes; e (ii) valor dos dados no processo de tomada de decisão.
É preciso ressaltar que quando se fala de dados,
refere-se a um símbolo, uma simples observação sobre algo ou um valor atribuído
a algo – um nome, um tamanho, uma cor, uma característica – que por si só não
possui nenhum sentido. Por serem mais facilmente organizados e estruturáveis,
em uma planilha de Excel, por exemplo, eles podem ser armazenados e processados
por um computador com
maior facilidade.
As informações, por sua vez, seriam dados dotados de relevância e propósito, ou
seja, dados que foram organizados e comunicados, passando por um processo de
atribuição de sentido e servem para a tomada de decisão humana. A organização
de informações e a submissão dessas a um processo de reflexão, ponderando-se o
contexto, seria o que constrói conhecimento .
A datificação permite, portanto, usar as
informações de novas maneiras, como na construção de análise previsível a
partir de dados dispersos e aparentemente irrelevantes. Neste contexto, “As
plataformas de redes sociais não apenas nos oferecem uma maneira de encontrar e
manter contato com amigos e colegas, mas usam elementos intangíveis do
cotidiano e os transformam em dados que podem ser usados para outros fins”
(Mayer-Schonberger; Cukier, 2013, p 63).
O Facebook datifica a rede de amigos, o Google tem datificado a busca e recuperação de informações. Twitter é um datificador de notícias e de informações
em tempo real, o Linkedin, por exemplo, tem datificado
os contatos profissionais. Dessa forma, cada uma das empresas de relacionamento
busca aproveitar essa grande quantidade de dados não estruturados (big data)
para armazenar, analisar e rentabilizar a informação em torno das suas
atividades e negócios, seja no campo comercial, seja no campo político.
A coleta massiva de dados se tornou possível graças à
onipresença de aparelhos e sensores na vida cotidiana e do número crescente de
pessoa conectadas a tais tecnologias.
Trata-se de aparelhos de uso diário cada vez mais comuns, tais como
computadores, celulares do tipo smartphone, GPS, entre outros, por meio dos
quais organizamos nossas tarefas e nos relacionamos com os outros.
Em razão da complexidade, da velocidade de
processamento e da capacidade de operar com uma gigantesca massa de dados,
máquinas programadas com algoritmos estão substituindo os humanos em certas
tomadas de decisão. Estes algoritmos se inserem no contexto de “computação
autonômica”, termo cunhado para designar áreas da computação voltado para o
desenvolvimento de sistemas computacionais capazes de autogerenciamento e de
adaptação a mudanças imprevisíveis. Estes sistemas, conhecidos como aprendizado
de máquinas (machine learning), extrapolam a noção de sistemas
automáticos, que se limitam a reagir, automaticamente, a certos inputs
que são pré-programados, sendo, portanto, baseados em uma gama fixa e bem
definida de entradas e saídas.
Os sistemas autonômicos, são capazes de reagir a
alterações no ambiente, oferecendo respostas às perturbações possíveis. Tais
sistemas seguem apenas instruções básicas para processar rápida e
consistentemente os dados inseridos,
a partir dos quais eles extraem padrões,
gerando e guardando
associações.
Neste contexto, o algoritmo é treinado “em um conjunto menor de dados
(idealmente) representativos, que é chamada “de amostra de teste” e “é ‘solto’ no
conjunto completo de
dados para aprender” (Zimmerman, p.9, 2015). Assim, “esses sistemas não operam sob a lógica
de resposta única ” (ibid, p.9), mas de modo probabilístico.
Em razão disso, além de automáticos, eles são capazes
de aprender com a própria experiência e de alterar seu comportamento, a fim de
melhorar seu funcionamento. Portanto, os sistemas autonômicos são capazes de
oferecer um output adequado ao input recebido, sem necessitar de
intervenções humanas diretas, o que garante maior segurança e eficiência, além
de libertar o sujeito da obrigação de assumir todas as tarefas.
Cathy O’Neil, matemática e cientista de dados, explica
que para construir um modelo algorítmico é necessário possuir dados (o que
aconteceu no passado) e uma definição de sucesso (a finalidade almejada). O
treinamento do algoritmo seria o processo por meio do qual ele aprende a identificar
o que é associado
ao sucesso (O´Neil, p.22). Avaliando
se o sucesso foi ou não atingido, é possível fazer as adequações necessárias,
incluindo parâmetros e restrições, o que torna o modelo “dinâmico” (Ibid, p.24).
O’Neil destaca que modelos são “por natureza,
simplificações” (Ibid, p.24) e, portanto, “nenhum modelo pode incluir
toda a complexidade do mundo real.” (Ibid, p.24). Sendo assim, programadores tem que
fazer escolhas e definir prioridades no que tange os inputs a serem ou não
incluídos em determinado modelo e o peso de cada um, bem como em relação a
quais serão os dados substitutos – ou, representantes (proxies) – a
serem inseridos quando o dado de interesse não for devidamente quantificável, e
mesmo, qual será a definição de sucesso daquele modelo.
Dessa forma, a autora
ressalta que os algoritmos não são totalmente objetivos, imparciais e
científicos. Pelo contrário, eles são opiniões incorporadas em código
matemático, que refletem objetivos, ideologias, e as falhas de seus criadores (Ibid, p.26). Por essas razões, esses modelos podem
acabar se transformando em “armas de destruição matemática”, um conceito
elaborado pela autora para abarcar modelos matemáticos mal concebidos[3], podendo ser analisados em
três dimensões: opacidade, escala e dano (Ibid, p.27).
Como são considerados por muitas empresas como
essenciais a seus negócios, os algoritmos são, via de regra, protegidos por
propriedade intelectual e desenvolvidos como “caixas pretas inescrutáveis”,
sendo por isso, considerados por O´Neill como opacos. A questão da escala, por
sua vez, exige analisar se o modelo tem a capacidade de crescer
exponencialmente seu âmbito de aplicação. Por fim, o dano deve ser avaliado não
apenas a partir das consequências diretas de aplicação do modelo, como
demissões, penas mais altas ou incapacidade de conseguir crédito, mas também do
círculo vicioso (pernicious feedback loop) que o modelo cria “auxiliando
a construir um ambiente que justifica suas presunções ” (Ibid, p. 35).
A
autora extrai, assim, algumas conclusões do cenário global por ela ilustrado:
(i) as armas de destruição matemática se retroalimentam, num ciclo em que
pessoas com menos recursos são vítimas de anúncios predatórios, tem menos
probabilidade de conseguir bons créditos e seguros e, se julgadas
criminalmente, provavelmente terão uma sentença mais longa; (ii) a natureza
silenciosa desses modelos faz com que aqueles que seguem privilegiados não
percebam seu potencial destrutivo; (iii) o objetivo da maioria dos modelos não
é promover a equidade ou justiça do sistema, mas sim garantir maiores margens
de lucro para as empresas que o utilizam, de forma que eventuais prejuízos a
terceiros que não tenham influência na sociedade passam a ser ignorados; (iv)
se o processo de tomada de decisão humana pode evoluir, o mesmo não pode ser
dito da tomada de decisão algorítmica, que não tem a imaginação moral para, por
si só, inserir valores em seu código; (v) é necessário medir o impacto dos
modelos e auditar os algoritmos, estudando os outputs para descobrir as
premissas envolvidas e verificar se elas atendem parâmetros de justiça/equidade
(fainess), o que poderia ser feito por meio de engenharia reversa e
detecção de vieses.
A auditoria dos
algoritmos envolveria, inicialmente, a checagem da integridade dos dados,
seguida pela avaliação da definição de sucesso e as implicações de sua escolha,
pela análise da precisão do modelo, e pela consideração dos efeitos a longo
prazo da aplicação. Assim, no que tange a regulação, O´Neil considera que o
primeiro passo é exigir transparência e proteção de dados pessoais, processo que esbarra na opacidade dos algoritmos, que
não constrói estimativas para o futuro segundo valores e escolhas explícitas e
deliberadas.
Segundo
Zuboff (2019), o reforço da descriminação inserida em códigos algoritmo, em
nome da eficiência, segue uma lógica capitalista, vez que os dados adquiridos
das pessoas se tornaram uma nova forma de informação para o capitalismo
explorar, dando origem ao que a autora denomina de capitalismo de vigilância
(surveillance capitalismo), alterando as relações de poder.
[1] VIANNA, William Barbosa; DUTRA, Moisés Lima;
FRAZZON, Enzo Morosini. Big data e gestão da informação: modelagem do contexto decisional apoiado pela sistemografia.
Inf. Inf., Londrina, v. 21, n.1, jan./abr. 2016. p. 185-212. Disponível em http://www.uel.br/revistas/uel/index.php/informacao/article/viewFile/23327/18993.
Acesso em 24/03/2019.
[2] A estrutura dos dados pode ser de três tipos: a) dados estruturados: são armazenados em
bancos de dados, sequenciados em tabelas; b) dados semiestruturados: acompanham
padrões heterogêneos, são mais difíceis de serem identificados pois podem
seguir diversos padrões; c) dados não estruturados: são uma mistura de dados
com fontes diversificadas como imagens, áudios e documentos online.
[3] A autora apresenta e analisa, assim, inúmeros
modelos – baseados predominantemente nos Estados Unidos – apresentando seus
equívocos e consequências perniciosas. São algoritmos criados para: (i) pontuar
professores de escolas públicas municipais; (ii) calcular o risco de
reincidência de apenados; (iii) ranquear universidades; (iv) direcionar
propagandas; (v) auxiliar no policiamento; (vi) simplificar processos seletivos
em empresas; (vii) otimizar a rotina de trabalho; (viii) analisar concessão de
créditos; (ix) calcular o valor de seguros.
MAYER-SCHONBERGER;
CUKIER. Big Data: A Revolution That Will Transform How We Live, Work and
Think, Canada: Eamon Dolan/Houghton Mifflin Harcourt, 2013.
O’NEIL,
Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and
Threatens Democracy. New York: Crown, 2016. ZUBOFF, Shoshana. Big other: surveillance
capitalism and the prospects of an information civilization. Journal of
Information Technology, Palgrave Macmillan, pp.75-89, 2015.
Zimmerman, Evan, Machine Minds: Frontiers in Legal Personhood (February 12, 2015). Disponível em: https://ssrn.com/abstract=2563965
Comentários
Postar um comentário