MENU



PET-REL

por Camille Bionda P. Mendes 

 

“A tecnologia é amoral” - comentou Bill Gates em uma entrevista para a Superinteressante no ano de 2016 - “Cabe a nós pensar longamente sobre as novas tecnologias e como elas devem ou não ser usadas.” (GARATTONI, 2016). Essa reflexão denota um pressuposto de que os algoritmos, os quais são linhas de códigos com complicadas operações matemáticas, que buscam a resolução de problemas e implementam as novas tecnologias, não possuem moral. Porém, os softwares estão cada vez mais presentes na vida cotidiana dos seres humanos em todo globo e são criados por desenvolvedores que possuem bagagem cultural de uma sociedade de opressões e de estratificações pautada na desigualdade (MELLO, 2021). 

 

Os sistemas que utilizam da inteligência artificial fazem parte da Quarta Revolução Industrial do mundo contemporâneo, nesse viés é inevitável não mencionar os interessantes benefícios que esse tipo de tecnologia pode trazer. Porém, os usos que serão questionados nesta análise estão relacionados às violações dos direitos humanos, que compreendem os mecanismos de decisões judiciais, a discriminação, como racismo, LGBTfobia e sexismo, além do controle de dados e da invasão da privacidade, relacionando ao fenômeno da crise da democracia no cenário contemporâneo (VALENTE, 2020). Ademais, será feito um apanhado de algumas medidas tomadas nesta última década frente a essas problemáticas que assolam diversas nações, como os maiores centros econômicos mundiais do norte global, a exemplo da União Europeia e dos Estados Unidos e será mencionado, em especial, o Brasil.

 

A inteligência artificial e o machine learning

 

Dado o exposto, para Marvin Minsky (1927-2016), um cientista cognitivo norte-americano, “Inteligência Artificial é a ciência de fazer com que máquinas façam coisas que exigiriam inteligência se feitas pelo homem" (apud. OLIVEIRA, 1990). Isso significa que a IA é uma tentativa de tornar as máquinas capazes de solucionarem problemas e executarem ações de forma autônoma. Nesse sentido, as soluções que exigem inteligência artificial podem ocorrer de duas formas: com algoritmos previsíveis, com instruções bem definidas ou com algoritmos de machine learning em que as máquinas recebem o banco de dados  e constroem resultados de pouca previsibilidade, já que após a coleta dessas informações o eletrônico passa para um processo autônomo de decisões e análises de acordo com o seu fim (MONARD; BARANAUSKAS, 2003, p. 89).

 

Dessa maneira, para que ocorra a machine learning são utilizados dados para treinar os algoritmos. Tais dados são denominados dataset, o qual segundo o dicionário da universidade de Cambridge significa “uma coleção de conjuntos separados de informações que são tratados como uma única unidade por computador” (DATASET, s.d.). Esse, por sua vez, pode apresentar data bias, os quais são erros induzidos pela priorização de alguns elementos do dataset. A indução desses erros pode acarretar no atendimento de uma determinada população em detrimento de outra, como os racial bias e, ainda, association bias, os quais podem reforçar estereótipos culturais. Esses equívocos geram uma análise de dados autônoma baseada no preconceito, injustiças históricas, exclusão de um grupo para com as tecnologias, além de uma super generalização sobre interações humanas, entre outros (7 TYPES, 2021). 

 

A falta de diversidade na área de TI

 

Mesmo que os programadores não tenham controle sobre como a máquina irá interpretar o dataset, ainda é de responsabilidade dos profissionais de TI a coleta e tratamento de dados não enviesados. Frente a essa constatação, vale ressaltar a falta de diversidade nos segmentos relacionados à programação. Prova disso é uma pesquisa realizada em 2020 pela Serasa Experian e pela ONU Mulheres, que no Brasil, apenas 17% dos programadores são mulheres. Já em países como o Reino Unido, Suíça e Holanda, de acordo com uma pesquisa realizada pelo Instituto Europeu de Informática no ano de 2014, foi de até 10% da presença de pessoas do gênero feminino em cursos ligados à informática. Para pessoas negras no âmbito de TI, conforme o censo do IBGE de 2010, 78,7% das pessoas são brancas, sendo, aproximadamente, 61,7% homens e 17% mulheres e 21,3% das pessoas são negras, sendo, aproximadamente, 17% homens e 4,3% mulheres (apud. SOUZA e TOSTA, 2020). Há uma ausência de representatividade nas principais empresas responsáveis por criarem os dataset, como o Google, Facebook, Twitter e Apple em que mulheres são apenas 30% dos funcionários (COSTA, 2019).  

 

Esses dados refletem, em concernência com Joanna Bryson, professora na High School em Berlim e especialista em inteligência artificial, como a maior parte dos programadores são homens brancos e estão mais suscetíveis a, pelo seu contexto social, praticar uma inserção de dados ancorados em preconceitos estruturais (apud. idem. MELLO, 2021). Em uma reportagem feita pela BBC UK com o ex-diretor de planejamento da Microsoft, Dave Coplin, o ex-funcionário afirma que há um ensino para as máquinas da mesma forma que ensinam seres humanos e isso provoca imprevisibilidade das análises algorítmicas. Ademais, finaliza assumindo que, quando um algoritmo fornece alguma resposta, recorre a saber quem é o responsável por tal programação  (WAKEFIELD, 2018).

 

Os algoritmos, a segurança pública e o racismo

 

Em face a essas constatações, os setores privados da sociedade adotam a inteligência artificial para automatizar processos de decision-making. Frente a massiva digitalização de dados, a introdução de IA acontece nas mais diversas áreas, inclusive públicas, como a utilização de mecanismos para facilitar as decisões judiciais. O Correctional Offender Management Profiling for Alternative Sanctions  (COMPAS), ou Perfil de Gerenciamento de Infrator Correcional para Sanções Alternativas, que foi adotado desde o ano 2000 e é usado em 46 Estados americanos atualmente, é um clássico exemplo. Esse sistema foi desenvolvido para detectar a reincidência criminal por meio de 137 perguntas feitas a pessoa que praticou determinado crime que pode ser considerada de alto ou baixo risco em ordem crescente de 1 a 10 (PROPUBLICA, 2016).  

 

No entanto, foram constatados racial bias na composição de tal sistema, visto que, de acordo com o ProPublica, organização sem fins lucrativos que produz jornalismo investigativo para interesses públicos, as pessoas negras têm cerca de duas vezes mais chances de serem classificados como de alto risco, correspondendo a 44,9%, sendo que não confere reincidência, enquanto para os brancos, 23,5% foram considerados de alto risco sem reincidência. Em outra perspectiva, 28% de negros foram considerados de baixo risco e voltaram a cometer crimes, enquanto 47,7% de brancos foram classificados como de baixo risco, mas voltaram a cometer delitos (ibidem. PROPUBLICA, 2016). A empresa rejeitou qualquer ligação com preconceitos raciais e a Suprema Corte de Wisconsin declarou que não haveria problemas caso o sistema fosse usado corretamente, ainda revelou que o algoritmo é privado e baseado em traços gerais de comportamento (MAYBIN, 2016). 

 

O mesmo cenário se repetiu no Reino Unido com o uso de algoritmos para reconhecimento facial de suspeitos, que visam maior eficiência no sistema policial. O Comitê  de Ciência e Tecnologia da Câmara dos Comuns promoveu uma investigação em algumas cidades inglesas que fazem o uso desses algoritmos, visto que 14% de toda a força policial do país têm utilizado esses recursos. Segundo o Relatório de 2018 do Comitê, o Ministério do Interior negou que qualquer pessoa fosse presa exclusivamente por meio do reconhecimento facial, uma vez que o sistema combinava uma “lista de observação” de pessoas procuradas e imagens de vídeo. Porém, aliado a essa ferramenta, também estavam sendo utilizados algoritmos para encontrar áreas que poderiam ter possíveis crimes no futuro, ou seja, o policiamento preventivo que monitora localidades onde ocorreram crimes passados com o objetivo de reduzir a criminalidade, como o programa PredPol, Predictive Police, ou Polícia Preditiva, em português, usada pela polícia de Kent desde 2013 (SCIENCE, 2018). 

Outra cidade investigada foi Durham, província que fica ao nordeste da Inglaterra, que alegou o uso de algoritmos, como o Harm Assessment Risk Tool (HART), ou Ferramenta de Risco de Avaliação de Danos, para “auxiliar na tomada de decisões sobre se um suspeito pode ser elegível para um processo diferido”, além de replicar o comportamento estadunidense de decidir sobre processos de fiança, liberdade condicional e sentença. Para a polícia da cidade, a IA serviria para evitar novas infrações, baseadas no risco que a pessoa suspeita poderia trazer devido a seus comportamentos passados, sendo assim, o algoritmo serviria para conferir “consistência na tomada de decisões”. Diante desses posicionamentos, para o órgão Inspetoria de Polícia de Sua Majestade (HM Inspectorate of Constabulary) destacou, em 2017, que essa tecnologia deveria ser ampliada, pois poderia “melhorar a eficácia, liberar a capacidade dos oficiais e provavelmente ser rentável” (ibidem. SCIENCE, 2018).

 

Para o Instituto UCL Jill Dando de Segurança e Ciência do Crime destacou que “saber quando e onde um problema é mais provável é apenas uma parte do quebra-cabeça, saber o que fazer é outra”, o que questiona essa maior eficiência policial com o monitoramento. Nesse sentido, a instituição Big Brother Watch, organização sem fins lucrativos que luta pelas liberdades civis e campanhas relacionadas à privacidade, enfatizou pontos sobre a confiabilidade das máquinas que têm potencial para análises racistas (ibidem. SCIENCE, 2018). Essa preocupação parte não só de casos como o COMPAS, mas também com outros dispositivos de policiamento preventivo, como o Domain Awareness Center (DAC), ou em português Centro de Reconhecimento de Domínio, dos Estados Unidos, que com a mesma proposta do PredPol, servia como centro de espionagem e demonstrou vieses de preconceito racial. 

 

Na Reunião do Conselho Municipal de Oakland sobre o DAC, em 2014, a comunidade afro-americana enfatizava que o algorítimo estava sendo usado para justificar a violência policial em bairros negros dos EUA (WHEELER, 2016). Semelhante a essa preocupação, a professora Louise Amoore da Universidade de Durham, levantou um questionamento se os dispositivos ingleses com algoritmos de diagnóstico e estratificação teriam “lugar para inferência ou correlação no sistema de justiça criminal”, uma vez que diferentemente das evidências normais, não podem ser interrogados ou questionados (ibidem. SCIENCE, 2018).

 

Algoritmos, o racismo e a LGBTfobia

 

 Outra problemática relacionada ao reconhecimento facial são os algoritmos de classificação de imagens. É o caso de Jacky Alciné, o qual teve suas fotos classificadas como “gorila” no Google Fotos (idem. MELLO, 2021). Além disso, também há casos da análise facial em peles negras, segundo a pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini, os erros de reconhecimento em três sistemas de softwares disponíveis comercialmente tinham apenas 0,8% de erro para homens brancos e para mulheres negras o valor era de 20% em um dos softwares e mais de 34% em outros dois (O GLOBO, 2018). Dentro desse escopo de erros algorítmicos, o grupo minoritário LGBTQIAPN+ também sofreu com a falta de representatividade no banco de dados. Diante de um estudo realizado pela Universidade de Colorado no ano de 2019, o reconhecimento para os rostos de mulheres cisgênero (pessoas se identificam com o gênero biológico que nasceram) teve uma precisão de 98, 3% e para mulheres trans teve precisão de 87,3%. Já para homens cis foi de 97,6% e para homens trans foi de 70,5% (ALVES, 2021).

 

Algoritmos e o sexismo

 

O sexismo é um fator presente quando falamos de IA. Em 2018, a Amazon desativou um serviço autônomo que analisava o currículo dos candidatos a vagas na empresa. Foi averiguado que as palavras associadas a “feminino” eram penalizadas (JUNQUEIRA, 2020). No quesito dos association bias, esses criam, baseados em estereótipos postos a mulheres, uma cultural bias, ou seja, produzem associações culturalmente impostas. Isso foi visto em pesquisa realizada pela Universidade de Princeton, que analisou 2,2 milhões de palavras de um software de learning machine pronto para ser utilizado e concluiu que palavras como “meninas” ou “mulheres” revelavam mais resultados relacionados às artes e não às ciências e à matemática, matérias constantemente associadas a homens. Ademais nomes europeus apareciam resultados mais precisos em relação aos afro-americanos, que eram subjugados com preconceitos históricos e  estereótipos culturais  (BARTON, LEE e RESNICK, 2019).

 

Big Data e o poder das Hightechs

 

No mais, a privacidade é um direito humano, mas com a adesão de tecnologias e o uso massivo nas redes sociais, as grandes corporações chamadas de Hightechs, detém um volume de dados dos usuários, o Big Data, que possui um valor de mercado e faz parte de um comércio virtual sem que os internautas sejam notificados para tal ação (BUCCI, 2019). Prova disso é um depoimento feito para o Congresso dos Estados Unidos, em 2018, o diretor-executivo do Facebook, Mark Zuckerberg, informou que a empresa recolhe dados mesmo de quem não é usuário (idem. VALENTE, 2020).  Em face a essa realidade, segundo o líder do coletivo de pesquisa Mídias como Sistemas Sociotécnicos (MATS), que levantam análises sobre a mídia, a tecnologia e seus usos sociais, Mike Ananny, a supremacia dos algoritmos para o manejamento da opinião coletiva e a movimentação política das massas sociais se dá pelo poder de estruturar possibilidades. Desse modo, os algoritmos possuem poder para estruturar o comportamento, manipular preferências, além de orientar e influenciar consumos (ANANNY, 2016). Assim, nessa era digital, o controle de dados é poder e têm se tornado uma ameaça iminente na esfera pública. 

 

Dessa forma, de acordo com a pesquisa produzida pela Universidade de Harvard em 2020, outra fala emblemática de Zuckerberg expressa o alto poder conferido as Hightechs: “De muitas maneiras, o Facebook é mais como um governo do que uma empresa tradicional” (GOSH e SIMONS, 2020). Nesse viés, decisões podem ser feitas em “territórios virtuais” dessas corporações privadas que possuem uma certa soberania, mesmo que devem estar de acordo com as leis dos países que se inserem, seus termos de uso ainda são feitos pelas próprias empresas. Como indício, o processo de compra do Twitter, uma das maiores redes sociais da atualidade, pelo magnata Elon Musk, o qual manifestou intenção de flexibilizar as restrições de conteúdo dos usuários: “Acho essencial ter liberdade de expressão e que as pessoas possam se comunicar livremente [...] há liberdade de expressão e liberdade de alcance [...] qualquer um pode entrar no meio da Times Square agora mesmo e dizer o que quiser. Eles podem simplesmente entrar no meio da Times Square e negar o Holocausto. Eu acho que as pessoas deveriam ter permissão para dizer coisas muito ultrajantes que estão dentro dos limites da lei, mas que, se não são amplificadas, não têm muito alcance.” (DUFFY e O’SULLIVAN, 2022). 

 

A difícil responsabilização civil na questão algorítmica

 

No entanto, atualmente, mesmo com as restrições ativas nas redes, a propagação de conteúdos nocivos continuam por conta do rápido compartilhamento de informações e, muitas vezes, de difícil rastreamento dos responsáveis pelos posts em razão da possibilidade de anonimato, principalmente na era da pós-verdades e das Fake News. Pós-verdade foi o termo que ganhou como Palavra do Ano em 2016 pelo dicionário da Oxford, o qual transcreveu seu significado: “a ideia de que um fato concreto tem menos significância ou influência do que apelos à emoção e a crenças pessoais” (G1, 2016). 

 

Desse modo, as notícias falsas e conteúdos perigosos são espalhados por meio dos algoritmos de machine learning que utilizam a priorização por likes e compartilhamento de postagens, os quais devido a rapidez de divulgação desenfreada dos usuários mencionada anteriormente, retratam o grande problema do uso desses programas. Dessa forma, podem ser apontados os seguintes questionamentos: quem são os responsáveis? É possível rastrear os criadores desse tipo de publicações? Os programadores que criam os algoritmos devem ser responsabilizados? Ou os usuários? Quem deve fiscalizar? Os governos ou as próprias plataformas digitais?

 

Para ilustrar a problemática, em 2017, o Profissão Repórter publicou uma matéria a qual concluía, por meio de um monitoramento dos principais veículos de Fake News sobre política, que os sites responsáveis poderiam produzir ligação com as páginas em redes sociais, os quais se tornam a porta de entrada para o acesso de milhares de usuários. Ademais, foi constatado que devido a existência de um comércio virtual, as informações não verídicas também são espalhadas por perfis falsos, os quais são geridos por pessoas que realizam a compra e venda de seguidores. 

 

Na busca pelas empresas por trás desses sites, os endereços levaram a imóveis com aspecto de abandonado, com as portas sempre fechadas, em uma vizinhança muito desconfiada da atividade dos moradores. As pessoas que saíam dos imóveis não quiseram dar entrevista ou revelar o nome dos funcionários dos sites e se mostraram muito irritadas (PORTAL G1, 2018).  

 

Um estudo do Instituto de Tecnologia de Massachusetts (MIT) aponta que a probabilidade de compartilhamento dos boatos é 70% maior que o compartilhamento da notícia verdadeira. É impossível deixar de lado o papel dos algoritmos nessa análise, uma vez que por meio de ferramentas avançadas de SEO, uso de links dos portais confiáveis para o direcionamento de seus próprios sites e o uso de plataformas de publicidade para gerar receita, como o Google Ads estão se tornando cada vez mais comuns. Entretanto, o MIT afirma que os robôs não são determinantes para divulgação, pois os usuários apresentaram taxas idênticas de velocidade de propagação. Isso pode ser explicado por meio do porquê as Fake News são tão atrativas para o público: “É como uma fofoca que se espalha pelo seu bairro. Quanto mais ela for impressionante, surpreendente, inédita, mais uma pessoa vai querer espalhar. E quem tem essa informação se sente privilegiado, sente que sabe mais que os outros” (idem. PORTAL G1, 2018). 

Algoritmos e a democracia

 

Nesse sentido, a manipulação das informações pode influenciar diretamente em resultados políticos concretos, uma vez que a polarização do debate público coloca o sistema democrático em risco. Para Anita Gurumurthy, diretora executiva do It for Change, organização sem fins lucrativos que visa soluções para que as tecnologias digitais contribuam para os direitos humanos e a equidade, há violações na privacidade dos usuários e há descentralização, juntamente com a horizontalização do processo político pela não confiança nas instituições democráticas. Isso ocorre, pois, segundo ela, “a tecnologia reinventa as fronteiras democráticas”.  Nessa disposição do debate público há o surgimento das chamadas “Câmaras de Eco” que reforçam os preconceitos, visto o contato direto dos candidatos com sua massa eleitoral nas redes. Dessa maneira, políticos usuários dessas plataformas não enxergam a mediação de discursos em público como a principal estratégia para conseguir apoio, já que com as bolhas sociais criadas pela priorização algorítmica, os candidatos podem ser mais incisivos em seus posicionamentos para convencer a camada consumidora de suas campanhas (BHARTHUR e GURUMURTHY, 2018).  

Prova disso, são acontecimentos clássicos que movimentaram o mundo em 2016-2017: Primeiramente, Trump com sua campanha ancorada no apelo determinando informações falsas, como Hillary Clinton que havia criado o Estado Islâmico, o desemprego dos EUA chegando a 42%, a nacionalidade mulçumana de Brack Obama e o apoio do Papa Francisco a sua candidatura. Segundamente, no processo do BREXIT, em que a campanha defensora da saída do bloco apelou para o nacionalismo dos cidadãos, criando uma narrativa infundada de gastos de mais de 470 milhões de reais por semana para a UE e, ainda, aproveitando-se do contexto da forte crise dos refugiados que estava ocorrendo.  

 

Resoluções das últimas décadas

 

Retomando todos os impedimentos para um uso pleno e ético da inteligência artificial comandada pelos algoritmos, as nações e conglomerados tomaram decisões que implicam a ética, a responsabilidade e a proteção de dados. Os principais rumos desse grande debate estão em iniciativas internacionais, como o Regime de Responsabilidade Civil Aplicável à Inteligência Artificial, a Rome Call for AI Ethics e as diretrizes da Comissão Europeia. E em resoluções domésticas, o Filter Bubble Transparency Act e a Algorithm Accountability Act nos Estados Unidos no ano de 2022, como também The United Kingdom General Data Protection Regulation (UK-GDPR) de 2018, no Reino Unido e a Directive on Automated Decision-Making de 2019 no Canadá são alguns dos exemplos. Além disso, estão sendo estabelecidos valores em Hightechs, como a Google e a Microsoft, trilhando o caminho das autorregulamentações baseadas nos princípios gerais de accountability e direitos humanos (MARQUES, 2020). 

 

Entretanto, essas medidas recorrem a um caminho incerto para a solução das problemáticas apresentadas, uma vez que resoluções acerca da responsabilização civil para os danos causados pelos algoritmos é complexa para os sistemas de reconhecimento dos responsáveis e controle estatal (ibidem. MARQUES, 2020). Logo, a moral algorítmica é confirmada dentro da sociedade construída com os avanços relacionados à proteção de dados e à privacidade, a exemplos da Lei Geral da Proteção de Dados (LGPD) e do PL 2630/2020 no Brasil.

 

Nesse contexto, para o país, as utilizações no sistema público ainda não foram ampliadas, mas seus direcionamentos jurídicos não abrangem o que será o maior problema da quarta revolução industrial: o uso algorítmico e seus riscos para os direitos humanos. Logo, as resoluções aqui mencionadas não abrangem todas as problemáticas envolvendo as implicações diretas nas violações cibernéticas dos direitos humanos, como utilizações no sistema de segurança/judiciário, além da responsabilização civil, o que torna as discussões ainda embrionárias. 

 

A controvérsia estatal

 

Os órgãos públicos se mostram, em sua grande maioria, a favor da implementação algorítmica em processos de decisão da esfera pública, com a justificativa de maior eficácia, mesmo que esses mecanismos dificultem o pleno exercício democrático das nações inseridas nesse sistema. A Comissão Europeia reconhece que “o desenvolvedor de ferramentas algorítmicas pode não saber seu uso e implementação futuros precisos”, já os indivíduos que estejam “implementando as ferramentas algorítmicas para aplicativos podem, por sua vez, não entender completamente como as ferramentas algorítmicas operam” (ibidem. SCIENCE, 2018). Assim, para o Comissário de Informação do Reino Unido “Accountability requer que alguém seja responsável”, o que não pode ser feito com a utilização dos algoritmos, em outras palavras, a fiscalização, responsabilização e transparência de processos públicos feitas por instituições oficiais e pela população fica prejudicada, frente a difícil culpabilidade algorítmica (ibidem. SCIENCE, 2018).  

 

No entanto, mesmo com essas considerações, os processos que ocorrem na realidade são um reflexo da estruturação capitalista e assimetria de poder existentes no modelo predominante ocidental: a democracia neoliberal, a qual prevê o Estado Mínimo e a manutenção do status quo. A utilização  de algoritmos em processos públicos é a manifestação do Estado Mínimo em sua mais pura forma, o que centraliza soluções e evitam esclarecimentos, além de servir como estratégia política populista em países de eleições periódicas. Portanto, há um interesse oculto para a implementação de resoluções pouco direcionadas e pouco aplicáveis para os direitos humanos na jurisdição doméstica e internacional  sobre algoritmos. 

 

Considerações finais

 

Diante do exposto, o debate público necessita ser ampliado de modo que as tecnologias possam se desenvolver, mas também que os princípios éticos possam ser tratados. É preciso a determinação dos limites à implantação de automatizações nos sistemas públicos dos Estados, a regulamentações para data bias em produtos fornecidos pelas grandes empresas de tecnologia e a diversificação de programadores no setor tecnológico. Propostas que são reforçadas principalmente por organizações não governamentais atuantes na sociedade, como a Mozilla, instituição criadora do filme O Dilema das Redes (2020), o None of Your Business (NOYB), a It for Change, entre muitas outras. Essa análise se encerra com a defesa por um devido processo tecnológico: 

“[...] direito de perscrutar a caixa preta algorítmica, exigir explicações e desafiar a tomada de decisões automatizadas são fundamentais para realizar o direito de ser ouvido no contexto da governança digitalizada [...]  A inteligência digital e os conjuntos algorítmicos podem vigiar, privar ou discriminar, não por causa de métricas objetivas, mas porque não foram submetidos à supervisão institucional necessária que sustenta a realização de ideais socioculturais nas democracias contemporâneas. As inovações do futuro podem promover a equidade e a justiça social somente se as políticas de hoje moldarem um mandato para sistemas digitais que centralizem a ação cidadã e a responsabilidade democrática” (ibidem. BHARTHUR e GURUMURTHY, 2018).  

 

Referências:

ALVES, Sarah. Além do racismo, reconhecimento facial erra mais em pessoas trans. UOL, 2021. Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2021/02/14/nao-e-soracismo-reconhecimento-facial-tambem-erra-mais-em-pessoas-trans.htm. Acesso em: 21 de jul. de 2022.

ANGELUCI, Alan; ROSSETTI, Regina. Ética Algorítmica: questões e desafios éticos do avanço tecnológico da sociedade da informação. Scielo Brasil, São Paulo, publicação contínua, n.6, pp. 1-18, 01, 2021.  

ANANNY, Mike. “Toward An Ethics of Algorithms: Convening, Observation, Probability, and Timeliness”. Science Technology, & Human Values. 41, n°. 1 (2016): 97.

BARTON, Genie; LEE, Nicol; RESNICK, Paul. Algorithmic bias detection and mitigation: Best practices and polices to reduce consumer harms. Brookings, 2019. Disponível em: https://www.brookings.edu/research/algorithmic-bias-detection-and-mitigation-best-practicesand-policies-to-reduce-consumer-harms/. Acesso em: 30 de jul. de 2022.

BHARTHUR, Deepti; GURUMURTHY, Anita. Democracy and the Algorithmic Turn: Issues, challenges and the way forward. SUR International Journal on Human Rights, v.15 n.27, pp. 39 - 50, 2018. 

BUCCI - CANAL USP. Desafios - Democracia e Fake News. Youtube, 21 dez. de 2019. Disponível em: https://www.youtube.com/watch?v=UFt5pNpyZds. Acesso em: 20 de jul. de 2022.

COSTA, Lorena. Mulheres ocupam apenas 25% dos empregos de TI no país, aponta levantamento. Correio Braziliense, 2019. Disponível em: https://www.correiobraziliense.com.br/app/noticia/tecnologia/2019/04/23/interna_tecnologia,750829/mulheres-ocupam-apenas-25-dos-empregos-de-ti-no-pais.shtml. Acesso em: 24 de jul. de 2022.  

DANIELS, Joshua. March 4, 2014 Oakland City Council Meeting on the Domain Awareness Center (DAC). Youtube, 16 mar. de 2014. Disponível em: https://www.youtube.com/watch?v=-bdEJW07oJs. Acesso em: 20 de jul. 2022.

DATASET. In: Cambridge Advanced Learner 's Dictionary & Thesaurus. Cambridge, Cambridge University Press, [nda.]. Disponível em https://dictionary.cambridge.org/pt/dicionario/ingles/dataset. Acesso em: 01 set. de 2021. 

DUFFY, Clare; O’SULLIVAN, Donie. Musk aborda demissões e ‘liberdade de expressão’ durante primeira reunião no Twitter. CNN Brasil, 2022. Disponível em: https://www.cnnbrasil.com.br/business/musk-aborda-demissoes-e-liberdade-de-expressao-durante-primeira-reuniao-no-twitter/. Acesso em: 29 de jul. de 2022.

GARATTONI, Bruno. Bill Gates indica 5 livros para você ler neste final de ano. Superinteressante, 2016.  Disponível em: https://super.abril.com.br/ciencia/bill-gates-indica-5-livros-para-voce-ler-neste-final-de-ano/. Acesso em: 29 set. de 2021. 


GOSH, Dipayan; SIMONS, Josh. Utilities for Democracy: why and how the algorithmc infrastructure of Facebook and Google must be regulated. Harvard Kennedy School e  Brookings, 2020. Disponível em: https://www.brookings.edu/wp-content/uploads/2020/08/Simons-Ghosh_Utilities-for-Democracy_PDF.pdf; Acesso em: 30 de jul. de 2022.

G1.'Pós-verdade' é eleita a palavra do ano pelo Dicionário Oxford. G1, 2016. Disponível em: https://g1.globo.com/educacao/noticia/pos-verdade-e-eleita-a-palavra-do-ano-pelo-dicionario-oxford.ghtml. Acesso em: 30 jul. de 2022.

JUNQUEIRA, Thiago. Discriminação: o desafio da inteligência artificial em processos seletivos. Veja, 2020. Disponível em: https://veja.abril.com.br/economia/discriminacao-odesafio-da-inteligencia-artificial-em-processos-seletivos/Acesso em: 22 de jul. de 2022. 

MARQUES, André. Inteligência Artificial: Regulação, Ética e Responsabilidade Civil. Universidade de Marília, 2020. Disponível em: https://portal.unimar.br/site/public/pdf/dissertacoes/35BA61E516EE5B6B1FAA97DEB345E5ED.pdf. Acesso em: 22 de jul. de 2022.

MAYBIN, Simon. Sistema de algoritmo que determina pena de condenados cria polêmica nos EUA. BBC News Brasil, 2016. Disponível em: https://www.bbc.com/portuguese/brasil-37677421. Acesso em: 20 de julho de 2022.

MELLO, Breno. Inteligência artificial e a não neutralidade dos algoritmos sobre os “corpos dóceis”. Revista das Faculdades Integradas Vianna Júnior, Juiz de Fora, vol.12, n.2, pp. 342-365, 09, 2021. 

MONARD, Maria; BARANAUSKAS, José. Conceitos sobre aprendizado de máquina. In: REZENDE, Solange Oliveira (Org.). Sistemas inteligentes: fundamentos e aplicações. Barueri: Manole, 2003. 

O GLOBO. Softwares de reconhecimento facial funcionou bem, mas apenas para homens brancos. O Globo, 2018. Disponível em: https://oglobo.globo.com/economia/softwares-dereconhecimento-facial-funcionam-bem-mas-apenas-para-homens-brancos-22411486. Acesso em: 20 de jul. de 2022.

OLIVEIRA, Marcos. Cognitivismo e ciência cognitiva. Trans/Form/Ação, São Paulo, pp. 1-10, 1990. 

PORTAL G1. EUA fazem o maior estudo sobre fake news nas redes sociais. G1, 2018. Disponível em: Jornal Nacional - EUA fazem o maior estudo sobre fake news nas redes sociais (globo.com). Acesso em: 26 de jul. de 2022.

PORTAL G1. Fake news: quem faz, quem repassa e quem são as vítimas. 2018. Disponível em: Fake news: quem faz, quem repassa e quem são as vítimas | Profissão Repórter | G1 (globo.com). Acesso em: 27 jul. 2022.

SCIENCE AND TECHNOLOGY COMMITTEE. Algorithm in decision making. House of Comuns, 2018. Disponível em: https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf. Acesso em: 30 de jul. de 2022.

VALENTE, Jonas. Riscos da inteligência artificial levantam alerta e suscitam respostas: privacidade, ameaças ao trabalho e discriminação levantam debates. Agência Brasil, 2020. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2020-08/riscos-da-inteligencia-artificial-levantam-alerta-e-suscitam-respostas. Acesso em: 30 set. de 2021. 

WAKEFIELD, Jane. Are you scared yet? Meet Norman, the psychopathic AI. BBC UK, 2018. Disponível em: https://www.bbc.com/news/technology-44040008. Acesso em: 30 de jul. de 2022.

WHEELER, Brian. Police surveillance: The US city that beat Big Brother, 2016. Disponível em: https://www.bbc.com/news/magazine-37411250. Acesso em: 30 jul. de 2022.

7 TYPES of Data Bias in Machine Learning. Telus Internacional, 2021. Disponível em: https://www.telusinternational.com/articles/7-types-of-data-bias-in-machine-learning. Acesso em: 20 de jul. de 2022.