{"id":10649,"date":"2020-09-25T10:34:35","date_gmt":"2020-09-25T13:34:35","guid":{"rendered":"https:\/\/www.blip.ai\/blog\/?p=10649"},"modified":"2024-10-10T15:52:50","modified_gmt":"2024-10-10T18:52:50","slug":"inteligencia-artificial-racista","status":"publish","type":"post","link":"https:\/\/www.blip.ai\/blog\/tecnologia\/inteligencia-artificial-racista\/","title":{"rendered":"Intelig\u00eancia artificial racista: por que acontece e como evitar o erro"},"content":{"rendered":"\n<p><b>Voc\u00ea j\u00e1 ouviu falar em intelig\u00eancia artificial racista?<\/b><span style=\"font-weight: 400\"> O que antes parecia poss\u00edvel somente em algum roteiro de filme de fic\u00e7\u00e3o cient\u00edfica, j\u00e1 se mostra presente em nossa sociedade. <\/span>Neste artigo vamos falar sobre como o racismo algor\u00edtmico vem impactando o cen\u00e1rio de tecnologia e escalando efeitos da desigualdade racial<span style=\"font-weight: 400\">.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Vivemos um momento de utiliza\u00e7\u00e3o generalizada de intelig\u00eancia artificial e o que aparentemente deveria ser um m\u00e9todo seguro e infal\u00edvel, vem mostrado diversas falhas e equ\u00edvocos. Muitas vezes, <strong>evidenciam problemas estruturais de nossa sociedade<\/strong>.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">O <strong>reconhecimento facial<\/strong> \u00e9 um tipo de I.A. que est\u00e1 sendo amplamente utilizado para facilidades do dia a dia e tamb\u00e9m surge como um auxiliar em mecanismos de seguran\u00e7a p\u00fablica. Entretanto, essa tecnologia ainda apresenta vi\u00e9s e imprecis\u00e3o gerando casos muito graves de racismo provocados pela intelig\u00eancia artificial.<\/span><\/p>\n\n\n\n<p>Continue a leitura e aprenda sobre as consequ\u00eancias do mau uso dessa tecnologia e como resguardar sua aplica\u00e7\u00e3o desse problema.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Tecnologias s\u00e3o neutras?<\/h2>\n\n\n\n<p><b>Existe uma percep\u00e7\u00e3o de que computadores s\u00e3o a provas de erros devido a sua precis\u00e3o matem\u00e1tica<\/b><span style=\"font-weight: 400\"> e grande capacidade de processamento. Seguindo essa cren\u00e7a delegamos a eles decis\u00f5es que se pretendem infal\u00edveis.<\/span><\/p>\n\n\n\n<p>Entretanto esquecemos que<strong> toda a<\/strong><b> intelig\u00eancia das m\u00e1quinas s\u00e3o programadas por n\u00f3s, seres humanos<\/b><span style=\"font-weight: 400\"> e consequentemente estar\u00e3o impregnadas com nossos valores, cren\u00e7as, defini\u00e7\u00e3o de sucesso e invariavelmente nossos preconceitos.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">A implementa\u00e7\u00e3o em larga escala de modelos de reconhecimento facial \u00e9 uma das discuss\u00f5es mais pol\u00eamicas e atuais sobre intelig\u00eancia artificial. <\/span><b>Diversos estudos realizados nos \u00faltimos anos apontam um n\u00famero alarmante de imprecis\u00e3o, principalmente entre pessoas negras.<\/b><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Intelig\u00eancias artificiais podem ser racistas?<\/h2>\n\n\n\n<p><b>A <\/b><a href=\"https:\/\/www.blip.ai\/blog\/tecnologia\/inteligencia-artificial\/\" target=\"_blank\" rel=\"noopener noreferrer\"><b>intelig\u00eancia artificial<\/b><\/a><b> por si n\u00e3o \u00e9 exatamente racista, mas ela pode ser estruturada em um contexto altamente atravessado por <\/b><a href=\"https:\/\/g1.globo.com\/economia\/tecnologia\/noticia\/2019\/12\/20\/tecnologia-de-reconhecimento-facial-apresenta-vies-e-imprecisao-aponta-estudo-do-governo-dos-eua.ghtml\" target=\"_blank\" rel=\"noopener noreferrer\"><b>vieses<\/b><\/a><b> e preconceitos causando uma situa\u00e7\u00e3o de racismo<\/b><span style=\"font-weight: 400\"> e outras exclus\u00f5es sociais quando aplicada.<\/span><\/p>\n\n\n\n<p>Em 2015 o Google Photos tornou-se alvo de acusa\u00e7\u00f5es de racismo algor\u00edtmico ap\u00f3s um usu\u00e1rio negro ter suas fotos rotuladas como \u201cGorila<span style=\"font-weight: 400\">\u201d ao utilizar uma <\/span><i><span style=\"font-weight: 400\">feature <\/span><\/i><span style=\"font-weight: 400\">de categoriza\u00e7\u00e3o autom\u00e1tica das fotos. A dire\u00e7\u00e3o da companhia veio a p\u00fablico e se desculpou pelo acontecido, por\u00e9m <\/span><b>ficou n\u00edtido a falta de precis\u00e3o do reconhecimento facial e o caso abriu especula\u00e7\u00f5es sobre os vieses raciais do caso<\/b><span style=\"font-weight: 400\">.&nbsp; <\/span><span style=\"font-weight: 400\"><br><\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">O reconhecimento facial tamb\u00e9m segue amplamente utilizado em <\/span><i><span style=\"font-weight: 400\">gadgets <\/span><\/i><span style=\"font-weight: 400\">do nosso cotidiano. O seu uso para desbloqueio de fechaduras inteligentes e smartphones \u00e9 um \u00f3timo exemplo de que <\/span><b>se a IA for contaminada por vieses racistas existir\u00e1 um impacto negativo na usabilidade e acessibilidade desses dispositivos.&nbsp;<\/b><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Esses exemplos podem at\u00e9 parecer inofensivos, mas exp\u00f5e o risco real de uma escalada de desigualdades e viol\u00eancias raciais, que j\u00e1 existem.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Imagine a seguinte situa\u00e7\u00e3o, um jovem negro com necessidades especiais est\u00e1 a caminho de uma consulta m\u00e9dica, acompanhado por sua m\u00e3e idosa. Ele entra em uma padaria para fazer um lanche, quando de repente \u00e9 abordado violentamente pela pol\u00edcia, com armas apontadas para sua cabe\u00e7a e recebe voz de pris\u00e3o por diversos crimes que ele jamais cometeu.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">N\u00e3o parece uma situa\u00e7\u00e3o anormal, se n\u00e3o fosse o detalhe, <\/span><b>foi identificado erroneamente por causa de um falso positivo do sistema de reconhecimento facial utilizado pela PM.&nbsp;<\/b><\/p>\n\n\n\n<p><a href=\"https:\/\/www.correio24horas.com.br\/entre\/o-policial-ja-foi-com-a-arma-na-cabeca-dele-diz-mae-de-rapaz-confundido-por-reconhecimento-facial-0120\" target=\"_blank\" rel=\"noopener noreferrer\"><b>\u00c9 importante considerarmos o constrangimento, a agress\u00e3o e todo o risco a que esse rapaz foi exposto.<\/b><\/a><span style=\"font-weight: 400\">&nbsp; Esse caso aconteceu na cidade de Salvador em setembro de 2019 e n\u00e3o foi a primeira vez que o sistema da Secretaria de Seguran\u00e7a P\u00fablica da Bahia reconheceu uma pessoa em consequ\u00eancia de um <\/span><b>falso positivo culminando em uma abordagem violenta e pris\u00e3o de uma pessoa inocente.<\/b><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Mas por que as Intelig\u00eancias Artificiais se tornam racistas?<\/h2>\n\n\n\n<p><b>Em nosso contexto social um dos motivos que levam intelig\u00eancias artificiais apresentarem resultados racistas<\/b><span style=\"font-weight: 400\"> \u00e9 porque elas podem estar sendo expostas a uma base de dados enviesada.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">A falta de diversidade em times de desenvolvimento das IAs tamb\u00e9m \u00e9 um problema que se reflete nos sistemas criados. No Brasil, cerca de 92% dos cargos da \u00e1rea de engenharia de equipamento e computa\u00e7\u00e3o s\u00e3o ocupados por pessoas brancas, segundo dados do&nbsp; Minist\u00e9rio do Trabalho e Emprego em 2016.&nbsp;<\/span><\/p>\n\n\n\n<p><b>Ou seja, podem ocorrer casos de racismo quando as I.A.s s\u00e3o treinadas a identificar, como caso de sucesso, apenas um padr\u00e3o espec\u00edfico em um acervo de dados sem muita diversidade e com curadoria de um time de desenvolvimento pouco diverso<\/b><span style=\"font-weight: 400\">. No caso a seguir aprofundaremos nesse ponto.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Ap\u00f3s perceber que seu rosto n\u00e3o era reconhecido pelo sistema no qual trabalhava, Joy Buolamwini, mulher negra e pesquisadora do MIT (Massachusetts Institute of Technology), iniciou um estudo sobre a precis\u00e3o dos algoritmos dos principais sistemas dispon\u00edveis no mercado.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">O estudo <\/span><a href=\"https:\/\/gendershades.org\/\" target=\"_blank\" rel=\"noopener noreferrer\"><span style=\"font-weight: 400\">Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> avaliou sistemas de reconhecimento facial da IBM, Microsoft e Face++&nbsp; revelando que<\/span><b> existe um erro m\u00e9dio de 0,8% para reconhecimento de rostos de homens brancos<\/b><span style=\"font-weight: 400\">, o que \u00e9 considerado muito baixo. Por\u00e9m podem errar at\u00e9 34% ao reconhecer rostos de mulheres negras. <\/span><b>Ou seja, esses modelos foram muito bem treinados para<\/b> <a href=\"https:\/\/oglobo.globo.com\/economia\/softwares-de-reconhecimento-facial-funcionam-bem-mas-apenas-para-homens-brancos-22411486\" target=\"_blank\" rel=\"noopener noreferrer\"><b>reconhecer homens brancos<\/b><\/a><b>.&nbsp;<\/b><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Para entender mais sobre a pesquisa e seus resultados assista o <\/span><a href=\"https:\/\/www.ted.com\/talks\/joy_buolamwini_how_i_m_fighting_bias_in_algorithms\/transcript?language=pt&amp;t-1104012\" target=\"_blank\" rel=\"noopener noreferrer\"><span style=\"font-weight: 400\">TED Talk <\/span><\/a><span style=\"font-weight: 400\">&nbsp;onde a pr\u00f3pria Joy fala sobre sua jornada cient\u00edfica em identificar intelig\u00eancias artificiais racistas e prover modelos mais \u00e9ticos para a ci\u00eancia de dados.<\/span><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">E agora, como n\u00e3o criar uma intelig\u00eancia artificial racista?<\/h2>\n\n\n\n<p><span style=\"font-weight: 400\">Essa n\u00e3o \u00e9 uma pergunta simples de responder, pois como j\u00e1 vimos ao decorrer do texto, o desenvolvimento das tecnologias tendem a refletir as desigualdades presentes em nossa sociedade. Por\u00e9m, existem algumas diretrizes que podem deixar mais transparente os sistemas de I.A. e suas aplica\u00e7\u00f5es pr\u00e1ticas.<\/span><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Curadoria de dados<\/h3>\n\n\n\n<p><span style=\"font-weight: 400\">A escolha criteriosa do<\/span><i><span style=\"font-weight: 400\"> dataset<\/span><\/i><span style=\"font-weight: 400\"> (conjunto de dados), \u00e9 o primeiro passo para garantir a proced\u00eancia, quantidade, qualidade e diversidade nos dados a serem utilizados.<\/span><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Treinamento<\/h3>\n\n\n\n<p><span style=\"font-weight: 400\">Neste momento s\u00e3o criadas as caracter\u00edsticas que far\u00e3o parte da base de dados utilizada no treinamento da IA, e qualquer decis\u00e3o arbitr\u00e1ria por parte do time de desenvolvimento pode impactar no enviesamento dos dados e resultados excludentes.<\/span><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Explicabilidade das decis\u00f5es:<\/h3>\n\n\n\n<p><span style=\"font-weight: 400\">Investir em <\/span><a href=\"https:\/\/www.blip.ai\/blog\/tecnologia\/o-que-e-xal\/\" target=\"_blank\" rel=\"noopener noreferrer\"><span style=\"font-weight: 400\">xIA &#8211; Intelig\u00eancia Artificial Explic\u00e1vel<\/span><\/a><span style=\"font-weight: 400\"> \u00e9 um excelente caminho para evitar sistemas de decis\u00e3o opacos e que podem estar repletos de vieses.<\/span><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Auditoria Externa<\/h3>\n\n\n\n<p><span style=\"font-weight: 400\">Existem diversas iniciativas engajadas em \u00e9tica de dados que realizam auditorias em IAs. A <\/span><a href=\"https:\/\/www.ajl.org\/\" target=\"_blank\" rel=\"noopener noreferrer\"><span style=\"font-weight: 400\">Liga da Justi\u00e7a dos Algoritmos<\/span><\/a><span style=\"font-weight: 400\">, foi criada pela Joy Buolamwini citada anteriormente no texto. Existe tamb\u00e9m o Big Brother Watch UK e o Safe Face Pledge, todos atuando a fim de garantir transpar\u00eancia das IAs.<\/span><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Diversidade<\/h3>\n\n\n\n<p><span style=\"font-weight: 400\">Um time diverso e multidisciplinar enriquece o processo e agrega diferentes backgrounds e vis\u00f5es ao desenvolvimento da IA, reduzindo vieses e ampliando o impacto das solu\u00e7\u00f5es.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">N\u00e3o existe receita de bolo para resolver problemas estruturais da sociedade, mas um \u00f3timo caminho \u00e9 <\/span><b>adotarmos um ponto de vista cr\u00edtico sobre sistemas de intelig\u00eancia artificial e o uso indiscriminado de reconhecimento facial.<\/b><\/p>\n\n\n\n<p>A inova\u00e7\u00e3o precisa de diversidade e m\u00faltiplos olhares para se tornar uma ferramenta de disrup\u00e7\u00e3o e avan\u00e7o social para todos. Enquanto a sociedade continuar utilizando em larga escala tecnologias que refor\u00e7am o racismo e outras discrimina\u00e7\u00f5es, estaremos apenas tornando hi-tech velhas estruturas de poder e viol\u00eancia.<\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Gostou de saber porque a Intelig\u00eancia artificial racista deve ser evitada? Aprenda mais sobre Intelig\u00eancia Artificial no artigo: <\/span><a href=\"https:\/\/www.blip.ai\/blog\/tecnologia\/inteligencia-artificial-e-machine-learning\/\" target=\"_blank\" rel=\"noopener noreferrer\"><b>Qual a diferen\u00e7a entre Intelig\u00eancia Artificial e Machine Learning?<\/b><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Voc\u00ea j\u00e1 ouviu falar em intelig\u00eancia artificial racista? O que antes parecia poss\u00edvel somente em algum roteiro de filme de fic\u00e7\u00e3o cient\u00edfica, j\u00e1 se mostra presente em nossa sociedade. Neste artigo vamos falar sobre como o racismo algor\u00edtmico vem impactando o cen\u00e1rio de tecnologia e escalando efeitos da desigualdade racial. Vivemos um momento de utiliza\u00e7\u00e3o [&hellip;]<\/p>\n","protected":false},"author":583,"featured_media":10650,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[401],"tags":[373],"class_list":["post-10649","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-inteligencia-artificial"],"lang":"pt","translations":{"pt":10649},"pll_sync_post":[],"_links":{"self":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts\/10649","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/users\/583"}],"replies":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/comments?post=10649"}],"version-history":[{"count":1,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts\/10649\/revisions"}],"predecessor-version":[{"id":42157,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts\/10649\/revisions\/42157"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/media\/10650"}],"wp:attachment":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/media?parent=10649"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/categories?post=10649"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/tags?post=10649"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}