{"id":10380,"date":"2020-08-05T11:26:26","date_gmt":"2020-08-05T14:26:26","guid":{"rendered":"https:\/\/www.blip.ai\/blog\/?p=10380"},"modified":"2023-07-16T10:26:57","modified_gmt":"2023-07-16T13:26:57","slug":"o-que-e-xal","status":"publish","type":"post","link":"https:\/\/www.blip.ai\/blog\/tecnologia\/o-que-e-xal\/","title":{"rendered":"O que \u00e9 xAI, a Intelig\u00eancia Artificial Explic\u00e1vel?"},"content":{"rendered":"\n<p><span style=\"font-weight: 400\">Gra\u00e7as aos avan\u00e7os do poder computacional ao qual temos acesso e ao grande volume de dados gerados diariamente, modelos de <\/span><i><span style=\"font-weight: 400\">Machine Learning<\/span><\/i><span style=\"font-weight: 400\"> t\u00eam se tornado mais complexos e atingindo patamares de performance cada vez mais impressionantes. Pensando nisso, neste artigo, falaremos um pouco mais sobre xAI, ou Intelig\u00eancia Artificial Explic\u00e1vel.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">No entanto, <\/span><b>o aumento de performance dos modelos de ML nem sempre foi acompanhado por um avan\u00e7o na sua transpar\u00eancia<\/b><span style=\"font-weight: 400\">. Muitas vezes, nem mesmo os especialistas que desenvolvem esses modelos sabem como eles chegam \u00e0s suas conclus\u00f5es.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Se o foco das pesquisas em <\/span><i><span style=\"font-weight: 400\">Machine Learning<\/span><\/i><span style=\"font-weight: 400\"> for apenas na otimiza\u00e7\u00e3o da performance, um modelo que faz boas previs\u00f5es e boas classifica\u00e7\u00f5es j\u00e1 \u00e9 bom o bastante.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Quer entender ainda mais sobre o tema? Continue com a leitura!<\/span><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Por que a falta de explicabilidade pode se tornar um problema?<\/h2>\n\n\n\n<p><span style=\"font-weight: 400\">Imagine uma professora de ensino m\u00e9dio. Ela trabalha em uma escola p\u00fablica h\u00e1 apenas 2 anos e \u00e9 conhecida por ser bem vista pelos seus alunos e colegas.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">O diretor da escola fica t\u00e3o impressionado com as notas e a motiva\u00e7\u00e3o dos seus alunos que pede \u00e0 professora que divida com os outros professores as suas t\u00e9cnicas. Ao final do ano, ela recebe uma avalia\u00e7\u00e3o brilhante dos pais, colegas e dos alunos.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Dois meses depois, um algoritmo que objetiva melhorar a qualidade do ensino em todo o distrito \u00e9 implementado na escola e ele passa a avaliar a performance dos professores. A professora recebe ent\u00e3o uma nota baixa desse algoritmo e \u00e9 demitida. Ao procurar o diretor ela n\u00e3o consegue uma explica\u00e7\u00e3o do que pode ter impactado sua nota baixa.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">A professora desta hist\u00f3ria chama Sarah Wysocki e em 2011 ela foi apenas uma de 206 professores demitidos ap\u00f3s serem avaliados pelo algoritmo implementado no distrito de D.C.<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Sem entrar nas repercuss\u00f5es desse caso, \u00e9 poss\u00edvel observar um problema de n\u00e3o podermos explicar as decis\u00f5es tomadas por um algoritmo. Quando avaliamos uma pessoa, \u00e9 importante que ela tenha acesso aos fatores que levaram a esse julgamento. Assim ela p\u00f4de contestar a decis\u00e3o ou trabalhar para melhorar esses fatores.&nbsp;<\/span><\/p>\n\n\n\n<p><b>\u00c9 a\u00ed que entra a import\u00e2ncia do estudo da xAI<\/b><span style=\"font-weight: 400\">, ou explainable AI, que <\/span><b>aborda a necessidade de ser poss\u00edvel interpretar um modelo de <\/b><a href=\"https:\/\/www.blip.ai\/blog\/tecnologia\/inteligencia-artificial-e-machine-learning\/\"><b><i>Machine Learning<\/i><\/b><\/a><span style=\"font-weight: 400\">.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Isso surge porque \u00e9 comum que a formula\u00e7\u00e3o dos problemas abordados por ML esteja incompleta. Muitas vezes, uma previs\u00e3o n\u00e3o \u00e9 suficiente para tratar de um problema. <\/span><b>\u00c9 importante saber mais do que apenas \u201co qu\u00ea\u201d, mas tamb\u00e9m \u201co porqu\u00ea\u201d, \u201co como\u201d<\/b><span style=\"font-weight: 400\">. N\u00e3o basta saber que um professor foi mal classificado em um ano, \u00e9 importante saber tamb\u00e9m o motivo para que uma melhora seja alcan\u00e7ada.&nbsp;<\/span><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Afinal, o que \u00e9 xAI?<\/h2>\n\n\n\n<p><b>xAI \u00e9 o campo de pesquisa que se dedica ao estudo de m\u00e9todos para que aplica\u00e7\u00f5es de <\/b><a href=\"https:\/\/www.blip.ai\/blog\/tecnologia\/inteligencia-artificial\/\"><b>Intelig\u00eancia Artificial<\/b><\/a><b> produzam solu\u00e7\u00f5es que possam ser explicadas a seres humanos(6).<\/b><span style=\"font-weight: 400\"> Ele surge como um contraponto ao desenvolvimento de modelos completamente \u201cblack box\u201d, ou seja, modelos opacos em que nem mesmo os desenvolvedores sabem como as decis\u00f5es s\u00e3o tomadas.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Uma das grandes quest\u00f5es dessa \u00e1rea \u00e9 a dificuldade de chegar a uma defini\u00e7\u00e3o fechada do que \u00e9 um modelo suficientemente explic\u00e1vel. Um survey de 2019 detalha as pesquisas conduzidas nesse campo, apresentando 5 m\u00e9tricas que frequentemente aparecem como desej\u00e1veis em modelos explic\u00e1veis:<\/span><\/p>\n\n\n\n<ul class=\"wp-block-list\"><li style=\"font-weight: 400\"><b>Justi\u00e7a<\/b><span style=\"font-weight: 400\">: as previs\u00f5es do modelo cont\u00e9m algum vi\u00e9s? Elas implicitamente ou explicitamente discriminam algum grupo minorit\u00e1rio? Ela tamb\u00e9m pode envolver o desbalanceamento de dados ou conte\u00fado impr\u00f3prio.<\/span><\/li><li style=\"font-weight: 400\"><b>Privacidade<\/b><span style=\"font-weight: 400\">: os dados sens\u00edveis utilizados no modelo est\u00e3o protegidos?<\/span><\/li><li style=\"font-weight: 400\"><b>Confiabilidade<\/b><span style=\"font-weight: 400\">: pequenas mudan\u00e7as no input do modelo podem causar grandes mudan\u00e7as inesperadas no output?<\/span><\/li><li style=\"font-weight: 400\"><b>Causalidade<\/b><span style=\"font-weight: 400\">: a explica\u00e7\u00e3o de uma decis\u00e3o tomada pelo seu modelo pode ser explicada por uma rela\u00e7\u00e3o de causalidade que \u00e9 interpret\u00e1vel por um ser humano?<\/span><\/li><li style=\"font-weight: 400\"><b>Confian\u00e7a<\/b><span style=\"font-weight: 400\">: seres humanos confiam no seu modelo? \u00c9 mais dif\u00edcil confiar em um modelo black-box do quem em um modelo transparente.<\/span><\/li><\/ul>\n\n\n\n<p><span style=\"font-weight: 400\">Al\u00e9m dessas m\u00e9tricas, o campo de pesquisa tamb\u00e9m conta com contribui\u00e7\u00f5es geradas pelos estudos de <\/span><b>Ci\u00eancias Humanas e Intera\u00e7\u00e3o Humano Computador<\/b><span style=\"font-weight: 400\">.&nbsp;<\/span><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Quais s\u00e3o os impactos gerados?<\/h2>\n\n\n\n<p><span style=\"font-weight: 400\">Para entender com profundidade os impactos que modelos de ML geram na sociedade e garantir que eles sejam de fato acompanhados de uma discuss\u00e3o \u00e9tica, \u00e9 necess\u00e1rio mais que apenas a otimiza\u00e7\u00e3o de m\u00e9tricas como as descritas acima.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Por isso, essas pesquisas voltadas para estudos qualitativos tamb\u00e9m oferecem uma complementa\u00e7\u00e3o imprescind\u00edvel ao campo da xAI.<\/span><b> Para atingir explicabilidade nos nossos modelos, \u00e9 necess\u00e1rio estudar mais do que como otimizar m\u00e9tricas.<\/b><span style=\"font-weight: 400\">&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Isso significa que todos os modelos de ML precisam ser explic\u00e1veis? N\u00e3o necessariamente. Quando estamos trabalhando com problemas bem documentados e que j\u00e1 s\u00e3o tratados na \u00e1rea h\u00e1 muitos anos, n\u00e3o \u00e9 necess\u00e1rio que o algoritmo seja explic\u00e1vel.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Tamb\u00e9m n\u00e3o \u00e9 preciso explicar um modelo quando o impacto das suas decis\u00f5es incorretas \u00e9 baixo, como, por exemplo, <\/span><a href=\"https:\/\/www.livescience.com\/54651-artificial-intelligence-virtual-dancer-partner.html\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">uma AI capaz de aprender a dan\u00e7ar<\/span><\/a><span style=\"font-weight: 400\">. Mas no caso de modelos de ML que geram um impacto direto na vida das pessoas, como o algoritmo usado para demitir uma professora, a explicabilidade \u00e9 importante.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Dessa forma, <\/span><b>o estudo de xAI \u00e9 necess\u00e1rio, para que decis\u00f5es erradas em modelos possam ser contestadas e corrigidas, e para que os modelos possam evoluir junto com a sociedade que eles afetam<\/b><span style=\"font-weight: 400\">.&nbsp;<\/span><\/p>\n\n\n\n<p><span style=\"font-weight: 400\">Gostou de conhecer um pouco mais sobre xAI? <\/span><a href=\"https:\/\/www.blip.ai\/blog\/\"><b>Fique ligado no nosso blog para receber mais conte\u00fados como este!<\/b><\/a><\/p>\n\n\n\n<p><strong><em>Refer\u00eancias:<\/em><\/strong><\/p>\n\n\n\n<p><em><span style=\"font-weight: 400\">Carvalho, D. V., Pereira, E. M., &amp; Cardoso, J. S. (2019). Machine learning interpretability: A survey on methods and metrics. <\/span><span style=\"font-weight: 400\">Electronics<\/span><span style=\"font-weight: 400\">, <\/span><span style=\"font-weight: 400\">8<\/span><span style=\"font-weight: 400\">(8), 832.<\/span><\/em><\/p>\n\n\n\n<p><em><span style=\"font-weight: 400\">O&#8217;neil, C. (2016). <\/span><span style=\"font-weight: 400\">Weapons of math destruction: How big data increases inequality and threatens democracy<\/span><span style=\"font-weight: 400\">. Broadway Books.<\/span><\/em><\/p>\n\n\n\n<p><em><span style=\"font-weight: 400\">Campolo, Alexander, and Kate Crawford. &#8220;Enchanted Determinism: Power without Responsibility in Artificial Intelligence.&#8221; <\/span><span style=\"font-weight: 400\">Engaging Science, Technology, and Society<\/span><span style=\"font-weight: 400\"> 6 (2020): 1-19.<\/span><\/em><\/p>\n\n\n\n<figure class=\"wp-block-embed\"><div class=\"wp-block-embed__wrapper\">\nhttps:\/\/www.livescience.com\/54651-artificial-intelligence-virtual-dancer-partner.html\n<\/div><\/figure>\n\n\n\n<p><em><span style=\"font-weight: 400\">Doshi-Velez, F., &amp; Kim, B. (2017). Towards a rigorous science of interpretable machine learning. <\/span><span style=\"font-weight: 400\">arXiv preprint arXiv:1702.08608<\/span><span style=\"font-weight: 400\">.<\/span><\/em><\/p>\n\n\n\n<p><em><span style=\"font-weight: 400\">Adadi, A., &amp; Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). <\/span><span style=\"font-weight: 400\">IEEE Access<\/span><span style=\"font-weight: 400\">, <\/span><span style=\"font-weight: 400\">6<\/span><span style=\"font-weight: 400\">, 52138-52160.<\/span><span style=\"font-weight: 400\">7- Abdul, A., Vermeulen, J., Wang, D., Lim, B. Y., &amp; Kankanhalli, M. (2018, April). Trends and trajectories for explainable, accountable and intelligible systems: An hci research agenda. In <\/span><span style=\"font-weight: 400\">Proceedings of the 2018 CHI conference on human factors in computing systems<\/span><span style=\"font-weight: 400\"> (pp. 1-18).<\/span><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gra\u00e7as aos avan\u00e7os do poder computacional ao qual temos acesso e ao grande volume de dados gerados diariamente, modelos de Machine Learning t\u00eam se tornado mais complexos e atingindo patamares de performance cada vez mais impressionantes. Pensando nisso, neste artigo, falaremos um pouco mais sobre xAI, ou Intelig\u00eancia Artificial Explic\u00e1vel. No entanto, o aumento de [&hellip;]<\/p>\n","protected":false},"author":574,"featured_media":10381,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[401],"tags":[360],"class_list":["post-10380","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-data-analytics"],"lang":"pt","translations":{"pt":10380},"pll_sync_post":[],"_links":{"self":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts\/10380","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/users\/574"}],"replies":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/comments?post=10380"}],"version-history":[{"count":0,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/posts\/10380\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/media\/10381"}],"wp:attachment":[{"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/media?parent=10380"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/categories?post=10380"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.blip.ai\/blog\/wp-json\/wp\/v2\/tags?post=10380"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}