{"id":35234,"date":"2019-04-05T00:30:31","date_gmt":"2019-04-05T03:30:31","guid":{"rendered":"https:\/\/asmetro.org.br\/portalsn\/?p=35234"},"modified":"2019-04-05T09:44:51","modified_gmt":"2019-04-05T12:44:51","slug":"de-bem-com-a-vida-como-a-inteligencia-artificial-e-usada-para-combater-o-bullying-e-monitorar-pensamentos-suicidas","status":"publish","type":"post","link":"https:\/\/asmetro.org.br\/portalsn\/2019\/04\/05\/de-bem-com-a-vida-como-a-inteligencia-artificial-e-usada-para-combater-o-bullying-e-monitorar-pensamentos-suicidas\/","title":{"rendered":"De Bem com a Vida: Como a intelig\u00eancia artificial \u00e9 usada para combater o bullying e monitorar pensamentos suicidas"},"content":{"rendered":"<div class=\"story-body__inner\">\n<p class=\"story-body__introduction\">\u00c9 dif\u00edcil terminar com o primeiro amor, mas, aos 18 anos, essa foi uma experi\u00eancia particularmente traum\u00e1tica para Nikki Mattocks. Em vez de ter um tempo para autorreflex\u00e3o, ela se viu sendo bombardeada com mensagens de \u00f3dio nas m\u00eddias sociais dos amigos de seu ex-namorado. Um deles at\u00e9 a incentivou a se matar.<\/p>\n<p>&#8220;Me isolei muito. As mensagens me deixaram t\u00e3o deprimida e me levaram a tomar uma overdose de rem\u00e9dios&#8221;, diz.<\/p>\n<p>Mattocks \u00e9 uma das milh\u00f5es de pessoas em todo o mundo que s\u00e3o v\u00edtimas de bullying. Essa pr\u00e1tica \u00e9 muitas vezes considerada um rito de passagem, mas afeta entre 1\/5 e 1\/3 das crian\u00e7as que frequentam a escola. Os adultos sofrem taxas semelhantes no trabalho.<\/p>\n<p>Mas pesquisas mostraram que o ass\u00e9dio moral pode deixar uma cicatriz duradoura na vida das pessoas, causando danos em longo prazo para sua sa\u00fade futura, patrim\u00f4nio e relacionamentos. E a quantidade crescente de tempo que passamos on-line nos exp\u00f5e a formas de bullying que, embora an\u00f4nimas, podem ser igualmente devastadoras.<\/p>\n<p>Os jovens submetidos ao cyberbullying sofrem mais com a depress\u00e3o do que aqueles que n\u00e3o s\u00e3o v\u00edtimas e t\u00eam pelo menos duas vezes mais chances de se automutilar e tentar o suic\u00eddio, segundo pesquisadores. Ao menos 59% dos adolescentes americanos dizem ter sido v\u00edtimas de bullying online.<\/p>\n<p>Mattocks, que superou o cyberbullying com a ajuda de novos amigos na universidade, agora como ativista de sa\u00fade mental, ajudando outras pessoas que enfrentam bullying. Ela defende um esfor\u00e7o maior da sociedade para conter a pr\u00e1tica.<\/p>\n<h2 class=\"story-body__crosshead\">Monitoramento inteligente de bullying<\/h2>\n<p>A tecnologia tanto pode aumentar o potencial para o bullying quanto ser usada para acabar com ele. Computadores alimentados por intelig\u00eancia artificial est\u00e3o sendo usados para detectar e lidar com casos de ass\u00e9dio.<\/p>\n<p>&#8220;\u00c9 quase imposs\u00edvel para os moderadores humanos ler todos os posts e determinar se h\u00e1 algum problema&#8221;, diz Gilles Jacobs, pesquisador de idiomas da Universidade de Ghent, na B\u00e9lgica. &#8220;Por isso, a IA \u00e9 fundamental para automatizar a detec\u00e7\u00e3o e modera\u00e7\u00e3o de bullying e trolling.&#8221;<\/p>\n<p>A equipe de Jacbos criou um algoritmo de aprendizado de m\u00e1quina para identificar palavras e frases associadas ao bullying no site de m\u00eddia social AskFM, que permite aos usu\u00e1rios fazer e responder perguntas. O sistema conseguiu detectar e bloquear quase 2\/3 dos insultos em quase 114 mil postagens em ingl\u00eas. Tamb\u00e9m foi mais preciso do que uma simples pesquisa de palavras-chave. Ainda assim, teve dificuldades com coment\u00e1rios sarc\u00e1sticos.<\/p>\n<p>O discurso abusivo \u00e9 notoriamente dif\u00edcil de detectar porque as pessoas usam linguagem ofensiva por v\u00e1rias raz\u00f5es, e alguns dos coment\u00e1rios mais desagrad\u00e1veis n\u00e3o usam palavras hostis. Pesquisadores da Universidade McGill, em Montreal, no Canad\u00e1, est\u00e3o treinando algoritmos para detectar o discurso de \u00f3dio, ensinando a eles como comunidades espec\u00edficas no Reddit t\u00eam como alvo mulheres, negros e pessoas com excesso de peso usando palavras espec\u00edficas.<\/p>\n<p>&#8220;Minhas descobertas sugerem que precisamos de filtros separados de fala de \u00f3dio para alvos distintos do discurso de \u00f3dio&#8221;, diz Haji Saleem, um dos respons\u00e1veis pela pesquisa.<\/p>\n<p>Surpreendentemente, a ferramenta foi mais precisa do que a treinada para identificar palavras-chave. Tamb\u00e9m foi capaz de identificar abusos menos \u00f3bvios &#8211; palavras como &#8220;animais&#8221;, por exemplo &#8211; que podem ter um efeito desumanizador.<\/p>\n<h2 class=\"story-body__crosshead\">Abusos em redes sociais<\/h2>\n<p>Detectar bullying online est\u00e1 longe de ser uma tarefa meramente acad\u00eamica. Tome como exemplos gigantes da m\u00eddia social como o Instagram. Uma pesquisa realizada em 2017 descobriu que 42% dos adolescentes sofreram bullying no Instagram, a taxa mais alta de todos os sites de m\u00eddia social avaliados no estudo. Em alguns casos extremos, alguns usu\u00e1rios cometeram suic\u00eddio.<\/p>\n<p>E os alvos n\u00e3o s\u00e3o apenas os adolescentes &#8211; o guitarrista do Queen Brian May est\u00e1 entre aqueles que foram atacados na plataforma.<\/p>\n<p>&#8220;O que sofri me fez ver com outros olhos aquelas hist\u00f3rias de crian\u00e7as sendo intimidadas a ponto de se suicidarem por mensagens de seus &#8216;amigos&#8217; nas redes sociais&#8221;, disse May na \u00e9poca. &#8220;Agora, sei em primeira m\u00e3o como \u00e9 sentir que voc\u00ea est\u00e1 em um lugar seguro, relaxado, aberto e sem supervis\u00e3o, e ent\u00e3o, em uma palavra, ser subitamente invadido.&#8221;<\/p>\n<p>O Instagram agora est\u00e1 usando a intelig\u00eancia artificial para detectar bullying em coment\u00e1rios, fotos e v\u00eddeos. Embora a empresa esteja usando um &#8220;filtro de bullying&#8221; para ocultar coment\u00e1rios nocivos desde 2017, foi apenas recentemente que come\u00e7ou a usar o aprendizado de m\u00e1quina para rastrear ataques verbais a usu\u00e1rios, em fotografias de tela dividida, por exemplo. Tamb\u00e9m rastreia amea\u00e7as contra indiv\u00edduos em coment\u00e1rios e fotos.<\/p>\n<p>A rede social diz que identificar e remover ativamente esse material \u00e9 uma medida crucial, j\u00e1 que muitas v\u00edtimas de bullying n\u00e3o prestam queixa. O aprendizado de m\u00e1quina tamb\u00e9m permite que a\u00e7\u00f5es sejam tomadas contra aqueles que postarem repetidamente conte\u00fado ofensivo.<\/p>\n<p>Mesmo com essas medidas, no entanto, os agressores continuam a criar &#8220;p\u00e1ginas de \u00f3dio&#8221; an\u00f4nimas para atacar suas v\u00edtimas e enviar mee casos de ass\u00e9dio sexual dentro das principais empresas de tecnologia no Vale do Sil\u00edcio v\u00eam lan\u00e7ando luz sobre como o bullying e a discrimina\u00e7\u00e3o podem afetar as pessoas no local de trabalho. Quase metade das mulheres experimentou alguma forma de discrimina\u00e7\u00e3o enquanto trabalhava na ind\u00fastria de tecnologia na Europa.<\/p>\n<h2 class=\"story-body__crosshead\">De que modo a tecnologia poderia trazer benef\u00edcios?<\/h2>\n<p>O chatbot inteligente Spot visa ajudar as v\u00edtimas a relatar suas experi\u00eancias de ass\u00e9dio no local de trabalho com precis\u00e3o e seguran\u00e7a. O sistema gera um &#8216;interrogat\u00f3rio&#8217; com registro de data e hora que o usu\u00e1rio pode manter arquivado ou enviar ao seu empregador, anonimamente, se necess\u00e1rio. A ideia \u00e9 &#8220;transformar uma lembran\u00e7a em evid\u00eancia&#8221;, diz Julia Shaw, psic\u00f3loga da University College London e co-criadora da Spot.<\/p>\n<p>Em outras palavras, um registro com data e hora de um incidente em torno de quando o abuso ocorreu poderia tornar mais dif\u00edcil lan\u00e7ar d\u00favidas sobre as evid\u00eancias posteriormente extra\u00eddas da mem\u00f3ria, como os cr\u00edticos de Christine Blasey Ford tentaram fazer depois que ela acusou Brett Kavanaugh, nomeado pelo presidente americano Donald Trump para a Surprema Corte americana, de agress\u00e3o sexual quando ambos ainda estavam na faculdade.<\/p>\n<p>Outra ferramenta chamada Botler AI vai um passo al\u00e9m, fornecendo conselhos a pessoas que foram assediadas sexualmente. Usando informa\u00e7\u00f5es de mais de 300 mil processos judiciais nos Estados Unidos e no Canad\u00e1, o sistema usa o processamento de linguagem natural para avaliar se um usu\u00e1rio foi v\u00edtima de ass\u00e9dio sexual aos olhos da lei e gera um relat\u00f3rio do incidente, que pode ser entregue ao departamento de RH da empresa ou \u00e0 pol\u00edcia. A primeira vers\u00e3o ficou no ar por seis meses e alcan\u00e7ou 89% de precis\u00e3o.<\/p>\n<p>&#8220;Uma de nossas usu\u00e1rias sofreu agress\u00e3o sexual de um pol\u00edtico e disse que a ferramenta lhe deu a confian\u00e7a de que precisava e a capacitou para agir&#8221;, diz Amir Moravej, fundador da Botler AI. &#8220;Ela abriu um processo judicial e o caso est\u00e1 em andamento.&#8221;<\/p>\n<p>A AI n\u00e3o s\u00f3 poderia ajudar a acabar com o bullying, mas tamb\u00e9m salvar vidas. Cerca de 3.000 pessoas em todo o mundo cometem suic\u00eddio todos os dias. Ou seja, uma morte a cada 40 segundos. Mas prever se algu\u00e9m est\u00e1 mais suscet\u00edvel ao suic\u00eddio \u00e9 notoriamente dif\u00edcil.<\/p>\n<p>Embora fatores como o hist\u00f3rico do indiv\u00edduo possa oferecer algumas pistas, n\u00e3o h\u00e1 um fator de risco \u00fanico que seja um forte indicador de suic\u00eddio. O que torna ainda mais dif\u00edcil a previs\u00e3o \u00e9 que os profissionais de sa\u00fade mental muitas vezes precisam examinar evid\u00eancias e avaliar o risco em um telefonema de cinco minutos.<\/p>\n<figure class=\"media-landscape has-caption full-width\">\n<p><figure style=\"width: 976px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/i0.wp.com\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/9095\/production\/_106031073_p0707r1r.jpg?ssl=1\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/i0.wp.com\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/9095\/production\/_106031073_p0707r1r.jpg?resize=696%2C392&#038;ssl=1\" alt=\"Smartphone\" width=\"696\" height=\"392\" data-highest-encountered-width=\"624\"><\/a><figcaption class=\"wp-caption-text\">Algoritmos que buscam sinais de bullying nas redes sociais podem ajudar a rastrear agressores. Direito de imagem GETTY IMAGES<\/figcaption><\/figure><\/figure>\n<p>Mas as m\u00e1quinas inteligentes podem ajudar.<\/p>\n<p>&#8220;A IA pode coletar muitas informa\u00e7\u00f5es e montar o quebra-cabe\u00e7a rapidamente, o que pode ser \u00fatil para analisar v\u00e1rios fatores de risco&#8221;, diz Martina Di Simplicio, professora de psiquiatria da Universidade Imperial College London, no Reino Unido.<\/p>\n<h2 class=\"story-body__crosshead\">An\u00e1lise estat\u00edstica sobre automutila\u00e7\u00e3o<\/h2>\n<p>Cientistas do Centro M\u00e9dico da Universidade de Vanderbilt e da Universidade Estadual da Fl\u00f3rida treinaram algoritmos de aprendizado de m\u00e1quina para examinar os registros de sa\u00fade de pacientes que cometeram automutila\u00e7\u00e3o. Os algoritmos foram capazes de prever se um paciente tentaria ceifar sua vida na semana seguinte a uma ocorr\u00eancia de automutila\u00e7\u00e3o com uma precis\u00e3o de 92% .<\/p>\n<p>&#8220;Podemos desenvolver algoritmos que dependem apenas de dados j\u00e1 coletados rotineiramente no centro m\u00e9dico para prever o risco de pensamentos e comportamentos suicidas&#8221;, diz Colin Walsh, professor-assistente de inform\u00e1tica biom\u00e9dica no Centro M\u00e9dico da Universidade de Vanderbilt em Nashville, no Estado americano do Tennessee, que liderou o estudo.<\/p>\n<p>Apesar de a pesquisa oferecer a esperan\u00e7a de que os especialistas em sa\u00fade mental tenham outra ferramenta para ajud\u00e1-los a proteger os pacientes que est\u00e3o em risco no futuro, h\u00e1 muito trabalho ainda a ser feito.<\/p>\n<p>&#8220;Os algoritmos desenvolvidos neste estudo podem abordar com bastante precis\u00e3o quem tentar\u00e1 suic\u00eddio, mas n\u00e3o quando algu\u00e9m vai morrer&#8221;, dizem os pesquisadores. &#8220;Embora o conhecimento preciso de quem pode se suicidar ainda seja criticamente importante para informar as decis\u00f5es cl\u00ednicas sobre o risco, n\u00e3o \u00e9 suficiente para determinar o risco iminente&#8221;.<\/p>\n<p>Outro estudo realizado por pesquisadores da Universidade Carnegie Mellon, em Pittsburgh, no Estado americano da Pensilv\u00e2nia, foi capaz de identificar indiv\u00edduos que tinham pensamentos suicidas com 91% de precis\u00e3o. Os cientistas pediram a 34 participantes que pensassem em 30 conceitos espec\u00edficos relacionados a aspectos positivos ou negativos da vida e da morte enquanto escaneavam seus c\u00e9rebros usando uma m\u00e1quina de resson\u00e2ncia magn\u00e9tica. Eles ent\u00e3o usaram um algoritmo de aprendizado de m\u00e1quina para identificar &#8220;assinaturas neurais&#8221; para esses conceitos.<\/p>\n<p>Os pesquisadores descobriram diferen\u00e7as na forma como pessoas saud\u00e1veis e suicidas pensavam sobre conceitos como &#8220;morte&#8221; e &#8220;despreocupa\u00e7\u00e3o&#8221;. O computador foi capaz de identificar com 94% de precis\u00e3o nove pessoas que experimentaram pensamentos suicidas e que haviam tentado o suic\u00eddio e oito que n\u00e3o tentaram, observando essas diferen\u00e7as.<\/p>\n<p>&#8220;Pessoas com pensamento suicida costumam expressar um sentimento de vergonha, mas isso n\u00e3o aconteceu com os participantes saud\u00e1veis&#8221;, diz Marcel Just, diretor do Centro de Imagem do C\u00e9rebro Cognitivo da Universidade Carnegie Mellon. Ele diz acreditar que um dia os terapeutas poderiam usar essa informa\u00e7\u00e3o para criar um tratamento personalizado para algu\u00e9m com pensamentos suicidas.<\/p>\n<p>\u00c0 primeira vista, esses tratamentos personalizados podem parecer futuristas. Mas gigantes de buscas e de m\u00eddias sociais est\u00e3o tentando identificar usu\u00e1rios em crise. Por exemplo, quando algu\u00e9m busca no Google algo relacionado \u00e0 tentativa de suic\u00eddio, o buscador oferece o n\u00famero do telefone de uma institui\u00e7\u00e3o que atua na preven\u00e7\u00e3o, em vez do resultado da pesquisa.<\/p>\n<p>No ano passado, o Facebook come\u00e7ou a usar a intelig\u00eancia artificial para identificar posts de pessoas que possam estar em risco de cometer o suic\u00eddio. Outras redes sociais, como o Instagram, tamb\u00e9m come\u00e7aram a explorar como a IA pode ajudar a evitar o compartilhamento de imagens de autoflagela\u00e7\u00e3o e posts relacionados ao suic\u00eddio.<\/p>\n<p>O Facebook tamb\u00e9m treinou seus algoritmos para identificar padr\u00f5es de palavras tanto no post principal quanto nos coment\u00e1rios para ajudar a confirmar casos de desejo suicida. Isso \u00e9 combinado com outros detalhes, como se as mensagens s\u00e3o postadas nas primeiras horas da manh\u00e3. Todos esses dados s\u00e3o canalizados para outro algoritmo que \u00e9 capaz de descobrir se a postagem de um usu\u00e1rio do Facebook deve ser revisada pela equipe de Opera\u00e7\u00f5es Comunit\u00e1rias do Facebook, que pode disparar o alarme se achar que algu\u00e9m est\u00e1 em risco.<\/p>\n<p>Em casos graves, o Facebook pode entrar em contato com autoridades locais. Al\u00e9m disso, a empresa j\u00e1 atuou em conjunto com socorristas para realizar mais de mil verifica\u00e7\u00f5es sobre a sa\u00fade mental dos usu\u00e1rios at\u00e9 o momento.<\/p>\n<p>&#8220;N\u00e3o somos m\u00e9dicos e n\u00e3o estamos tentando fazer um diagn\u00f3stico de sa\u00fade mental&#8221;, explica Dan Muriello, engenheiro da equipe que produziu as ferramentas. &#8220;Estamos tentando obter informa\u00e7\u00f5es para as pessoas certas rapidamente&#8221;.<\/p>\n<p>O Facebook n\u00e3o \u00e9 a \u00fanica empresa que analisa texto e comportamento para prever se algu\u00e9m pode estar passando por problemas de sa\u00fade mental. Maria Liakata, professora-associada da Universidade de Warwick, no Reino Unido, est\u00e1 trabalhando na detec\u00e7\u00e3o de mudan\u00e7as de humor em posts de m\u00eddias sociais, mensagens de texto e dados de telefones celulares.<\/p>\n<p>&#8220;A ideia \u00e9 poder monitorar passivamente e prever, de forma confi\u00e1vel, mudan\u00e7as de humor e pessoas em risco&#8221;, afirma. Ela diz esperar que a tecnologia seja incorporada em um aplicativo capaz de ler mensagens no telefone de um usu\u00e1rio.<\/p>\n<p>Embora essa iniciativa possa aumentar as preocupa\u00e7\u00f5es com a privacidade, milhares de pessoas j\u00e1 est\u00e3o compartilhando de bom grado seus pensamentos mais profundos com os aplicativos de IA em uma tentativa de combater a depress\u00e3o, que \u00e9 um indicador do suic\u00eddio.<\/p>\n<p>Aplicativos como o Woebot e o Wysa permitem que os usu\u00e1rios conversem sobre seus problemas com um bot que responde seguindo padr\u00f5es de tratamento certificados pelas autoridades de sa\u00fade, como a terapia cognitivo-comportamental.<\/p>\n<p>As m\u00e1quinas tamb\u00e9m podem ajudar a intervir e acabar com o bullying. Mas at\u00e9 que a IA aperfei\u00e7oe uma maneira de detectar as t\u00e1ticas de intimida\u00e7\u00e3o mais sutis e astutas, essa responsabilidade caber\u00e1 a n\u00f3s.<\/p>\n<ul class=\"story-body__unordered-list\">\n<li class=\"story-body__list-item\"><strong>Leia a&nbsp;<\/strong><a class=\"story-body__link\" href=\"http:\/\/www.bbc.com\/future\/story\/20190207-how-artificial-intelligence-can-help-stop-bullying\" target=\"_blank\" rel=\"noopener noreferrer\">vers\u00e3o original<\/a><strong>&nbsp;desta reportagem (em ingl\u00eas) no site<\/strong>&nbsp;<strong>BBC Future.<\/strong><\/li>\n<\/ul>\n<p><strong><span class=\"byline__name\">Cr\u00e9dito: Sarah Griffiths <\/span><span class=\"byline__title\">BBC Future &#8211; dispon\u00edvel na internet 05\/04\/2019<\/span><\/strong><\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>\u00c9 dif\u00edcil terminar com o primeiro amor, mas, aos 18 anos, essa foi uma experi\u00eancia particularmente traum\u00e1tica para Nikki Mattocks. Em vez de ter um tempo para autorreflex\u00e3o, ela se viu sendo bombardeada com mensagens de \u00f3dio nas m\u00eddias sociais dos amigos de seu ex-namorado. Um deles at\u00e9 a incentivou a se matar. &#8220;Me isolei [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":35235,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"ngg_post_thumbnail":0,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[135],"tags":[],"class_list":{"0":"post-35234","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-clipping"},"jetpack_featured_media_url":"https:\/\/i0.wp.com\/asmetro.org.br\/portalsn\/wp-content\/uploads\/2019\/04\/A.I..jpg?fit=960%2C539&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/posts\/35234","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/comments?post=35234"}],"version-history":[{"count":0,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/posts\/35234\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/media\/35235"}],"wp:attachment":[{"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/media?parent=35234"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/categories?post=35234"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/asmetro.org.br\/portalsn\/wp-json\/wp\/v2\/tags?post=35234"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}