Já podemos detectar socialbots nas mídias sociais?

Autor: Cel Cesar Augusto Lima Campos de Moura

Segunda, 06 Novembro 2023
Compartilhar

A sociedade em rede é profundamente influenciada por ideias e valores que circulam em mensagens do ambiente digital. Cada indivíduo consome e retroalimenta esse sistema com as suas próprias contribuições, transformando e desenvolvendo as redes (CASTELLS, 2013). Na era da informação rápida, direta e generalizada, as mídias sociais criam campos de batalhas virtuais onde combatem projetos políticos e culturais. Contudo, velhas estratégias de manipulação e de engenharia social ganham maior envergadura no ciberespaço, especialmente quando a rede é assaltada por agentes automatizados. De fato, uma poderosa força de engajamento emerge no cenário digital aparentemente caótico: os robôs. Assim, a integridade das redes digitais exige usuários capazes de identificar e combater esses robôs virtuais. 

Diante da acelerada automatização das mídias sociais, questionamentos importantes vêm à tona. Como os robôs operam as mídias sociais? Quais são os impactos dessas ações? Quais são as melhores estratégias para detectar sua presença? É necessário combatê-los?

O poder de influência dos bots sobre a cultura e a sociedade é reconhecido desde a década de 1990. Lipovetsky e Serroy (2011) destacam que, à medida que o mundo se conecta via internet, começam a circular elementos que não apenas podem atentar contra a dignidade humana, mas também podem desafiar a consciência coletiva. Nesse cenário, as redes sociais tornam-se espaço privilegiado para a ação de robôs, que simulam interações e criam no usuário a sensação de estar em uma relação autêntica com seres humanos reais.  (LÉVY, 2010, p.72).

Em sua maioria, robôs exibem comportamentos marcadamente mecânicos (spam), mas também podem ser mais semelhantes aos seres humanos (socialbots). Os sistemas do tipo spam são geralmente usados em estratégias de marketing, para automatizar a divulgação de vídeos, fotos e músicas, impulsionar a divulgação de uma hashtag, link ou post, normalmente para potencializar a quantidade de cliques e o alcance das visualizações. 

Já os socialbots emergem como fenômeno das redes sociais digitais. Esses sistemas são minuciosamente programados para emular comportamentos humanos autênticos. Com isso, sua detecção é um grande desafio. Os socialbots são frequentemente utilizados para controlar contas em redes sociais e podem se manifestar de diferentes maneiras. Segundo Haugen (2017), parte desses bots é empregada em estratégias de marketing, para divulgar vídeos, fotos e música, impulsionar hashtags, links ou posts, ou ainda para receber notícias e informativos sobre o clima ou interagir com outros sistemas, tornando a comunicação mais fluida, sem prejuízo às interações no ambiente digital.

No entanto, parte significativa dos bots é desenvolvida com propósitos maliciosos, visando propagar desinformação. Esses socialbots maliciosos, equipados com tecnologia de machine learning [1], são programados para agir discretamente. Seus alvos principais são pessoas e entidades relevantes na vida nacional, de modo que representam ameaça significativa à integridade do debate público online. A ação desses bots é capaz de distorcer a percepção de apoio a temas ou indivíduos específicos, o que pode ter implicações profundas na formação da opinião pública.

O uso de robôs nas redes sociais ganha notoriedade no mesmo tempo em que a ação política desponta no ambiente virtual. O uso político de robôs potencializa o efeito de viralização de conteúdos, dificultando a distinção entre fato e mentira e a identificação de fontes confiáveis. 

Esse campo de batalha virtual, onde combatem humanos e máquinas, é influenciado ainda pelas dinâmicas de um cenário de pós-verdade [2]. Assim, a integridade das interações online e o uso eficiente das redes sociais envolvem inevitavelmente a capacidade de identificar robôs.

A detecção de bots é uma tarefa complexa, mas fundamental para manter a autenticidade das interações em redes sociais. Atualmente, pesquisadores de diversas áreas têm se dedicado a desenvolver métodos para a sua detecção. Entre os métodos mais utilizados estão o uso de análise de texto e machine learning.

É consideravelmente fácil detectar e bloquear robôs que apresentam comportamentos claramente padronizados. No entanto, a detecção de socialbots é mais complexa, especialmente quando os sistemas emulam com precisão o comportamento humano nas redes sociais, apresentando perfil completo, com fotos e textos aparentemente genuínos, e com padrão de postagem menos mecânico do que fazem os spams.

O método BotOrNot (VAROL et al., 2017) analisa contas de Twitter usando um algoritmo de aprendizagem de máquinas que analisa o histórico recente da conta, incluindo as menções a ela, e calcula a probabilidade de a conta ser administrada por um robô. Atualmente, esse método pode verificar contas automaticamente por meio de uma interface de programação de aplicação (API4, em inglês).

O método DeBot, postulado por CHAVOSHI et al. (2016 a; 2016b), identifica a ação de robôs no Twitter a partir da correlação entre usuários e mensagens. A partir de uma análise em tempo real, o método parte da premissa de que usuários diferentes têm pouquíssimas chances de produzirem conteúdos iguais e, ao mesmo tempo. Humanos não apresentam alta correlação de comportamento e, com isso, o método apresenta até 94% de acurácia na detecção de robôs. Também, uma API permite a automatização desse sistema de identificação. 

Há ainda sistemas de verificação de perfis no Twitter disponíveis gratuitamente online, como, por exemplo, o Pegabot e o Bot Sentinel. 

No Brasil, a Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas aplicou recentemente um método descrito por RUEDIGER (2017a). Essa abordagem utiliza o metadado generator para determinar o dispositivo que gerou uma postagem e quantificar a recorrência de postagens publicadas no mesmo segundo pela mesma conta. Isso permite identificar uma atividade mecânica típica dos robôs.

Os pesquisadores SHAO et al. (2018) apresentam evidências de que socialbots são “super espalhadores” de conteúdo de baixa credibilidade (notícias falsas e boatos). O comportamento desses sistemas envolve a postagem automática de links para outras páginas, retweets de outras contas e a execução de tarefas autônomas sofisticadas, como seguir e responder a outros usuários, especialmente aqueles com muitos seguidores. Esses robôs ampliam a disseminação de conteúdos no início do processo de viralização. Os autores pesquisaram mais 14 milhões de postagens no Twitter e concluíram que os humanos são vulneráveis à manipulação e replicação de conteúdos por robôs, os quais atingem considerável sucesso em espalhar conteúdo de baixa credibilidade. Para eles, o combate à desinformação passa pela restrição da ação de bots online. 

Nesse sentido, plataformas digitais encontram-se em estado de alerta diante da atuação de socialbots em seus ecossistemas. A detecção e remoção de robôs é uma prática cada vez mais constante e incentivada pelas big techs. Uma estratégia eficiente é contar com a solidariedade da comunidade, de modo que empresas como Twitter e YouTube incentivam seus usuários a denunciarem contas com padrões de interação atípicos. Contas operadas por socialbots apresentam certos padrões “fora da curva”. Mesmo assim, ainda é um grande desafio diferenciar contas operadas por humanos ou por robôs, especialmente quando se trata de um grande volume de dados. 

Os principais mecanismos de detecção de bots incluem:

Atividade suspeita: comportamentos atípicos na quantidade e frequência de postagens, no tempo online e na velocidade das interações podem indicar a ação de bots.

Comportamento em massa: bots tendem a compartilhar o mesmo conteúdo repetidamente ou responder de maneira padronizada. A uniformidade de comportamento em massa é uma característica dos bots. 

Comunicação não natural: bots frequentemente utilizam respostas predefinidas e genéricas, que podem ser percebidas como não natural a partir da análise da linguagem.

Uso de Application Programming Interface (APIs [3]): alguns bots utilizam interfaces de programação para automatizar interações, o que deixa rastros detectáveis, pois as APIs geralmente geram solicitações em padrões específicos.

Detecção de palavras-chave: bots que disseminam desinformação podem ser identificados por meio da análise de palavras-chave associadas a esses comportamentos. Identificar termos comuns usados em conteúdo enganoso pode auxiliar na detecção precoce.

Em trabalho publicado na Revista Militar de Ciência e Tecnologia, pesquisadores do Instituto Militar de Engenharia do Exército Brasileiro (Pachecoa, C. C., Machado, A. G. R., & Sallesa, R. 2019), avaliaram uma base de dados com 2.500 contas do Twitter, composta por 50% de contas humanas e 50% de contas de socialbots. Os dados foram processados por meio de um algoritmo treinado no Sistema Fuzzy, que obteve uma acurácia de 87%. Entretanto, o melhor resultado foi obtido pela combinação do Sistema Fuzzy aliado à avaliação de um comitê humano, atingindo acurácia de 93%. Os pesquisadores concluíram que a combinação homem e máquina é a melhor solução para detectar a ação de socialbots

A evolução e proliferação de socialbots nas redes sociais tem gerado uma onda de preocupação entre empresas, especialistas e usuários em geral. A capacidade destes bots para espalhar desinformação, influenciar debates e manipular a opinião pública aponta para a urgente necessidade de identificá-los e combatê-los. Ao mesmo tempo, em que ferramentas e métodos sofisticados são desenvolvidos, a análise humana ainda se mostra como um elemento essencial no processo de detecção de bots. No contexto brasileiro, pesquisadores do Exército propõem a combinação do julgamento humano com a análise automatizada do Sistema Fuzzy para otimizar a identificação de socialbots. Diversos estudos demonstram que a utilização conjunta de técnicas algorítmicas aliada a comitês de avaliação humana aprimora significativamente a acurácia no processo de classificação. Entretanto, a progressiva adaptação dos bots exige uma vigilância constante e esforços conjuntos para assegurar a integridade das interações online.

 [1] "Aprendizado de máquina" é um subcampo da inteligência artificial (IA) que se concentra no desenvolvimento de algoritmos e modelos de computador que podem aprender e melhorar a partir de dados. Em vez de programar explicitamente um computador para executar uma tarefa específica, no aprendizado de máquina, os algoritmos são treinados com dados para aprender padrões e fazer previsões ou tomar decisões com base nesses padrões.

[2] A pós-verdade é um termo que se refere a uma situação em que as emoções e crenças pessoais têm mais influência sobre a opinião pública do que os fatos objetivos. É um fenômeno onde a manipulação de informações e a disseminação de notícias falsas podem ser usadas para influenciar a percepção das pessoas sobre um determinado assunto.

[3] Application Programming Interface, ou interface de programação de aplicações. As interfaces de programação de aplicativos (APIs) são conjuntos de ferramentas, definições e protocolos para a criação de aplicações de software.

 

REFERÊNCIA BIBLIOGRÁFICA

- Castells, M. (2013). Communication power. Oxford University Press (UK).

- Chavoshi, Nikan; Hamooni, Hossein; e Mueen, Abdullah. Identifying Correlated Bots in Twitter. SocInfo 2016, Part II, pp. 14–21. University of New Mexico.

- Hougen,G. Manipulation and Deception with Social Bots: Strategies and Indicators for Minimizing

- Impact. Trondheim. The Norwegian University of Science and Tecnology.

- Lévy, P. (2010). As tecnologias da inteligência: o futuro do pensamento na era da informática. Editora 34.

- Lipovetsky, G., & Serroy, J. (2011). A cultura-mundo: resposta a uma sociedade desorientada. São Paulo: Companhia das Letras, 208.

- Pachecoa, C. C., Machado, A. G. R., & Sallesa, R. M. (2019). Sistemas fuzzy complementam a detecção de socialbots por aprendizado de máquina. Revista Militar de Ciência e Tecnologia, 36(2).

- RUEDIGER, M.A. (coord.) Robôs, Redes Sociais e Política no Brasil: estudo sobre interferências ilegítimas no debate público na web, riscos à democracia e processo eleitoral de 2018. Rio de Janeiro: FGV DAPP, 2017a.https://dapp.fgv.br/robos-redes-sociais-e-politica-estudo-da-fgvdapp-aponta-interferencias--ilegitimas-no-debate-publico-na-web/, acesso em 18/08/2023.

- RUEDIGER, M. A. (coord.) Nem tão #simples assim: o desafio de monitorar políticas públicas nas redes sociais. Caderno de Referência de Metodologia 1. 2ª edição. Rio de Janeiro: FGV DAPP, 2017b.https://dapp.fgv.br/publicacao/nem-tao-simples-assim-o-desafio-de-monitorar-politicas-publicas-nas-redes-sociais/, acesso em 20/09/2023.

- SHAO, C. et al. The spread of low-credibility content by social bots. Nature Communications, volume 9, Article number: 4787, 201

- VAROL, O.; FERRARA, E.; DAVIS, C.; MENCZER, F.; FLAMMINI, A. Online Human-Bot Interactions: Detection, Estimation, and Characterization. In: 11th International AAAI Conference on Web and Social Media, Montreal, Quebec, Canada, 2017.

 

Comentarios

Comentarios
Excelente artigo. O investimento pesado em Machine Learning, IA, BI, e o desenvolvimento de poderosas APIs, pode e deve reforçar o poder das FAs. sobre as redes sociais, uma vez que as plataformas, não são compelidas legalmente e moralmente a fazê-las. É patente a manipulação da opinião pública nessas plataformas constituindo-se uma ameaça a Democracia. É preciso mais engenheiros, desenvolvedores, pesquisa e tecnologia no exército e nas FAs, e talvez menos cabos e soldados, nesse momento, para que o Brasil controle e deixe de ser controlado por essas plataformas estrangeiras.
Sem dúvida, esse tema deve ser um foco das ações defensivas das forças armadas frente aos ataques que transcorrem em exponenciais avanços. O potencial desse assunto no contexto de convergência requer estudos conjuntos de Exército, Marinha e Aeronáutica.

Navegação de Categorias

Artigos Relacionados