Segundo informações do Wall Street Journal, o Facebook sabia dos movimentos polarizados dentro da rede e não fez nada para impedi-los ou, ainda, minimizá-los. Aliás, segundo o WSJ, o alto escalão da rede rejeitou ideias para solucionar a questão.
Em uma apresentação fechada, voltada para um seleto público interno, havia a informação de que os algoritimos da rede social sabiam como explorar a mente humana com base na divisão, ou seja, o usuário seria bombardeado cada vez mais e mais com conteúdos “divisivos”, aumentando de maneira significativa seu tempo de permanência na rede.
Em resposta, o Facebook declarou que sempre procura recalibrar seu feed e que tem objetivado publicações de familiares e amigos do usuário em detrimento a publicações ditas como extremistas ou que violem seus termos.
Acontece que, sobretudo após o escândalo conhecido como Cambridge Analytica, as plataformas de redes sociais estão sendo cada vez mais cobradas por atitudes sólidas seja em relação a extremismos ou até mesmo quanto às fake news, uma vez que tais fenômenos limitam o debate saudável na rede. A recente pandemia do novo coronavírus é mais uma prova de que redes complexas como o Facebook não estão conseguindo vencer a polarização e a disseminação de notícias falsas.