Entre 16 de agosto e 2 de outubro, mais de 310 mil conteúdos foram excluídos por violência e incitação. Dentre eles, exemplifica a Meta, estavam publicações que pediam para os eleitores comparecerem aos locais de votação portando armas.
Segundo a Meta, a moderação de conteúdo foi feita tanto por algoritmos quanto por humanos. “Graças ao aprendizado de máquina (machine learning), nossa tecnologia nos ajuda a identificar posts com alta probabilidade de violar nossas políticas para reduzir sua distribuição e, se for o caso, removê-los”, afirmou a empresa.