O Facebook anunciou nesta quinta-feira (15) que vai avisar usuários sobre o uso de robôs na moderação de post. Seguindo uma orientação de seu comitê de supervisão independente, a rede social vai testar um novo alerta deste tipo.
A novidade foi divulgada junto com o primeiro balanço trimestral do comitê, que começou a funcionar em outubro do ano passado, referente aos três primeiros meses de 2021.
A decisão de avisar sobre o uso de robôs a moderação de posts veio depois de uma das primeiras análises do comitê, quando o post de uma brasileira mostrando mamilos foi removido do Instagram.
No entanto, a usuária disse que objetivo era aumentar a conscientização sobre os sintomas do câncer de mama, e o post acabou voltando ao ar.
Veja alguns números do comitê divulgado pelo Facebook:
De novembro de 2020 até 31 de março de 2021, o Facebook enviou 26 casos foram enviados ao comitê de supervisão, e 3 deles foram selecionados.
No primeiro trimestre de 2021, o conselho emitiu 18 recomendações em seis casos.
O Facebook implementou 14 recomendações total ou parcialmente, e ainda está avaliando a possibilidade de implementar três.
Em uma de suas iniciativas mais importantes, em maio, o conselho pediu ao Facebook uma decisão definitiva sobre a suspensão das contas do ex-presidente dos EUA, Donald Trump. Em junho, a rede social anunciou que o republicano continuaria banido até janeiro de 2023, no Facebook e no Instagram.
Como funciona o comitê?
O comitê independente é formado por 20 membros, entre eles pessoas de todos os continentes, incluindo ex-juízes, advogados, jornalistas, ativistas de direitos humanos.
O conselho é um órgão independente, que recebeu um investimento de US$ 130 milhões da rede social para funcionar como uma espécie de alta corte. Ele conta com um estatuto próprio, que prevê suas obrigações e sua relação com o Facebook.