📢 Assina a carta aberta!
Junta a tua voz pelos direitos humanos e o Estado de Direito.
🗳️ Exigimos ação das instituições europeias.
⌛ Cada hora conta — vidas estão a ser perdidas.
✍️ Não fiques em silêncio.
🔗 bit.ly/cepa_cartaaberta
@ec.europa.eu #palestina #gaza
12.06.2025 09:22 — 👍 5 🔁 3 💬 0 📌 0
7/
⚠️ No fim, não somos nós que escolhemos o que tem visibilidade.
E é importante estarmos conscientes disso.
Fonte: sociedadecivil.pt/biblioteca/
11.06.2025 17:13 — 👍 3 🔁 0 💬 0 📌 0
6/
🎯 Filtros ajustados à medida
Caso concreto: a Meta revelou ter ajustado os filtros para conteúdos sobre a Palestina, baixando o nível de confiança exigido de 80% para 25%.
➡️ Resultado? Mais conteúdos bloqueados ou removidos por engano.
11.06.2025 17:13 — 👍 4 🔁 0 💬 1 📌 0
5/
📉 Menos destaque no feed
Certos temas, palavras ou contas podem ser “silenciados” de forma subtil — os algoritmos colocam estes conteúdos no fundo do feed.
11.06.2025 17:13 — 👍 3 🔁 0 💬 1 📌 0
4/
👻 Shadow banning
O conteúdo continua lá, mas o seu alcance é cortado sem aviso. Poucas pessoas chegam a vê-lo.
11.06.2025 17:13 — 👍 3 🔁 0 💬 1 📌 0
3/
Para contornar esse bloqueio invisível, usamos a palavra “Oelestin” — um código para escapar à censura automática.
Aqui vão 3 formas comuns de controlo algorítmico:
11.06.2025 17:13 — 👍 3 🔁 0 💬 1 📌 0
2/
🤖 Existe um controlo subtil, mas poderoso: os algoritmos decidem o que é visível.
Plataformas sociais e até chats limitam o alcance de conteúdos com palavras como Palestina 🇵🇸 ou certos emojis.
(Sim, este post também pode ser afetado.)
11.06.2025 17:13 — 👍 3 🔁 0 💬 1 📌 0
🧵1/
🧠 Nem sempre vemos o que escolhemos — muitas vezes, é o algoritmo que decide o que aparece (ou desaparece) dos nossos feeds.
👇 Uma breve thread sobre censura algorítmica e controlo invisível:
11.06.2025 17:13 — 👍 4 🔁 3 💬 1 📌 0