Escuchando algo del conjunto «Shadowband»…o, tal vez, no escuchando nada!
Gustavo Segré es un argentino que vive en San Pablo, Brasil, con posiciones de extrema derecha!. Es comentarista en el programa 4×4 de la radio/TV, de extrema derecha, Jovem Pan.
En algún momento justificó las torturas de la dictadura brasileña (supongo que lo debe seguir haciendo) y diseminó fake news (mentiras, bah) sobre las políticas del partido de los trabajadores de Lula/Dilma, como que distribuían un kit gay en las escuelas que incentivaban que las/los alumnas/os se hicieran gays.
Algo más sobre Gustavo Segré en este humilde blog
Ahora Gustavo Segré avisa que sufrió Shadowband
«Sean muy bienvenidos a la censura en Brasil
Las redes no necesitan retirar contenidos. Te colocan en shadowband para que vos mismo retires o, nadie te encuentra. Vos dejás de existir para quien no te sigue
Bloquearon 10 contenidos míos. Todos, contra el gobierno
Si te gustan mis ideas y opiniones, ayudame a sumar seguidores
LUCHEMOS POR EL BRASIL QUE QUEREMOS Y TENDREMOS EL BRASIL QUE MERECEMOS
#TODAVÍAHAYTIEMPO»
https://video.twimg.com/ext_tw_video/1940839590769627137/pu/vid/avc1/632x1278/t_yOV6HuJOKVokuy.mp4 Gustavo Segré
Sobre Shadowban (no Shadowband):
Un peligroso enemigo en Instagram: cómo eliminar el bloqueo silencioso que les hace a sus seguidores
Instagram puede penalizar a sus usuarios con un “shadowban”, reduciendo drásticamente tu visibilidad sin dar previo aviso.
El “bloqueo silencioso” o shadowban es un fenómeno en redes sociales, donde los contenidos de una cuenta se vuelven invisibles para quienes no la siguen, e incluso para algunos seguidores. Este bloqueo que les hace Instagram a sus seguidores no se notifica al usuario, lo que lo convierte en un desafío frustrante para quienes intentan mantener su visibilidad en la plataforma.
Aunque el perfil sigue activo, las publicaciones no aparecen en los resultados de búsqueda ni en los hashtags, lo que reduce drásticamente la interacción y el alcance. Instagram utiliza el shadowban para mantener la plataforma segura y libre de contenido no deseado. Esta práctica se aplica generalmente a cuentas que violan las normas comunitarias o que utilizan métodos automáticos, como bots, para ganar seguidores o aumentar el engagement de manera artificial.
TN, Tecnoredes
Lo que publica Gustavo Segré me resulta espantoso! Ese tipo de publicaciones ayudaron, y mucho, al ascenso de la extrema derecha en el mundo! (esto y los errores del llamado progresismo)
No sé si las modificaciones en la responsabilidad de las redes sociales ante las publicaciones incentiva la censura privada. Las redes ante una posible penalización por una publicación deciden, por las dudas, hacerle shadowban a esas publicaciones, que sea más difícil encontrarlas.
Pienso que, desde el otro lado, debería ser un llamado de atención! Tener la menor presencia posible en esas redes, depender lo menos posible de ellas, más ahora que apoyan a Trump! Fomentar el uso de redes, un poco, más libres!
Una explicación sobre Mastodon y el Fediverso
Sobre el llamado : Chilling Effect [efecto paralizante] que, ante la posibilidad de una judicialización, las plataformas ejerzan censura privada:
La falacia del “Chilling Effect» [efecto paralizante]: que revelan los datos sobre la censura en las plataformas digitales
Rose Marie Santini 5 minutos de lectura El Supremo Tribunal Federal [Corte Suprema de Brasil] reanudó el juicio sobre el artículo 19 del Marco de Derechos Civiles de Internet, que establece que las plataformas solo pueden ser consideradas responsables por daños causados por contenidos de terceros si, después de una orden judicial específica, no eliminan el contenido.
Esta situación les da a las empresas de tecnología total libertad para definir sus reglas de moderación sin ninguna responsabilidad por cualquier daño a sus usuarios.
Se espera que la Corte declare el Artículo 19 total o parcialmente inconstitucional, pero el nuevo paradigma de la rendición de cuentas sigue abierto. Hasta el momento, siete magistrados han votado. Los ponentes Dias Toffoli y Luiz Fux, junto a Alexandre de Moraes, votaron por la inconstitucionalidad del artículo 19, proponiendo la implementación de un sistema de » notificación y retirada «.
En este modelo, la plataforma asume la responsabilidad del contenido desde el momento en que recibe una notificación extrajudicial de los usuarios sobre material ilegal. En la práctica, la plataforma decidirá si elimina o no el contenido, pero asume la responsabilidad de esta decisión.
LA CONTROVERSIAL EXCEPCIÓN PARA LOS DELITOS CONTRA EL HONOR Y EL «EFECTO PARALIZADOR»
La divergencia surgió con los votos de los ministros Luís Roberto Barroso, Flávio Dino y Gilmar Mendes. Si bien coinciden en la necesidad de responsabilizar a las plataformas por delitos en línea, propusieron una excepción: los delitos contra el honor (injurias, calumnias y difamación) deberían mantenerse bajo la inmunidad prevista en el Artículo 19.
La justificación de esta distinción coincide con los argumentos de las grandes empresas tecnológicas. En primer lugar, afirman que carecen de las condiciones técnicas para evaluar estos casos, lo cual es incompatible con el gran volumen de moderación de contenido que estas empresas realizan a diario en todo el mundo mediante la monitorización y evaluación automáticas.
En segundo lugar, y más crucial, las grandes tecnológicas argumentan que dicha responsabilidad causaría el temido « efecto paralizante » .
Este término describe una supuesta tendencia de las plataformas a eliminar contenido excesivamente para evitar responsabilidades legales, lo que podría llevar a una censura indiscriminada de los usuarios.
Sin embargo, para desmentir esta especulación, nada mejor que analizar datos concretos, sobre todo de Europa, que reguló las plataformas en 2022 e implementó sistemas de notificación y eliminación en Alemania desde 2018.
LA TRANSPARENCIA Y LOS DATOS EUROPEOS CONTRADICEN A LAS GRANDES TECNOLÓGICAS
Uno de los principales obstáculos para el debate en Brasil es la falta de transparencia de las empresas de tecnología en sus prácticas de moderación de contenidos, que actualmente se realizan de forma 100% voluntaria.
Por el contrario, regulaciones europeas como la Ley de Cumplimiento de la Red Alemana (NetzDG), la Ley de Servicios Digitales de la UE (DSA) y el Proyecto de Ley de Daños en Línea del Reino Unido obligan a las grandes plataformas a publicar informes de transparencia detallados, publicar reglas de moderación claras y compartir datos con investigadores.
El análisis de estos datos, en particular en el marco de la NetzDG, que entró en vigor en Alemania en 2017 (con requisitos de transparencia desde 2018), ofrece información valiosa , teniendo en cuenta que son los únicos datos de los que disponemos actualmente a nivel mundial sobre los efectos de los regímenes de responsabilidad por la moderación de contenidos en línea.
La NetzDG tiene como objetivo combatir el contenido ilegal en línea garantizando que las plataformas bloqueen y eliminen dicho contenido (incluida la difamación intencional, el insulto y el discurso de odio) dentro de las 24 horas posteriores a su denuncia.
GOOGLE MONITOREA LA DIFAMACIÓN Y NO GENERA UNA OLA DE CENSURA
Contrariamente a la narrativa del » efecto intimidatorio » , los informes de transparencia de NetzDG revelan que no se ha registrado un número alarmante de eliminaciones bajo la nueva ley. De hecho, alrededor del 70 % del contenido denunciado permaneció en línea.
Según los primeros informes de junio de 2018, las plataformas atendieron un promedio de solo el 20 % de las solicitudes de eliminación de usuarios alemanes. Esto, en realidad, es lo contrario del » efecto de intimidación «, lo que indica que las plataformas se muestran reacias a eliminar el contenido denunciado por los usuarios.
Según un estudio, al analizar específicamente los delitos contra el honor y los discursos de odio, se observa que YouTube identifica automáticamente estos contenidos y los elimina, siendo el 63,2% de la eliminación realizada de forma espontánea por la propia plataforma y tan solo el 36,8% realizada en base a notificaciones de los usuarios.
SEGURIDAD DIGITAL PARA LOS EUROPEOS: ¿POR QUÉ NO EN BRASIL?
Los informes europeos deconstruyen el argumento de que exigir responsabilidades a las plataformas por crímenes contra el honor sería inviable o tendría un » efecto paralizador «.
Si la moderación de los crímenes contra el honor funciona en otros países a través de denuncias, haciendo el entorno digital más seguro para los usuarios europeos, ¿por qué no ofrecer esa misma seguridad a los brasileños?
Mantener la inmunidad de las plataformas frente a la difamación, la calumnia y la injuria supone perpetuar una situación en la que estos daños puedan circular libremente, con consecuencias devastadoras para personas, empresas e instituciones, y sin que las plataformas asuman su parte de responsabilidad tras tener conocimiento del delito.
Netlab UFRJ consolidó y analizó los últimos seis meses de 2024 (julio a diciembre) de los informes de transparencia de las plataformas bajo la Ley de Servicios Digitales (DSA) de la Unión Europea.
Los datos refuerzan la tesis de que la moderación de contenidos por parte de las grandes tecnológicas basada en notificaciones extrajudiciales realizadas por los usuarios sigue siendo baja: de media, las plataformas eliminan el 37% de los contenidos basados en notificaciones en Europa.
Sin embargo, más del 99% del total de eliminaciones reportadas por grandes compañías tecnológicas bajo la DSA se debieron a decisiones espontáneas de la empresa, basadas en sus propios criterios y términos de uso, y no a notificaciones.
Esto sugiere que las empresas tienen la capacidad de evaluar y actuar en estos casos y que, incluso con un régimen de responsabilidad, continúan eliminando solo contenido que consideran pertinente a la luz de sus propias reglas e intereses.
La evidencia empírica demuestra que exigir responsabilidades a las plataformas no resulta en una censura generalizada. En este sentido, el Tribunal Supremo tiene la oportunidad de seguir un camino basado en datos, no en mitos, para garantizar que la libertad de expresión coexista con la responsabilidad y la seguridad en línea en Brasil.
Sigue, en portugués, en Fast Company Brasil
#chillingEffect #gustavoSegré #instagram #shadowban #shadowbaning