Twitter prepara una nueva opción para filtrar tweets ofensivos

Twitter está desarrollando una nueva opción de “filtro de respuesta” para dar a los usuarios más control sobre lo que desean leer y lo que no en la plataforma.
Twitter
Twitter

Twitter está lanzando nuevas actualizaciones en su búsqueda por brindar una mejor experiencia a los usuarios y dejar de ser una plataforma conocida por tener un gran número de bots y cuentas falsas, que muchas veces están presentes con comentarios ofensivos o negativos.

No es ningún secreto que Twitter puede ser una plataforma útil para aquellos que deciden compartir tweets con contenido ofensivo o incorrecto. Algunos usan esto para su beneficio, agrediendo a muchas personalidades de los medios, o políticos, buscando impulsar su propia presencia y aumentar su popularidad a través de la controversia.

Pero para otros, la reacción negativa de los tweets puede ser abrumadoramente rápida, razón por la cual Twitter está trabajando en nuevas funciones para permitir que los usuarios controlen su experiencia en la aplicación y puedan limitar las interacciones negativas cuando quieran.

Según un informe publicado por la investigadora de aplicaciones Jane Manchun Wong, Twitter está desarrollando actualmente una nueva opción de “filtro de respuesta”, que permitiría a los usuarios reducir su visión de tweets que incluyen “lenguaje potencialmente dañino u ofensivo”.

Este filtro solo evitará que las personas que lo activan no vean esas respuestas negativas, por lo que otros usuarios aún podrán ver todas las respuestas a los tweets

Esto podría ser otra forma de evitar la atención no deseada en la aplicación, lo que puede hacer que sea una experiencia más agradable para aquellos que simplemente han tenido suficientes cuentas aleatorias que les envían respuestas basura.

Presumiblemente, el sistema utilizará los mismos algoritmos de detección que las advertencias de respuesta ofensiva de Twitter, que se relanzó en febrero del año pasado.

Twitter dice que estas advertencias demostraron ser eficaces, ya que los usuarios optaron por cambiar o eliminar sus respuestas en el 30% de los casos en los que se mostraron estas alertas.

Eso sugiere que muchos usuarios de Twitter no buscan ofender o molestar intencionalmente a otros con sus respuestas, incluso una simple ventana emergente como esta tiene un efecto potencialmente significativo en el discurso de la plataforma y mejora la participación a través del tweet.

Twitter prepara una nueva opción para filtrar tweets ofensivos.

Por supuesto, eso también significa que el 70% de las personas no estuvo de acuerdo con esta evaluación automática de Twitter de sus comentarios y/o no les preocupa ofender a las personas.

En conclusión, al menos con este experimento de Twitter, se intenta brindar aún más formas para que los usuarios controlen su experiencia en la aplicación.

Todavía no hay noticias sobre una fecha de lanzamiento oficial pero según los últimos ejemplos publicados por la investigadora Wong, parece que podría llegar pronto.