Las redes sociales analizan cómo lidiar con el odio en los debates en línea

Las redes sociales analizan cómo lidiar con el odio en los debates en línea

Por LILAH RAPTOPOULOS
Facebook anunció un pequeño pero significativo cambio en las directrices de su comunidad en octubre. “Vamos a empezar a permitir más elementos que nuestros usuarios consideren relevantes, significativos o importantes para el interés público”, decía el comunicado. “Incluso aunque pudieran violar nuestros estándares”.
0Esto sucedió después de que surgieran informes de que los empleados de Facebook habían argumentado que los mensajes de Donald Trump sobre la inmigración musulmana violaban sus directrices sobre contenido ofensivo.
Éstos son tiempos difíciles en el mundo del debate en línea. Yo debería saberlo, ya que soy responsable de la comunidad del Financial Times en FT.com.
Yo superviso un pequeño equipo de moderadores de comentarios para asegurar que las discusiones en línea sean civilizadas.
Esto pudiera significar el discutir ocasionalmente con un editor si se deben permitir los comentarios en una historia, o alertar a un periodista sobre una interesante conversación debajo de su historia.
A veces les solicito a los lectores ideas acerca de los temas sobre los que les gustaría leer más, desde el Brexit hasta la diversidad en el lugar de trabajo.
Puede ser extremadamente difícil. ¿Cómo mantienes corteses y productivas las discusiones entre personas que no están de acuerdo? ¿Y cómo logramos que todos los lectores se sientan acogidos, particularmente los que forman parte de la minoría entre los comentaristas, como las mujeres y los jóvenes?
No son sólo las organizaciones noticiosas las que se enfrentan a este reto. Miles de organizaciones emplean a gerentes comunitarios, a moderadores y a “equipos de integridad” cuyo trabajo es decidir cuándo un comentarista se ha pasado de la raya.
Estos relativamente nuevos roles son ahora clave para todo tipo de negocios, desde servicios de reseñas tales como Amazon y TripAdvisor, hasta plataformas como Kickstarter, eBay y Twitch. Incluso tu Fitbit cuenta con una comunidad en línea que es moderada. En todas estas plataformas, desafortunadamente hay cabida para comentarios ofensivos, para incivilidad y para abuso.
Luego están los gigantes: las plataformas sociales como Facebook, Twitter y YouTube. Facebook tiene una comunidad global de más de 2000 millones de personas, y tiene dificultades para implementar directrices del contenido ofensivo que se apliquen a una amplia gama de naciones y culturas.
La compañía cometieron algunos errores extremadamente públicos. El año pasado, el activista Shaun King publicó la captura de pantalla de un correo electrónico lleno de insultos que él había recibido con el fin de llamar la atención a la intolerancia a la que se enfrentaba regularmente. Malinterpretando el contexto, los moderadores de Facebook eliminaron la entrada y temporalmente le prohibieron a King acceso a su cuenta.
Las plataformas sociales están bajo presión para que frenen el odio y el extremismo. Facebook recientemente contrató a 3000 moderadores de contenido, incrementando al equipo a 7500, casi con toda seguridad convirtiéndolo en el mayor sistema de moderación del mundo. Se dice que el equipo elimina aproximadamente 66.000 entradas por semana que se identifican como contenido ofensivo.
Twitter, la cual también ha sido severamente criticada por no proteger a sus usuarios del abuso, ha dicho que ha aumentado la represión de las cuentas abusivas.
Los algoritmos de las redes sociales les presentan a los usuarios contenido que refuerza su visión del mundo, mientras que las organizaciones noticiosas debieran exponer a los lectores a personas con las que no están de acuerdo.

Para algunos lectores, tales debates pueden representar un beneficio. Recientemente encuestamos a los suscriptores de FT y descubrimos que las dos principales razones por las que a nuestros lectores les gustan los comentarios son que agregan una mayor perspectiva y que los exponen a diferentes puntos de vista. “Ellos desafían mi comprensión del debate y me obligan a considerar otras opiniones”, comentó un lector.
Los lectores no están de acuerdo en una variedad de temas, y nos enfrentamos a dilemas para los que no hay una solución perfecta. Si eliminamos los comentarios que son críticos de los refugiados se pierde la oportunidad de tener una conversación reflexiva que pudiera crear empatía y cambiar opiniones. Si no los borramos, y el hilo de comentarios es puramente negativo, pudiera alienar y molestar a otros. En algunos casos, la mejor solución puede ser desactivar completamente los comentarios, aunque esto puede frustrar a los lectores.
Las directrices del FT, por ejemplo, son claras. A los lectores se les permite discutir o razonablemente criticar una pieza, pero no despreciar a los demás o actuar de manera tan perturbadora que reprima el debate productivo. Ese límite es más difícil de definir en los temas más sensibles y personales: el género, la raza, la religión y la política que se derivan de cada uno.
Hoy en día es más complicado, ya que temas que antes eran marginales el racismo, el antisemitismo, la supremacía blanca han aparecido de nuevo en la corriente principal del debate político.
Pero los límites se mantienen: si un comentario es discriminatorio por ejemplo, insultos basados en raza, religión, sexo, género, orientación sexual, discapacidad o edad se elimina. Si los comentaristas violan regularmente nuestras directrices, se les prohíbe el acceso.
Los moderadores no borrarán un comentario que diga que el extremismo es un problema en las comunidades musulmanas. Pero sí lo harán si dice que todos los musulmanes son extremistas.
En el futuro, gran parte del trabajo de los moderadores se automatizará; Google está trabajando en software que ayude a las organizaciones noticiosas a identificar mejor los comentarios tóxicos; e iniciativas como el Proyecto Coral, financiado por la Fundación Knight, están trabajando en herramientas de código abierto para mejorar las comunidades que comentan en los sitios de noticias. Pero nada reemplazará completamente a la moderación humana, y nunca habrá soluciones correctas y objetivas todo el tiempo.
En última instancia, cada uno de los administradores de comunidad debe decidir su límite. Ese límite será siempre un poco confuso alrededor de los márgenes, y mantenerlo depende de una buena tecnología y de un buen juicio humano.
Los límites que determinemos pueden diferir de los elegidos por Facebook, por Fitbit o por Breitbart; incluso pueden ser diferentes de los tuyos. Por el bien de la conversación civilizada, es probable que los lectores, por lo tanto, tengan que ajustarse.
EL CRONISTA