TikTok introduce medidas de censura similares a las de Twitter para frenar la «desinformación»
«Eliminamos la información errónea a medida que la identificamos y nos asociamos con verificadores de hechos en PolitiFact, Lead Stories y SciVerify para ayudarnos a evaluar la precisión del contenido. Si las verificaciones de hechos confirman que el contenido es falso, eliminaremos el video de nuestra plataforma».
Así lo notificó este jueves la popular aplicación de vídeos cortos TikTok, medida con la cual parece estar siguiendo los pasos de otras grandes redes sociales en la lucha contra la información falsa.
La plataforma ya elimina los videos que, según sus verificadores, contienen «desinformación». Sin embargo, la compañía de propiedad china está ampliando esta política y anunció este miércoles que colocará etiquetas de advertencia en los videos que potencialmente contienen «información errónea» y disuadirá a los usuarios de compartirlos.
En su comunicado, TikTok advierte que a veces, las verificaciones de hechos no son concluyentes o el contenido no se puede confirmar, especialmente durante los eventos en desarrollo. En estos casos, un video puede dejar de ser elegible para ser recomendado en el feed For You de cualquier persona para limitar la difusión de información potencialmente engañosa. Hoy, damos un paso más para informar a los espectadores cuando identificamos un video con contenido sin fundamento en un esfuerzo por reducir el uso compartido.
Así es como funciona: primero, un espectador verá un banner en un video si el contenido ha sido revisado pero no puede ser validado de manera concluyente, señala y puntualiza:
Si un espectador intenta compartir el video marcado, verá un mensaje que le recordará que el video se ha marcado como contenido no verificado. Este paso adicional requiere una pausa para que las personas consideren su próximo movimiento antes de elegir «cancelar» o «compartir de todos modos».
Luego indica: Nos encanta que la creatividad de nuestra comunidad aliente a las personas a compartir videos de TikTok con otras personas que podrían disfrutarlos, tanto dentro de nuestra plataforma como más allá, pero hemos diseñado esta función para ayudar a nuestros usuarios a ser conscientes de lo que comparten».
Subraya que esta función se implementará a nivel mundial durante las próximas semanas, a partir de hoy en EE. UU. Y Canadá. Fue diseñado y probado con Irrational Labs , un laboratorio de ciencias del comportamiento, y es una continuación de nuestro trabajo continuo para promover la alfabetización mediática, incluida la serie de videos educativos «Be Informed» que creamos en asociación con la Asociación Nacional de Educación en Alfabetización Mediática .
A partir del jueves en EE.UU. y Canadá, y a finales de este mes en todo el mundo, los videos sospechosos serán «marcados como contenido sin fundamento», y se les recordará esto a los espectadores que intenten compartirlos y se les ofrecerá la oportunidad de cancelar su acción en caso de que los compartan.
«Cuando probamos este enfoque, vimos que los espectadores disminuyeron la tasa de compartir videos en un 24 %, mientras que los ‘me gusta’ en ese contenido sin fundamento también disminuyeron en un 7 %», señaló TikTok en su comunicado.
Twitter introdujo una política similar en el período previo a las elecciones presidenciales de EE.UU. de 2020, etiquetando ciertos tuits (generalmente los que planteaban preocupaciones sobre el fraude electoral) como «controvertidos» y limitando los retuits para proteger «la integridad de la conversación electoral».
Más recientemente, Twitter presentó ‘Birdwatch’, una función que permite a ciertos usuarios verificados agregar notas a las publicaciones que identifican como «desinformación». En medio de las críticas de los conservadores, la red social supuestamente planea nuevas medidas enérgicas, luego de la suspensión permanente del expresidente Donald Trump de su plataforma el mes pasado.
Según sus pautas comunitarias, actualizadas en diciembre, TikTok prohíbe «la información errónea que incita al odio o los prejuicios, la información errónea relacionada con emergencias que induce al pánico, la información médica errónea, el contenido que confunde a los miembros de la comunidad sobre las elecciones» y el «contenido conspirativo que ataca a un grupo protegido específico».
Incluso antes de las elecciones del año pasado, TikTok prohibió en su plataforma la «información errónea» relacionada con el covid-19 y el cambio climático, y se asoció en agosto con PolitiFact y Lead Stories (quienes han sido acusados de parcialidad por los conservadores) para filtrar las alegaciones erróneas relacionadas con los comicios. (Con Información RT y TikTok).