Uno de los grandes problemas a los que se ha enfrentado YouTube, junto con otras redes sociales y comunidades, es el de la propagación y diseminación de noticias falsas, hecho cuyas consecuencias a menudo son perjudiciales en algunos sentidos. Por ello, la compañía lleva un tiempo promoviendo distintas medidas que den visibilidad y valor a aquellos canales y vídeos que de verdad ofrecen información contrastada.
Aunque parte del origen del problema está, en parte, en la propia YouTube, pues este año Bloomberg informaba de que directivos de YouTube dieron órdenes a empleados para que los vídeos tóxicos no dejaran de recomendarse, la realidad es que en los últimos tiempos YouTube meses está haciendo por cambiar las tornas.
Prueba de ello es el hecho que anuncian hoy, la llegada a España de las medidas para reducir el contenido que pueda incluir información falsa o perjudicial. Era algo que ya hacen desde hace tiempo en Estados Unidos, Reino Unido, Irlanda, Sudáfrica y a otros países de habla inglesa. Junto a España, el conjunto de medidas llega a Brasil, Francia y Alemania.
Evaluadores que darán su opinión sobre la calidad de los vídeos para preparar modelos de aprendizaje automático
El primer país en que se pusieron en marcha las medidas que ahora repasaremos fue Estados Unidos, en enero de 2019. En aquel y en el resto de países mencionados, un equipo de evaluadores externos de todo el mundo ha estado dando su opinión a la compañía sobre la calidad de los vídeos, no en el sentido de resolución o bitrate, sino sobre la salud o toxicidad de sus contenidos, así como su veracidad.
Para ello, estos evaluadores se basan en las directrices públicas de YouTube, con hasta nueve opiniones por cada vídeo. En el caso de que la temática sea más complicada que dar una simple opinión, YouTube afirma que también se recurre a terceras personas formadas específicamente en la materia en cuestión que se discute para dirimir si el contenido es perjudicial o no. El ejemplo que ponen de vídeos más complejos son aquellos que hablan sobre tratamientos médicos.
Una vez se recoge la opinión de los evaluadores, desde Google toman dicha información para entrenar a sistemas de aprendizaje automático probado para preparar modelos. Es con ellos, y no con supervisión humanana, con los que la compañía afirma «revisar cientos de miles de horas de vídeos cada día para encontrar contenido que pueda incluir información falsa y limitar su difusión». En el comunicado exponen que con el tiempo «la precisión de estos sistemas seguirá mejorando».