El “reto Momo” reaviva el debate sobre la responsabilidad en el uso de la tecnología

81306cd5ab21a586a65b5fe9ada9d701
81306cd5ab21a586a65b5fe9ada9d701
Un día Facebook se cayó y, con él, Instagram y Whatsapp. Y millones de personas en el mundo quedaron virtualmente desconectadas, aunque era pura realidad. Cuando la red se recuperaba de "una falla en un servidor", tal como informó la misma compañía, la peor masacre en la historia de Nueva Zelanda se transmitió por Facebook Live durante 17 minutos.

Yahoo.– Un día Facebook se cayó y, con él, Instagram y Whatsapp. Y millones de personas en el mundo quedaron virtualmente desconectadas, aunque era pura realidad. Cuando la red se recuperaba de “una falla en un servidor”, tal como informó la misma compañía, la peor masacre en la historia de Nueva Zelanda se transmitió por Facebook Live durante 17 minutos.

En el medio, Momo, la escultura tétrica que el año pasado asustó a millones de chicos en el mundo, volvió a escena y se coló en Youtube y en Youtube Kids, la plataforma en la que otros tantos millones de padres confiaban para que sus hijos consumieran contenidos acorde a su edad. Y sin peligros.

Ni el trabajo de los moderadores de contenidos, ni la autorregulación, ni la tecnología aplicada a filtros en sus diversas formas parecen haber sido suficientes herramientas para frenar la viralización de imágenes violentas, tal como ocurrió en el ataque en Nueva Zelanda, y con Momo en Youtube Kids.

Hubo una seguidilla de cuestionamientos a las plataformas, no sin razón. Pero también la evidencia de que no alcanza con la tecnología, sencillamente porque no es infalible. Porque, en el medio, estamos los seres humanos, con nuestras virtudes y nuestras miserias.

“Las plataformas son una plaza pública indispensable para la libertad de expresión, por eso es necesario avanzar en una regulación inteligente (Smart regulation) donde se contemple la transparencia, entendida las normas de comportamiento y conocimiento de parte de los usuarios de esas normas y el procedimiento de aplicación. No es tanto regulación como cuidado del comportamiento de los usuarios”, consideró Joan Barata, experto en libertad de expresión e investigador asociado del Center for Internet and Society de la Universidad de Stanford, que hace unos días participó de una discusión sobre contenidos y libertad de expresión en la facultad de Ciencias Sociales de la UBA.

Ese lugar de reunión también tiene sus riesgos, como lo tiene la misma plaza de barrio a determinada hora de la noche, o una tarde cualquiera. Entonces, la seguridad no pasa sólo por tener luz o cámaras de seguridad. También pasa por el comportamiento de las personas.

Para el experto, la regulación de contenido de parte de la plataforma es más conflictivo. Por eso, sostuvo, “se debe abrir la puerta para dar más poder al usuario sobre el contenido al que quieren acceder, las audiencias a las que quieren llegar y los criterios sobre la base de los cuales se muestran esos contenidos”, agregó.

Parte de ese mayor poder a favor del usuario radica en los reportes de contenido inapropiado, sobre el que las plataformas suelen actuar rápidamente, pero que no siempre es así.

Ni los reportes, ni los equipos de moderadores, ni la tecnología disponible por parte de las principales compañías de internet del mundo fueron suficiente para frenar la transmisión del atentado en Nueva Zelanda. De hecho, en las primeras 24 horas se eliminaron 1,5 millón de videos, y no había certeza de que esa tarea hubiese finalizado.

Tampoco hay certeza de que Momo haya dejado de circular en las plataformas de video. La terrorífica escultura resucita pese a que su creador ya le dio muerte y se aparece de manera truculenta en medio de arco iris y melodías suaves asustando a los chicos cuando menos se lo esperan. Porque justamente están en otra sintonía.

Pese a que Youtube envió un comunicado en el que aseveró que “contrario a lo que se está difundiendo a través de medios y en otras plataformas de comunicación y mensajería, no tenemos evidencia de videos que promuevan el reto Momo en YouTube ni en YouTube Kids”, al tiempo que agregó que ese tipo de contenido “constituye una violación de nuestras políticas y, al ser reportado, sería eliminado inmediatamente”.

Más allá que, desde la compañía, aclararon que cualquier reporte sería revisado y se tomarían las medidas necesarias e instaron a los usuarios a hacerlo en caso de que el personaje en cuestión apareciera. iProfesional pudo ver horas después del comunicado recibido que Momo continuaba surgiendo en medio de videos infantiles de una manera escalofriante.

Sobre el Autor

Jessica Hernandez

TRA Digital

GRATIS
VER