Skip to content
Tonystam
Tonystam
The latest tech news
Menu
  • Home
  • Servicios
    • Diseño web
    • Desarrollo y apps
    • Hosting y mail
    • Usuarios y contenidos
    • Mailing y newsletters
    • Posicionamiento y SEO
    • Asesoramiento
  • Contacto
  • Español
Tonystam
Tonystam
The latest tech news

Contact Us

12pm - 21pm

icon
+372 880 4517
Estonia
icon
+34 656 85 72 70
Spain
icon
+44 1223 976667
UK
icon
info@blog.tonystam.com
24 / 7
icon
Europe
Ask Us for appointments

Facebook cambia el algoritmo para deshacerse del “contenido borderline”, que casi viola sus políticas

Posted by Tonystam
17 abril, 2020Apps y software, Tecnología

Facebook ha cambiado el algoritmo en su feed de noticias para deshacerse del contenido que está cerca de violar sus políticas, que prohíben la desinformación, la incitación al odio, la violencia, el acoso escolar y el clickbait. Gracias a este nuevo algoritmo el contenido será visto por menos personas, incluso aunque sea muy atractivo. En una carta de 5000 palabras de Mark Zuckerberg publicada hoy, explicó cómo un “problema de vital importancia” el hecho de que “cuando no se controla, la gente se involucra de manera desproporcionada con contenidos sensacionalistas y provocativos.”

Sin intervención, el engagement (nivel de interacción) con el contenido borderline va aumentando a medida que se acerca a los límites de las políticas. Así que Facebook está interviniendo, suprimiendo artificialmente la distribución de noticias de este tipo para que el engagement se vea como el gráfico a continuación.

Facebook aplicará penalizaciones al contenido borderline, no solo a la fuente de estas noticias, sino a todo su contenido, incluidos los grupos y las páginas relacionadas, para asegurar que no radicalice a las personas al recomendar que se unan a ciertas comunidades.

Sin embargo, los usuarios que deseen ver contenido borderline tendrán la oportunidad de hacerlo. Zuckerberg escribe que “Creemos que aquellos que quieren ver dichos contenidos deberían tener esa opción ya que este tipo de contenido no viola nuestros estándares.” Por ejemplo, Facebook podría crear estándares flexibles para algunos tipos de contenido, como la desnudez, donde las normas culturales de cada lugar varían.  Sin embargo, aun queda hasta que estas opciones se encuentren disponibles, ya que Zuckerberg dice que Facebook primero debe entrenar a su IA para que pueda detectar de manera confiable el contenido que cruza estos límites o se acerca a ellos.

Facebook podría terminar expuesto a críticas, especialmente de grupos políticos marginales que confían en el contenido límite para preparar sus bases y difundir sus mensajes. Pero con la polarización y el sensacionalismo desenfrenados y desgarradores de la sociedad, Facebook ha adoptado una política que puede aportar contenido más justo y veraz.

A continuación, podréis encontrar la declaración escrita completa de Zuckerberg sobre el contenido borderline:

Uno de los mayores problemas a los que enfrentan las redes sociales es que, cuando no se controlan, las personas se involucran de manera desproporcionada con contenido sensacionalista y provocativo. Esto no es un nuevo fenómeno. Actualmente esto está muy difundido en las noticias por cable y ha sido un elemento básico durante más de un siglo. A gran escala, puede socavar la calidad del discurso público y conducir a la polarización. En nuestro caso, también puede afectar a la calidad de nuestros servicios. 

Nuestra investigación sugiere que no importa dónde dibujemos las líneas para lo que está permitido o no, a medida que una parte del contenido se acerca a esa línea “prohibida”, la gente se involucrará más por estadística, incluso cuando luego afirman que no les gusta el contenido. 

Este es un problema vital que debemos abordar de inmediato penalizando el contenido borderline para que obtenga menos distribución y participación. Al hacer que la curva de distribución se vea como la gráfica, donde la difusión disminuye a medida que el contenido se vuelve más sensacionalista. De este modo, las personas no tienen incentivos para crear contenido provocativo que esté lo más cerca posible de la línea.

Este proceso para ajustar esta curva es similar a lo que describí anteriormente para identificar el contenido dañino, pero ahora se enfoca en identificar el contenido límite. Estamos capacitando a los sistemas de inteligencia artificial para detectar el contenido límite para dar menos difusión a ese contenido. 

La categoría en la que estamos más enfocados es el clickbait y desinformación. La gente constantemente nos dice que este tipo de contenido empeora nuestros servicios. Como mencioné anteriormente, la manera más efectiva de detener la propagación de información errónea es eliminar las cuentas falsas que la generan. La siguiente estrategia más efectiva es reducir su distribución y viralidad.

Curiosamente, nuestra investigación ha encontrado que este patrón natural de contenido marginal con el que la gente interactúa más aplica no solo a las noticias, sino a casi todas las categorías de contenido. Por ejemplo, las fotos cercanas a la línea de desnudez, como aquellas con ropa provocativa o posiciones sexualmente sugerentes, obtuvieron una mayor participación en promedio. Lo mismo ocurre con las publicaciones que no están dentro de nuestra definición de discursos de odio, pero que siguen siendo ofensivas.

Este patrón puede aplicarse a los grupos a los que se unen las personas y también a las páginas que siguen. Consideramos especialmente importante abordar esto porque las redes sociales en general exponen a las personas a puntos de vista más diversos, y mientras que los grupos en general fomentan la inclusión y la aceptación, los grupos y las páginas de este tipo pueden alimentar la polarización. Para gestionar esto, debemos aplicar estos cambios no solo al feed de noticias, sino a todos nuestros sistemas de recomendación para las cosas a las que deben unirse los usuarios.

Una reacción común es que, en lugar de reducir la distribución, deberíamos simplemente mover la línea que define lo que es aceptable. En algunos casos, vale la pena considerarlo, pero es importante recordar que no abordará el problema de incentivos subyacente, que a menudo es el problema más importante. Este patrón de interacción con contenido “límite” parece existir sin importar dónde dibujemos las líneas, así que necesitamos cambiar este incentivo y no solo eliminar el contenido. 

Creo que estos esfuerzos en los incentivos subyacentes en nuestros sistemas son algunos de los trabajos más importantes que estamos haciendo. Hemos logrado un progreso significativo en el último año, pero aún tenemos mucho trabajo por delante.

Al solucionar este problema de incentivos en nuestros servicios, creemos que creará un círculo virtuoso: al reducir el sensacionalismo de todas las formas, crearemos un discurso más sano y menos polarizado en el que más personas se sientan seguras de participar

Share:
Previous Post

Disney desvela su nueva plataforma de streaming: Disney+

Next Post

La nueva Xbox One se deshace de los discos. Podría llegar en 2019

TONYSTAM

The Latest Tech News

facebook.svgtwitter.svginstagram.svglinkedin.svgskype.svgwhatsapp.svg

Services Provided

  • SEO Services
  • Pay-per-click
  • Social Media
  • Web Analytics
  • Web Development
  • Content Management
  • Blog Management
  • SEO Services
  • Pay-per-click
  • Social Media
  • Web Analytics
  • Web Development
  • Content Management
  • Blog Management
Copyright © 2021 Tonystam LLC - Privacy & Cookies
  • Apps y software
  • Ciencia
  • Destacados
  • Dispositivos
  • Entretenimiento
  • Negocio
  • Portada
  • Social media
  • Tecnología