Tecnología

Un error en el algoritmo de Instagram inunda los feeds con contenido violento; Meta se disculpa

Meta, la compañía matriz de Instagram, enfrenta críticas tras un fallo en el algoritmo de la plataforma que expuso a usuarios a una gran cantidad de contenido gráfico y violento en sus feeds de Reels durante la semana del 26 de febrero de 2025. Aunque Meta aseguró haber solucionado el problema, el incidente ha puesto en la mira las políticas de moderación de contenido de la empresa.

Tecnología

Un error en el algoritmo de Instagram inunda los feeds con contenido violento; Meta se disculpa

Meta, la compañía matriz de Instagram, enfrenta críticas tras un fallo en el algoritmo de la plataforma que expuso a usuarios a una gran cantidad de contenido gráfico y violento en sus feeds de Reels durante la semana del 26 de febrero de 2025. Aunque Meta aseguró haber solucionado el problema, el incidente ha puesto en la mira las políticas de moderación de contenido de la empresa.

“Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Pedimos disculpas por el error”

– Afirmó un portavoz de Meta.

2/3/2025

Durante la semana del 26 de febrero de 2025, los usuarios de Instagram vivieron una experiencia perturbadora debido a un error en el algoritmo de recomendación de contenido de la plataforma. Este fallo provocó que una avalancha de videos extremadamente gráficos inundara los feeds de Reels, incluyendo escenas de violencia, abuso animal y muerte.

En diversos foros en línea, como Reddit, los usuarios compartieron sus experiencias tras haber encontrado imágenes altamente perturbadoras. Entre los ejemplos reportados destacan un video de un hombre siendo aplastado por un elefante, otro de una persona desmembrada por un helicóptero, y un caso donde un individuo se sumergía la cara en aceite hirviendo. Otros testimonios incluyeron imágenes de un hombre prendido en llamas y otra persona disparando de manera letal a un cajero. Notablemente, estas recomendaciones incluso afectaron a usuarios que tenían configurada la opción de "Control de Contenido Sensible" en su nivel más restrictivo.

Ante la ola de críticas y la preocupación de los usuarios, un portavoz de Meta emitió un comunicado asegurando que el error ya había sido corregido y que el contenido inapropiado no debería continuar apareciendo en los feeds. "Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Pedimos disculpas por el error", declaró el representante de la empresa.

Meta, que emplea tecnología interna combinada con un equipo de más de 15,000 revisores para moderar contenido, explicó que el problema se originó en un fallo técnico y no en los recientes cambios realizados en sus políticas de moderación. Cabe destacar que durante los últimos meses la compañía ha reducido la censura en su plataforma y prescindido de verificadores de hechos, lo que ha generado inquietudes sobre la capacidad de Instagram para gestionar contenido inapropiado de manera eficaz. Meta, sin embargo, insiste en que dicha relajación de políticas no está conectada con el incidente.

La situación adquirió mayor relevancia en el Reino Unido, donde la Ley de Seguridad en Línea impone estrictos requisitos a las plataformas digitales para evitar que menores de 18 años tengan acceso a material perjudicial, como contenido violento y abusivo. En respuesta al incidente, la Fundación Molly Rose, dedicada a la seguridad en internet, exigió a Meta una explicación detallada sobre lo ocurrido con su algoritmo, indicando que esta falla podría ser indicativa de problemas más amplios en la gestión de contenido de la plataforma.

Mientras tanto, el episodio ha sembrado preocupaciones sobre el sistema de detección y prevención de contenido perturbador en Instagram, a pesar de los esfuerzos técnicos y humanos asignados. En esta ocasión, el error permitió que una considerable cantidad de material gráfico llegara a los feeds antes de que pudiera ser identificado y retirado.

El incidente subraya la necesidad de un monitoreo más efectivo en plataformas con cientos de millones de usuarios activos, sobre todo en un contexto donde la regulación y las expectativas de los usuarios respecto a su seguridad digital son elementos críticos. El caso también reaviva el debate sobre el papel de los algoritmos en la selección de contenidos y el impacto que los errores técnicos pueden tener sobre la experiencia del usuario.

Algo Curioso

“Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Pedimos disculpas por el error”

– Afirmó un portavoz de Meta.

Mar 2, 2025
Colglobal News

Durante la semana del 26 de febrero de 2025, los usuarios de Instagram vivieron una experiencia perturbadora debido a un error en el algoritmo de recomendación de contenido de la plataforma. Este fallo provocó que una avalancha de videos extremadamente gráficos inundara los feeds de Reels, incluyendo escenas de violencia, abuso animal y muerte.

En diversos foros en línea, como Reddit, los usuarios compartieron sus experiencias tras haber encontrado imágenes altamente perturbadoras. Entre los ejemplos reportados destacan un video de un hombre siendo aplastado por un elefante, otro de una persona desmembrada por un helicóptero, y un caso donde un individuo se sumergía la cara en aceite hirviendo. Otros testimonios incluyeron imágenes de un hombre prendido en llamas y otra persona disparando de manera letal a un cajero. Notablemente, estas recomendaciones incluso afectaron a usuarios que tenían configurada la opción de "Control de Contenido Sensible" en su nivel más restrictivo.

Ante la ola de críticas y la preocupación de los usuarios, un portavoz de Meta emitió un comunicado asegurando que el error ya había sido corregido y que el contenido inapropiado no debería continuar apareciendo en los feeds. "Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Pedimos disculpas por el error", declaró el representante de la empresa.

Meta, que emplea tecnología interna combinada con un equipo de más de 15,000 revisores para moderar contenido, explicó que el problema se originó en un fallo técnico y no en los recientes cambios realizados en sus políticas de moderación. Cabe destacar que durante los últimos meses la compañía ha reducido la censura en su plataforma y prescindido de verificadores de hechos, lo que ha generado inquietudes sobre la capacidad de Instagram para gestionar contenido inapropiado de manera eficaz. Meta, sin embargo, insiste en que dicha relajación de políticas no está conectada con el incidente.

La situación adquirió mayor relevancia en el Reino Unido, donde la Ley de Seguridad en Línea impone estrictos requisitos a las plataformas digitales para evitar que menores de 18 años tengan acceso a material perjudicial, como contenido violento y abusivo. En respuesta al incidente, la Fundación Molly Rose, dedicada a la seguridad en internet, exigió a Meta una explicación detallada sobre lo ocurrido con su algoritmo, indicando que esta falla podría ser indicativa de problemas más amplios en la gestión de contenido de la plataforma.

Mientras tanto, el episodio ha sembrado preocupaciones sobre el sistema de detección y prevención de contenido perturbador en Instagram, a pesar de los esfuerzos técnicos y humanos asignados. En esta ocasión, el error permitió que una considerable cantidad de material gráfico llegara a los feeds antes de que pudiera ser identificado y retirado.

El incidente subraya la necesidad de un monitoreo más efectivo en plataformas con cientos de millones de usuarios activos, sobre todo en un contexto donde la regulación y las expectativas de los usuarios respecto a su seguridad digital son elementos críticos. El caso también reaviva el debate sobre el papel de los algoritmos en la selección de contenidos y el impacto que los errores técnicos pueden tener sobre la experiencia del usuario.

Durante la semana del 26 de febrero de 2025, los usuarios de Instagram vivieron una experiencia perturbadora debido a un error en el algoritmo de recomendación de contenido de la plataforma. Este fallo provocó que una avalancha de videos extremadamente gráficos inundara los feeds de Reels, incluyendo escenas de violencia, abuso animal y muerte.

En diversos foros en línea, como Reddit, los usuarios compartieron sus experiencias tras haber encontrado imágenes altamente perturbadoras. Entre los ejemplos reportados destacan un video de un hombre siendo aplastado por un elefante, otro de una persona desmembrada por un helicóptero, y un caso donde un individuo se sumergía la cara en aceite hirviendo. Otros testimonios incluyeron imágenes de un hombre prendido en llamas y otra persona disparando de manera letal a un cajero. Notablemente, estas recomendaciones incluso afectaron a usuarios que tenían configurada la opción de "Control de Contenido Sensible" en su nivel más restrictivo.

Ante la ola de críticas y la preocupación de los usuarios, un portavoz de Meta emitió un comunicado asegurando que el error ya había sido corregido y que el contenido inapropiado no debería continuar apareciendo en los feeds. "Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Pedimos disculpas por el error", declaró el representante de la empresa.

Meta, que emplea tecnología interna combinada con un equipo de más de 15,000 revisores para moderar contenido, explicó que el problema se originó en un fallo técnico y no en los recientes cambios realizados en sus políticas de moderación. Cabe destacar que durante los últimos meses la compañía ha reducido la censura en su plataforma y prescindido de verificadores de hechos, lo que ha generado inquietudes sobre la capacidad de Instagram para gestionar contenido inapropiado de manera eficaz. Meta, sin embargo, insiste en que dicha relajación de políticas no está conectada con el incidente.

La situación adquirió mayor relevancia en el Reino Unido, donde la Ley de Seguridad en Línea impone estrictos requisitos a las plataformas digitales para evitar que menores de 18 años tengan acceso a material perjudicial, como contenido violento y abusivo. En respuesta al incidente, la Fundación Molly Rose, dedicada a la seguridad en internet, exigió a Meta una explicación detallada sobre lo ocurrido con su algoritmo, indicando que esta falla podría ser indicativa de problemas más amplios en la gestión de contenido de la plataforma.

Mientras tanto, el episodio ha sembrado preocupaciones sobre el sistema de detección y prevención de contenido perturbador en Instagram, a pesar de los esfuerzos técnicos y humanos asignados. En esta ocasión, el error permitió que una considerable cantidad de material gráfico llegara a los feeds antes de que pudiera ser identificado y retirado.

El incidente subraya la necesidad de un monitoreo más efectivo en plataformas con cientos de millones de usuarios activos, sobre todo en un contexto donde la regulación y las expectativas de los usuarios respecto a su seguridad digital son elementos críticos. El caso también reaviva el debate sobre el papel de los algoritmos en la selección de contenidos y el impacto que los errores técnicos pueden tener sobre la experiencia del usuario.

Algo Curioso

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa