Eventbrite

Centro de Ayuda

Cómo Eventbrite personaliza y modera los contenidos

Última actualización: 17 de febrero de 2024. La misión de Eventbrite es reunir a la gente a través de experiencias en vivo. Estamos profundamente comprometidos con crear un mercado en el que creadores y consumidores confíen para facilitar experiencias seguras e inclusivas. En este artículo, compartimos más sobre cómo mantenemos nuestro mercado en línea seguro, incluido cómo personalizamos y moderamos los contenidos en nuestra plataforma.

En este artículo

  • Cómo personalizamos los contenidos
  • Cómo moderamos los contenidos
  • Cómo detectamos las infracciones de contenidos
  • Cómo revisamos los contenidos

Cómo personalizamos los contenidos

Para ayudarte a descubrir las experiencias más relevantes en el mercado de Eventbrite, utilizamos los datos que tenemos sobre ti para priorizar los eventos que te ofrecemos. Algunas de las señales que utilizamos para personalizar tu experiencia al ver páginas del evento y anuncios incluyen contenido que has visto, en el que has hecho clic, que te ha gustado, que has seguido o que has buscado y la información que proporcionas cuando respondes a una de nuestras encuestas o te registras o compras entradas para un evento. Puedes obtener más información sobre cómo utilizamos y protegemos tus datos en nuestra Política de privacidad

Cómo moderamos los contenidos

La moderación de contenidos es el proceso por el cual una plataforma revisa y toma medidas sobre contenidos ilegales, inapropiados o dañinos. Nuestras Directrices de la comunidad proporcionan transparencia sobre cómo mantenemos segura nuestra comunidad. También sirven como límites para determinar qué tipos de contenidos se fomentan y qué tipos de contenidos amenazan la integridad de nuestra plataforma y no se permiten. Para combatir el uso indebido de la plataforma, nos basamos en una combinación de herramientas y procesos, incluida la detección proactiva mediante tecnología de aprendizaje automático y sistemas basados en reglas, la detección reactiva mediante informes de nuestra comunidad y las revisiones humanas.

Cómo detectamos las infracciones de contenidos

Detección proactiva

Detectamos una parte significativa de las infracciones de contenidos de forma proactiva a través de dos métodos principales: (1) sistemas basados en reglas (es decir, reglas elaboradas a mano para identificar contenidos que cumplen criterios específicos), y (2) tecnología de aprendizaje automático (es decir, un proceso estadístico en el que entrenamos un modelo para reconocer ciertos tipos de patrones basados en ejemplos anteriores y hacer predicciones sobre nuevos datos). 

Los sistemas basados en reglas son eficaces cuando existen unos pocos criterios sencillos que indican un riesgo elevado. La tecnología de aprendizaje automático aprovecha múltiples señales y, por tanto, es más eficaz cuando existen patrones complejos que indican un riesgo elevado. Ambas estrategias de detección se validan mediante análisis sin conexión y se supervisan para detectar oportunidades de mejora continua.

Detección proactiva

Además de los métodos proactivos descritos anteriormente, nuestra comunidad desempeña un papel importante a la hora de denunciar contenidos que se consideran perjudiciales, ya sea mediante la opción Contáctanos o el enlace Denunciar este evento que se encuentra en el pie de página de cada evento. Aunque aspiramos a eliminar proactivamente los contenidos perjudiciales antes de que alguien los vea, esta línea abierta de comunicación con nuestra comunidad es una parte crucial de nuestro programa de moderación de contenidos. 

Cómo revisamos los contenidos

Aunque la automatización es fundamental para poder ampliar nuestro programa de moderación de contenidos, sigue habiendo áreas en las que la revisión humana es, y puede que siempre sea, necesaria. Por ejemplo, discernir si una persona es objeto de acoso puede tener matices y basarse en el contexto. 

Cuando nuestro equipo revisa contenidos, esto es lo que ocurre:

  • Revisión: Nuestro equipo revisa el contenido y toma una decisión sobre si infringe nuestras políticas o es ilegal. En función de los detalles del caso, nuestro equipo puede revisar solo el contenido denunciado o la cuenta de forma más global. 

  • Obtener información (si es necesario): Si el equipo no puede determinar si el contenido infringe nuestras políticas, puede solicitar información adicional a las partes pertinentes (por ejemplo, la cuenta del titular o de la persona que denunció el contenido).

  • Acción: Si se determina que el contenido infringe nuestras políticas, el equipo tomará las medidas oportunas, incluida la eliminación del contenido de los resultados de búsqueda, la eliminación del contenido de páginas del evento, la anulación de publicación de anuncios del mercado, y/o la suspensión o cancelación del acceso a la cuenta.

  • Comunicación: Una vez resuelto, el equipo informará a las partes pertinentes de las medidas adoptadas y de su motivo. Los usuarios afectados pueden responder a esta comunicación para recurrir la decisión. 

Nuestra prioridad es eliminar los contenidos nocivos con rapidez y causando el menor trastorno posible a nuestra comunidad. Mediante una combinación de detección proactiva y reactiva, junto con una revisión humana de los contenidos más importantes cuando está justificado, podemos detectar rápidamente los contenidos y actuar en consecuencia.

A medida que evoluciona el mundo que nos rodea, también deben hacerlo las formas en que moderamos los contenidos. Actualizamos constantemente nuestro programa en previsión de, o en respuesta a, nuevos comportamientos, tendencias y amenazas percibidas para la integridad del mercado de Eventbrite.

¿Tiene más preguntas?