Modulate, creadores de tecnología de voz que eleva la salud y la seguridad de las comunidades en línea, anunció que se ha asociado con ADL (La Liga Antidifamación) para apoyar su Centro para la Tecnología y la Sociedad (CTS) en la ampliación de su trabajo para combatir el odio en los espacios de juego en línea.
ADL tiene un historial orgulloso de monitorear el antisemitismo y el extremismo en línea para garantizar la seguridad de las comunidades judías y otros grupos marginados. Desde principios de 2017, el Centro de Tecnología y Sociedad de ADL ha liderado la lucha contra el odio cibernético. CTS convoca a partes interesadas clave, como empresas de tecnología, ONG y académicos, para medir y detener la propagación del odio cibernético. A medida que ADL y CTS continúan ampliando su investigación en la industria de los juegos, Modulate podrá aplicar estos aprendizajes en el desarrollo continuo de ToxMod y otros productos diseñados para ayudar a los estudios y equipos de desarrollo a combatir el odio en línea.
“ADL está encantada de asociarse con Modulate para avanzar en nuestros objetivos compartidos de un mundo digital libre de odio”, dijo Daniel Kelley, Director de Estrategia y Operaciones de CTS. “Los espacios digitales, especialmente las comunidades de juegos en línea, ofrecen oportunidades maravillosas para el entretenimiento y experiencias interpersonales positivas, pero tienen el potencial de convertirse en refugios de odio en línea, con más del 80 % de los jugadores adultos que sufren acoso”.
“La investigación de ADL ha sido una fuerza impulsora en el desarrollo de ToxMod de Modulate para combatir el comportamiento tóxico en los juegos en línea”, dijo Hank Howie, evangelista de la industria de juegos en Modulate. “Convertirnos en un socio corporativo de ADL contra el odio es una validación real de nuestros esfuerzos para abordar el creciente problema del comportamiento tóxico”.
ToxMod es la única solución de moderación nativa de voz proactiva para juegos.
Basado en tecnología avanzada de aprendizaje automático y diseñado teniendo en cuenta la seguridad y la privacidad del jugador, ToxMod clasifica el chat de voz para señalar el mal comportamiento, analiza los matices de cada conversación para determinar la toxicidad y permite a los moderadores responder rápidamente a cada incidente proporcionando un contexto relevante y preciso. . A diferencia de los sistemas de informes reactivos, que dependen de que los jugadores se esfuercen por denunciar el mal comportamiento, ToxMod es la única solución de moderación de voz en los juegos de hoy que permite a los estudios responder de manera proactiva al comportamiento tóxico y evitar que el daño se intensifique.