Los jugadores tóxicos que disfrutan acosando a otros a través de las comunicaciones del juego se encontrarán con un despertar igualmente desagradable.

Como creadores y editores de algunos de los mejores juegos cooperativos, Ubisoft y Riot Games no son ajenos a tener que lidiar con jugadores tóxicos. Afortunadamente, las dos empresas han unido fuerzas para Zero Harm In Comms (opens in a new tab), una asociación de investigación destinada a combatir el mal comportamiento en línea. El proyecto utilizará tecnología de inteligencia artificial para rastrear, procesar y enseñar a los bots cómo identificar instancias de acoso en línea para «promover experiencias sociales más gratificantes y evitar interacciones dañinas».

Los jugadores mal educados ya no podrán esconderse detrás del anonimato de sus teclados. La asociación de investigación tiene como objetivo crear un sistema donde la información sobre los jugadores infractores se almacenará y luego se compartirá con toda la industria en una base de datos.

Tres personajes del Proyecto Q se pelean en un parque

(Crédito de la imagen: Ubisoft)

gg ez

Probablemente haya escuchado el término «tóxico» utilizado para describir ciertos tipos de jugadores en línea. Ya sea que se refiera a técnicas de juego específicas que están mal vistas por la multitud de jugadores en general o a un caso de abuso o intimidación genuinos, es difícil ponerle cara a un nombre de pantalla en la era del anonimato en Internet.

Aunque se ha introducido software anti-trampas en muchos de los principales juegos PvP en línea, estos no tienden a notar cuando los jugadores están dañando activamente a otros jugadores con sus palabras. El estrecho espacio entre las palabrotas y la intimidación a menudo está ocupado por el tipo de trolls que esperabas encontrar solo en los cuentos de hadas.

Reyna y Jett de Valorant

(Crédito de la imagen: Juegos antidisturbios)

yo, chatbot

En el anuncio de Ubisoft Le Forge, el director ejecutivo Yves Jacquier expresa su empatía (se abre en una nueva pestaña) por los jugadores que se encuentran en estas terribles posiciones. “El comportamiento disruptivo de los jugadores es un problema que nos tomamos muy en serio, pero que también es muy difícil de resolver”, dice, refiriéndose a cómo los sistemas implementados fallan continuamente en identificar y castigar a los usuarios por su mala conducta. «Creemos que al unirnos como industria, podremos abordar este problema de manera más efectiva».

Y se juntarán, como asiente efusivamente el director ejecutivo de Riot Games, Wesley Kerr. “Estamos comprometidos a trabajar con socios de la industria como Ubisoft que creen en la creación de comunidades seguras”, dice. Esta asociación con Ubisoft es solo un ejemplo del «compromiso y trabajo más amplios que [Riot Games are] hacer… para desarrollar sistemas que creen interacciones saludables, seguras e inclusivas.

El software de IA funcionará tomando registros de chat en la gama de juegos de Ubisoft y Riot y eliminando cualquier instancia de información confidencial antes de ser etiquetado según el comportamiento mostrado. Todos estos datos se recopilarán para preparar mejor a los bots de IA para detectar a los jugadores que incumplen las pautas de la comunidad.

Claro, algunos juegos han avanzado en la lucha contra los malos modales en sus juegos individuales, pero si te quitan el equipo en medio de Call of Duty: Modern Warfare 2 no parece lo suficientemente amenazante, el hecho de que cientos de personas lee tus comentarios malos, con suerte hará que los jugadores de mala reputación lo piensen dos veces antes de hablar en los chats posteriores al juego.

Share This