Bleep: el software que identifica sexismo y racismo en tiempo real

ESTADOS UNIDOS.- Intel, la compañía californiana de circuitos, desarrolló un sistema que utiliza una Inteligencia Artificial (IA) y herramientas de hardware para detectar y filtrar comentarios con lenguaje violento o discriminatorio durante los chats de voz en las partidas de videojuegos en línea.

La herramienta emplea los sistemas de detección de lenguaje ofensivo de la empresa y los combina con las capacidades de los procesadores para detectar el habla a través de la inteligencia artificial.

- Publicidad-

El sistema funciona tanto en computadoras portátiles como de mesa con procesadores de Intel.

El programa puede configurarse a través de una serie de ajustes en donde los usuarios pueden elegir los filtros y las categorías a detectar como misoginia, lenguaje discriminatorio por aspecto físico o discapacidad, discriminación a la comunidad LGTBQ+ o lenguaje agresivo contra otros jugadores.

De momento, Bleep se encuentra en fase beta y la empresa espera que su desarrollo esté completo, y disponible, para los jugadores durante 2021.

- Publicidad -

Con información de Infobae