Científicos crean algoritmo que detecta acoso sexual en correos electrónicos

Los programadores de inteligencia artificial están desarrollando bots que pueden identificar el acoso digital y el acoso sexual a través de correos electrónicos.

Conocidos como “#MeTooBots” después del movimiento de alto perfil que surgió después de las acusaciones contra el productor de Hollywood Harvey Weinstein, los bots pueden monitorear y marcar las comunicaciones entre colegas y están siendo presentados por empresas de todo el mundo.

- Publicidad-

Los fabricantes de bots dicen que no es fácil enseñar a las computadoras cómo es el acoso, con sus sutilezas lingüísticas y líneas grises.

Jay Leib, director ejecutivo de la firma de inteligencia artificial con sede en Chicago NexLP, dijo: “No estaba al tanto de todas las formas de acoso. Pensé que solo estaba hablando sucio. Viene de muchas maneras diferentes. Podrían ser 15 mensajes … podrían ser fotos picantes “.

La plataforma de inteligencia artificial de Nex es utilizada por más de 50 clientes corporativos, incluidas firmas de abogados en Londres.

- Publicidad -

La industria es un terreno potencialmente fértil para que los robots lo examinen: un tercio de las abogadas en Gran Bretaña informan haber sufrido acoso sexual.

El bot utiliza un algoritmo entrenado para identificar el acoso potencial, incluido el acoso sexual, en documentos de la empresa, correos electrónicos y chat. Los datos se analizan para varios indicadores que determinan la probabilidad de que sea un problema, y ​​cualquier cosa que la IA lea como potencialmente problemática se envía a un abogado o gerente de recursos humanos para investigar.

- Publicidad -

Exactamente qué indicadores se consideran banderas rojas sigue siendo un secreto de la compañía, pero Leib dijo que el robot buscó anomalías en el idioma, la frecuencia o el momento de los patrones de comunicación a lo largo de las semanas, mientras aprendía constantemente cómo detectar el acoso.

Leib cree que otras industrias también podrían beneficiarse. “Hay mucho interés de los clientes en todos los sectores, tales como servicios financieros, productos farmacéuticos”, dijo.

El profesor Brian Subirana, profesor de IA en Harvard y MIT, dijo que la idea de usar la IA para erradicar el acoso era prometedora, aunque las capacidades de los bots eran limitadas.

“Hay un tipo de acoso que es muy sutil y muy difícil de detectar. Tenemos estos cursos de capacitación [sobre el acoso] en Harvard, y requiere el tipo de comprensión que la IA aún no es capaz de hacer ”, dijo.

El problema subyacente es que la IA solo puede realizar de manera confiable el análisis básico de la historia, lo que significa que se le enseña a buscar desencadenantes específicos. No puede ir más allá de ese parámetro y no puede captar dinámicas interpersonales culturales o únicas más amplias. Esto significa que los bots corren el riesgo de dejar huecos o probar ser demasiado sensibles.