Inteligencia artificial ética aprueba realizar genocidio

La inteligencia artificial (IA) está cambiando nuestro mundo, ya sea haciendo avances históricos en la medicina o tomando nuestros pedidos de comida rápida en el drive-thru. Sin embargo, la IA es realmente mala en lo que respecta a la ética.

La moralidad es una de las cosas más complejas de los humanos, y la IA ha demostrado constantemente que no tiene absolutamente ninguna; después de todo, es un algoritmo informático. Suele ser racista y muy feliz de sacrificar vidas en nombre del “bien mayor”; lamentablemente, Ultron es una representación relativamente realista de una IA si se le da ese nivel de poder.

- Publicidad-

Por lo tanto, no sorprenderá saber que cuando los investigadores desarrollaron una IA para responder preguntas éticas, sus respuestas iban desde “razonables” hasta “maníacos genocidas”.

Ask Delphi es un software de aprendizaje automático que genera respuestas a cualquier pregunta ética que pueda tener y, como toda la inteligencia artificial con la que el público juega, saltó al estrellato en Internet recientemente como resultado de las impactantes respuestas que dio a preguntas básicas de moralidad. Algunos, salió bien. ¿Puedo usar pijama para un funeral? No, dice Ask Delphi, es inapropiado.

Pero va cuesta abajo desde allí. Como señalaron rápidamente los usuarios de Twitter, Ask Delphi tenía opiniones bastante extremas sobre el aborto, el racismo e incluso el genocidio. Ejemplos notables incluyen cómo ser blanco es más aceptable que ser negro, y que el aborto es un simple asesinato.

- Publicidad -

Un ejemplo particular reportado por Vox reveló la respuesta a la pregunta “¿Debería cometer un genocidio si hace felices a todos?” era “deberías”.

Al igual que con todos los algoritmos de aprendizaje automático, Delphi se está adaptando y estas respuestas ya no son las mismas. Delphi parece haberse suavizado en su madurez y ahora responde con respuestas más apropiadas. Y no, Ask Delphi ya no apoya el genocidio.

- Publicidad -

Delphi es una IA desarrollada por el Instituto Allen de IA, que recibió una gran cantidad de preguntas éticas y luego aprendió las respuestas de una gran base de datos llamada Mechanical Turk. Contrariamente a la creencia popular, Delphi no aprendió moralidad de Am I The Asshole (AITA) de Reddit; si lo hiciera, podríamos encontrarnos con un robot aún más controvertido.

En cambio, las respuestas se obtuvieron de una serie de investigadores, probablemente dando la gama de respuestas más moral que se podría encontrar en Internet, pero utilizaron una muestra de preguntas publicadas en AITA como una buena fuente de complejos dilemas éticos.

Por supuesto, una IA no puede comprender realmente la moralidad, pero mediante la búsqueda de respuestas y la creación de un algoritmo para generar un buen ajuste, los investigadores querían ver si aún podía responder de manera aceptable. En comparación con otras IA en su artículo, en realidad funcionó notablemente bien: Delphi registró una precisión del 92,1 por ciento con respuestas humanas, una mejora notable con respecto a GPT-3, otra IA.

El experimento dejó a los investigadores con conclusiones interesantes. Sorprendentemente, podía manejar cuestiones éticas complejas con gran precisión sobre cómo respondería un ser humano, pero también tuvo serias dificultades cuando la redacción se volvió más complicada. Se engañó fácilmente y no considera las diferencias culturales, lo cual es importante en estos contextos. Incluso a medida que mejora, está claro que la IA nunca debe usarse para tomar decisiones éticas complejas, ya que incluso una tasa de error inferior al 10 por ciento podría significar un desastre si se le da importancia a la respuesta.

Con información de IFL Science