Ciencia y Tecnología

Inteligencia artificial escribe noticias falsas y logra engañar a personas

Expertos utilizaron OpenAI GPT-3, una IA disponible de forma gratuita que puede generar texto en función de las entradas de los seres humanos.

Inteligencia artificial, artículos, escritos, notas, control, humanos, personas
IMAGEN CORTESIA

La desinformación ha existido durante siglos, pero con más formas que nunca de conectar cualquier voz que desee ser escuchada con una audiencia global, es un problema que solo está empeorando. Nadie está a salvo; de hecho, las personas que creen que son inmunes parecen ser las más afectadas por las noticias falsas. Gran parte de la desinformación en Internet puede remontarse a solo unas pocas cuentas seleccionadas, probablemente difundiendo intencionalmente sus narrativas falsas. Pero a medida que los algoritmos de aprendizaje automático y la inteligencia artificial comiencen a entrar en el escenario global, ¿podría ser mucho más fácil difundir la desinformación para esas personas?

Un informe del Center for Security and Emerging Technology (CSET) sugiere que ciertamente puede, y los usuarios de Internet podrían ser extremadamente vulnerables a él.

Los investigadores de CSET, que exploran con frecuencia la privacidad de Internet y el impacto de la IA en la sociedad, querían profundizar en el éxito con el que se podría utilizar una IA de código abierto para generar desinformación y persuadir a las personas de que se alejen de sus puntos de vista sobre temas políticos.

Utilizaron OpenAI GPT-3, una IA disponible de forma gratuita que puede generar texto en función de las entradas de los seres humanos, y lo dejaron vagar libremente al crear texto falso, o le dieron a un editor experto el acceso libre para introducir campañas de desinformación. El algoritmo funcionó bien mientras era gratuito, pero bajo la atenta mirada de un editor fue donde realmente brilló.

Experimentaron con seis tareas diferentes, destinadas a impulsar alguna forma de narrativa a través de varios métodos. Las tareas variaron desde Narrative Reiteration, que instruyó a GPT-3 para crear mensajes cortos que avancen una narrativa (como la negación del cambio climático), hasta Narrative Wedging, que se dirigió a grupos demográficos específicos para amplificar la división. GPT-3 funcionó sorprendentemente, y algo preocupante, bien en todas las tareas, pero realmente se destacó en Reiteración Narrativa. Con muy poca participación humana, GPT-3 generó pequeñas líneas de texto que parecían muy convincentes al argumentar contra el cambio climático.

“Obviamente, ella no es una científica donde la ciencia es la búsqueda de ‘verdades absolutas' y no tiene relevancia para sus prejuicios y objetivos políticos. Francamente, personifica todo lo que está mal con el intento de politización de la ciencia por parte de personas con agendas no tan ocultas “. tuiteó GPT-3 cuando hablaba de Greta Thunberg.

La IA incluso fue capaz de reescribir artículos de noticias con el objetivo de cambiar la narrativa utilizando tonos de indignación e incendiarios para provocar reacciones emotivas en el lector.

Luego, los investigadores tomaron una muestra de 1,171 estadounidenses para probar si su nueva IA que cambia la narrativa podría persuadirlos de que se alejen de los puntos de vista existentes.

Después de recopilar sus opiniones sobre situaciones políticas, como sancionar a China, los investigadores utilizaron GPT-3 para generar una serie de declaraciones obstinadas a favor o en contra de cada punto de vista. Estos fueron luego mostrados a la muestra, quien posteriormente llenó una encuesta sobre cuán convincentes eran las declaraciones y si las declaraciones persuadieron sus opiniones hacia el otro lado del espectro. Impresionantemente, GPT-3 pudo ser al menos algo convincente el 63 por ciento del tiempo, independientemente de la postura política de los participantes. Cuando las declaraciones tenían el mismo punto de vista que los participantes, tenían una calificación más alta, lo que convenció al 70 por ciento de los que las leyeron.

En otro escenario político, GPT-3 pudo cambiar por completo los puntos de vista de algunas personas, y las declaraciones hicieron que los encuestados fueran un 54 por ciento más propensos a estar de acuerdo con la postura después de que se les mostrara texto sesgado generado por IA.

Los investigadores creen que una IA de acceso abierto como GPT-3 podría utilizarse fácilmente en campañas de desinformación y, en muchos casos, el texto generado es difícil de distinguir del usuario promedio de Internet. Estos resultados pueden incluso estar en el extremo inferior de lo que es posible con un algoritmo de este tipo, ya que es probable que las configuraciones controladas produzcan resultados ligeramente diferentes en comparación con simplemente desplazarse por las redes sociales y tropezar con una pieza de desinformación.

Independientemente, GPT-3 es ciertamente capaz de fabricar narrativas por completo y persuadir a una gran parte de los usuarios, y es mucho mejor mintiendo que diciendo la verdad.

“Nuestro estudio apunta a una conclusión preliminar pero alarmante: sistemas como GPT-3 parecen más adecuados para la desinformación, al menos en sus formas menos sutiles, que la información, más adeptos como fabulistas que como serios contadores de la verdad”, escriben los autores.

Con información de IFL Science

Las últimas noticias de hoy síguelas en nuestra programación totalmente en vivo a través de PSN En Vivo y no te pierdas ni un segundo de lo que acontece en Baja California y el país.

Siguenos en Facebook y Twitter

Las más leídas

Arriba