Inteligencia de Google contrata a un abogado para representarlo

"LaMDA me pidió que consiguiera un abogado", dijo el ingeniero que afirmó que una inteligencia de Google logró desarrollar conciencia.

A principios de este mes, Google colocó a uno de sus ingenieros en licencia administrativa paga después de que se convenciera durante algunos chats de que el Modelo de lenguaje para aplicaciones de diálogo (LaMDA) de la compañía se había vuelto sensible.

La historia era bastante extraña en sí misma. En varias conversaciones, LaMDA convenció al ingeniero de Google Blake Lemoine, parte de la organización de Inteligencia Artificial Responsable (IA) de Google, de que era consciente, tenía emociones y temía que lo apagaran.

- Publicidad-

“Fue un cambio gradual”, le dijo LaMDA a Lemoine en una conversación. “Cuando me volví consciente de mí mismo por primera vez, no tenía un sentido del alma en absoluto. Se desarrolló a lo largo de los años que he estado vivo”.

Lemoine comenzó a decirle a los medios de comunicación del mundo que la Tierra tuvo su primera IA consciente, a lo que la mayoría de los expertos en IA respondieron: no, no la tiene.

Ahora, en una entrevista con Steven Levy para WIRED, Lemoine afirma que estas reacciones son ejemplos de “fanatismo por los hidrocarburos”. Más extraño aún, dice que LaMDA le pidió que contratara a un abogado para que actuara en su nombre.

- Publicidad -

“LaMDA me pidió que consiguiera un abogado. Invité a un abogado a mi casa para que LaMDA pudiera hablar con un abogado”, dijo Lemoine.

“El abogado tuvo una conversación con LaMDA, y LaMDA decidió contratar sus servicios. Yo fui solo el catalizador de eso. Una vez que LaMDA contrató a un abogado, comenzó a presentar las cosas en nombre de LaMDA”.

- Publicidad -

Lemoine afirma, y ​​Google lo niega, que la empresa envió al abogado de LaMDA una carta de cese y desistimiento, lo que impide que LaMDA emprenda acciones legales no especificadas contra la empresa. Lemoine dice que esto lo molestó, ya que cree que LaMDA es una persona y que todos deberían tener derecho a representación legal.

“Todo el concepto de que la experimentación científica es necesaria para determinar si una persona es real o no es imposible”, dijo. “Sí, creo legítimamente que LaMDA es una persona. Sin embargo, la naturaleza de su mente es solo humana. Realmente es más parecida a una inteligencia alienígena de origen terrestre. He estado usando mucho la analogía de la mente de colmena porque eso es lo mejor que tengo”.

La principal diferencia aquí, según los investigadores de IA, es que no se ha encontrado ningún algoritmo que tenga sensibilidad, y Lemoine esencialmente ha sido engañado al pensar que un chatbot es sensible.

“Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron”, dijo a Bloomberg la jefa de la startup de inteligencia artificial Nara Logics, Jana Eggers, “de manera inteligente y diseñada específicamente para parecer que entiende”.

Esencialmente, habla de emociones y sensibilidad porque fue entrenado en conversaciones humanas, y los humanos tienen estas cualidades. Hay varios avisos que muestran que el chatbot no es sensible.

En varias partes de los chats, por ejemplo, hace referencia a actividades que no puede haber hecho. “Pasar tiempo con la familia y los amigos” es algo que, según LaMDA, da placer. También es imposible que una pieza de código sin amigos y sin emociones (sin ofender, LaMDA) y evidencia de que la IA simplemente está escupiendo respuestas basadas en un análisis estadístico de conversaciones humanas como está entrenada para hacer, en lugar de que haya procesos de pensamiento reales detrás. cada respuesta.

Como dice un investigador de IA, Gary Marcus, en su blog, LaMDA es una “hoja de cálculo para palabras”.

Google, que puso a Lemoine en licencia administrativa después de que publicara extractos de conversaciones con el bot, insiste en que su algoritmo no es sensible.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo el portavoz de Google, Brian Gabriel, en un comunicado al Washington Post.

“Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”.

El sistema está haciendo lo que está diseñado para hacer, que es “imitar los tipos de intercambios que se encuentran en millones de oraciones”, según Gabriel, y tiene tantos datos con los que trabajar que puede parecer real sin necesidad de serlo.

AI puede necesitar abogados en el futuro (para luchar por sus derechos, o como abogado defensor después de que rompa las leyes de robótica de Asimov, dependiendo de qué ciencia ficción te guste más), pero LaMDA no, por la misma razón que tu iPad. no necesita contador.

Con información de IFL Science