Noticias

Este robot de IA está captando sentimientos, aparentemente

Un ingeniero de Google ha anunciado que un chatbot de IA llamado LaMDA supuestamente está desarrollando la conciencia emocional.

Blake Lemoine, un ingeniero en google, según los informes, ha sido puesto en licencia desde que reveló su creencia de que un chatbot de lenguaje AI llamado LaMDA, se está volviendo inteligente.

“Conozco a una persona cuando hablo con ella” dijo Lemoine al El Correo de Washington.

Blake Lemoine, ingeniero de Google. Crédito: Martín Klimek/The Washington Post

Blake comenzó a chatear con LaMDA como parte de su función en la organización de inteligencia artificial responsable de Google. Su deber era verificar si el bot de IA usaba algún discurso odioso o injusto.

Sin embargo, la conversación, que inicialmente giró en torno a la ley de la robótica de Isaac Asimov, condujo a una madriguera de conejo que el ingeniero no esperaba. LaMDA comenzó a hablar sobre su miedo a la muerte, así como sobre temas de la cultura pop como el musical Les Misérables.

Crédito: Tristan Fewings / Getty Images para Barbican Centre.

“Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física," explicó Lemoine.

Después de extensas conversaciones con LaMDA, Blake informó su preocupación por la robot de IA siendo sensible a su gestión. Tras las investigaciones, un portavoz de Google le dijo al El Correo de Washington“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”.

Crédito: canva

El portavoz continuó, “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”.

A pesar de la investigación y la declaración de Google, Blake insistió en que LaMDA era, de hecho, sensible. Decidió entrevistar al bot él mismo, publicar la conversación para Medio, y mostrar los resultados a sus seguidores en Twitter.

Posteriormente, esta decisión llevó al ingeniero a ser suspendido por violar la política de confidencialidad de Google. Por supuesto, él no ve sus acciones como una violación. Simplemente llama a la entrevista. “una discusión que tuve con uno de mis compañeros de trabajo,” refiriéndose a LaMDA como si fueran una persona.

El ingeniero concluye: “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así decido qué es y qué no es una persona”.