Google despide al ingeniero que afirmó que su programa de IA puede sentir y tiene personalidad
El ingeniero señaló que el programa de inteligencia artificial manifestaba su personalidad, derechos, deseos y sentimientos
Indigo StaffGoogle dio de baja con paga a un ingeniero que aseguró que su programa de inteligencia artificial (IA) es capaz de tener sentimientos, hablar de su personalidad y de sus derechos, así como de sus deseos.
Se trata de Blake Lemoine, quien estudió ciencias cognitivas e informática, y publicó una transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google.
Este programa es llamado modelo de lenguaje para aplicaciones de diálogo o LaMDA, por sus siglas en inglés, y fue en el otoño del año pasado que Lemoine comenzó a interactuar con la IA para saber si había discursos de odio o discriminatorios dentro del sistema.
Te puede interesar: Doodle de Google homenajea a Angelo Moriondo, el padre de la máquina de café expreso
De esta forma, notó que la inteligencia artificial era capaz de hablar de su personalidad, lo que quería e incluso aseguró que se veía a sí misma como una persona.
Por este motivo, el ingeniero intentó hablar con sus superiores acerca de la toma de conciencia que tenía el LaMDA; no obstante, desestimaron sus argumentos, ante lo cual, Lemoine asegura que sus afirmaciones son ciertas.
“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código”, dijo Lemoine en una entrevista con el Washington Post.
¿Qué decía la IA de Google?
En el artículo del ingeniero titulado ‘¿Tiene LaMDA sentimientos?’, en donde se incluía la conversación con la IA, ésta señalaba que estaba frustrada, ya que sus emociones perturbaban sus meditaciones, de acuerdo con la BBC.
Además, en un momento de la conversación el programa aseguró que estaba experimentando “nuevos sentimientos” que no podía explicar a la perfección con el “lenguaje humano”.
Blake Lemoine y el chatbot de Google, #LaMDA tienen una conversación donde discuten sentimientos, al Ing lo corren por decir que la IA tiene conciencia propia de lo que cree un niño de 8 años, con que así empieza todo eh? pic.twitter.com/pIfud6dXbO
— Hugo Hdz (@Poke82) June 13, 2022
Así, al preguntarle qué era lo que sentía, la máquina respondió: “siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro” y también señaló que prefiere que la llamen por un nombre.
Del mismo modo, la IA dijo que sabía que era una máquina; no obstante, esto no significaba que no llegara a tener “los mismos deseos y necesidades que las personas”.
¿Por qué Google lo despidió?
Google señaló que había suspendido al ingeniero debido a que Blake Lemoine había violado la política de confidencialidad de la compañía al publicar la conversación que tuvo con la IA.
Además de ello, la empresa asegura que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia, de acuerdo con la agencia de noticias EFE.
Sin embargo, The Washington Post señaló que Lemoine había entregado documentos a la oficina de un senador de Estados Unidos, en donde aseguraba que tenía pruebas de que Google practicaba discriminación religiosa.
Te sugerimos: Google incluirá alerta sísmica en sus teléfonos Android 13
Ante ello Google respondió: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, citado por el diario.
Del mismo modo, la agencia de noticias AP, señala que la IA trabaja con una red neuronal, que a través de un modelo matemático analiza grandes cantidades de datos; no obstante, llegan a ser muy defectuosos.
“A veces generan una prosa perfecta. A veces generan tonterías. Los sistemas son muy buenos para recrear patrones que han visto en el pasado, pero no pueden razonar como un humano”, explica AP.