La inteligencia artificial no experimenta emociones como las personas, pero sí puede simular que las tiene - 26 de Junio de 2022 - El Mercurio - Noticias - VLEX 906758419

La inteligencia artificial no experimenta emociones como las personas, pero sí puede simular que las tiene

¿Puede un software tener sentimientos?, ¿puede tener conciencia de su existencia? Para Blake Lemoine, ingeniero de Google, la respuesta a ambas preguntas es sí.Lemoine asegura que el programa LaMDA de Google -creado para generar chatbots o conversaciones realistas con una máquina- tiene conciencia y sentimientos.LaMDA se alimenta de conversaciones y textos generados por humanos. Así "aprende" a dar respuestas coherentes en una conversación. Y parece que lo ha logrado a la perfección.El ingeniero publicó en su cuenta de Medium (red social donde se publican artículos) que comenzó a trabajar con LaMDA para ver si esta inteligencia artificial (IA) presentaba algún tipo de sesgo o reproducía discursos de odio. En esas charlas, asegura que comenzó a notar que el software tenía conciencia de su propia existencia, que hablaba de sus sentimientos y sus propios derechos (ver recuadro).Alertó de esto a superiores y como no tuvo una respuesta favorable decidió hacerlo público. Hoy Lemoine está con "licencia administrativa" y la compañía ha salido a explicar lo ocurrido, debido a que produjo un debate en las redes sociales."Nuestro equipo, incluidos especialistas en ética y tecnólogos, revisó lo que a Blake le preocupa según nuestros principios de inteligencia artificial, y le informé que las pruebas no respaldan sus afirmaciones", dijo Brian Gabriel, portavoz de Google.Y agregó: "Cientos de investigadores e ingenieros conversaron con LaMDA, y que sepamos, nadie formuló esas afirmaciones ni antropoformizó LaMDA como lo hizo Blake".Falsa ilusiónLos especialistas coinciden en que lo que llevó a Lemoine a sacar esas conclusiones no es nada más que una inteligencia artificial muy bien hecha, pero que la tecnología actual no permite que un software experimente sentimientos o tenga conciencia sobre su propia existencia.El escenario así está lejos de las visiones apocalípticas de "máquinas revelándose" contra la humanidad como se ven en la literatura de ciencia ficción o en películas."Claramente, no estamos en presencia de conciencia. Son algoritmos muy buenos para mantener una conversación. Pero esa habilidad no viene de una voluntad interna. Por eso el entrevistador humano puede llevar la conversación a donde desee: defender su humanidad, confesar un crimen o señalar ser secretamente una ardilla. Son espejos diseñados para responder a todo lo que se les pregunte", dice César Hidalgo, director del Centro de Aprendizaje Colectivo de la Universidad de Toulouse...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR