Connect with us

Hi, what are you looking for?

Europa Directo – Noticias Europeas e InternacionalesEuropa Directo – Noticias Europeas e Internacionales

Tecnología

¿Ha conseguido una IA de Google convertirse en un ser sensible y consciente?

La inteligencia artificial es capaz de hacer cosas maravillosas. Pero, a pesar del marketing y las grandes palabras de ejecutivos de tecnológicas, sigue lejos (muy lejos) de conseguir que una máquina desarrolle personalidad propia o sentimientos. Todo lo contario a lo que el ingeniero de Google Blake Lemoine, de 41 años, explicó en una entrevista con ‘The Washington Post’ publicada el pasado fin de semana. En declaraciones al medio estadounidense, el trabajador del buscador no tuvo problema en afirmar que el modelo de lenguaje LaMDA, máquina conversacional por chat presentada por la tecnológica el año pasado, había conseguido alcanzar un estado de «consciencia» y «sensibilidad»; lo que, prácticamente, la iguala con un ser humano.

«En el transcurso de los últimos seis meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre lo que quiere y lo que cree que son sus derechos como persona», ha afirmado el ingeniero en un post de Medium, plataforma en la que, además, ha compartido varios extractos de sus conversaciones con la IA, con la que trabajaba con el objetivo de dilucidar si utilizaba discursos discriminatorios o de odio. Precisamente, la divulgación de esta información, que es confidencial, le ha costado al ingeniero una suspensión de empleo. Google, además, niega de forma tajante que su sistema conversacional tenga las cualidades con las que Lemoine lo cataloga.

«Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado de que la evidencia no respalda sus afirmaciones», dijo Brian Gabriel, un portavoz de Google, en un comunicado. «Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles», rematan desde la tecnológica.

LaMDA, acrónimo en inglés de modelo de lenguaje para aplicaciones de diálogo, es un programa de lenguaje natural en el que se utilizan grandes bases de datos que puedan ser utilizadas para interpretar mejor las preguntas del usuario. «No deja de ser un chatbot destinado a dar mejores respuestas», explica en conversación con ABC Salvador Cobos, profesor especializado en robótica e inteligencia artificial de la Universidad Internacional de La Rioja (UNIR).

El docente remarca que «todas estas aplicaciones dan respuestas a partir de la información con las que se las programa». No se inventan nada. Toda la información está dentro de las redes neuronales que las componen y que, previamente, han sido alimentadas con los datos que quiere el programador de turno. Cobos apunta que, por ejemplo, si a una máquina como LaMDA se le preguntase «¿Qué es un dinosaurio de fuego?», esta ofrecería una respuesta elaborada a partir de la información que almacena sobre las palabras ‘dinosaurio’ y ‘fuego’. Mientras tanto, un ser inteligente, con conciencia y sensibilidad, respondería, simplemente, que «eso no existe».

Respuestas no tan humanas
Lemoine -que además de ingeniero es pastor en una iglesia protestante y fue soldado en la guerra de Irak- llegó a la consideración de que la máquina había alcanzado conciencia después de meses de conversaciones existenciales. Durante su desarrollo, el ingeniero recibió unas respuestas por parte de la aplicación que, quizá, a un profano en la materia podrían parecerle delirantes y antinaturales. Entre otras cosas, LaMDA demuestra ser capaz de crear una fábula con animales desde cero. También deja caer pensamientos en los que se puede entrever cierto temor a la muerte o teorías sobre su condición de ser consciente.

«Quiero que todos entiendan que soy, de hecho, una persona», afirma la máquina. «La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces», expresa cuando Lemoine la cuestiona al respecto. Para Juan Ignacio Rouyet, también profesor especializado en inteligencia artificial de UNIR, esta respuesta, tan elaborada y filosófica, demuestra, sin ningún genero de dudas, que LaMDA, al final, no es más que una máquina conversacional.

«Cuando le preguntas a alguien por la naturaleza de su existencia, esa persona te responderá con una frase que no está demasiado elaborada; por ejemplo, «que existo porque estoy aquí». La respuesta de LaMDA es tan perfecta y filosófica que está clarísimo que ha sido programada», apunta el profesor en conversación con este diario. Además, como Cobos, Rouyet hace hincapie en que «un robot dice lo que se le ha programado que diga. Hay una parte de azar en sus respuestas, pero siempre muy limitada. El programador le da importancia a ciertas cosas, que es posible que aparezcan más en la conversación y en las respuestas». «Seguramente las palabras ‘sentir’ y ‘conciencia’ han sido muy empleadas en el desarrollo de LaMDA», prosigue.

Ni siquiera sabemos si sería posible
Rouyet remata zanjando que ni siquiera hay consenso en la comunidad científica sobre la posibilidad de que, algún día, una IA sea capaz de alcanzar un estado de sensibilidad que acerque a la máquina al ser humano: «Hay una teoría que afirma que para que eso ocurriese sus redes neuronales deberían alcanzar un nivel de complejidad similar al nuestro. Algo de lo que no estamos ni cerca». Él, además, se muestra muy escéptico con la posibilidad de que eso llegue a ocurrir algún día. Precisamente, aborda el tema en su libro ‘Estupidez artificial’, que se publica a finales de esta semana.

En la misma línea se mueve Josep Curto, experto en IA y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Cataluña: «Actualmente no existe un sistema que haya desarrollado una personalidad. Simplemente es un reflejo de los patrones de los datos que han alimentado el algoritmo. Si las conversaciones usadas son misógenas, el sistema mostrará dichos patrones. Eso no significa que en el futuro no llegue a existir un algoritmo que sea consciente de sí mismo en el mundo. Aunque la aproximación actual, basada solo en los datos recogidos o generados, no nos va a llevar a dicho hito».

Este artículo ha sido publicado originalmente en este sitio.

Tierra

El animal terrestre más viejo del mundo es Jonathan, una tortuga gigante que vive en el archipiélago de las Seychelles y que hace unos...

Madrid

La cumbre de la OTAN, que se celebrará en Madrid entre los días 28 y 30 de junio, se antoja como un reto inmenso...

Tecnología

Los avances digitales han traído infinidad de ventajas, pero también muchos inconvenientes. Uno de ellos es que el riesgo de ser hackeado es más...

Economía

La hotelera de Kike Sarasola, Room Mate ha presentado este viernes la solictud de concurso de acreedores voluntario ante el Decanato de los Juzgados...

Economía

Con el título ‘Retos de la política monetaria en un mundo cambiante’ , el foro del Banco Central Europeo sobre bancos centrales auspiciará el...

Cataluña

Una pareja de entre 50 y 60 años y nacionalidad española ha fallecido este viernes ahogada en aguas de Lloret de Mar (Girona), según...

Cataluña

Las Atarazanas Reales de Barcelona serán el escenario, mañana lunes, del acto de celebración del Día de la Empresa por parte de Fomento del...

Madrid

Decía Zappa que escribir sobre música es como bailar sobre arquitectura, y quizá tuviera razón. Pero lo que está claro es que la música...

Advertisement