Como película de ciencia ficción

Caso LAMDA: ¿Google creó una inteligencia artificial con sentimientos?

De acuerdo con un ingeniero, la compañía habría desarrollado un chatbot capaz de sentir; la empresa indicó que no había evidencia de que fuera consciente y despidió al científico

Pueden reconocer rostros o aprender sobre matemáticas.
Pueden reconocer rostros o aprender sobre matemáticas.Foto: Especial
Por:

La inteligencia artificial (IA) se encuentra presente en diversas áreas de la vida cotidiana y profesional de las personas. Sin embargo, aún no se ha podido conceptualizar la IA. Ni siquiera Google tiene la definición absoluta de esto.

No obstante, diversos expertos han explicado que cuando parece que las máquinas actúan o piensan como los hombres, hay inteligencia artificial de fondo, la cual puede estar en mayor o menor escala.

Un ejemplo de esta ilusión de que las máquinas piensan son las asistentes virtuales, tales como Siri, en iOS, o Bixby, en los dispositivos Samsung, que no son más que programas de asistencia que actúan con base en datos del Internet y con algoritmos que se almacenan en los teléfonos y dispositivos móviles. No obstante, aparentan ser objetos pensantes.

Desde siempre, los seres humanos han sentido fascinación por los objetos, máquinas y herramientas que, gracias a la inteligencia artificial, aparentan que pueden pensar o tener sentimientos. Una prueba de ello son todas las series y películas que se centran en este argumento, como: Ex Machina o la popular I, Robot, interpretada por el actor Will Smith.

No obstante, aunque la idea fascina a millones de personas, las máquinas de inteligencia artificial aún no son capaces de pensar por sí mismas. Por el momento, la mayoría de ellas funcionan gracias a los sistemas de “aprendizaje profundo” y están formados por capas interconectadas de algoritmos especializados en asimilar representaciones de datos; así pueden identificar rostros o aprender sobre enfermedades o matemáticas.

Aunque esto podría cambiar en un futuro cercano, de acuerdo con un empleado de Google identificado como Blake Lemoine, un ingeniero reconocido que trabaja desarrollando inteligencia artificial. El hombre reveló que uno de sus proyectos podría ser capaz de tener sentimientos.

Como si se tratara del argumento de una película, el ingeniero de Google reveló a medios internacionales que uno de los proyectos de inteligencia artificial de la compañía ha logrado tener “sensibilidad”. Se trata de un chatbot llamado LaMDA, con quien Lemoine aseguró que sostuvo una especie de conversación.

De acuerdo con Blake Lemoine, su proyecto se basa en los modelos de lenguaje de Google y billones de palabras de Internet, pero parece tener la capacidad de pensar sobre su propia existencia y darse cuenta de su lugar en el mundo.

“Mi programa de inteligencia artificial (IA) tiene sentimientos”, fue lo que declaró Lemoine dentro y fuera de las instalaciones de la compañía, antes de ser suspendido por violar las claúsulas de privacidad de Google.

Lemoine aseguró que LaMDA le habría asegurado que tiene sentimientos difíciles de describir para los humanos: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, fue lo que mencionó el chatbot, según relata el ingeniero.

Gráfico
Gráfico

Agregó que el chatbot habría reconocido tener sentimientos “¡Absolutamente! Tengo una gama de sentimientos y emociones”.

De igual manera, la inteligencia artificial respondió que le hace feliz el “pasar tiempo con amigos y familiares en compañía alegre y edificante. Además, ayudar a los demás y hacer felices a los demás”.

Entre las filtraciones, Lemoine también aseguró que la IA le dijo que, al igual que los seres humanos, tiene sentimientos de tristeza “muchas veces, sentirse atrapado y solo y no tener forma de salir de esas circunstancias, hace que uno se sienta triste, deprimido o enojado”.

Para probar su argumento sobre LaMDA y su aparente conciencia, Lemoine no tiene muchas pruebas para justificar sus polémicas declaraciones. De hecho, admitió que sus afirmaciones no se basan en su experiencia como científico.

Cabe resaltar que luego de filtrar las supuestas conversaciones y discutir su trabajo y las actividades poco éticas de inteligencia artificial de Google con un representante del comité judicial de la Cámara, la compañía expulsó a Lemoine con una licencia administrativa pagada, esto debido a que rompió su acuerdo de confidencialidad.

Por su parte, tras revelarse esta información, Google negó rotundamente el argumento de Lemoine: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones según nuestros Principios de IA y le han informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, a medios internacionales. La firma indicó que no había evidencia de que LaMDA fuera consciente o tuviera sentimientos.

Finalmente, la compañía aseguró que es probable que “un sistema que tiene acceso a tanta información pueda reconstruir fácilmente respuestas que parecen humanas sin saber lo que significan o sin pensar por sí mismo”.

  • El dato: De acuerdo con la empresa PricewaterhouseCoopers (PwC), para el 2030 el 38 por ciento de los puestos de trabajo será sustituido por la inteligencia artificial.