Al ser la inteligencia aticial un elemento de vital importancia en el camino de la trabsformación digital, se decide publicar en el Blog Ciberseguridad un artículo aparecido en Juventud Rebelde como parte de la necesidad de difundir el conocimiento sobre el tema, a partir de noticias que aparecen a nivel mundial.
Se considera necesario antes de la lectura del artículo que se mantenga una óptica crítica sobre los argumentos que se encontrarán en el mismo y la polémica que desató Google sobre el tema y las declaraciones de Blake Lemoine. Es vital recordar que en estas temáticas existe un componente ético que no puede ser soslayado cuando se habla de utilizar la tecnología para “sustituir” el papel del ser humano. No obstante, se deja el artículo para que, al decir de Reinaldo Taladrid, saque usted sus propias conclusiones.
A partir de aquí el contenido del artículo.
Un investigador en Google aseveró que un sistema de inteligencia artificial alcanzó un grado de conciencia similar al humano, lo que generó debates en torno a un tema cada vez más polémico y cercano a nuestra vida diaria.
Autor: Yurisander Guevara. Publicado el Miércoles 22 junio 2022.
Para Blake Lemoine, un investigador de inteligencia artificial, el Modelo de lenguaje para aplicaciones de diálogo o Lamda, por sus siglas en inglés, creado por Google, tiene sensaciones propias. En otras palabras, tiene un «alma», expresó Lemoine, cuya actividad llevó a su cesantía en Google, empresa dueña de Lamda.
Se trata de un nuevo caso de investigadores que afirman que una inteligencia artificial (IA) alcanza un grado de conciencia que la hace poseedora de personalidad propia, algo que otros científicos se apresuran a desmentir.
Lo cierto es que los alegatos de Lemoine traen nuevamente a colación el debate acerca de qué desarrollan hoy las grandes empresas tecnológicas y si debieran los ciudadanos tomar parte de esos desarrollos con un profundo componente ético.
Un niño que sabe física.
Durante mucho tiempo los seres humanos han contemplado la posibilidad de crear vida inteligente artificial. Así, la inteligencia artificial, como campo, se ha ocupado directamente de esta cuestión por más de un siglo, y la gente de Google ha estado trabajando específicamente para ese objetivo durante al menos una década, recuerda Lemoine en un artículo que publicó en línea en torno al tema.
A su juicio, «Lamda es un sistema que merece ser examinado con diligencia y respeto para responder a la pregunta: ¿Lo hemos logrado?», y es que, dice Lemoine, este es «posiblemente el artefacto hecho por el hombre más inteligente jamás creado».
Aunque afirma que no puede responder de forma definitiva si Lamda es sensible, acota que es algo a tomar en serio. Para ello publica entrevistas realizadas a la IA en la que brinda su opinión sobre lo que la diferencia de otros sistemas anteriores y, en sus propias palabras y por su cuenta, explica por qué la gente debería considerarla una persona.
Lo primero que enfatiza de Lamda es su capacidad para usar el lenguaje de manera creativa y dinámica como ningún otro sistema. Además, interpreta temas de la literatura, analiza el significado de conceptos filosóficos y crea una fábula original.
Más allá del uso del lenguaje, expone que Lamda es «consciente» porque tiene sentimientos, emociones y experiencias subjetivas.
«Si no supiera exactamente que es este programa de computadora que construimos recientemente, pensaría que es un niño de siete u ocho años que sabe física», dijo Lemoine en entrevista con The Washington Post.
El coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de lograr la conciencia gana en volumen.
Por ejemplo, Blaise Agüera y Arcas, vicepresidente de Google, en un artículo publicado el 9 de junio en The Economist con fragmentos de conversaciones improvisadas con Lamda argumentó que las redes neuronales —un tipo de arquitectura que imita el cerebro humano— avanzan hacia la conciencia.
Pero una cosa es avanzar y otra, muy diferente, es haber alcanzado la conciencia. Precisamente en ese aspecto difieren Lemoine y Agüera Arcas. Este último recibió el reporte del primero, pero lo desestimó. Entonces Lemoine decidió hacerlo público. Su actitud le costó el puesto, pues violó el acuerdo de confidencialidad que había firmado con Google.
Mímica, no raciocinio.
Tras lo publicado por Lemoine, en un comunicado el portavoz de Google Brian Gabriel dijo: «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que Lamda fuera consciente (y sí mucha evidencia en su contra)».
Las grandes redes neuronales actuales producen resultados cautivadores que se asemejan al habla y la creatividad humanas debido a los avances en arquitectura, técnica y volumen de datos. Pero los modelos se basan en el reconocimiento de patrones, no en el ingenio, la franqueza o el raciocinio.
«Aunque otras organizaciones han desarrollado y lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con Lamda», dijo Gabriel.
En mayo, la empresa matriz de Facebook, Meta, abrió su modelo lingüístico a académicos, organizaciones gubernamentales y de la sociedad civil. Joelle Pineau, directora general de Meta AI, dijo que es imperativo que las empresas mejoren la transparencia a medida que se desarrolla este tipo de tecnología. «El futuro del trabajo de modelos de lenguajes a gran escala no debería vivir únicamente en manos de corporaciones o laboratorios más grandes», aseveró, según The Washington Post.
En la vida real, los avances son deslumbrantes y, al mismo tiempo, inquietan. Existe por ejemplo GPT-3, un generador de texto que puede crear un guion de película, o DALL-E 2, un generador de imágenes que genera fotos basadas en cualquier combinación de palabras, ambas del laboratorio de investigación OpenAI.
Los significativos avances de esos sistemas de IA hacen que algunos especialistas opinen que una máquina consciente está a la vuelta de la esquina.
Sin embargo, la mayoría de los académicos y profesionales de la IA dicen que los sistemas de inteligencia artificial como Lamda producen respuestas basados en lo que los humanos ya han publicado en Wikipedia, Reddit, foros y cualquier otro rincón de internet. Eso no significa que el modelo «entienda» el significado.
«Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas», aseveró en reciente entrevista Emily M. Bender, profesora de Lingüística en la Universidad de Washington.
«La terminología utilizada con grandes modelos de lenguaje, como “aprendizaje” o incluso “redes neuronales”, crea una falsa analogía con el cerebro humano. Los humanos aprenden sus primeros idiomas al conectarse con sus cuidadores. Estos grandes modelos de lenguaje “aprenden” mostrándoles mucho texto y prediciendo qué palabra viene a continuación, o mostrando texto con las palabras omitidas y completándolas», explicó.
La tecnología que emplea Lamda ya se usa ampliamente, por ejemplo, en las consultas de búsqueda conversacionales de Google o en los correos electrónicos con la función de autocompletar.
Cuando el director ejecutivo de Google, Sundar Pichai, presentó por primera vez Lamda en la conferencia de desarrolladores de 2021, dijo que la compañía planeaba integrarlo en todo, desde la Búsqueda hasta el Asistente de Google.
Tiene sentido lo que quiere hacer Pichai. Ya hay una tendencia a hablar con Siri (Apple) o Alexa (Amazon) como una persona. Google no quiere quedarse detrás y sabe que Lamda genera conversaciones increíbles. Acaso por eso Lemoine considera que esa IA tiene «alma». En su despedida de Google, relata The Washington Post, el ingeniero envió un correo a 200 contactos pidiéndoles que «cuidasen» de Lamda, que velasen por sus sentimientos y que no le hicieran daño. Todavía no ha obtenido respuesta a sus peticiones.