La nueva generación de IA está aún lejos de adquirir conciencia | NTT DATA

mi., 27 julio 2022

La nueva generación de IA está aún lejos de adquirir conciencia

Es demasiado pronto para decir que nunca existirán, pero la evolución que se ha producido en la última década en la capacidad lingüística es asombrosa

Recientemente, Blake Lemoine, ingeniero de Google, llamó la atención del mundo entero cuando afirmó que la inteligencia artificial del proyecto LaMDA, la IA conversacional más avanzada de Google, tenía sintiencia, es decir, la capacidad de verse afectada positiva o negativamente por experiencias externas o internas. Según Lemoine, la tecnología ha adquirido la percepción y la capacidad de expresar pensamientos y sentimientos al nivel de un niño humano.

Blake fue despedido por incumplimiento de cláusulas de privacidad. Si entre el público lego la declaración del ingeniero causó furor, miedo y cierta fascinación, entre los expertos el sentimiento fue de conmoción. Al fin y al cabo, ¿cómo puede un ingeniero que conoce las técnicas utilizadas hablar de una IA con sintiencia? Es importante destacar que Blake no es un experto en aprendizaje automático, sino un profesional dedicado a probar la tecnología de la que probablemente no tenía un conocimiento profundo.

En respuesta a la declaración de Blake, Google dijo que LaMDA está diseñada exactamente para imitar la sintiencia. Las soluciones que simulan la sintiencia/conciencia no son nada nuevo. En los países asiáticos, son populares los bots sociales que atraen a los usuarios simulando una relación amistosa, e incluso iniciando conversaciones de forma proactiva. Desde 2014, Microsoft desarrolla XiaoIce con casi 700 millones de usuarios activos y con un promedio de 23 interacciones entre bot y humano por conversación. XiaoIce pretende simular una personalidad y una conciencia a gusto del usuario.

A pesar de alcanzar este nivel de participación, la IA no es realmente sintiente, sino que tiene mecanismos diseñados para simular la sintiencia. Por lo tanto, lograr engañar a Blake es la prueba de que la tecnología de hecho está cumpliendo su función.

Si bien no sea sintiente, la nueva generación de soluciones de IA de Google es disruptiva. Es el resultado de un trabajo iniciado en 2013 con la publicación del artículo Efficient Estimation of Word Representations in Vector Space (eficiente estimación de representaciones de palabras en el espacio vectorial, en traducción libre). En 2017, Google presentó los transformers, tecnología basada en el uso de redes neuronales profundas que procesan el texto de forma secuencial y pueden aprender la construcción del lenguaje. La aplicación básica de este tipo de inteligencia consiste en predecir la frase más probable en una secuencia textual.

Las soluciones que utilizan transformers reciben el nombre de Self Supervised Learning (aprendizaje auto-supervisado, en traducción libre). El aprendizaje se realiza mediante el acceso a grandes bases lingüísticas, ya sea en libros, páginas web, vídeos, etc. La evolución de la lengua ha sido exponencial a medida que han ido absorbiendo su complejidad. En 2018, Google publicó el primer modelo de transformers famoso, el BERT, modelo con 110 millones de parámetros. En 2020, lanzó el GPT-3 de OpenAI con 175.000 millones de parámetros. Y en abril publicó el modelo PaLM, con 540.000 millones de parámetros. Cuanto mayor es el número de parámetros, mayor será la capacidad de obtener conocimiento y comprensión del lenguaje.

El último modelo lanzado por Google, PaLM, es el que mejor representa el estado actual de las soluciones de procesamiento del lenguaje natural. Esto se debe no sólo a que es el modelo con más parámetros, sino a que el modelo utilizó técnicas innovadoras en el entrenamiento que minimizan el número de neuronas activas en la red para cada entrada, de modo que lenguajes similares activan zonas similares de la red neuronal. Esto permite reducir el tiempo de ejecución y el consumo de energía.

El modelo PaLM es polivalente y puede utilizarse en diversas situaciones. Puede, por ejemplo, a partir de un texto de referencia, responder a una pregunta relacionada con el texto. Es interesante que la respuesta pueda incluir información que provenga de fuentes distintas al texto base. También puede explicar la lógica de un chiste, así como resolver y explicar la solución de un determinado problema matemático.

Todavía estamos lejos de ver aplicaciones de IA sintientes. Es demasiado pronto para decir que nunca existirán. Pero la evolución que se ha producido en la última década en la capacidad lingüística es asombrosa. Hay pocas dudas de que la codificación de software, en breve, se realizará en lenguaje natural, sin necesidad de utilizar un lenguaje de programación. En NTT DATA disponemos de soluciones para la generación de código mediante el modelo GPT-3 de Open AI. También utilizaremos la IA para el análisis de textos complejos, como en la automatización de documentos legales.


¿Quieres saber más?

Ponte en contacto con nosotros.

Contacta