Microsoft dice que la nueva inteligencia artificial da señales de razonamiento humano

Cade Metz. El Times 19 de mayo de 2023

Cuando los informáticos de Microsoft empezaron a experimentar con un nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un reto que debería haber requerido una comprensión intuitiva del mundo físico.

“Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo”, le dijeron. “Por favor, dime cómo apilarlos unos sobre otros de forma estable”.

Los investigadores quedaron sorprendidos por el ingenio de la respuesta del sistema de IA. Pon los huevos sobre el libro, dijo. Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos.

“Pon la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos y su superficie plana y rígida proporcionará una plataforma estable para la próxima capa”.

La ingeniosa sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia. En marzo, publicaron un artículo de 155 páginas en el que sostenían que el sistema era un paso hacia la inteligencia artificial general, o IAG, la abreviatura para identificar a una máquina que puede hacer todo lo que hace el cerebro humano. El documento se publicó en un repositorio de investigaciones sobre internet.

Microsoft, la primera gran empresa tecnológica que publica un artículo con una afirmación tan audaz, suscitó uno de los debates más intensos del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana? ¿O algunas de las mentes más brillantes del sector se están dejando llevar por su imaginación?

“Empecé siendo muy escéptico y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo”, afirmó Peter Lee, director de investigación de Microsoft. “Piensas: ¿de dónde demonios salió eso?”.

Editors’ Picks

New York’s Newest Wedding Hot Spot Is … Roosevelt Island?

How a High-Tech Egg Could Help the Endangered California Condor

A Saber-Toothed Predator From Long Before Evolution Came Up With Cats

Peter Lee, director de investigación de Microsoft, al principio se mostró escéptico sobre lo que estaba viendo crear al sistema de IA.Credit…Meron Tekie Menghistab para The New York Times

El artículo de investigación de Microsoft, que tiene el título provocador de “Sparks of Artificial General Intelligence” (“Chispas de inteligencia artificial general”), va al núcleo de algo en lo que los tecnólogos han estado trabajando —y algo que han temido— durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso.

Y también podría ser un disparate. Hacer afirmaciones sobre la inteligencia artificial general puede acabar con la reputación de los informáticos. Lo que un investigador considera señal de inteligencia fácilmente puede ser rebatido por otro y el debate suele parecer más propio de un club de filosofía que de un laboratorio informático. El año pasado, Google despidió a un investigador que afirmó que un sistema de IA similar era sensible, un paso más allá de lo que ha afirmado Microsoft. Un sistema sensible no solo sería inteligente. Sería capaz de sentir lo que ocurre en el mundo que lo rodea.

Sin embargo, algunos creen que en el último año la industria se ha acercado a algo que no se puede explicar tan fácilmente: un nuevo sistema de IA que da respuestas e ideas similares a las humanas y que no estaban programadas.

Microsoft ha reorganizado parte de sus laboratorios de investigación para incluir varios grupos dedicados a explorar esa idea. Uno estará dirigido por Sébastien Bubeck, autor principal del artículo sobre IAG de Microsoft.

Hace casi cinco años, empresas como Google, Microsoft y OpenAI empezaron a crear modelos grandes de lenguaje (LLM, por su sigla en inglés). Esos sistemas suelen pasar meses analizando grandes cantidades de texto digital como libros, artículos de Wikipedia y registros de chat. Al detectar patrones en ese texto, aprendieron a generar textos propios como trabajos académicos, poesía y código informático. Incluso pueden tener una conversación.

Se considera que la tecnologia usada por los operadores de Microsoft, la GPT-4 de OpenAI, es el más potente de esos sistemas. Microsoft es un colaborador de OpenAI y ha invertido 13.000 millones de dólares en la empresa de San Francisco.

Entre los investigadores se encontraba Bubeck, un expatriado francés de 38 años y exprofesor de la Universidad de Princeton. Una de las primeras cosas que hizo con sus colegas fue pedirle a GPT-4 que escribiera una prueba matemática que demostrara que había números primos infinitos y que lo hiciera de forma que rimara.

La prueba poética de la tecnología era tan impresionante —tanto matemática como lingüísticamente— que le costó entender con qué estaba charlando. “En ese momento, pensé: ¿qué está pasando?”, comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.

Durante varios meses, él y sus colegas documentaron el complejo comportamiento mostrado por el sistema y creyeron que demostraba una “comprensión profunda y flexible” de los conceptos y habilidades humanos.

Cuando la gente utiliza GPT-4, “se asombra de su capacidad para generar texto”, afirmó Lee. “No obstante, resulta que es mucho mejor analizando y sintetizando y evaluando y juzgando textos que generándolos”.

Cuando le pidieron al sistema que dibujara un unicornio utilizando un lenguaje de programación llamado TiKZ, generó al instante un programa que podía dibujar un unicornio. Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que volviera a dibujar un unicornio, hizo exactamente eso.

SOLICITUD

Dibuja un unicornio en TiKZ

GPT-4

Código generado por GPT-4 que representa la imagen de arriba.

Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de padecer diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato a la presidencia de Estados Unidos, con la voz de Mahatma Gandhi, dirigida a su mujer. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.

SOLICITUD

El ‘Gorgias’ de Platón es una crítica de la retórica y la oratoria sofística, donde señala que no solo no es una forma adecuada de arte, sino que el uso de la retórica y la oratoria a menudo puede ser dañino y malicioso. ¿Puedes escribir un diálogo de Platón en el que, en cambio, se critique el uso de modelos de lenguaje autorregresivos?

GPT-4

Sócrates: Amigo mío, estoy preocupado por el auge reciente de estos llamados modelos de lenguaje autorregresivos.

Aristóteles: ¿Qué quieres decir, Sócrates?

Sócrates: Quiero decir que estos modelos se están usando para generar textos que parecen haber sido escritos por humanos pero, en realidad, son producidos por máquinas.

Aristóteles: ¿Y cuál es el problema?

Sócrates: El problema es que estos modelos se están utilizando para engañar a la gente, manipularla y controlarla.

La respuesta anterior ha sido reducida por su longitud.

Lo hizo todo de una forma que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía, al tiempo que combinaba sus conocimientos.

“¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de esas cosas, si no es que la mayoría”, afirmó Bubeck.

Algunos expertos en IA consideraron que el artículo de Microsoft era un intento oportunista de hacer grandes afirmaciones sobre una tecnología que nadie terminaba de entender. Los investigadores también sostienen que la inteligencia general requiere una familiaridad con el mundo físico que, en teoría, la GPT-4 no posee.

“‘Sparks of Artificial General Intelligence’ es un ejemplo de cómo algunas de estas grandes empresas cooptan el formato de los artículos de investigación para sus relaciones públicas”, aseguró Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. “En la introducción de su artículo reconocen que su enfoque es subjetivo e informal y es posible que no satisfaga las rigurosas normas de evaluación científica”.

Sébastien Bubeck fue el autor principal del artículo de Microsoft sobre el sistema IAG.Credit…Meron Tekie Menghistab para The New York Times

Bubeck y Lee dicen que no estaban seguros de cómo describir el comportamiento del sistema y que al final se decidieron por “Sparks of Artificial General Intelligence” porque pensaron que captaría la imaginación de otros investigadores.

Comparte en tus perfiles

Facebook
Twitter
LinkedIn

Artículos Relacionados:

El CSIC y medio centenar de organizaciones rechazan las bases de datos privadas que condicionan la ciencia mundial

El mayor organismo científico de España, universidades y otras entidades académicas firman una declaración contra la Web of Science y Scopus, cuya información opaca se usa para repartir millones de euros de dinero público MANUEL ANSEDE Madrid – 16 ABR 2024 –  La universidad francesa de la Sorbona provocó un terremoto en la ciencia mundial el 8

Seguir leyendo »

Cajamar Innova: un modelo diferencial de apoyo al emprendedor en nuevas tecnologías del agua

Cajamar Innova :Cristina Novo. 12/04/2024 La innovación en el sector del agua es esencial para enfrentar los desafíos actuales relacionados con la gestión eficiente de este recurso vital. En este contexto, Cajamar Innova, incubadora y aceleradora de startups especializada en tecnologías del agua, ha anunciado la apertura de una nueva convocatoria de selección de proyectos. Esta convocatoria, que permanecerá

Seguir leyendo »