Rob Whiteman. 27 de agosto de 2025. MEDIUM.
Rob Whiteman es un Consultor jubilado entusiasmado con la tecnología, las operaciones, la educación y todo lo relacionado tangencialmente con la automatización.
En Parte 1 Ignoré capacidades emergentes como la cognición, las emociones y la consciencia. Estos rasgos tienen beneficios evolutivos, pero no se pueden crear de la nada. Es necesario empezar con una base estructural.
Para resumir, esto es lo que hemos cubierto hasta ahora:
- Por definición, todos los organismos vivos comparten el mismo objetivo: la supervivencia.
- La capacidad de transmitir señales aumenta las probabilidades de supervivencia.
- La transmisión de señales requiere energía y el metabolismo de un organismo limita el suministro disponible.
- Los umbrales de activación, la consolidación (incluida la plasticidad) y la inhibición reducen el consumo de energía sin afectar materialmente los beneficios de supervivencia.
Aquí es donde la cosa se complica: ¿cómo pasamos de las estructuras físicas a las capacidades emergentes? Empecemos por la inteligencia.
Cerebros de pájaro
¿Es ChatGPT inteligente? Es una pregunta sencilla que genera un intenso debate en la comunidad de IA. Muchos expertos argumentan que los grandes modelos de lenguaje (LLM) son meros loros estocásticos que encadenan palabras sin una comprensión real. Otros creen que estos modelos muestran señales genuinas de inteligencia, capaces de un pensamiento similar al humano.
Estoy en el segundo grupo; los LLM son inteligentes. ¿Son conscientes? Probablemente no, pero hablaremos de eso más adelante.
Hay tres tipos de inteligencia en mi modelo:
- Inteligencia de propagación: transmisión de señales valiosas a través del espacio y el tiempo.
- Inteligencia de generalización: codificación de patrones compartidos a través de señales propagadas.
- Inteligencia de estratificación: codificación de patrones temporales entre señales propagadas.
Según mis definiciones, ChatGPT es inteligente. El modelo se propaga, generaliza y estratifica. ¿Cuál es mi respuesta a los expertos que afirman que los LLM no «entienden» lo que dicen?
A veces nosotros tampoco.
Estoy siendo provocador, pero hay evidencia que apoya mi afirmación.
En la década de 1960, Roger Sperry y Michael Gazzaniga estudiaron a pacientes sometidos a un procedimiento que corta el cuerpo calloso, un haz de fibras nerviosas que conecta los hemisferios cerebrales. Los médicos aún utilizan este método para tratar la epilepsia grave y resistente a los fármacos. Los pacientes no suelen presentar déficits cognitivos evidentes tras una cirugía exitosa.

En un experimento, a un paciente se le mostró la palabra «LLAVE» en su campo visual izquierdo, procesada por el hemisferio derecho del cerebro. Dado que el lenguaje se origina en el hemisferio izquierdo —y ambos hemisferios no podían comunicarse—, el paciente no pudo explicar lo que veía. Pero cuando se le pidió que eligiera un objeto de una caja con la mano izquierda —también controlada por el hemisferio derecho—, eligió correctamente la llave.
Ahora viene el giro.
Cuando se le preguntó por qué había elegido la llave, el paciente, usando su hemisferio izquierdo, inventó una historia: «Oh, pensé que entraría en la cerradura del escritorio». No mentía. Realmente creía que esa era la razón por la que había elegido la llave. Su cerebro generó una explicación plausible para sus acciones.
Los estudios de cerebro dividido demuestran que el lenguaje humano no necesita basarse en una comprensión completa. Diariamente, los pacientes se sentían y actuaban, en general, como la misma persona que eran antes de la cirugía. Las lagunas solo aparecieron en pruebas controladas. En esos momentos, los pacientes producían un lenguaje fluido aunque el hemisferio izquierdo trabajaba con información incompleta. Esto se asemeja a las críticas modernas a los LLM.
Damos por sentado que, dado que nuestras palabras se basan en modelos del mundo, esa estructura es esencial para la comprensión. Pero ¿y si se trata simplemente de una forma eficiente del cerebro humano para organizar la información? Veo pocas razones para creer que la IA deba organizar la información de la misma manera. Los pacientes con cerebro dividido no lo hacen, y se desenvuelven bastante bien en el mundo.
Advertencia: Mis opiniones sobre este tema difieren considerablemente de las de personas mucho más inteligentes que yo, incluyendo neurocientíficos y expertos en IA. Por ejemplo, Yann LeCun, uno de los «Padrinos de la IA», cree firmemente que los transformadores son un callejón sin salida .
Ahora, hablemos de la inteligencia que no requiere un cuerpo calloso intacto.
Simplemente inteligente
Según mis definiciones, un organismo mononeuronal puede ser inteligente. Ese pequeño aparato de la Parte 1 podía transmitir señales valiosas a través del espacio y el tiempo. Cumplía con mis criterios de inteligencia de propagación.
Si eso es cierto, ¿no tendría también un cable de fibra óptica inteligencia de propagación? Además, transmite señales valiosas a través del espacio y el tiempo.
No, el contexto evolutivo importa.
¿Recuerdan los organismos mononeuronales de la Parte 1? El primero se alejó del peligro y el segundo se acercó. El primero tenía más posibilidades de sobrevivir, transmitiendo así su información genética.
Ambos organismos mononeuronales respondieron a estímulos, pero solo sobrevivió el que codificaba información valiosa sobre el mundo. Quizás no consideres inteligente al organismo superviviente, pero es más inteligente que el que pereció.
Misión secundaria: Puede que suene hipotético, pero incluso los organismos más simples son capaces de hazañas impresionantes. ¿Creerías que el moho mucilaginoso puede resolver un laberinto ?
La inteligencia de propagación va más allá de transmitir señales del punto A al punto B; es conocimiento del mundo. El organismo superviviente «conoce» el concepto de alejarse del peligro. Es importante destacar que desconoce el concepto de «peligro» en sí, lo cual requiere inteligencia de generalización.
Existe un experimento mental llamado «La Habitación China» . Una persona que no entiende chino es encerrada en una habitación con un manual en inglés que explica cómo manipular caracteres chinos. Cuando un hablante nativo desliza preguntas en chino por debajo de la puerta, la persona usa el manual para responder con respuestas convincentes, a pesar de no entender el idioma.
El propósito del experimento mental era cuestionar la idea de que las computadoras realmente pueden comprender el lenguaje o tener mente. Pocas cosas me molestan más que el experimento mental de la Habitación China.
El organismo en la habitación no es el humano angloparlante. Es el humano más el manual, al menos desde la perspectiva de un observador. No importa que el conocimiento relevante esté en un libro. Es como afirmar que un paciente con cerebro dividido ya no es inteligente porque sus hemisferios derecho e izquierdo están físicamente separados.
La única razón por la que el experimento mental de la Habitación China funciona es que John Searle explica que las reglas del lenguaje están en un libro. ¿Qué pasaría si, en cambio, la habitación estuviera vacía antes de comenzar el experimento? Inicialmente, el observador desliza un papel por debajo de la puerta y recibe una respuesta jerigonza. Después de varios meses, las respuestas se asemejan a las de un chino fluido.
¿Sabe el ser humano que lleva dentro hablar chino? ¿Y si creara un reglamento basado en los ejemplos y nunca aprendiera a hablar el idioma? ¿Podría un observador notar la diferencia? ¿Importaría?
La inteligencia integrada en las estructuras neuronales sigue siendo inteligencia. El origen y el propósito de la inteligencia de propagación pueden no ser siempre evidentes para el organismo o para observadores externos, pero eso no la hace menos valiosa.
Dato curioso: Uso el término «entorno» desde la perspectiva del cerebro, que incluye señales hacia y desde otros sistemas del cuerpo (por ejemplo, cambios químicos en el intestino, cambios en la presión arterial). Para el cerebro, es un conjunto de señales eléctricas y químicas.
Suficientemente cerca
En la Parte 1, vimos cómo la consolidación neuronal minimiza el consumo de energía a la vez que preserva las ventajas de supervivencia. Las estructuras ramificadas son artefactos que quedan de la redundancia histórica.
Ocurre algo curioso cuando las neuronas se consolidan: se pierden detalles en el proceso. El precio de la eficiencia es la fidelidad.
Repasemos nuestro organismo de dos neuronas. Supongamos que los rangos de la señal de entrada de cada neurona están representados por distribuciones normales. Si los puntos medios de las distribuciones se superponen mayoritariamente, las neuronas deberían consolidarse.

Las distribuciones originales son similares, pero no son iguales. Los casos extremos que activaban acciones de salida en una neurona individual podrían no hacerlo en la neurona consolidada. Esto es lo que ocurre cuando se toman dos umbrales de activación y se combinan en uno.
La mejor analogía son los archivos de música MP3. Al escuchar música en streaming, no se escucha cada detalle; el archivo comprimido utiliza modelos psicoacústicos para eliminar detalles que el oído humano no puede percibir fácilmente. Los archivos de audio sin pérdida son entre 10 y 15 veces más grandes que los MP3, pero la mayoría de la gente no nota la diferencia. Los fragmentos que faltan pasan desapercibidos.
La generalización es un error que hemos rebautizado como una característica. Las neuronas ramificadas codifican abstracciones, no detalles sutiles. El nivel de abstracción depende de la importancia de los casos extremos para la supervivencia.
Ilustraré mi punto con dos ejemplos.
Imagina que alineo todos los árboles de tu vecindario. Al recorrer la fila, reconocerías los tipos de árboles más comunes: robles, arces y pinos. También notarías sus atributos comunes: altos, fragantes y con flores.
¿Sabes qué no notarías? Árboles específicos. Si te pidiera que identificaras el árbol que ves a diario camino al trabajo, probablemente no podrías. Podrías reducirlo a un subconjunto, pero no podrías identificar ese árbol .
Las neuronas se consolidan hasta que la pérdida de fidelidad afecta negativamente las probabilidades de supervivencia. La mayoría de nosotros no entramos en un bosque y nos asustamos por no reconocer los árboles individualmente. Las abstracciones codificadas en nuestro cerebro son bastante parecidas.
¿Qué pasaría si alineara a todas las personas de tu vecindario? ¿Reconocerías las caras individuales? Sí, esos detalles son importantes para la supervivencia. La codificación de rasgos faciales sigue teniendo pérdidas (intenta dibujar a tu mejor amigo de memoria), pero tiene menos pérdidas que la codificación de rasgos de árboles.
Última hora: Poco después de publicar este ensayo, un amigo cercano me escribió para decirme que reconoce árboles individuales mucho más que una persona promedio. ¿Eso refuta mi argumento? Quizás, pero también debo mencionar que pasó años en el bosque, incluso durante su servicio militar, donde reconocer árboles individuales era una habilidad esencial para la supervivencia.
La inteligencia de generalización es un subproducto de la consolidación. Gran parte de lo que consideramos inteligencia (p. ej., pensamiento conceptual, creatividad, razonamiento) se debe a la codificación con pérdida. El mundo interior es una abstracción de la realidad, pero cumple una función extraordinariamente eficaz para mantenernos vivos.
¿Por qué la evolución prioriza la amplitud sobre la profundidad? Porque «suficientemente cerca» suele ser suficiente. Codificar detalles excesivos consume capacidad neuronal y energía sin ofrecer beneficios para la supervivencia. Como resultado, todos los organismos habitan entornos complejos desde su perspectiva .
Un trozo de hierba es complejo para una hormiga. Un estanque es complejo para una tortuga. Una selva es compleja para un chimpancé. El universo es complejo para nosotros. Si quieres saber por qué me entusiasma y me aterroriza la IA, detente un momento en ese último punto.
Hay alrededor de 180 billones de gigabytes de datos en internet. El modelo de IA original de ChatGPT era inferior a 100 gigabytes. Las alucinaciones son frustrantes, pero el hecho de que los LLM acierten en algo demuestra su inteligencia de generalización.
La inteligencia de generalización no es perfecta, pero sí eficiente. Apilar abstracciones sobre abstracciones genera mayor fidelidad a niveles bajos (más cercanos a la realidad) y una integración de señales expansiva a niveles altos (más alejados de la realidad).
La mayoría de las conversaciones sobre inteligencia terminan aquí, pero hay un tipo más de inteligencia en mi modelo.
Esperando…
Los entornos no solo son complejos, sino también dinámicos. Las señales de entrada se repiten, oscilan y cambian. Por lo tanto, las acciones de salida deben mantenerse, modularse y cesar. La información temporal es esencial para la supervivencia.
Cuando hablo de «información temporal», me refiero a retrasos y secuencias, junto con sus derivados, como duraciones y periodicidad. La luz viaja casi un millón de veces más rápido que el sonido; ves un rayo antes de oírlo. Las tostadas saben mejor cuando se les unta mantequilla antes de comerlas.
¿Cómo se codifica el tiempo en las estructuras neuronales?
Empecemos con las acumulaciones. Las neuronas no se activan ante la más mínima señal. Primero deben cruzar un umbral de activación, y lo hacen de dos maneras: suma espacial y suma temporal.
Ya hemos hablado de la suma espacial. La razón principal por la que las neuronas se consolidan es para minimizar la redundancia. Las neuronas consolidadas se activan con menos frecuencia que la suma de las neuronas individuales que reemplazan.
Dato curioso: Los casos extremos se agravan al manejar miles de señales de entrada. Los efectos de la codificación con pérdida son mucho mayores en las estructuras neuronales ramificadas que en las neuronas simples que he usado con fines ilustrativos.
La suma temporal es similar, pero implica la acumulación de señales a lo largo del tiempo. Las señales de entrada no desaparecen inmediatamente después de llegar. Se acumulan en la neurona y se combinan con las señales que llegan posteriormente, atenuando así los efectos de las señales de entrada repetitivas.
Las acumulaciones son adecuadas para retrasos cortos, pero ¿qué ocurre con los retrasos y secuencias largos? Eso es competencia de las capas y los clústeres.
Las capas son más frecuentes en el neocórtex , la parte más nueva del cerebro humano, con seis capas. Allí es donde se producen principalmente la planificación, la toma de decisiones, el comportamiento social y el control de impulsos. Todas estas capacidades requieren una orquestación temporal compleja de señales de entrada y acciones de salida.
Mientras tanto, las partes más antiguas de la corteza , donde se producen las emociones, tienen solo tres o cuatro capas. Las emociones involucran estructuras neuronales complejas, pero dependen menos del retraso y la codificación secuencial.
Los grupos son similares. El neocórtex contiene entre 1 y 2 millones de unidades de procesamiento distintas ( macrocolumnas ), mientras que las partes más antiguas del córtex tienen menos de 100 000. No se trata de una comparación equivalente, pero un mayor número de grupos crea más posibilidades de codificación de secuencias y retardos.
A primera vista, las capas y los grupos parecen ineficientes. ¿Por qué los pasos adicionales de procesamiento y la localización mejorarían las probabilidades de supervivencia? Esto se debe a que las capas y los grupos desplazan en el tiempo las señales de entrada y las acciones de salida, alineándolas mejor con el entorno.
Hace más de 150 años, Karl Vierordt observó un patrón curioso : las personas tienden a sobreestimar las duraciones cortas y a subestimar las largas. Existe un punto intermedio, llamado punto de indiferencia, donde nuestra percepción del tiempo es más precisa.
El punto de indiferencia se sitúa entre los 2 y los 3 segundos. ¿Cuánto tiempo suele mantener un estímulo atendido y conductualmente relevante la actividad cerebral? Entre 1 y 5 segundos. Esto no prueba nada, pero cabría esperar que las predicciones de tiempo fuesen más precisas cuando las señales ambientales se sincronizan con las estructuras neuronales.
A menudo damos por sentado el uso de la inteligencia de estratificación, pero imaginemos hablar con alguien que confunde sus palabras y no tiene noción del tiempo. Los retrasos y las secuencias importan tanto como las abstracciones. La inteligencia de propagación y generalización es de poca utilidad si no se tiene la sincronización correcta.
Ajuste perfecto
La inteligencia surge de estructuras neuronales —umbrales, ramas, bucles, capas y grupos— moldeadas por el entorno. Imagina ser teletransportado a un planeta donde tus sentidos no funcionaran, las abstracciones no significaran nada y el tiempo ya no importara. Tu cerebro seguiría luciendo igual, pero a los lugareños les parecerías tonto como una piedra.
Dato curioso: De ahora en adelante, usaré el término «arquitectura neuronal» para describir las estructuras neuronales moldeadas por el entorno. Elegí este término para distinguir los elementos estructurales (ramas, bucles, capas y grupos) de la forma en que se organizan.
Las pruebas de CI no miden lo que la mayoría de la gente supone. Miden la adaptación, no el nivel, de inteligencia. Evalúan qué tan bien se alinea la arquitectura neuronal de una persona con un modelo arbitrario de un mundo complejo y dinámico. La correlación entre el CI y el tamaño del cerebro es, en el mejor de los casos, tenue .
Consideremos a la mujer de Connecticut que creció sin su lóbulo temporal izquierdo, la región que normalmente participa en el procesamiento del lenguaje. En una resonancia magnética se puede apreciar que le falta una gran parte del cerebro. Ya tiene más de 50 años, un posgrado y una trayectoria impresionante. Ah, y además habla ruso con fluidez.

La inteligencia depende del contexto. Tu inteligencia no se adapta bien a mi entorno, y la mía al tuyo. Cada uno de nosotros es inteligente en el contexto de su entorno.
Si eso es cierto, ¿por qué creemos que algunas personas son más inteligentes que otras? Es porque observamos el comportamiento, no la inteligencia. Ese es el enfoque de la Parte 3.