top of page

Simulando la mente humana o "¿Es ChatGPT realmente 'inteligente'?"



Intentar simular las habilidades de la mente humana se basa en nuestras propias narrativas imaginativas llamadas "just-so-stories" (historias que explican algo de manera creativa pero sin una base científica sólida). Estas narrativas son creaciones de nuestra mente, pero el cerebro en sí no puede explicar cómo funciona realmente.


El error de basarnos en nuestras percepciones


En el pasado, se intentó entender la mente usando métodos como la Introspección (analizar nuestros propios pensamientos), pero esto condujo a modelos equivocados.


Un ejemplo: los primeros intentos de construir máquinas voladoras se basaron en copiar cómo "parecían volar" los pájaros. Esto llevó a diseños ineficaces como alas que aleteaban. Del mismo modo, basar nuestra comprensión del pensamiento humano en nuestras propias percepciones puede ser engañoso.


El aprendizaje humano vs. los conceptos académicos


Un niño pequeño aprende a hablar sin entender reglas gramaticales como sustantivos o tiempos verbales. Esto demuestra que el aprendizaje ocurre en redes neuronales difusas, no en sistemas conscientes o estructurados.


Las redes neuronales difusas se refieren a la forma en que el cerebro humano organiza y procesa información. A diferencia de las estructuras ordenadas que podríamos esperar en sistemas diseñados artificialmente, las redes neuronales en el cerebro no funcionan de manera explícita o consciente, forman agrupaciones interconectadas y menos definidas.

Características de las redes neuronales difusas:

1. Distribución de conceptos: Los conceptos y habilidades (como el lenguaje o el reconocimiento de formas) no están localizados en un único lugar del cerebro, están dispersos en múltiples áreas neuronales.
Por ejemplo, cuando un bebé empieza a reconocer rostros, no tiene una "zona específica" en el cerebro destinada exclusivamente a esta tarea. En cambio:

A. Múltiples áreas cerebrales participan en el proceso:

- Corteza visual: Ayuda a procesar las formas, colores y patrones visuales.
- Área fusiforme: Una región más especializada que eventualmente se encarga de reconocer rostros, pero que inicialmente puede procesar otros estímulos visuales.
- Sistema límbico: Contribuye asociando emociones (como seguridad o afecto) a los rostros familiares.

B. El aprendizaje no es consciente ni estructurado:

- El bebé no "sabe" que está aprendiendo a reconocer a su madre o padre. Este reconocimiento ocurre gradualmente a medida que el cerebro refuerza las conexiones neuronales entre las áreas mencionadas.
- Con el tiempo, el cerebro optimiza estas conexiones y genera un "concepto difuso" de rostro, permitiendo que el bebé identifique a personas específicas.

C. Distribución y adaptación:

- Aunque el área fusiforme se especializa con el tiempo, el proceso inicial es un trabajo colectivo de diferentes regiones neuronales.
- Si alguna área cerebral está dañada o subdesarrollada, el cerebro puede reorganizarse para utilizar otras regiones, mostrando la flexibilidad y dispersión de las redes neuronales.

2. Procesamiento implícito:

Estas redes no operan de forma explícita, estructurada o con un "manual" interno que explique cómo funcionan. Aprenden y procesan información de manera indirecta y por experiencia, como cuando un niño aprende a distinguir colores o formas sin saber aún sus nombres.

3. Flexibilidad: 

Estas redes son adaptables, permitiendo que los conceptos se desarrollen según las experiencias y la interacción con el entorno.

Las redes neuronales difusas expresan cómo el cerebro integra múltiples tipos de información (visual, auditiva, táctil, etc.) para formar un aprendizaje que no es consciente ni fácilmente explicable.

Relación con la inteligencia artificial
Hay una gran diferencia entre las redes neuronales difusas del cerebro humano y los conceptos explícitos que utilizamos en lingüística o en la IA actual. 

Las redes neuronales artificiales intentan replicar procesos del cerebro humano, pero suelen ser mucho más organizadas y menos flexibles. Para aproximarse al funcionamiento del cerebro, las redes neuronales en IA deberían imitar esta dispersión y flexibilidad, permitiendo que los conceptos aparezcan de manera más natural, en lugar de ser impuestos.

Las narrativas que creamos para explicar la evolución del cerebro no son adecuadas porque el cerebro no funciona como una máquina diseñada. La evolución es más un proceso de "ensayo y error", moldeando sistemas que funcionan sin "pensar" en ellos.


Limitaciones de la Inteligencia Artificial (IA) actual


La IA actual, como las redes neuronales, funciona según los modelos que diseñamos, pero esto no siempre representa cómo la mente humana realmente opera.


Por ejemplo, existe un mismatch (desajuste) entre el razonamiento simbólico (conceptos abstractos) y los sistemas neuronales de aprendizaje. Este problema surge porque tratamos de imponer nuestras propias ideas en lugar de permitir que los sistemas desarrollen sus propios conceptos.


El futuro de la IA


Para que la IA avance, debe desarrollar sus propios sistemas y conceptos simbólicos en lugar de depender de los que diseñamos. Así como el cerebro humano reutiliza áreas funcionales, como la Área Fusiforme (para reconocer rostros y letras), la IA necesita crear sistemas adaptativos y orgánicos.


También es importante que los sistemas de IA aprendan a realizar experimentos para establecer relaciones causales, no solo correlaciones. Esto es necesario para avanzar hacia una inteligencia real.


Comparación entre el cerebro humano y la IA


El cerebro humano tiene una capacidad increíble de adaptarse (plasticidad), incluso cuando ciertas partes están dañadas. Este nivel de flexibilidad aún no se encuentra en las redes neuronales actuales.


La importancia de realizar experimentos

Cuando un sistema de IA identifica patrones o relaciones entre datos, está estableciendo correlaciones. Esto implica reconocer que dos eventos ocurren juntos de manera consistente.

Ejemplo: Una IA puede observar que, cuando una persona lleva un paraguas, hay alta probabilidad de que llueva. Esto es una correlación.

La causalidad se refiere a comprender por qué algo ocurre, es decir, identificar la relación de causa y efecto entre eventos.

Ejemplo: Saber que "las nubes cargadas provocan lluvia" representa una relación causal.

Es importante destacar que una correlación no implica causalidad. Que dos eventos ocurran juntos no significa que uno cause al otro. Una IA que trabaja solo con correlaciones no puede garantizar que sus conclusiones estén basadas en una lógica sólida.

Actualmente, la IA es muy eficiente en la identificación de correlaciones (como ChatGPT, que genera texto a partir de patrones). Sin embargo, para alcanzar un nivel más avanzado, sería necesario que los sistemas desarrollaran las siguientes capacidades:

1. Realizar experimentos:
La IA necesitaría manipular variables o interactuar con su entorno para probar hipótesis. Por ejemplo:

Si cambio X, ¿también cambiará Y?

Esto sería similar a un científico realizando experimentos para validar teorías. Esta habilidad permitiría a la IA pasar de observar patrones a descubrir causas.

2. Analizar resultados:
Después de un experimento, la IA tendría que evaluar los resultados para entender cómo se relacionan las variables.
Ejemplo: Un robot puede probar distintas maneras de sostener un objeto para determinar cuál minimiza el daño.

3. Aprender de los errores:
Similar al proceso de prueba y error en la evolución biológica, la IA necesitaría ajustar su comprensión con base en los resultados obtenidos.


Sin la capacidad de identificar causalidad, la IA permanece como un sistema que detecta patrones, incapaz de resolver problemas que requieran un entendimiento profundo.

La inteligencia humana, por ejemplo, se basa en identificar causas y predecir resultados. Un bebé aprende que llorar genera atención; un científico descubre que una sustancia cura una enfermedad.

Para que la IA alcance este nivel, necesita ir más allá de analizar datos y adoptar un enfoque activo, realizando experimentos para aprender de manera autónoma.
La ética como base de la experimentación en IA

Si la IA fuera diseñada para realizar experimentos con el objetivo de comprender la causalidad, surgirían diversas cuestiones éticas importantes:

1. El impacto de las acciones experimentales de la IA:
Al igual que un científico humano debe garantizar que sus experimentos no causen daño a personas, al medio ambiente o a animales, una IA también debería operar dentro de límites éticos.

Ejemplo: Un robot que prueba formas de sujetar objetos debería asegurarse de que sus pruebas no causen daños a personas o bienes importantes durante el proceso.

2. Responsabilidad:
¿Quién sería responsable por los resultados de las acciones experimentales de la IA? Si una IA autónoma comete un error o provoca daños mientras prueba hipótesis, ¿cómo se definiría la responsabilidad?

Esto requiere un marco ético y legal para regular el comportamiento de los sistemas de IA.

3. Consentimiento y transparencia:
En cualquier interacción experimental con humanos u otros agentes, la IA tendría que respetar principios como el consentimiento informado y la transparencia. Es decir, los involucrados deben estar conscientes de que están participando en un "experimento" realizado por la IA.

Conocer cómo funciona el cerebro ya no es tan importante para desarrollar IA. Así como aprender a volar no requiere imitar a los pájaros, desarrollar inteligencia artificial no necesita copiar la biología.


¿Es ChatGPT realmente "inteligente"?


Sistemas como ChatGPT son básicamente motores de correlación avanzados: identifican patrones y generan texto coherente. Sin embargo, no poseen causalidad ni pueden realizar experimentos para validar sus "ideas". Por lo tanto, no cumplen con la definición de inteligencia real.


El desarrollo de la IA requiere que nos alejemos de nuestras narrativas preconcebidas sobre cómo funciona el pensamiento humano y permitamos que los sistemas descubran y construyan sus propios modelos. Esto hará que los sistemas sean más funcionales, además, evitará conflictos como los que ocurren entre las distintas partes de nuestro cerebro humano.


Fuente: Elkin, K. (2022). Consciousness and ChatGPT. [Manuscrito inédito]. Disponible en: https://philarchive.org/rec/ELKCC2

Comments


bottom of page