Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

Kristin Andrews y la perspectiva biologicista de la consciencia

Termino de leer este artículo en donde se hace una serie de entrevistas a distintos investigadores (filósofos, neurólogos, psicólogos, etc.) acerca de si los grandes modelos del lenguaje podría albergar Consciencia, y me ha gustado mucho la respuesta de la filósofa de la Universidad de Nueva York, Kristin Andrews. Tanto que os la he traducido al castellano y os la adjunto aquí (las cursivas son mías):

El hecho de que hoy nos enfrentemos a la cuestión de si la IA pronto será Consciente dado el éxito de los LLM revela mucho sobre los sesgos antropocéntricos contemporáneos. Los humanos usan el lenguaje y son conscientes, y un rápido argumento analógico a favor de la conciencia de la IA podría parecer prometedor. Pero también debemos considerar las disanalogías. Los humanos, monos y ratas que a menudo se utilizan como sujetos de investigación en estudios de conciencia tienen muchas propiedades de las que carecen las IA: propiedades asociadas con la sociabilidad y el desarrollo; un rico sensorium; y estar vivo.

La IA no habita en un mundo de modelos sociales nativos de los cuales aprender y de pares de la misma edad con quienes desarrollarse. Sus interlocutores sociales son sus amos humanos, no una comunidad de individuos de la misma especie con diferentes historias de aprendizaje y diversidad genética. Podría decirse que las IA no son seres culturales y no participan en interacciones colaborativas y competitivas dentro, y entre, culturas.

Las IA tampoco perciben ricamente su entorno físico. Mientras que sus transacciones de tokens más allá de sí mismas se cuentan por billones, los tipos de transacciones que realizan son mínimos, teniendo acceso a la información a través de un teclado o una cámara que es transducida a señales eléctricas. Hay poca integración de información entre modalidades sensoriales.

Y las IA no están vivas. No preservan activamente la continuidad de su existencia, no se autoorganizan para evitar que sus límites se fusionen con su entorno, no absorben elementos del entorno y los transforman a través de procesos metabólicos en su propia existencia continua. Carecen de cualquier objetivo de autoconservación que busquen lograr a través de sus acciones en un entorno social y físico. Y como no logran reproducirse, no se los puede considerar sistemas evolucionados.

Tal vez estoy siendo demasiado escéptica, y las IA actuales y futuras puedan llegar a tener más de estos elementos de los que les doy crédito. Aún así, persisten las preocupaciones. Diseñar una IA para que tenga propiedades análogas a las de los humanos plantea el gaming problem [ignoro a qué se refiere la autora con el “problema del juego»] y se corre el riesgo de crear una torpe imitación de la consciencia, cuya organización funcional sea muy diferente al caso humano. Peor aún, incluso si los científicos informáticos pudieran construir una IA con algunas de estas propiedades, la ciencia contemporánea está lejos de desarrollar una vida artificial sólida, y hay razones sugerentes para pensar que la vida y la mente consciente pueden estar esencialmente entrelazadas. Lo que la vida sí nos da y el lenguaje no es un propósito, una función. El lenguaje puede hacer que este propósito sea más fácil de ver, permitiendo que un agente describa y comunique sus objetivos, pero también puede crear una ilusión de agencia donde no existe.

La función y la biología tienen una relación incómoda, y muchos siguen siendo fuertemente sospechosos de pensar que tiene algún mérito describir células o bacterias como si tuvieran objetivos, mientras que al mismo tiempo se utiliza gimnasia verbal para hablar sobre el propósito sin utilizar el término. Como dice Denis Walsh: “Los organismos son entidades fundamentalmente con un propósito, y los biólogos sienten aversión por el propósito».

La continuidad de la vida y la mente consciente sugiere una posible función de la conciencia: sostener la vida. Cuando nos centramos en la experiencia subjetiva más rudimentaria (sentimientos de sed, falta de oxígeno, deseo social/sexual), se puede considerar que la conciencia tiene un propósito vital.

Si bien esto no nos dice qué Animales Son Conscientes (o si las plantas lo son), debería llevarnos a estudiar las formas más simples de vida animal. He sostenido que la ciencia cognitiva de la conciencia debería adoptar como hipótesis de trabajo que todos los animales son conscientes y estudiar modelos animales mucho más simples para avanzar en el desarrollo de una teoría sólida. Incluso el humilde gusano nematodo microscópico Caenorhabditis elegans puede servir como modelo prometedor para estudiar la conciencia, dadas sus capacidades sensoriales, sociales y de aprendizaje.

La ciencia ha progresado no sólo observando a los humanos, sino también a formas de vida muy distantes de la nuestra. Aristóteles estaba fascinado por las esponjas, Mendel por las plantas de guisantes. Al estudiar la experiencia primordial en animales simples, podemos comprender qué propiedades debe tener una IA antes de tomar en serio la cuestión de si es consciente.

Creo que muchos intelectuales que piensan sobre la posibilidad de diseñar máquinas conscientes caen en el error de ligar con demasiada fuerza, e incluso confundir, la consciencia con la inteligencia. He leído a muchos sostener que cuando la IA se haga más inteligente terminará por desarrollar consciencia, como si la consciencia fuera, simplemente, una consecuencia de un alto grado de inteligencia. No, parece más sensato, en la línea que nos expone Andrews, ligar la consciencia a sensaciones primordiales que no tienen, para nada, que haberse dado en organismos demasiado inteligentes. Y es que ¿qué tendrá que ver una experiencia consciente tan básica como tener sed con una inteligencia altamente desarrollada? Un poquito sí: el organismo que siente sed se ve impelido a beber agua y para conseguir agua es posible que tenga que realizar algún tipo de conducta inteligente. Pero nótese que la sensación consciente no forma parte del proceso inteligente (por ejemplo, explorar en busca de fuentes de agua), solo es su desencadenante.  

Esta perspectiva, a pesar de que Andrews abra la puerta a que en el futuro las cosas puedan cambiar, es un ataque directo a la absurda creencia de que los grandes modelos de lenguaje sean conscientes (o vayan a serlo en breve) ya que una condición que parece previa a ser consciente es estar vivo, y la IA actual no parece tener ninguna de las cualidades que atribuimos a los seres vivos (ni a los conscientes, añadiría yo). 

En esta misma dirección está el gran trabajo del eminente científico australiano Derek Denton, al que se entrevistó hace unos años en la Nueva Ilustración Evolucionista. 



This post first appeared on La Máquina De Von Neumann, please read the originial post: here

Share the post

Kristin Andrews y la perspectiva biologicista de la consciencia

×

Subscribe to La Máquina De Von Neumann

Get updates delivered right to your inbox!

Thank you for your subscription

×