Kitabı oku: «Turbulencias y otras complejidades, tomo I», sayfa 7

Yazı tipi:

¿Qué dice el modelo de Ising?

Un tema importante y sensible en física, pero particularmente en el estudio de los sistemas complejos, es el de establecer si y cómo el comportamiento de sistemas macroscópicos se sigue de ciertas asunciones acerca de los elementos que los componen. El tema constituye un capítulo medular de la física estadística, para muchos físicos, la parte más importante de esta ciencia.

En física, un sistema macroscópico es aquel que se compone de un número de partículas verdaderamente grande: la constante de Avogadro (por el físico y químico italiano A. Avogadro, 1776-1856) cuyo valor es de 1023, un número verdaderamente grande. Por su parte, cuando es trasladado a los sistemas sociales humanos, el tema consiste en el estudio de la forma como los comportamientos microscópicos (=individuales) pueden vincularse con los comportamientos macroscópicos. La idea de base es que el conocimiento de una escala permite el conocimiento de la otra escala. Una relación semejante se dice que es estocástica.

Originariamente, es en el estudio del ferromagnetismo donde aparece el problema de base central de la física estadística. El modelo llamado de Ising fue desarrollado por el físico W. Lenz, como homenaje a su estudiante Ernst Ising, a quien le dirigió su tesis doctoral en los años 1920. Pues bien, Lenz le propuso un problema a Ising, quien lo pudo resolver justamente como su tesis doctoral de 1924, determinando que, en el marco de la mecánica estadística, en un sistema de una dimensión no existe una transición de fase, esto es, la transformación de una fase a otra o, lo que es equivalente, un cambio de estado en un sistema.

De esta suerte, la mecánica estadística, es decir, ese capítulo de la física que permite deducir el comportamiento de sistemas macroscópicos a partir de los comportamientos o estados microscópicos mediante la teoría de la probabilidad, permite comprender que existen transiciones de fase. Una transición de fase constituye una de las marcas distintivas que permiten afirmar que existe un sistema o un comportamiento complejo.

No sin buenas justificaciones, referidos a comportamientos sociales humanos, todo el problema da lugar a lo que técnicamente se conoce como una física social. Esto es, el estudio de fenómenos, sistemas y comportamientos humanos con base en la teoría de la probabilidad y en términos estadísticos. Esta idea requiere una breve explicación.

Desde no hace mucho tiempo, la cultura y la ciencia han venido a comprender a los seres humanos en términos estadísticos; más exactamente, en términos de distribuciones estadísticas. Por ejemplo, distribuciones de Poisson, exponencial, normal, y otras –todas, distribuciones de probabilidad–. Antes de este giro, los seres humanos eran entendidos a partir de singularidades individuales: la locura de Nerón, la nariz de Cleopatra, el coraje de Carlomagno, las dudas de Anibal, por ejemplo.

En el modelo de Ising, la física desempeña un papel fundamental. Más exactamente, el marco de las consideraciones es la termodinámica, y así, se trata de establecer si un sistema determinado es entrópico o no; esto es, si tiende al orden o al desorden. Este es un asunto nuclear en el estudio de los sistemas complejos.

Pues bien, un sistema termodinámico se caracteriza, entre otras razones, por un parámetro de orden, que depende a su vez de varios factores tales como temperatura, fuerzas de cohesión, y otros. De forma general, cabe distinguir dos clases de transiciones de fase. En primer lugar, una transición de fase de primer orden es, grosso modo, aquella que es discontinua. Por su parte, una transición de fase de segundo orden es aquella que es continua.

De forma general, cabe identificar varios conceptos importantes al respecto, tales como estados críticos y puntos críticos, que son aquellos en los cuales un fenómeno: a) cambia de estado, o bien b) en el que se produce una bifurcación en la historia de un sistema. El modelo de Ising tiene la virtud de que posee una solución analítica exacta.

En verdad, es sumamente difícil para sistemas macroscópicos llevar un registro detallado de cada una de las partículas o individuos y predecir entonces el comportamiento del sistema. Es por ello por lo que las técnicas estadísticas, y más exactamente, las aproximaciones probabilísticas resultan de gran ayuda. De manera precisa, al conocer el comportamiento estadístico de un macrosistema, cabe deducir los comportamientos individuales de los componentes del sistema.

El modelo de Ising constituye, en el plano humano y pedagógico, una de esas magníficas excepciones en las que un profesor reconoce el logro de un estudiante suyo, y el profesor desarrolla el modelo otorgándole el mérito al estudiante. Todo lo contrario de lo que constituye la regla en el caso de la mayoría de profesores.

W. Lenz, físico alemán, vivió los años más aciagos de su país. Nace en 1888 y muere en 1957. Vive la Primera Guerra Mundial, la crisis de la República de Weimar, y el ascenso y las acciones del nacionalsocialismo y la Segunda Guerra Mundial. Y, sin embargo, vivió un ambiente de inmensa camaradería y colaboración entre profesores y estudiantes, habiendo sido, él mismo, apoyado ampliamente por A. Sommerfeld, una de las figuras centrales de la física cuántica.

W. Pauli, P. Jordan, el propio E. Ising y O. Stern, entre varios otros de sus estudiantes, se vieron beneficiados por la bonhomía e inteligencia investigativa de Lenz. El modelo de Ising constituye una de las herramientas más importantes en el estudio de las relaciones entre un sistema macroscópico y uno microscópico. Este constituye, sin dudas, uno de los problemas fundamentales de la ciencia contemporánea. El tema de base consiste en no reducir la complejidad del macrosistema a las simplificaciones de los comportamientos individuales, pero tampoco en generalizar sin más a un macrosistema a partir de criterios estadísticos de partículas individuales.

Al fin y al cabo, vivimos un universo probabilístico.

¿Qué es la Cohomología?

Hay un rasgo apasionante, novedoso y, sin embargo, desconocido para la mayoría de las personas acerca de la ciencia de punta contemporánea. Se trata del hecho de que la buena ciencia de frontera no se ocupa ya única y principalmente por lo real, en toda la acepción de la palabra. Ni siquiera tampoco por lo posible en todas sus modalidades (lo hipotético, lo contingente, lo probable, etc.).

Además y, fundamentalmente, la ciencia de punta nos enseña a pensar en lo imposible. Esto es, en estructuras, en fenómenos, en comportamientos, en dinámicas imposibles. El capítulo que hace propia esta otra dimensión pertenece, en general, a las matemáticas, y en particular a la topología: se trata de la cohomología. Y el ámbito específico de trabajo se denomina las multiplicidades. Un tema matemáticamente muy sofisticado y, sin embargo, bastante natural.

Una multiplicidad es en matemáticas la cantidad de pertenencias de un miembro de un multiconjunto. En otras palabras, una multiplicidad es un espacio topológico que en escala micro, en los aspectos singulares, se asemeja a un espacio euclidiano, pero globalmente difiere por completo. En términos elementales: a escala micro puede ser considerado como una figura plana euclidiana –líneas, planos, círculos–, pero a escala global (como un todo) dista mucho de ser un espacio euclidiano.

El padre de la cohomología, en general, y del que es quizás el capítulo más importante, que es la cohomología de gavilla (sheaf cohomology), es el matemático francés Alexander Grothendieck (1928-2014), fallecido el 13 de noviembre de 2014. Un auténtico genio. Algunos de los desarrollos más recientes en el tema corresponden a R. Penrose, quien ha trabajado justamente en la cohomología de figuras imposibles.

Vale recordar que las tres operaciones básicas que se hace con los objetos o con el espacio en topología son: torcer, estirar y comprimir. Derivativamente, existen funciones y tensores de torción y demás, correspondientemente.

La manera más básica de entender y de acercarse a la cohomología consiste en recordar que en matemáticas la teoría de homologías –que remiten ulteriormente a los grupos abelianos (en honor del matemático noruego N. H. Abel)– se encarga del estudio de grupos (o módulos) de acuerdo a un espacio topológico. Más exactamente, la homología contribuye a la clasificación de los tipos de espacios.

Pues bien, el aspecto verdaderamente apasionante es que existen, en matemáticas, infinitos espacios. Y cada geometría designa un espacio distinto. Así, tenemos la geometría euclidiana, las geometrías no euclidianas (Riemann y Lobachevsky), la geometría proyectiva, la geometría de taxis, la geometría hiperbólica, la geometría de fractales, y así muchísimas más.

Al respecto, es fundamental observar que en el universo y en la naturaleza coexiste una multiplicidad de espacios diferentes. Y entre ellos hay, incluso, espacios imposibles, formas y patrones imposibles, estructuras y comportamientos imposibles. Pues bien, la cohomología consiste en el estudio de grupos (abelianos) definidos a partir del estudio de co-cadenas, cociclos o cobordes. (Vale recordar que la teoría de catástrofes, desarrollada por R. Thom, nace a partir de los antecedentes de trabajo por parte del propio Thom en el tema del cobordismo).

La manera culturalmente más próxima de acercarse a la cohomología puede ser a través de la obra en xilografías y litografías de M. C. Escher (1898-1972). Escaleras imposibles, aves que se convierten en peces, la mano que dibuja a la propia mano, en fin, desviaciones, juegos, transformaciones de la percepción natural.

En efecto, si debemos a F. Bruneleschi (1377-1445) el descubrimiento de la perspectiva, lo que ello significa en términos culturales es que la burguesía, como clase social, introduce una nueva visión perfectamente distinta a las que había habido en la historia de la humanidad. La burguesía tiene “un punto de vista”, “una perspectiva”, un “punto de fuga”, y todo eso es la perspectiva. Las cosas, el mundo, se ven desde un punto de vista en cada caso. En lo sucesivo, en contraste con el medioevo, por ejemplo, ya no habrá una visión desde ninguna parte o, lo que es equivalente, una visión de todas partes.

Pensar la cohomología significa pensar en términos de multiplicidades, cocadenas, cocliclos, cobordes, poniendo de manifiesto que lo apasionante del mundo no estriba ya únicamente en lo real o en lo posible. Sino en el descubrimiento, en el trabajo con y en la pasión con lo imposible mismo.

Vale la pena subrayar esta idea. Si pensar bien es pensar en todas las posibilidades, y si quien piensa bien piensa en todas las posibilidades, dentro, al lado, complementarias, en fin a estas está, se encuentra aquella dimensión jamás imaginada en toda la historia de la humanidad. La existencia, la tematización, la problematización misma de lo imposible. Podemos así decir que quien piensa bien piensa incluso en lo imposible mismo. Es exactamente en esto, queremos decirlo, que estriba el significado cultural y social de un capítulo técnico, novedoso y apasionante de las matemáticas: la cohomología.

Naturalmente que existe una variedad amplia de teorías cohomológicas. Lo maravilloso de todas ellas (teorías ordinarias de homología, teorías K, bordimos y cobordismo) es que se trata de desarrollos perfectamente recientes, de todos los cuales el más antiguo no llega a cincuenta años, al día de hoy.

Las matemáticas constituyen un campo singular en la experiencia humana. Frente al temor que irracionalmente despiertan –debido a pésimos educadores y muy malos medios de comunicación social–, hay que decir que las matemáticas de hoy no consisten en fórmulas, ecuaciones o reglas; sino, mejor aún, en el estudio de estructuras, y según lo que les suceda a las estructuras: si permanecen o si cambian; y si cambian, entonces se trata de saber si en el cambio siguen siendo las mismas o se transforman.

La abstracción de las matemáticas es sencillamente la capacidad de imaginar o de soñar tantas posibilidades como quepa fantasear. Y ver entonces qué sucede con ellas. Pues bien, en el espectro de las posibilidades hay una que la historia de la humanidad jamás había considerado: el encuentro con lo imposible mismo. Una de las últimas fronteras.

¿Qué es una exaptación?

De la teoría de la evolución se ha dicho que es, de lejos y literalmente, el soporte cultural de todo el mundo contemporáneo, hasta el punto de que si se suprimiera, toda la civilización actual se caería en pedazos.

La teoría de la evolución, formulada originariamente por Darwin en 1859 en El origen de las especies por medio de la selección natural. Un libro que estuvo en el Índice Romano (la lista de los libros prohibidos y cuya lectura implica la excomunión para los creyentes que lo hagan) debido a una circunstancia particular: la teoría originariamente desarrollada por Darwin es una teoría no teleológica. Es decir, sostiene y demuestra que la evolución, las especies y la vida no van a ninguna parte: no hay “fin” (telos), “norte”, ni “sentido”. Los seres vivos tan solo se adaptan en cada caso, como pueden. Los sistemas vivos no van a ninguna parte: solo quieren adaptarse; esto es, si se quiere, sobrevivir. Punto.

Ahora bien, hay que aclarar que no existe nada así como una “teoría darwiniana”. Lo que existe es la teoría de la evolución, la cual tiene, por lo menos, tres etapas, así: la teoría formulada por Darwin – el darwinismo–, la síntesis lograda en 1942 por Fischer, Dobzhnasky y varios más, que es el neodarwinismo (Darwin más Mendel), y más recientemente, varios desarrollos apasionantes y distintos, entre los cuales cabe destacar el enfoque evo-devo (evolution and development), la biología sintética, la autoorganización y varios más.

La teoría de la evolución, que es, de lejos, la mejor teoría jamás encontrada en la historia de la humanidad para explicar lo que son y lo que hacen los sistemas vivos (para vivir). La teoría de la evolución, una teoría esencialmente incompleta, reconocido por el propio Darwin.

El genio de un pensador se plasma, entre otras formas, en su capacidad para acuñar conceptos, lo cual es, literalmente, un acto poético. Decía Deleuze en un libro sobre la filosofía que los grandes filósofos y pensadores se caracterizan porque crean conceptos. Los demás, tan solo los usan. Crear conceptos: algo que se dice fácilmente, pero es sumamente difícil de hacer.

En la comprensión y explicación de la teoría de la evolución hay un autor imposible de no conocer: Stephen Jay Gould (1941-2002). Con una obra extensa y creativa, Gould escribe su libro cumbre: La estructura de la teoría de la evolución (2002). Pues bien, puede decirse que, de manera puntual, son dos las contribuciones de Gould al desarrollo y a la comprensión de la teoría de la evolución. De un lado, se trata del concepto de “equilibrios puntuados” (volveremos sobre esto en otro texto), y de otra parte, el concepto de “exaptación”.

La adaptación es, de un lado, el resultado de que los individuos y las especies hayan logrado, como sea, resolver las restricciones, demandas, oportunidades, peligros y demás que de entrada impone la selección natural. Así, esas especies e individuos son los más aptos (fittest). De otra parte, al mismo tiempo, la adaptación puede ser vista como una función creada por la selección natural mediante la cual se crea un carácter para un uso actual. Así, la vista frontal en los humanos es el resultado de la selección natural. O las aletas en los peces, y demás.

Ahora bien, hay rasgos –órganos, capacidades, habilidades y otros– que no se pueden explicar estrictamente por mecanismos de la selección natural. Se trata de todos aquellos rasgos –físicos o de habilidades o capacidades– que, por el contrario, resultan de la respuesta a nuevas circunstancias, cuando en realidad fueron creados o surgieron con otra finalidad. Asimismo, son propiedades de un organismo –o especie– que no resultan directamente de la selección natural, sino del uso actual que el organismo o la especie le adscriben a dichas propiedades. Esto es una exaptación.

En otras palabras, las exaptaciones resultan del hecho de que lo que se había creado con una finalidad determinada termina siendo determinante para otra finalidad o uso perfectamente distintos. La historia natural (y, extrapolando, la historia cultural inclusive) está llena de ejemplos de exaptaciones.

Las plumas de las aves –esos remotos descendientes de los dinosaurios– resultaron de pelos corporales que, eventualmente, empezaron a ser útiles como “paracaídas”. Y posteriormente evolucionaron con la finalidad que hoy tienen. Quizás el ejemplo favorito de Gould es el (falso) pulgar del panda, cuya finalidad originaria era desplazarse por los árboles, hoy le sirve para coger y manipular mejor el bambú del que se alimenta.

Para los mamíferos superiores, un ejemplo espectacular cabe decirse que es la transformación del sistema inmunológico natural en o con el sistema inmunológico adaptativo (hace alrededor de 400 000 años). Pero de lejos, el lenguaje mismo y las capacidades cognitivas constituyen el mejor ejemplo, entre nosotros, de órganos y funciones que se destinaron, al cabo, con una finalidad perfectamente distinta a aquella con la cual surgieron en un momento dado.

Así las cosas, es importante entender que no existe en la evolución absolutamente ningún determinismo. La teoría de la evolución es quizás el ejemplo más conspicuo de una teoría no determinista. Esto es, el pasado no determina el destino o las capacidades de un organismo o especie, en absoluto, sino, por el contrario, puede suceder, como es efectivamente el caso, que los seres vivos terminen adaptando órganos y capacidades para usos distintos de los que tuvieron en un comienzo. La evolución es, literalmente, un proceso vivo en el que no existe absolutamente ningún “programa”.

Un investigador importante en el tema lo expresa, si cabe, de otra manera. F. Jacob (premio Nobel de medicina en 1965, conjuntamente con A. Lwoff y J. Monod) sostiene que en la evolución no existe ningún “programa” (una idea que ataca directamente las ideas de Watson y de Crick), sino que los sistemas vivos usan el bricolaje. Esto es, recogen “cosas” que no saben bien para qué les servirán, pero que en el futuro pueden encontrar un uso adecuado.

Las exaptaciones pueden confundirse con adaptaciones. La distinción fundamental está en el cambio o uso de función con la que nacieron. Gould emplea un término elegante y sutil a la vez para designar las exaptaciones: son auténticas cooptaciones de la evolución.

¿Cooptaciones? Un concepto que entre las ciencias sociales y humanas tiene un significado preciso, y que permite arrojar luces frescas sobre numerosos procesos, comportamientos y dinámicas. Aquellas funciones, aquellos individuos, aquellas capacidades que, al cabo, terminan siendo cooptadas. Un motivo importante de reflexión.

La iniciativa BRAIN

De manera significativa, el tercer programa de investigación que cabe destacar aquí es la iniciativa BRAIN (BRAIN initiative) que consiste en el estudio del cerebro humano y cuyo nombre significa Brain Research through Advancing Innovative Neurotechnologies (Investigación del Cerebro mediante Avanzadas Neurotecnologías Innovativas). El proyecto se encuentra en el portal de la Casa Blanca.

La iniciativa fue lanzada el 2 de abril del 2013 en una empresa entre el sector público y el privado con un capital que hace que los gastos e inversiones en torno al Proyecto Genoma Humano (PGH) sean, comparativamente, muy económicos.

En efecto, el proyecto, que tendrá una duración de 10 años, y que deberá presentar resultados y conclusiones en el 2025, cuenta con un presupuesto de 300 millones de dólares anuales, distribuidos así: los muy prestigiosos Institutos Nacionales de Salud (NHI) aportan 46 millones de dólares anuales, la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) se interesa particularmente por la rehabilitación y alivio de combatientes de guerra y civiles en los efectos postraumáticos de la guerra y las enfermedades neuro-psiquiátricas de un conflicto armado.

Por su parte, la Food and Drugs Administration (FDA), agencia encargada de la administración de medicamentos y alimentos de los Estados Unidos se enfoca en la transparencia del panorama regulatorio de los aparatos médicos neurológicos. La muy importante National Science Foundation (NSF), Fundación para la Ciencia de los Estados Unidos se encarga del desarrollo de nuevas tecnologías en neurociencias y neuroingenierías. Finalmente, la Intelligence Advanced Research Project Activity (IARPA), Actividad de Proyectos de Investigación Avanzados en Inteligencia, concentra su atención en la forma como en un enfoque multidisciplinar puede comprenderse al conocimiento y los procesos computacionales en el cerebro.

Entre los participantes del sector privado se destacan la industria de fotónica de los Estados Unidos, con un capital de aporte de 30 millones de dólares; la transnacional farmacéutica Glaxosmithkline, con un aporte de 5 millones; las Universidad de Pittsburgh, con una contribución de 65 millones; las universidades de California, de Berkeley y la empresa de microscopía Carl Zeiss, con 12 millones de dólares; la Universidad Carnegie Mellon, con un aporte de 40 millones de dólares; la Fundación Simons, con una contribución de 62 millones de dólares; el Instituto Allen para la ciencia del cerebro, con una financiación de 60 millones de dólares; el Instituto Médico Howard Hughes, con 70 millones de dólares, y la Fundación Kavli con 40 millones.

Como se aprecia sin dificultad, no cabe duda, en absoluto, acerca de la importancia científica, política, social, económica y militar del estudio del cerebro. La administración de Obama responde así a una de las puntas de avance más importantes hacia futuro en investigación básica que arrojará nuevas luces acerca de las implicaciones que acarreará el conocimiento del cerebro; el sistema nervioso central, el responsable de los contenidos mentales, las decisiones y las acciones de los seres humanos, supuestos elementos culturales en el más amplio y fuerte de los sentidos.

Todos los aspectos científicos y técnicos pueden verse en BRAIN 2025 A SCIENTIFIC VISION. Entre las nuevas neurotecnologías de avanzada, en las neurociencias y neuroingenierías, cabe mencionar la metabolómica, la proteómica y la genómica, de un lado; y de otra parte, hibridación in situ e imágenes en vivo. Se trata de aspectos particularmente técnicos y especializados.

La idea de base es justamente la de que la iniciativa BRAIN busca revolucionar la comprensión de la mente humana y tratar, prevenir y curar desordenes y enfermedades de orden cerebral. No en última instancia cabe subrayar aquí que el principal problema de salud pública alrededor del mundo es la salud mental, pues la población, en general, sufre crecientemente de desórdenes de tipo bipolar, depresión, esquizofrenia y muchos otros, todos directamente relacionados de forma creciente con las crisis sociales, económicas y medioambientales en curso en el mundo. Así, los problemas de salud mental representan, sin ambages, un auténtico desafío para la propia salud y funcionamiento de la economía de libre mercado y el funcionamiento de la sociedad como un todo.

Sin la más mínima duda, la iniciativa BRAIN corresponde el paso siguiente necesario a dos episodios anteriores: la secuenciación del DNA y la elaboración del mapa de conectividad neurológica. Las más importantes empresas estadounidenses están altamente comprometidas con esta iniciativa, entre ellas, el motor de toda la sociedad de la información y de la sociedad del conocimiento: Google, cuyo principal mérito consiste en la apropiación y manejo de impresionantes bases de datos en las búsquedas que los usuarios de Google hacen diariamente y que permiten elaborar patrones de pensamiento, de acción, de vida y de consumo. Recientemente, ello ha dado lugar a una nueva ciencia: la física social (Cfr. A. Pentland, Social Physics. How Social Networks Can Make Us Smarter, Penguin Books, 2015. Pentland es un investigador del mit).

El aspecto verdaderamente relevante aquí es, sin lugar a dudas, el hecho de que la combinación de neurociencia y neuroingeniería permite identificar formas de pensar, de decidir y de actuar de numerosos grupos sociales. Existe, además de un claro interés científico y de políticas de salud (obesidad, depresión mental, identificación de grupos de alto, mediano y bajo riesgo en sus comportamientos antisociales), un evidente interés al mismo tiempo político, militar y económico. Un autor destacado, N. Rose, ha hablado con claridad acerca del modo como estos intereses son claramente intervencionistas. No en última instancia, valga recordar algunas de las aristas del tema, muy activas actualmente: la neuroeconomía, el neuromarketing, la neuropolítica, la neuroeducación y la neuroética. En una palabra, se trata, en toda la línea de la palabra, de un gobierno de la subjetividad.

Ücretsiz ön izlemeyi tamamladınız.

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
431 s. 3 illüstrasyon
ISBN:
9789587391701
Telif hakkı:
Bookwire
İndirme biçimi: