Cibernética de primer orden
Sexto cuerno
Biodramaturgia VI Espíritu desintegrado
En los comienzos de la cibernética, su fundador vincula
información y entropía (Wiener, 1948), de tal modo que una es el negativo de la
otra. De aquí se desprende que la equiprobabilidad, vale decir, la situación en
que un evento dado tiene la misma probabilidad de aparecer que cualquier otro,
es equivalente a desorganización, a entropía. A partir de esta idea de Wiener,
se puede comprender que cualquier tipo de orden implica mayor improbabilidad o,
para decirlo en términos de información, un evento improbable ofrece mayor
información que uno altamente probable (Shannon y Weaver, 1973). Que un cierto
suceso sea improbable significa, entonces:
i.
Que no ha ocurrido por azar, sino que algo lo
hizo suceder
II. Que es portador de mucha información Los sistemas sociales reducen la
complejidad y, por lo tanto, son improbables. Es un hecho que hay una sociedad
mundial, pero cada una de las comunicaciones que la conforman ha de superar las
improbabilidades relacionadas. A diferencia del concepto de comunicación
diseñado por la Escuela de Palo Alto (Watzlawick, Janet Helmick Beavin y
Jackson, 1972: cap. 2), según el cual ésta es inevitable y, por lo tanto, un
suceso por demás trivial, con la tesis de la improbabilidad se obtiene un
enorme aumento de la información disponible. Aproximarse a los fenómenos
sociales desde la comprensión de su improbabilidad permite, entonces,
aprovechar toda la información que aporta el hecho mismo de su emergencia. Este
enorme caudal de información permanece desatendido en una observación rutinaria
que ha perdido —si alguna vez la tuvo— la capacidad de asombro que obliga a
preguntarse: ¿Cómo es posible? Constatar la improbabilidad de una formación
sistémica dada, conduce a escudriñar su historia, los obstáculos que ha debido
vencer, los mecanismos de retroalimentación positivos que hicieron posible que
se generara como forma nueva, diversa a lo anterior, su morfogénesis y también
los procesos caracterizados por la retroalimentación negativa, que facilitaron
que se estabilizaran ciertos rasgos característicos, vale decir, su
morfostasis. La tesis de la improbabilidad, entonces, impide la explicación
fácil y ayuda a encontrar el problema de investigación sociológicamente
relevante. En estrecha conexión con esto, el análisis funcional contribuye a
reducir y mantener la complejidad de los sistemas sociales. Una función puede
ser cumplida por diversas variables que, desde el punto de vista de la función
(y XIV sólo desde allí) son equivalentes. Un problema social, por ejemplo,
puede tener diversos modos de solución, todos ellos equivalentes dado que
solucionan el problema. Sin embargo, cada uno de ellos puede generar otros
problemas, puede tener consecuencias disfuncionales o cumplir, adicionalmente,
alguna función latente. Es por esto por lo que el análisis funcional reduce la
complejidad, al ofrecer un punto de comparación, pero también la mantiene al
abrir el abanico de posibles soluciones; de funciones latentes y manifiestas.
Una vez que se ha descubierto la función que un cierto fenómeno social
desempeña dentro del sistema social, el análisis funcional debe buscar aquellas
funciones que no son vistas por el propio sistema, vale decir, que se mantienen
latentes y también observar los modos que el sistema ha desarrollado para
responder a ambos tipos de funciones. La tesis de la improbabilidad puede ser
de utilidad al cuestionar la obviedad de un cierto arreglo funcional, exigiendo
una mejor explicación que la simple constatación factual: ¿Qué otros arreglos
pudieran ser equivalentes y se han desarrollado en otras circunstancias? El
enfoque luhmanniano es decididamente no ontológico, lo que probablemente quede
en evidencia en que su punto de partida no es la identidad, sino la diferencia.
El cálculo de la forma de Spencer-Brown se inicia haciendo una distinción; el método
funcional se basa en la comparación de alternativas equivalentes; la
contingencia remite a otras posibilidades; el sentido es la diferencia entre
potencialidad y actualidad; la complejidad se entiende como una gradiente entre
sistema y entorno; el sistema es su diferencia respecto al entorno; etc. Todo
el bagaje conceptual de la teoría tiene por centro la diferencia. La teoría
consiste, entonces, en un armazón conceptual orientado a la observación. Toda
observación se apoya en esquemas de distinción capaces de destacar algo
respecto a un fondo constituido por “todo lo demás”. Los conceptos de la teoría
de sistemas confeccionada por Niklas Luhmann constituyen poderosos esquemas de
distinción orientados a hacer posible la observación de los sistemas sociales.
No son, de ninguna manera, una reconstrucción de lo social en el plano teórico
a la manera del realismo analítico de Parsons (Almaraz, 1981: 50-66). Los
sistemas sociales, por otra parte, son también sistemas que observan: su
entorno, otros sistemas y se auto-observan. La observación de sistemas sociales
es, por consiguiente, una observación de segundo orden: una observación de la
observación. No se trata de una “doble hermenéutica”, en que el observador
proveniente de las ciencias sociales ha de procurar comprender con exactitud
los conceptos que orientan la conducta del actor (Giddens, 1982: 13), sino de
la observación hecha por un sistema social —la sociología— de la observación
que hace otro sistema social que puede ser él mismo. Como en el doble sentido
del título del libro de XV Heinz von Foerster “Observing Systems” (Foerster,
1981), en la observación de sistemas sociales se observan sistemas que
observan. Para observar es necesario contar con esquemas de distinción que
permanecen como el punto ciego del observador que los usa. En la observación de
segundo orden, sin embargo, se hace posible observar los esquemas de distinción
del observador observado, pero no los propios. La autoobservación implica
tiempo, porque es necesario operar un reingreso de la distinción al interior
del sistema que observa. La teoría de la sociedad propuesta por Luhmann lleva
el nombre de “La sociedad de la sociedad” precisamente porque da cuenta de la
autodescripción que la sociedad hace de sí. Naturalmente, también la sociología
es parte de la sociedad y, por lo mismo, su descripción de la sociedad es una
autodescripción de la sociedad hecha desde sí misma. No existe un lugar
privilegiado, una atalaya, externo a la sociedad desde el cual observar a la
sociedad. La sociología, por consiguiente, es un fenómeno social y la
autorreferencia una necesidad metodológica que alcanza bastante más lejos que
la simple constatación de que “los seres humanos no son simples objetos inertes
de conocimiento, sino agentes capaces de —y dispuestos a— incorporar la teoría
e investigación sociales en su propia acción”(Giddens, 1982: 16). En efecto, el
reingreso de la distinción sistema/entorno al interior del sistema termina con
la tradicional distinción epistemológica de sujeto/objeto, a la cual está
todavía atado Giddens, y la reemplaza con un diseño teórico de mayor
complejidad. El sólo operar de la ciencia implica la diferencia de
sistema/entorno y al reintroducirse (re-entry) esta distinción en el sistema de
la ciencia emergen los temas del conocimiento, vale decir, las particularidades
del entorno como temas internamente concebidos para la investigación
científica, incluyendo, naturalmente, las peculiaridades de la misma ciencia
(Luhmann, 1990: 382). Por ejemplo, al examinar el cambio teórico en la ciencia
—su desarrollo— señala que éste no puede comprenderse como una racionalidad que
se orienta a sí misma. Las causas que desencadenan avances no son idénticas a
los fundamentos de verdad del conocimiento. El azar condiciona el impulso
evolutivo y por ello no es posible suponer que el conocimiento evoluciona por
su propia dinámica. Lo que más bien ocurre, es que el conocimiento cuenta con
un cierto potencial de cambio, modelado teóricamente, que se activa por el
contacto con el entorno (Luhmann, 1981: 108). La ciencia tiene a la verdad como
medio de comunicación simbólicamente generalizado. Esto implica que la verdad
se refiere a la complejidad del mundo, para la cual no puede haber una relación
directa, punto a punto, entre el sistema científico y su objeto. La
comunicación científica hace, entonces, uso de este medio simbólico de la
verdad, para aumentar la probabilidad de aceptación de afirmaciones, aunque den
a conocer selectivamente informaciones.
¿Qué probabilidad había de ir a la
casa de mi tía? Muy pocas nunca me sentí bien ahí, tampoco mi amor, pero
después de perderme hemos llegado y todo estaba abierto para nosotros, el gran
portón y la puerta del garaje al entrar he mirado primero a mi prima la organizadora, ella me ha mirado
sin mirarme prestando más atención a su celular, mi hermana ha hecho el acto de
la alegría y ha provocado que me reciben todos bien, mi hermano a acompañado el
acto es claro que juntos haríamos un gran teatro y de pronto quedo deslumbrado la novia mi
prima de estados unidos irradia una belleza que me traspasa, ahí está mi
síntesis del pasado. ¿Cuántas veces me enamore de chicas rubias? Natalia,
Leticia, lucia amores platónicos terribles que destrozaron mi corazón y que me invirtieron en una especie de
voyerista perverso, pero el rostro angelical de mi prima sublima todo mi ser ,
es como si viera a una protestante bondadosa ¿Puede haber algo más bello? Si
una católica llena de gracia en el goce más excelso de la cruz o una india
desnuda siendo una con la tierra. Oh mi mujer desnuda cuando era joven y posaba
en la facultad de arte de la pucp. Me
toma tiempo recuperarme debo recordar que es mi prima aunque estoy en una
levedad no siento ningún deseo solo el éxtasis de querer contemplar lo hermoso
pero luego viene la bajada yla contemplación se pervierte ,a sique intento
sacar mi mirada sin mayor éxito , me sirven la carne, intento concentrarme en
ella, la primera tajada esta dura no puedo morderla, viene el parrillero el
esposo de mi prima y nos pregunta que tal ¿Les gusta? Yo asiento levemente él
se interpone entre mi goce, por un momento lo odio, solo por un momento porque
luego la carne sabe jugosa y suave, realmente ha hecho un buen trabajo todos lo
felicitan, me veo obligado a hacerlo, me he sentado entre mis hijos que mi
hermano trajo en su carro antes y mi
otra tía la catedrática, mi
madrina, la tensión que siento al estar a su lado se nota, no quiero herirla se
lo frágil que es ,y como buena integrante de mi familia lo peligrosa que puede
ser, ella por lo regular utiliza una máscara de niña para obtener el pacer y la
atención en las reuniones, yo siempre utilizo mi mascara depresiva para
sobrevivir , pero hoy no, acabo de comprender el eterno retorno ,no puedo
cerrarme de esa manera a la vida, así que voy al ataque con mis preguntas a la
novia, si vine aquí fue por ella se va a casar pronto ,muchos de la familia
entre ellos mi hermano y mi madre van a ir a Estados unidos para estar en su
boda, muchos otros no podemos ir y por
eso ella vino, para compartir con nosotros su felicidad y Dios realmente está feliz cuando habla de su novio sus ojos
brillan, yo intento incomodarla, no lo consigo por lo menos no a ella, a mis
tías, la última pregunta es sobre la
posición política de su novia, ella no entiende la pregunta, le pregunte con
que pierna pateaba su novio, y ella lo entendió
literal, es distinta a su hermana
quien sí ha trabajado su conciencia, esa
ingenuidad podría jugar a su favor, pero tiene la impulsividad de la familia,
aquí ya develamos un primer código social que va a ser fundamental para la
comunicación en esta reunión, mi familia por parte de madre odia el floro,
cualquier desarrollo del lenguaje más allá
de una pocas palabras se leen como mentira y manipulación, para ellos la
verdad está en la pulsión primera sin
mayor mediación ir más allá de esa
pulsión primera es querer engañar, que distinto a la familia de mi padre donde
el leguaje hace giros , ahora giros en falso para burlarse de los otros y de uno
mismo, no para reflexionar , pero por lo menos giran con el lenguaje, aquí en
cambio golpean al punto de desbordar ya sea en la risa o en la agresión debelando una fuerte represión instituida a
sangre y fuego por la abuela, todo los de la familia manejan esta
estructura psíquico excepto mis hermano
y yo, los cuales tenemos un cierto talento para el engaño que yo intento
exorcizar con la reflexión, mi hermano con una energía de niño que desborda en
risas y mi mí hermana con máscaras de niña pero que ahora no quiere usar esta
dolida, todos tenemos esta estructura menos el esposo de mi prima la
organizadora, el esposo de mi tía la catedrática, el cual parece tener
problemas aun más serios que nosotros y eso es demasiado porque realmente
nosotros tenemos problemas serios y el
medio el esposo de mi tía dueña de casa que maneje una ironía inteligentísima
con un humor refinado como tan refinado
puede ser un arequipeño , él se convertirá en el catalizador de la reunión.
¿La pregunta es qué podemos hacer
para no matarnos?
Tarde o temprano a alguien se le escapara un impulso y ardera Troya, la respuesta es jugar
¿A que jugamos?
Yo propongo el juego de encontrar al Claudio
https://www.youtube.com/watch?v=fj-fga5KCCo
Lo explico, mi hermano me traduce y luego me da la posta para que remate,
increíble pero estamos actuando juntos, de algo sirvieron los textos que le
dedique, me siento también cuando los tres fluimos juntos eso sucede tan pocas
veces pero ahora concentrémonos en la cibernética
para poder analizar todo lo que va a suceder vamos con la teoría de la cibernética
de primer orden.
No sé cómo haces tú, pero yo generalmente me rindo ya en la salida. Los
problemas más sencillos que aparecen día a día me parecen casi imposibles de
resolver en cuanto intento buscar bajo la superficie. BILLINGS LEARNED HAND
Citado por Weinberg (1984: 123) La teoría de la complejidad (que engloba la
teoría de los sistemas adaptativos complejos, la dinámica no lineal, la teoría
de los sistemas dinámicos, la teoría del no-equilibrio y la teoría del caos) ha
sido descripta como la tendencia científica dominante surgida en la década de
1990, un aporte capaz de explicar cualquier sistema complejo en función de unas
pocas reglas (Lewin 1992), o de acometer los problemas inabordables de la
ciencia social; un saber a la altura de los tiempos, una genuina nueva ciencia
(Merry 1995), la gran idea del momento (McGlade 2003: 111), una nueva clase de
ciencia (Wolfram 2002), la próxima gran revolución científica (Sprott 1993: 476),
una fuente de discernimiento que afectará la vida de todos los que viven en el
planeta (Brockman 2000: 14), un giro en la concepción del mundo (Dent 1999), un
modelo que cambió la dirección de la ciencia para siempre (Strogatz 2003: 179)
y una revolución sólo comparable a la teoría de la relatividad o a la mecánica
cuántica (Gleick 1987: 6). Pero también se la considera una moda pasajera que
ha recibido más promoción de la que merece (Sardar y Ravetz 1994), un modelo
que se ha impuesto en virtud de una buena táctica de relaciones públicas
(Dresden 1992), un espacio invadido por personas que se sienten atraídas por el
éxito más que por las ideas (Ruelle 1991: 72), un bluff que pretende resucitar
una ciencia moribunda a fuerza de superlativos e hipérboles, y una empresa
abocada al fracaso que no ha dicho nada acerca del mundo que sea a la vez
concreto y sorprendente (Horgan 1996: 245-287). La realidad parece estar en
algún punto entre esos extremos, pues si bien es verdad que las ciencias de la
complejidad constituyen un espacio de investigación en crecimiento sostenido,
todavía no existe nada que se asemeje a una teoría unificada o a un conjunto de
acuerdos sustanciales, y al lado de hallazgos espectaculares subsisten fuertes
dudas sobre la practicabilidad de buena parte del proyecto. Las polémicas
dentro y fuera son feroces, y las operaciones de prensa y las maniobras de
cooptación por parte de científicos, grupos e instituciones están a la orden
del día. En esta introducción y en el resto del texto habrá que ir
alternativamente examinando propuestas de auténtico provecho y callejones sin
salida, avances y atolladeros, contribuciones y simulacros. La exploración que
aquí se inicia tendrá que argumentar sus razones acompañada de ese penetrante
ruido de fondo. Como sea, hay que dar por sentado desde el inicio que en las
ciencias y en las matemáticas de avanzada abundan estrategias y algoritmos
diseñados para abordar la complejidad, y que en los últimos años el tema parece
haber estallado en la academia y en los medios. Desde las ciencias sociales,
algunos piensan que semejantes modelos deberían ser opciones de preferencia, en
detrimento de epistemologías que de antemano se saben impropias frente a las
complicaciones constitutivas de nuestros objetos. Los estudiosos más proclives
a una cien- Reynoso – Complejidad – 5 cia ortodoxa, en cambio, advierten con
alarma la afinidad entre esas nuevas ideas y las de corrientes más o menos
anticientíficas que todavía gozan de mucha prensa como el posmodernismo, el
constructivismo radical, los estudios culturales, los poscoloniales y los
multiculturales. En estos “estudios de áreas” y en su dominio de influencia, a
su vez, el sentimiento generalizado es que las teorías de la complejidad y el
caos pueden dialogar con las humanidades con más fluidez y naturalidad de lo
que ha sido nunca el caso en la tensa interface entre las ciencias blandas y
las duras (Hayles 1993; Kiel y Elliott 1997: 3; Emmeche 1998: 165-174; Thrift
1999: 32; Lewin 1999: ix; Capra 2003: 22). Pero aunque la “nueva alianza” entre
posmodernismo y teorías de la complejidad recién se está afianzando, hay
quienes predicen que a la larga estos nuevos paradigmas acabarán suplantando
incluso a sus compañeros de ruta ocasionales en el favor académico y en el
mercado (Argyros 1991: 7; Riebling 1993; Turner 1997; Byrne 1998: 179;
Urribarri 2003). Ninguno de los marcos complejos genuinos (desde la cibernética
hasta la teoría del caos) es en su origen inherentemente posmoderno,
anticartesiano, anticientífico ni nada parecido; esa es una de las precisiones
que habrá que establecer y demostrar en este texto. Mientras el tumulto
arrecia, las corrientes se diversifican y las posturas de casi todos los
enclaves se radicalizan ya sea a favor o en contra, lo concreto es que las teorías
y los algoritmos de la complejidad aún no han entrado de lleno en el repertorio
conceptual de las ciencias sociales en general, ni en el de la antropología en
particular. Son, todavía, una especialización de nicho, aunque sus adeptos
crean que lo que piensan ellos es lo que debería pensar todo el mundo. A
despecho de su arrogancia eventual , los usos de la complejidad en las ciencias
blandas son todavía titubeantes, sus prácticas inciertas y sus logros modestos.
Se han propuesto varias explicaciones de este virtual impasse. Alan Sokal y
Jean Bricmont han afirmado en Imposturas Intelectuales (1999) que algunos
pensadores que presumen familiaridad con formas avanzadas de la teoría de la
complejidad (incluyendo fractales, caos y sistemas alejados del equilibrio) han
interpretado con excesiva laxitud el sentido de los conceptos técnicos y no han
satisfecho requisitos de consistencia lógica, coherencia semántica y rigor
pragmático que en otras ciencias se saben ineludibles. Aunque la alegación de
impostura es un argumento demasiado categórico y no falta el antropólogo que
acuse de frivolidad a esos críticos (Mier 2002: 103), es palpable que la
producción científica en el espacio de innovación compulsiva de la
posmodernidad ha sido pródiga en proclamas de fuerte tenor retórico, en las que
se habla de la complejidad en términos grandilocuentes y se trata a las
epistemologías rivales con una sorna y una soberbia que no parecen respaldadas
por ningún logro. En pocos lugares se encuentra el tesoro de resultados que debería
ser fruto de esos presuntos progresos en materia teórica; cuando aparece no
sólo es decepcionante sino (y éste es ahora el pecado mayor) desoladoramente
simplista, aún en los términos de sus propias reglas de juego. Esta situación
se presenta incluso en obras ambiciosas de autores de primera línea como
Georges Balandier (1988) o Edgar Morin (1999), así como en los modelos de
segundo orden de los constructivistas, cuyas radicalidades buscan ser todavía
más extremas que las de los posmodernos (Watzlawick 1994; Watzlawick y otros
1988; Maturana 1996; Ibáñez 1990). Éstos culminan en una proclama salpicada de
unos pocos tecnicismos interpretados más allá de toda garantía, para terminar
negando la existencia objetiva de la realidad en nombre de unos pretextos que
no dan para tanto. Renuncian a elaborar modelos productivos desde los cuales
abordarla, o repiten consignas que hace veinte años sonaban agudas pero Reynoso
– Complejidad – 6 han dejado de serlo a fuerza de reiterarse. ¿Cuantas veces
más se puede anunciar que el reduccionismo, el logos y la representación están
en crisis? ¿Quién puede seguir creyendo que con un poco de reflexividad se
suple la falta de ideas instrumentales, o que es mejor una deconstrucción
cualquiera que una buena heurística positiva? Además, las interpretaciones
entre pueriles y extravagantes de la teoría del caos, los sistemas dinámicos,
la autoorganización, el efecto mariposa, el principio de irreversibilidad, la
mecánica cuántica, el teorema de Gödel y los atractores extraños en las
humanidades ya son innumerables, al punto que han engendrado un género
específico de desmentidos, una galería grotesca de “usos y abusos”, y un
movimiento multitudinario de reacción (Phelan s/f; Sussmann y Zahler 1978;
Pagels 1982; Bouveresse 1984; Kadanoff 1986; Zolo 1990; Winner 1993; Ruelle
1990, 1994; Gross y Levitt 1994; Stenger 1995; Bricmont 1996; Gross, Levitt y
Lewis 1996; Back 1997; Eve 1997; Koertge 1998; Spurrett 1999a). También existe
una desproporción importante en la calidad y rendimiento demostrados por las
diversas teorías de la complejidad en su ambiente de origen, así como en su
nivel de generalidad y estilos de enunciación. Algunas formulaciones habitan un
espacio tan abstracto y enrarecido que sería milagroso que se las pudiera bajar
a tierra así como están para integrarlas a nuestros conceptos y problemas.
Mientras casi no existe una extrapolación antropológica satisfactoria de la
idea de estructuras disipativas, de la teoría general de sistemas, de la
antropología de la complejidad de Morin o de la teoría de catástrofes, la
expansión de la Internet ha ido de la mano de cientos de trabajos, docenas de
asociaciones virtuales o reales, revistas periódicas, congresos especializados
y un número asombroso de piezas de software razonablemente productivas, aunque
de valor dispar, en forma de autómatas celulares, redes booleanas, algoritmos
genéticos, agentes y fractales, elaboradas por empresas, científicos,
aficionados entusiastas o equipos de trabajo en universidades técnicas y
humanísticas: AScape, Brazil, Calab, Chaoscope, Chaos for Java, ChaosPro,
DDLab, Dyna32, Dynamic Solver, Fractint, FractMus, HarFA, IAtoChaos, IFSDesign,
IFS Toolkit, Life32, LSystem4, LS Sketch Book, Manpwin, Moduleco, NetLogo,
Mirek’s Cellebration, Repast, StarLogo, Swarm, Tiera-Zon, UltraFractal, Visions
Of Chaos, Winfract¼ Y el
punto es que los científicos sociales están empezando a usarlas y a tomarles el
gusto, o lo harán pronto. Una vez más la dualidad es explicable. No todas las
entidades a revisarse aquí son del mismo orden arquitectónico. Las teorías
totalizadoras proporcionan entidades que en informática se llaman
“especificaciones” globales y genéricas, mientras que los algoritmos están a un
paso de ser “implementaciones” circunscriptas; y eso marca una diferencia.
Aquéllas encarnan proyectos en gran escala; éstos implican realizaciones
puntuales. Las implementaciones se materializan en herramientas; las
especificaciones no necesariamente. Muchos han percibido esta dicotomía,
observando que por un lado hay grandes construcciones filosóficas sin demasiado
sustento experimental (como la teoría de Prigogine, o la teoría de la
complejidad de Morin) y por el otro un grupo que ha logrado resultados
prácticos contundentes, pero que es poco proclive a la teorización, sólo le
concede interés “en la medida en que ilumine la práctica” o es tal vez presa de
“un profundo pánico epistemológico” (Bateson y Bateson 1989: 28; Holland 1992b:
2; Hayles 1993: 30; Edens 2001). Es por ello que este libro estará dividido en
dos: por un lado las grandes teorías, por el otro los conjuntos algorítmicos.
Aquéllas a su vez estarán vigorosamente seccionadas entre las que entiendo que
valen la pena y las que no. Reynoso – Complejidad – 7 Aunque en principio se
intuyen buenas posibilidades de instrumentación de los algoritmos, y aunque hay
unos cuantos trabajos bien resueltos en publicaciones y proceedings de
congresos especializados, lo que hoy se encuentra mayormente en la práctica de
las ciencias sociales es un conjunto de intentos programáticos que no ha
logrado cubrir la brecha entre una formulación matemática que es para muchos
impenetrable y un régimen de significado que algunos desean mantener sin
cambios, aunque sus vocabularios sean nuevos. A veces daría la impresión que no
se trata de aventurarse en un paradigma distinto, o incorporar ideas novedosas,
sino que el juego consiste en ensayar otras formas de decir lo mismo, o en
encontrar un punto de negociación entre posiciones antagónicas, pero
tradicionales: cientificismo y estudios culturales, positivismo y hermenéutica,
sistémica procesualista y post-procesualismo (Bentley y Maschner 2003: 4).
Subsiste además una tenaz resistencia al modelado computacional, como si los
métodos de la complejidad se pudieran llevar adelante con lápiz y papel, o a
golpes de intuición y retórica (Mikulecky 1995: 7; Horgan 1996). Y también
suele ser equívoca la tipificación de los modelos, leyéndose con frecuencia que
es lo mismo caos que catástrofe, red neuronal que red semántica, programación
evolutiva que darwinismo neuronal, algoritmo genético que memética, complejidad
que azar, o topología que geometría fractal. Si bien muchos de esos modelos
están relacionados entre sí de maneras diversas (cf. Abraham 2002), cada uno de
ellos aporta enfoques distintivos que convendrá esclarecer y sistematizar. Eso
no será fácil. El campo está sucio; las posiciones son vehementes, sesgadas,
agonísticas. Ni hablar de los mitos y dogmas que han surgido; o de los
conceptos científicos ficticios, como los hiperespacios de reflexión variable o
la escisiparidad fractal de Baudrillard (1992: 156-160); o de las presunciones
erradas, como la exigencia de un gran número de variables como atributo
necesario de la complejidad, o el requerimiento de igualdad de tamaño entre las
cosas complejas y su modelado (Chaitin 1975; 1987; Cilliers 1998: 3, 24); o de
las fusiones incontroladas entre los significados técnicos y los vulgares, como
cuando se llega a afirmar que “la concentración de la teoría del caos en las
cualidades no lineales de la naturaleza se ha descripto mediante términos como
curvatura, fluidez, complejidad y atracción: todas características que se
atribuyen al concepto occidental de femineidad” (Morse 1995: 14). Como en
ningún otro campo, aquí prosperan discursos que expiden veredictos sin juicio
previo y dictan cátedra sobre ciencias a las que no conocen, fundándose en
presunciones indiciales de lo que deberían ser. En este libro podré documentar
algo de toda esta portentosa mixtificación, pero su magnitud es demasiado vasta
como para poder abarcarla, e insistir en ella crearía un efecto de distracción
que sería injusto para con muchas ideas de verdadero valor. Algo habrá que
hacer al respecto, sin embargo, porque esas distorsiones han impuesto una
imagen inexacta del nuevo paradigma, imagen que podría hacerlo triunfar o
fracasar por las razones equivocadas. En fin, hay de todo. Con el objetivo de
proporcionar una fundamentación razonablemente sólida de los métodos para
abordar los fenómenos complejos en este libro se revisarán en detalle los
desarrollos teóricos más representativos ligados a la complejidad, con énfasis
en la literatura técnica reciente. A fin de definir un foco más acotado, se
excluirán las investigaciones en torno de la complejidad desorganizada (vale
decir, los modelos estadísticos) con las únicas excepciones de la teoría de la
información y las redes neuronales, y más por el uso de aquélla como componente
de otros marcos y por la relación de éstas con comportamientos emergentes que
por sus estructuras particulares. Reynoso – Complejidad – 8 También se dejarán
al margen escenarios empíricos de mera simplicidad sobreabundante, susceptibles
de abordarse con técnicas de análisis multivariado o clustering, según es
práctica común en los estudios de la llamada complejidad social o cultural.
Tampoco se tratarán el análisis de redes sociales, las redes de Petri, la
dinámica poliédrica o la complejidad social entendida en el sentido
estadístico-computacional de Kolmogorov-Chaitin (p. ej. Butts 2001). La
superabundancia de variables en la complejidad sociocultural y de ligaduras en
las redes sociales remite a modelos mecánicos (abigarrados o de gran
envergadura, pero no complejos), tal como la palabra “análisis” lo indica. Pues
si una cosa quedará clara es que el paradigma de la complejidad, como quiera
que se lo interprete, proscribe, circunscribe o redefine el análisis, y que esa
no es una pequeña redefinición. También deben excluirse las investigaciones que
se ocupan de la cibercultura, los hipertextos, las comunidades virtuales, los
cyborgs post-orgánicos, la crítica sociológica o cultural de la tecnología o de
sus prácticas, el imaginario tecnocientífico, la lectura esquizo-analítica del
ciberespacio y temas semejantes, por más que en ocasiones sus especialistas sientan
que están realizando una importante antropología de la complejidad
contemporánea (Escobar 1994; Haraway 1995; Marcus 1996; Helmreich 2001). Todo
ese campo es un desprendimiento de los estudios culturales intrínsecamente
anecdótico, y en lo que a mí concierne está bien que lo siga siendo. Este libro
se supone que es sobre teoría y métodos, y no hay mucho de eso por allí. Las
últimas exclusiones de monta afectarán, inesperadamente, al azar, a la
incertidumbre, a las matemáticas y lógicas difusas de Lotfi Zadeh (1965) y al
pensamiento borroso de Bart Kosko (1995), que guardan relación más con
probabilidades estadísticas y con las problemáticas de la inducción, la
inexactitud, la polivalencia o los rangos continuos, que con los factores
sistémicos de complejidad que aquí ocupan el centro de la escena. También
quedan fuera de consideración las elaboraciones en torno a conjuntos rudos,
vinculados con la inexactitud, la vaguedad o la fragmentariedad en el análisis
y minería de datos. Estos conjuntos fueron elaborados por Zdzisław Pawlak de la
Universidad Tecnológica de Varsovia hacia 1980, y a pesar de las consonancias
de sus nombres y la proximidad de sus motivaciones, no coinciden por entero ni
con la matemática difusa de Zadeh, ni con la lógica polivalente de Łukasiewicz
(Pawlak 1982). Todo esto es sugestivo y enriquecedor, pero colateral. El libro
que sigue no es entonces sobre cualquier complejidad, desorden o anarquía sino
estrictamente sobre complejidad organizada, lo cual involucra sistemas
dinámicos, emergentes, aperiódicos, refractarios a la reducción, no lineales,
así como las herramientas y formalismos concomitantes. Variante por variante,
se discutirá críticamente la posibilidad de aplicar los modelos matemáticos
complejos o sus arquitecturas conceptuales a la realidad empírica de la que se
ocupa nuestra disciplina; se investigará en qué medida algunos de ellos podrían
servir para inducir límites a la arbitrariedad de la descripción, para
visualizar la estructura de los problemas, o al menos para promover ideas,
tanto correctoras como creativas. Cuando así fuere (y es de prever que no
siempre resulte de ese modo) se acompañará el tratamiento de los asuntos
teóricos con referencias a modelos informáticos o conceptuales que llevo
realizando desde hace varios años, aplicados a diferentes casos, y con el
registro de las exploraciones de los nuevos formalismos que han hecho otros
antropólogos y científicos sociales antes que yo. En la literatura del género,
el que se está leyendo ha de ser un texto heterodoxo, pues si bien el autor
conoce las argumentaciones en torno de la complejidad desde hace un tiempo y
está Reynoso – Complejidad – 9 habituado a sus herramientas, no necesariamente
comparte sus estrategias de militancia, ni la prescripción que estipula que el
paradigma de la complejidad es imperativo para todo contexto y objeto de
investigación, ni la premisa de que es excluyente o espontáneamente superior a
otras epistemologías esenciales (mecánicas o estadísticas), de las que urge
aquí admitir sus rigores e identificar las condiciones de su eventual
oportunidad. Si alguien necesita entonces una refutación de Galileo, Newton,
Descartes o Laplace deberá buscar en otro lado; la mayor parte de lo que aquí
llamo el paradigma discursivo de la complejidad está febrilmente consagrada a
ese evangelio. Mi convicción es que el aporte de las teorías de la complejidad,
liberado de una escoria que no es poca, involucra menos un renunciamiento a lo
que antes se tenía que una renovación estratégica, una oportunidad para trascender
la propensión mecanicista y nomológica que muchos (me incluyo) tenemos
incorporada como la forma natural de pensar. No sé si verdaderamente se
encontrará al final del camino una práctica científica de otro carácter,
iconológica en vez de argumentativa, multidimensional en vez de reductora, como
se ha llegado a ambicionar (Harvey y Reed 1997; Wolfram 2002). Aunque esa
pretensión parece exorbitante, hacia esas coordenadas se orienta la idea. Las
ciencias del caos y la complejidad proporcionan un marco denso y sugestivo para
comprender posibilidades y límites metodológicos con una claridad como pocas
veces se ha dado. Esa es la idea dominante de este libro, aunque para llegar a
ese punto haya que dar un amplio rodeo para familiarizarnos con un campo en el
que se originan muchas de las preguntas para las que las nuevas ciencias son la
respuesta, al cabo de un larguísimo compás de espera. Este desvío recorre una
historia que esporádicamente aporta buenas moralejas, pero que en general sería
mejor que no se repitiese, pues ya se ha reiterado muchas veces. El tratamiento
de la ciencia de la complejidad y el caos comienza entonces recién en el tercer
capítulo; lo que le precede es rudimento, contexto, prehistoria. Pero no
siempre lo más nuevo es superior. A veces sucede, sobre todo cuando aparecen
implicadas ciertas figuras particulares (Turing, Wiener, Ashby, Shannon, Ulam,
von Neumann, Darwin, Chomsky, incluso Bateson), que algunas de las intuiciones
de mejor calidad resultan ser también las más tempranas. Dado que, por
definición, suele escabullirse tanto desorden en torno de la complejidad, y
debido a que el simbolismo de sus expresiones sistemáticas discurre a tanta
distancia de los razonamientos difusos a los que las humanidades se han
acostumbrado, se hará por último hincapié en la adecuada comprensión
epistemológica de los modelos. Esto obedece a que en la mayor parte de la
literatura antropológica o bien se les suele asignar una misión explicativa que
en general no les cabe (como si de modelos mecánicos convencionales se
tratase), o se los entiende en función de lo que se quiere que digan, o se los
usa para redituar un hallazgo para el cual el sentido común habría sido
suficiente. Por eso éste será un texto crítico pero también pedagógico, una
combinación rara de manual de referencia y de manifiesto de una posición que en
el fondo es tanto epistemológica como política, pues una proporción
significativa de las ciencias aquí implicadas está imbuida de ideologías que
conviene deslindar, la propia inclusive. En el molde de una narrativa que
aspira a ser legible, intentaré destilar un material de orden práctico que
sirva para articular seminarios instrumentales de nivel avanzado en
antropología sociocultural y arqueología de la complejidad. Cuando este texto
exprese lo que tiene que decir, se espera que los lectores dispongan de una
caracteri- Reynoso – Complejidad – 10 zación razonablemente precisa de los
modelos, de una ponderación fundamentada de su posible valor, y de las
orientaciones técnicas indispensables para su implementación. No existe una
sola perspectiva sobre la interpretación exacta de las ciencias de la
complejidad y el caos; no hay un canon monológico al que se atenga todo el
mundo. A menudo se encuentra que autores habitualmente confiables promueven
ideas particulares que distan de lo que considero exacto: que el caos requiere
numerosidad, que los sistemas con ruido no pueden ser propiamente caóticos, que
la complejidad está ligada al azar, que los sistemas dinámicos no lineales no
son ergódicos, que hay componentes cuánticos en el caos, que los sistemas
complejos deben ser abiertos, etcétera. Quien más, quien menos, todos incurren
en uno de esos deslices alguna vez, sobre todo cuando se alejan de sus dominios
primarios de conocimiento o cuando dejan prevalecer intereses de escuela. En
las decisiones que he tomado para arbitrar estos casos no me he dejado llevar
por el prestigio de quien formula dichas alegaciones, sino que he escogido la
alternativa que disfruta de las demostraciones formales más contundentes, la
que refleja el consenso de los especialistas y la que me dicta mi propia
experiencia, en ese orden de prioridad. La construcción que aquí presento como
las ciencias de la complejidad y el caos es entonces un artefacto que podría
haberse construido de otras maneras, pero que aquí he procurado que se rija por
estos criterios. Este texto no habría satisfecho mi propio umbral de
satisfacción de no haber sido por las sugerencias de quienes accedieron a su
revisión técnica (Alberto Rex González, Hugo Scolnik y Pedro Hecht), los
intercambios de ideas con alumnos y colegas de seminarios de posgrado y
conferencias sobre complejidad en México, Colombia, Japón y Argentina, y los
aportes de Ron Eglash, Nicolás Kicillof, Diego González, Juan Barceló, Rafael
Pérez-Taylor y Alan Sokal. También ha sido esencial el trabajo de los miembros
y colegas de mi equipo de investigación de la Universidad de Buenos Aires, y en
particular Damián Castro, Diego Díaz, Sergio Guerrero, Eduardo Jezierski y
Jorge Miceli, siempre dispuestos a desarrollar programas de redes neuronales,
autómatas celulares y algoritmos genéticos conforme a mis extraños
requerimientos. De más está decir que soy el único responsable de las
imperfecciones que hayan subsistido. Dejo para el final una última advertencia,
que es todo lo contrario de una evasiva. Estamos en guerra. En el terreno de
las teorías de la complejidad todos los textos son momentos dialógicos de una
contienda, y es por ello que son tan intensos. Como tantos otros, este libro se
escribe desde una posición tomada, que en este caso deberé admitir que es
clásicamente científica. Es la que ha producido los fundamentos teóricos, los
algoritmos y los recursos computacionales concretos, pero puede que no sea en
estos tiempos la más popular en el plano mediático. También se escribe desde
una postura que sigue creyendo que hay una realidad allí afuera, que esa
realidad puede y debe ser cambiada, y que las distinciones entre izquierda y
derecha, materialismo y subjetivismo, ciencia y anticiencia ni remotamente han
perdido su importancia, por más que algunas corrientes postulen otras
prioridades. Aunque el combate por desbrozar estos paradigmas de la intromisión
posmoderna y constructivista pueda parecer perdido, haré el esfuerzo para que
quienes pretenden pasar por buenos sin serlo encuentren, si alguien más es
sensible a ciertas evidencias, un poco de la resistencia que se merecen.
Reynoso – Complejidad – 11 2. Las grandes teorías de sistemas complejos Tal vez
sea un resabio de alguna indigestión de lecturas estructuralistas, o el efecto
de la práctica y la enseñanza del análisis componencial, con sus grillas
ortogonales y sus taxonomías discretas. Lo concreto es que no puedo resistir al
impulso de elaborar algo así como una tabla periódica de las formas teóricas y
de los tipos algorítmicos que constituyen las estrategias que se han propuesto
a propósito de la complejidad. Pienso también que esta marcación del campo
puede proporcionar un principio de orden, lo que no viene mal en una
corporación que se ha dejado regir en demasía por la naturaleza caótica de su
objeto. Este principio será administrado en términos que reconozco laxos, pues
no urge que aquí se desarrolle una axiomatización del asunto; el sentido
aproximado de palabras tales como “teoría”, “modelo” o “paradigma” deberá
deducirse entonces del contexto. La primera serie de marcos teóricos que habrá
de revisarse tiene que ver con los paradigmas globales de la complejidad. Por
lo común se manifiestan como colecciones más o menos heterogéneas de principios
genéricos aglutinados en cada caso en torno a un conjunto relativamente pequeño
de ideas-fuerza. En orden casi cronológico las ideas dominantes serían: los
mecanismos de control y los circuitos de realimentación en la cibernética, el
concepto de sistemas abiertos en la teoría general de sistemas, los sistemas
alejados del equilibrio, las estructuras disipativas (y posteriormente la
auto-organización y la autopoiesis) en la cibernética tardía, los principios de
estabilidad estructural y morfogénesis en la teoría de catástrofes, la dinámica
no lineal en la teoría del caos y luego todo eso junto, más o menos armonizado,
por piezas enteras o en fragmentos, en el paradigma integral de la complejidad.
Mientras que la primera parte del libro estará consagrada a esos marcos
abarcativos, la segunda tendrá que ver más bien con una serie de algoritmos,
más concentrados en su foco, que permiten modelar procesos emergentes, con
amplios espacios de fase y con comportamientos que desbordan la intuición. Por lo
común, estos formalismos se constituyen en familias que responden a un mismo
principio constructivo: la iteración o recursión de una función muy simple, que
resulta en capacidades robustas de resolución de problemas o modelado de
procesos arbitrariamente complejos. Ese principio algorítmico incluye a los
autómatas celulares, las redes booleanas aleatorias, la subclase de los
algoritmos evolutivos (programación evolutiva, estrategia evolutiva, algoritmo
genético) y finalmente la geometría fractal. Al lado de esos formalismos
iterativos hay otros tipos algorítmicos y unas cuantas criaturas matemáticas
características, tales como la ecuación logística, los algoritmos
conexionistas, las metaheurísticas de enjambre y las distribuciones de ley de
potencia. Las grandes teorías, articuladas como formas amplias y envolventes, y
los conjuntos algorítmicos, con un núcleo tecnológico más acotado, se
desarrollan aproximadamente en paralelo desde la década de 1940 a la
actualidad. Ocasionalmente, algunas de aquéllas implementan algunos de éstos
como herramientas: la ecosistémica reciente ha reemplazado la teoría de la
información por los algoritmos genéticos y adaptativos; las versiones tardías
de la cibernética de segundo orden muestran preferencia por los autómatas celulares
y los modelos conexionistas; las nuevas teorías de la complejidad y el caos se
inclinan hacia los fractales y las distribuciones de la criticalidad
auto-organizada. La tendencia dominante de las teorías mayores es hacia la
agregación de ideas que tienen una cierta unidad de propósito, que a veces
desembocan en formalizaciones locales y teoremas que fundamentan ar- Reynoso –
Complejidad – 12 gumentos específicos de sus esquemas conceptuales. Las piezas
enunciativas que constituyen estas teorías no han decantado como cuerpos
formales continuos y exhaustivos que puedan aplicarse orgánicamente a algún
conjunto de escenarios empíricos (cf. Edens 2001; Abraham 2002; Bunge 2004). No
hay entonces teorías de la complejidad totalizadoras, ni siquiera una, aunque
las seguiré llamando así en aras de la simplificación. Mientras las grandes
teorías fueron elaboradas por mentalidades generalistas con visión panorámica,
los algoritmos han sido obra de técnicos. En este campo, por otra parte, la
tendencia pareciera ser más bien a la disgregación en modalidades
especializadas, a veces en conflicto recíproco. La historia de todos los
algoritmos conocidos exhibe, con curiosa constancia, este fenómeno cismático
peculiar. Cada uno de ellos se ha ido escindiendo en una colección de
variantes, algunas de ellas complementarias y otras excluyentes; en el
conexionismo, por ejemplo, pueden distinguirse perceptrones, adalines, redes de
Hopfield, máquinas de Boltzmann, perceptrones de capas múltiples, redes
amo-esclavo, filtros de Gabor, etcétera, repartidos en tres epistemologías
cognitivas distintas; los sistemas complejos adaptativos se diferencian en
autómatas celulares uni o bidimensionales, deterministas o indeterministas,
redes booleanas, modelos basados en agentes, vida artificial y una familia
entera de técnicas de programación evolutiva. Algunas variantes son formas más
versátiles o abstractas de otros tipos, o combinaciones de ellos. Cada tipo,
además, se puede amalgamar con variantes de otras clases algorítmicas, lo que genera
un repertorio amplísimo de posibilidades de articulación. Todo esto se revisará
más adelante, con la paciencia que haga falta. Se examinarán a partir de ahora
las formas mayores de las teorías de la complejidad, especificando antes la
tabla de los principios epistemológicos más generales que establece los
principios comunes a todo el conjunto, así como un componente estadístico (la
teoría de la información) que se encuentra embebido, explícita o
implícitamente, en todas las teorías a tratar. 2.1 – Tipificación
epistemológica: Los cuatro modelos Las teorías de sistemas constituyen un
conjunto de propuestas que ha merecido una recepción variada e inconcluyente
por parte de las ciencias duras y blandas. No es mi objetivo sintetizar esas
teorías en todos sus aspectos, por cuanto sería preciso necesario recorrer
numerosas formulaciones, algunas de ellas de carácter muy especializado. El
estudio presentado en este capítulo pretende ser sólo una introducción a un
campo enredado y polémico, sobre el cual los científicos y epistemólogos no han
dicho todavía la última palabra. Esa introducción tampoco ha de ser homogénea y
neutra, dado que la pregunta esencial que aquí se plantea concierne a la
relevancia de estos marcos para la ciencia social en general y la antropología
en particular. Se interrogarán entonces las teorías conforme a su valor para
estas ciencias, lo cual implica un tamiz y una visión sesgada. Las teorías de
sistemas giran en torno de una clase peculiar de modelos; por ello, antes que
nada, deberemos describir los tipos de modelos susceptibles de construirse en
una ciencia empírica. La que revisaremos no es más que una de las tipologías
posibles, pues se pueden postular tantas taxonomías como criterios de
articulación se escojan. La pregunta que corresponde hacerse es cuántas clases
de modelos hay. Todo el mundo conoce la existencia de modelos mecánicos (en los
que se procura analizar y explicar los mecanismos, factores o procesos que
producen determinado estado de cosas) y Reynoso – Complejidad – 13 los modelos
estadísticos (en los que se inducen regularidades o correlaciones entre
diversas series de fenómenos). Si hablamos de modelos en un sentido laxo,
atinente a la forma abstracta esencial de las formulaciones teóricas, la
antropología abunda en ambas clases de modelos; casi todas las teorías que se
han propuesto encarnan alguno de esos tipos, aunque a menudo resultaría forzado
inscribir ciertos ejemplares de teorización antropológica bajo uno u otro.
Aunque la suma de los modelos mecánicos y los estadísticos no agote las formas
imaginables de investigación empírica, es evidente que sus estructuras son
antinómicas y que cubren gran parte del espacio de posibilidades de una teoría.
Ahora bien ¿qué quiere decir que un modelo sea mecánico o estadístico? La
tipología de la cual disponemos se halla alborotada. Ante todo, conviene
olvidarse de las definiciones ancestrales de Claude Lévi-Strauss, puesto que
son incorrectas. Dice Lévi-Strauss: Una última distinción se refiere a la
escala del modelo, en comparación con la escala de los fenómenos. Un modelo
cuyos elementos constitutivos se encuentran a la misma escala que los fenómenos
será llamado ‘modelo mecánico’, y ‘modelo estadístico’ aquel cuyos elementos se
encuentran a una escala diferente (Lévi-Strauss 1973 [1952]: 255). Aunque
muchos creen que Lévi-Strauss inventó esa tipificación, sus definiciones se
fundan en una lectura muy ligera de la bibliografía de divulgación de las
ciencias duras (sus referencias aluden a Norbert Wiener), más que en un
razonamiento sistemático propio. Si hubiera reflexionado sobre lo que escribió
el cibernético Ross Ashby, tal vez no habría incurrido en el sofisma que
señalaré más adelante. Pues se preguntaba éste: Al aludir a “tamaño” nos
referimos a la complejidad del sistema. Pero, ¿qué significa esto? Si el
sistema dinámico que nos interesara fuera una familia indígena de cinco
personas ¿consideraríamos que está constituido por cinco partes, y que por lo
tanto es simple, o que está formado por 1025 átomos y que por lo tanto es muy
complejo? (Ashby 1972: 90). También en la nueva ciencia de la complejidad se
sabe que no existe una escala “natural”. Un planeta orbitando en torno a una
estrella configura un sistema simple; ambos cuerpos contienen a su vez muchos
sistemas complejos. “Este ejemplo ilustra la posibilidad de que un sistema
colectivo tenga una escala diferente que la de sus partes. En la escala pequeña
el sistema se puede comportar de manera compleja, pero en la escala mayor todos
los detalles complejos pueden no ser relevantes” (Bar-Yam 1997: 5). Como decía
Bateson (1985: 482), no todo el territorio pasa al mapa. El sofisma
levi-straussiano es doble, por cuanto luego establece que los dos tipos de
modelos se aplican naturalmente, como el guante a la mano, a otros tantos tipos
de sociedades, reputadas frías y calientes, o de tipo “reloj” y “máquina de
vapor” (Lévi-Strauss 1969: 27- 37). Pero ni los modelos son como aduce, ni
casan con objetos predeterminados. En lugar de decir que los modelos mecánicos
son los que están a la misma escala del fenómeno y los estadísticos a una
escala (según se mire) más reducida o más amplia, diremos que los primeros
establecen razonamientos que explican lo que sucede y los segundos identifican
tendencias, asociaciones, adhesiones, correlaciones, concomitancias (Back
1997). Una y otra clase de modelos se imponen además diferentes clases de
objetivos. Dado que los modelos son entidades conceptuales (y no maquetas
icónicas), ellos no pueden ser ni más ni menos simples que “los fenómenos”, ya
que desde el comienzo son otra cosa. Un modelo es una construcción lógica y
lingüística, y a menos que se suscriba una teoría del lenguaje puramente
nomenclatoria (el lenguaje como espejo de la realidad) no Reynoso – Complejidad
– 14 puede existir isomorfismo ni correspondencia estructural entre enunciados
y cosas. La escala de un modelo respecto de lo real es indecidible, ya que la
realidad puede ser infinitamente descompuesta, es analíticamente inagotable:
una ameba puede llegar a ser tan complicada como un sistema planetario; el sol
y la tierra, con ser inmensos y albergar tantas cosas, constituyen un sistema
“pequeño”, pues astronómicamente tienen sólo doce grados de libertad. No hay
entonces una escala propia de los fenómenos: teorías que tratan de enormes conjuntos
sociales son a menudo más simples que teorías que abordan la personalidad de
sujetos individuales. No hay tampoco modelo que incluya todos los aspectos de
un fenómeno: las manzanas pueden ser objeto de estudios económicos, botánicos,
nutricionales, transgénicos, geométricos, bíblicos, de gravitación¼ La caracterización de los
tipos de modelos debe fundarse en otras consideraciones. · Un modelo mecánico no
involucra reducir los sujetos o las culturas a máquinas, ni adherir a metáforas
mecanicistas, ni hablar siquiera de modelos en el sentido más formal de la
palabra. Serían mecánicos, por ejemplo, los modelos desplegados por Marvin
Harris en sus estudios de casos, en los que se buscan identificar los factores
que determinan ciertas prácticas culturales. Algunos de los modelos de la
ciencia cognitiva son asimismo mecánicos, pues describen la estructura interna
de las operaciones o dispositivos que causan estados de la mente o que explican
las regularidades de la cognición. Dado que los modelos mecánicos engendran
explicaciones de casos a partir de principios generales, la estructura de las
inferencias en estos modelos es deductiva: una explicación subsume, aún cuando
identifique mecanismos particulares. Las leyes propias de los modelos
mecánicos, si las hubiere, tienden a ser deterministas, y el objetivo de los
modelos es habitualmente la explicación de hechos en función de principios
actuantes. “La cuestión central de una explicación científica es la propuesta
de un mecanismo”, dice Maturana (1995: 65) y por una vez estoy de acuerdo con
él. Siempre que aparezca la palabra “porque” estamos, desde Marshall Sahlins a
Marvin Harris, en presencia de uno de estos modelos. No todos los modelos
mecánicos son reduccionistas, en el sentido de requerir descomposición y
análisis de las entidades que los componen; la ley de gravitación universal
descubierta por Newton, F = K m m’/r2 , por ejemplo, es una explicación
estructural que no requiere ahondar en la estructura íntima de la materia
subyacente (Thom 1985: 16). Pero en general análisis y explicación van juntos;
aquél adquiere sentido cuando ésta se alcanza. En ciencia cognitiva el modelo
mecánico canónico es el sistema experto, un sistema que deduce conclusiones (o
prueba hipótesis) aplicando hechos y reglas. ·
Son estadísticos, en cambio, los estudios de la antropología comparativa o
transcultural derivada de George Murdock, en los que se busca establecer la
probabilidad de ocurrencia de una práctica en presencia de determinada
institución, o a la inversa. Se trata de una modalidad de estudio
correlacional, por lo común cuantitativa, que no arriesga hipótesis sobre la
naturaleza precisa de los mecanismos y relaciones causales; es por eso que los
modelos estadísticos se conforman al llamado esquema de la caja negra. En ellos
interesa determinar qué condiciones (o estímulos) producen determinadas
conductas (o respuestas), sin que importe deslindar por qué. Algunas veces los
modelos estadísticos se conciben como acercamientos preliminares, propios de
una ciencia que aún no puede imponer leyes a su objeto. Dado que estos modelos
consideran varios casos individuales y abstraen de ellos generalizaciones y
regularidades, la estructura de la inferencia en estos modelos es inductiva
(Holland y otros 1989). En general los modelos Reynoso – Complejidad – 15
estadísticos abundan en tipologías, de las cuales se derivan las entidades o
categorías culturales a ser correlacionadas. Las leyes típicas de los modelos
estadísticos, cuando las hay, son necesariamente probabilistas. Son estadísticas
las leyes de Zipf, Pareto, Weber-Fechner y Gutenberg-Richter: generalizan los
casos conocidos, sin explicar nada; se mantendrán en pie hasta que las
excepciones sean estadísticamente significativas. No todos los modelos
estadísticos son cuantitativos; no lo es su variedad más conspicua en ciencias
humanas, el conductismo. En ciencia cognitiva el modelo estadístico por
excelencia se encarna en las redes neuronales. Aunque podría parecer a priori
imposible, existe una alternativa a los modelos mecanicistas y estadísticos,
una especie de paradigma básico, un arquetipo de articulación teórica. Se trata
de los modelos sistémicos, que en ocasiones han ejercido influencia en la
antropología debido a su énfasis en los fenómenos dinámicos, en los universos
totales abiertos a su entorno, en los procesos complejos y en las interacciones
fuertes. Los modelos de esta clase se piensan o bien como de estructura
diferente a la de las formas clásicas, o como la superación de éstas en una
secuencia epistemológica de carácter evolutivo. Por razones bastante
complicadas y de todas maneras contingentes, han habido cuatro grandes
formulaciones sucesivas de estas teorías de sistemas, que son: (1) La
cibernética, propuesta por Norbert Wiener hacia 1942. (2) La teoría general de
sistemas (o teoría de los sistemas generales), desarrollada por Ludwig von
Bertalanffy hacia la misma época, pero difundida mayormente entre 1950 y 1970.
(3) La teoría de las estructuras disipativas (o de los Sistemas Alejados del
Equilibrio) promovida por el Premio Nobel Ilya Prigogine desde principios de la
década de 1960, y continuada por la cibernética de segundo orden de Heinz von
Foerster, la cibernética conversacional de Gordon Pask, la autopoiesis de
Humberto Maturana, la enacción y la neurofenomenología de Francisco Varela y el
constructivismo de Ernst von Glasersfeld. (4) La teoría de catástrofes de René
Thom, elaborada hacia 1970. El creador de la distinción entre modelos
mecánicos, estadísticos y sistémicos (o complejos) fue sin duda Warren Weaver
(1948). En general, los modelos mecánicos se adaptan a sistemas o procesos de
complicación relativamente escasa, que se prestan a ser íntegramente
analizados. En otras palabras, los modelos mecánicos conciernen a los
mecanismos que producen determinado estado de cosas, y estos mecanismos
resultan a la vez explicativos cuando el objeto es comprensible en el juego de
la simplicidad organizada. La simplicidad es aquí un efecto teórico, una
distinción epistemológica, no una cualidad empírica: un objeto simple se aviene
a ser explicado mediante una analítica que distingue en él o bien un solo nivel
de organización, o bien relaciones lineales entre diversos niveles. Los modelos
estadísticos, por su parte, se ocupan de fenómenos que (desde una determinada perspectiva)
resultan demasiado complejos para ser analizados y que sólo son susceptibles de
un abordaje sintético-inductivo; al no ser íntegramente cognoscibles o
analizables, podría decirse que los objetos del estudio estadístico están
desorganizados. Los mecanismos que producen los fenómenos no son conocidos, o
se reputan imposibles de conocer, o no se los estima relevantes, y es por ello
que se los remite a una caja negra. Reynoso – Complejidad – 16 Los modelos
sistémicos, finalmente, procuran organizar la complejidad a través de un
conjunto de ecuaciones que describen los diferentes aspectos de los sistemas.
El objeto canónico de las teorías sistémicas son los llamados sistemas
complejos, que, como luego se verá, no por ello son desorganizados, pues, por
su complejidad particular, poseen la capacidad de auto-organizarse. Aunque no
todas las teorías sistémicas cumplimentan esta salvedad, hagámosla aquí: la
complejidad no es en sentido estricto un atributo ontológico propio del
fenómeno que se estudia, sino una escala inherente al punto de vista que se
adopta y a los conceptos que se usan, en especial conceptos relacionales tales
como el de interacción, organización y emergencia. Por consiguiente, tanto un
microorganismo como el universo son por igual susceptibles de abordarse como
sistemas complejos. Una misma realidad empírica, diferentemente mapeada sobre
una teoría, puede ser objeto de cualquiera de los tres tipos de modelos
expuestos. El siguiente cuadro presenta, diagramáticamente, las características
de los tres principales tipos de modelos; me he tomado la libertad de añadir a
la tabla canónica de Warren Weaver (1948) y Anatol Rapoport y William Horvath
(1959), como cuarta instancia, las propuestas interpretativas (también
podríamos poner en su lugar las posmodernas y las constructivistas), pues,
aunque la historia nunca acostumbra contarse de esta manera, vienen como anillo
al dedo para completar la tabla periódica de las estrategias posibles. Las
teorías fenomenológicas, simbólicas e interpretativas en general, en efecto,
tienden a inhibir las generalizaciones en nombre de un conocimiento local que
ni siquiera permite una comprensión totalizadora de los casos individuales, y
que confía más en la conjetura o en la corazonada (generosamente llamada “abducción”)
que en el razonamiento formal1 . En el mismo espíritu, y partiendo de la base
que una teoría podría considerarse como un modelo sumado a una interpretación,
yo diría que nuestros cuatro modelos mapean bastante bien con los cuatro tipos
teóricos propuestos por Penrose: los mecánicos serían predominantes en las
teorías que él llama “supremas”, los estadísticos en las que denomina “útiles”,
los sistémicos en las “provisionales” y los hermenéuticos en las “descaminadas”
(Penrose 1996: 185-190). Modelo Perspectiva del Objeto Inferencia Propósito
Mecánico Simplicidad organizada Analítica-deductiva Explicación Estadístico
Complejidad desorganizada Sintética-inductiva Correlación Sistémico Complejidad
organizada Holista-descriptiva Descripción estructural o procesual
Interpretativo Simplicidad desorganizada Estética-abductiva Comprensión Tabla
2.1 - Los cuatro modelos Nótese que los modelos sistémicos no se conforman al
modelo nomológico deductivo, dado que su concepción en torno a la
equifinalidad, multifinalidad, multicausalidad, causalidad circular o
realimentación, no-linealidad y la elección de transiciones de fases, procesos
de morfogénesis y emergencia como objetos de estudio, les impide expresar las
aserciones lineales de condicionalidad que constituyen las estructuras típicas
de los sistemas deductivos. En un estudio sistémico, lo más que puede hacerse
es describir formalmente el fenómeno de 1 No pretendo defender aquí el
tratamiento de los modelos interpretativos, fenomenológicos y posmodernos en estos
términos, ni hace falta tampoco que lo haga; a fin de cuentas, han sido los
promotores de las corrientes humanísticas y los intelectuales genéricos de ese
círculo los que han reclamado para sí el privilegio de una epistemología
separada (Lyotard 1986; Geertz 1996; Vattimo 1997). Reynoso – Complejidad – 17
que se trate (sea la estructura del sistema, sea su trayectoria) a través de
ecuaciones. Estas acostumbran ser ecuaciones diferenciales o ecuaciones de
diferencia no lineales, aunque otras expresiones matemáticas podrían aplicarse
a la misma descripción. A menudo un sistema se describe mediante un grafo
topológico, una red o un diagrama de flujo, asociado o no a una caracterización
matemática más precisa. A partir de la descripción se podrá, facultativamente,
construir un modelo de simulación, manipularlo, descubrir propiedades, proponer
hipótesis y derivar predicciones respecto de su comportamiento. Es importante
señalar que los tres modelos primarios no constituyen una jerarquía. Los
sistémicos no son en modo alguno “mejores” que los estadísticos o que los
mecánicos; estos últimos no sólo se sostienen como en sus mejores días para
abordar una mayoría abrumadora de problemáticas (que los aviones vuelen, que se
construya una computadora, que se formule un diagnóstico en un sistema experto,
que se prediga la trayectoria de un planeta, que se elicite el sistema
fonológico de una lengua), sino que son, más allá de sus dificultades y
límites, los únicos que poseen una base axiomática amplia y consensuada, por más
que el mundo parezca tornarse menos mecánico cada día que pasa. Existen además
procedimientos de transformación que permiten convertir un tipo en otro. Cuando
un modelo mecánico opera iteraciones, se obtiene otra clase de entidad mecánica
que incorpora variables de tiempo y a la que se puede agregar un elemento de
azar: este es el caso de los mecanismos que operan como cadenas de Markov,
camino estocástico, agregación limitada por difusión, movimiento browniano.
Pero cuando en un modelo estadístico de caja negra se adiciona tiempo y se
desarrollan iteraciones, pasamos a tener un modelo cibernético y
comportamientos emergentes; por eso es que Bertalanffy describe la entrada de
su esquema de retroalimentación como “estímulo” y la salida como “respuesta” (Bertalanffy
1976: 43). Un modelo sistémico característico, los autómatas celulares,
consisten en un conjunto de elementos cada uno de los cuales opera como un
modelo mecánico. Algunos modelos pueden ser reducidos a otros: la termodinámica
fue, de hecho, reducida exitosamente a lo que hoy se conoce como mecánica
estadística (Nagel 1981). También son posibles incrustaciones y
complementariedades de formas modélicas diferentes, como cuando se agrega un
principio (estadístico) de lógica difusa a un formalismo (sistémico) de redes
neuronales o autómatas celulares, o a un sistema experto (mecánico) de
inteligencia artificial. Hay además teorías que podrían encajar en dos modelos
diferentes, conforme al énfasis que se quiera imponer: el funcionalismo, por
ejemplo, se puede entender como un modelo mecánico con la causalidad a la
inversa (las instituciones sirven para preservar el equilibrio) o como un
modelo sistémico en condición de estabilidad. En ciencia cognitiva hay algunos
modelos mixtos, a mitad de camino entre el análisis simbólico y la síntesis de
capacidades, y es por ello que se los llama de caja gris. Cuestiones de esta
naturaleza serán aludidas en el texto pero no tratadas en detalle, ya que no es
éste un tratado de epistemología sobre los tipos de modelos posibles, sino una
caracterización de una variedad de ellos, en el sentido wittgensteiniano: un
conjunto politético, aglutinado en función de un aire de familia. Aprovecho
esta semblanza para cuestionar un par de creencias muy difundidas: creencias
que afirman, por ejemplo, que cualquier modelo más o menos formalizado califica
como modelo sistémico, o que las teorías sistémicas equivalen sencillamente a
modelos matemáticos o computacionales de cualquier clase (o viceversa).
Existen, de hecho, numerosos modelos formales o axiomáticos que son más bien
mecánicos o estadísticos, así como existen Reynoso – Complejidad – 18 modelos
sistémicos no cuantitativos. La inteligencia artificial simbólica es claramente
mecánica, las redes neuronales son estadísticas, y la teoría de catástrofes es
sistémica, pero ésta carece de implementación computacional y cuantificación.
Las computadoras, empero, serán un requerimiento categórico en los algoritmos
de la dinámica no lineal. Tampoco es verdad que la teoría de sistemas sea una
concepción positivista, rótulo con el que de un tiempo a esta parte se quiere
reprimir toda propuesta con alguna aspiración de rigor. La teoría de sistemas
no es positivista; los positivistas (desde los furtivos hasta los ultras)
rechazan muchas de sus manifestaciones (Bunge 1956; 2004: 62-63; Berlinski
1976). Los postulados sistémicos, de Bertalanffy a Prigogine, constituyen
reacciones contra el principio positivista de la analiticidad y contra la
reducción de toda ciencia a la mecánica, aunque la ciencia compleja actual es
más prudente y menos dogmática sobre el particular (Hatcher y Tofts 2004). Los
sistemas a secas constituyen un concepto indefinido, desgastado por el abuso;
pero los sistemas generales, alejados del equilibrio o complejos son algo preciso
y circunscripto. Tampoco es suficiente hablar de sistemas para que la teoría
que uno promueve sea sistémica: los sistemas de la sistémica son de una especie
peculiar que los autores caracterizan de modos convergentes. Es conveniente
entonces restringir el concepto de teoría sistémica a las construcciones
conceptuales que compartan los rasgos precisos que, en relación con cada marco
teórico, se definirán a partir de ahora. 2.2 – El fundamento común de las
teorías de sistemas: Teoría de la Información El concepto de información es
parte esencial de la mayor parte de las teorías sistémicas, desde la
cibernética hasta los algoritmos genéticos, pasando por la antropología de
Bateson, en la que juega un rol decisivo. La teoría de la información en sí
misma no es de carácter sistémico sino estadístico, y como tal se la ha usado
como marco teórico autónomo y suficiente en diversas ramas de las ciencias
sociales. Como habrá de verse en los capítulos subsiguientes, el concepto de
información definido por esa teoría es una referencia inevitable de la mayor
parte de las estrategias que guardan alguna relación con la complejidad. Fig.
2.1 - Esquema de la Comunicación La información es una dimensión cuantificable
comprendida en el circuito de la comunicación. El origen del llamado esquema de
la comunicación (fig. 2.1) es incierto y de autor anónimo; tampoco puede
determinarse en qué disciplina o marco teórico se comenzó a hablar de él. Se
fue cristalizando y enriqueciendo con el correr de los años, y ya hay
testimonio de él en las primeras décadas del siglo, por ejemplo en el Curso de
Lingüística General de Ferdinand de Saussure. Ciencias o subciencias enteras
(la teoría de la comunicación de masas, la sociolingüística, la pragmática)
giran de un modo u otro en torno suyo. En el modelo comunicacional clásico se
considera que, en un contexto dado, el emisor transmite al receptor una serie
de señales articuladas según un código, formando mensajes que circulan por un
canal afectado por más o menos ruido, ambigüedad o interferencia. Di- Reynoso –
Complejidad – 19 versos autores han agregado más y más elementos al esquema,
subdividiendo sus componentes en otros más precisos y restringidos, pero el
cuadro básico, el más consensuado, discurre aproximadamente como se muestra en el
diagrama. Este esquema básico de la comunicación forma parte de numerosas
teorías; Roman Jakobson, por ejemplo, formuló entre 1956 y 1960 su
clasificación de las funciones del lenguaje mapeándolas sobre los diferentes
elementos del modelo: la función conativa o imperativa es la que enfatiza al
receptor, la función referencial gira en torno del contexto, la emotiva destaca
al emisor, la fática constata la disponibilidad del canal, la metalingüística
se centra en el código, y la función poética hace hincapié en el mensaje
(Jakobson 1984: 353). Referida a ese mismo conjunto originario, la teoría de la
información o teoría matemática de la comunicación, formulada por Claude
Shannon en 1948, es una teoría relacionada con el cálculo de probabilidades que
relaciona las propiedades del canal de comunicación con el código que rige la
generación, transmisión y decodificación de las señales que componen un mensaje
(Shannon 1948; Shannon y Weaver 1949). Hoy se habla de ingeniería de la
comunicación para referirse a este dominio, aunque las ecuaciones fundamentales
que definen y miden la cantidad de información siguen siendo las establecidas
por Shannon. Urge aclarar que la teoría de la información nada tiene que ver
con el significado de los mensajes: se trata de un abordaje que analiza cosas
tales como las formas más óptimas de codificación, la cantidad de redundancia
que hay que introducir para compensar el ruido, y, en especial, la “medida de
la información”. Esta cantidad de información se define como la cantidad de incertidumbre
de un mensaje en función de la probabilidad de aparición de los elementos que
componen el código. No hay en general ninguna correlación entre la riqueza de
significaciones y la complejidad informacional, aunque algunos teóricos de la
cultura y la sociedad (Abraham Moles, Max Bense, los semiólogos de la Escuela
de Tartu) hayan creído lo contrario. El concepto de información, asimismo, es
físico y no psicológico: una sinfonía informacionalmente compleja no alberga,
subjetivamente hablando, demasiada improbabilidad o sorpresa para quien la
conozca de memoria (aunque objetivamente haya sido más difícil de memorizar que
una sinfonía más simple o más breve). La información (que en homenaje a Ralph
Hartley se simboliza con la letra H, no con I) es un concepto muy simple:
información es la medida de los grados de libertad que existen en una situación
dada para escoger entre señales, símbolos, mensajes o pautas. El conjunto de
todas las categorías (el “alfabeto”, cualquiera sea el modo de la comunicación)
se denomina también repertorio. La cantidad de información se mide como el
logaritmo binario del número de patrones alternativos, formas, organizaciones o
mensajes que forman ese repertorio. La unidad en que se expresa la medida de la
información es también la más simple de todas: el bit o dígito binario [binary
digit]. La complejidad creciente de las pautas informacionales determina apenas
un crecimiento logarítmico en las unidades de medida: dos alternativas
elegibles (dos grados de libertad) requieren un solo bit, cuyos valores pueden
ser sólo 1 y 0; cuatro alternativas se expresan con dos bits (00, 01, 10, 11);
ocho con tres bits (000, 001, 010, 011, 100, 110, 111, 101), y así
sucesivamente. La ecuación que describe la información, como medida del sentido
del orden de un mensaje es: H = –(p1 log2 p1 + … + pn log2 pn) donde los
mensajes posibles tienen probabilidades p1, …, pn. La misma unidad y la misma
ecuación se utilizan sea cual fuere la naturaleza de las cosas comunicadas:
sonidos en un sistema fonológico, fonemas en una secuencia de palabras,
palabras en una secuencia de Reynoso – Complejidad – 20 frases, frases en una
secuencia de discurso, discursos en una secuencia de conductas lingüísticas (o
bien notas en un motivo musical, motivos musicales en la sección de una pieza,
secciones en un movimiento, movimientos en una pieza). La información mide, por
definición, el grado de organización de un sistema. Cuanto más previsible es un
elemento, menos información trasunta: el final de las palabras en un telegrama
o en taquigrafía, por ejemplo (-ilidad, -ción, -ismo, -ante, -mente, -ible),
puede llegar a ser tan previsible (redundante) que en algunos casos es posible
omitirlas. Cuanto más ruido o interferencia hay en un canal y cuanto más
incierta sea la aparición de un elemento, mayor será la necesidad de
redundancia para garantizar una decodificación correcta. Un sistema fonológico
que incluya muchos sonidos parecidos de aparición incierta será más informativo
(tendrá una medida de información más grande) que otro sistema con menos
sonidos y de sucesión previsible. Al mismo tiempo, podría decirse que cuanto
más rico sea el alfabeto o repertorio de un sistema, tanto más improbable será
la aparición de un signo particular: la información es también la medida de la
elección y la improbabilidad. La idea de que la teoría de la información es
lineal como el telégrafo y la cibernética es compleja como una interacción
“orquestal”, propuesta por Yves Winkin (1976), no es del todo exacta, pues la
teoría de la información no es autónoma y está más o menos explícitamente
integrada en todas las teorías sistémicas. La teoría de la información es un
ingrediente de todas ellas, en tanto y en cuanto lo que fluye por el interior y
hacia o desde el exterior de los sistemas sólo puede ser de tres órdenes:
materia, energía o información. Información Entropía Señal Ruido Exactitud
Error Regularidad Azar Forma pautada Falta de forma Orden Desorden Organización
Desorganización Definición Indefinición Tabla 2.2 – Información y entropía Se
ha encontrado, además, que la energía guarda una relación conceptual muy
estrecha con la información. Para ciertos autores (aunque no para otros, como
se verá), el desorden, la desorganización, la falta de estructura o la
aleatoriedad de la organización de un sistema se concibe como su entropía, un
concepto acuñado por Rudolf Clausius hacia 1865. Las leyes de la termodinámica
aseguran que el universo tiende hacia un estado de máxima entropía. Desde el
punto de vista de las ecuaciones que las describen, la entropía es exactamente
lo inverso de la información, según lo estableció Leo Szilard en 1929; por
consiguiente, Leon Brillouin ha propuesto llamar a esta última negentropía o
“entropía negativa” (Singh 1979: 90). Para esta línea de pensamiento, las características
de la información y de la entropía (tanto las propiedades técnicas como las que
les atribuye el sentido común) son siempre inversas. El cuadro de sus
contrastes es el que se ilustra en la tabla 2.2. Dada la relación entre
información y entropía, así como el carácter contraintuitivo que tiene el hecho
de que orden e improbabilidad sean equivalentes (o que los sistemas con mayor
entropía y por ende “complejidad” sean los que se encuentran en estado de
equilibrio), la bibliografía se distribuye en partes iguales entre quienes
conciben información y entropía como antónimos (Atlan, Boltzmann, Brillouin,
Denbigh y Denbigh, Forsé, Miller, Szilard, Reynoso – Complejidad – 21 Wicken) y
los que equiparan ambas categorías (Ashby, Lévi-Strauss, Shannon, Singh,
Wilson). Michael Fischer (2002), por ejemplo, define repetidamente la entropía
como “una medida de orden en un sistema de estructuras”, y Paul Cilliers (1998:
8) asegura que “la cantidad de información en un mensaje es igual a su
entropía”; pero James Grier Miller (1978: 13) está persuadido que entropía es
más bien desorden y desorganización. No todos los autores han advertido que no
existe acuerdo sobre este particular. Como bien señaló Katherine Hayles en el
mejor capítulo de su libro, existen dos tradiciones intelectuales que
distintivamente oponen o identifican ambos conceptos: una se remonta a Warren
Weaver, el colaborador de Claude Shannon, y la otra a Leon Brillouin; para la
primera postura la información se vincula con el desorden y la incertidumbre,
para la segunda con el orden y la organización (Wilson 1968; Hayles 1993:
53-86). Se comenta que la decisión de Shannon de llamar entropía a la
información le vino de un consejo de John von Neumann, quien le sugirió que
usara la palabra porque “nadie sabe qué es la entropía; entonces, en un debate,
usted siempre tendrá ventaja” (Denbigh y Denbigh 1985: 104)2 . En una palabra,
se sabe perfectamente cómo hacer la medición, pero no existe el menor consenso
en cuanto a connotaciones y valores no triviales de lo que se está midiendo:
¿es probabilidad o incertidumbre? ¿orden o desorganización? Un mensaje bien
organizado ¿es más o es menos informativo? Convendrá que el lector tenga en
cuenta que existen dos formas contrapuestas de interpretar el sentido de la
información, ya que cuando se formulen las teorías del caos y la complejidad
esta discordancia seguirá dividiendo las aguas3 . En las humanidades hay una
división todavía más drástica entre quienes consideran central el concepto de
información (Bateson, el primer Watzlawick) y quienes lo estiman irrelevante o
engañoso (Rosen, Maturana, Varela, Morin, Capra). Ignorando siempre estas
antinomias, el uso de la teoría de la información como marco articulador de
investigaciones socioculturales ha sido común, sobre todo en la década de 1960
y principios de la siguiente. La Escuela semiótica de Tartu, en Estonia, con
ramificaciones en Moscú, fue un equivalente soviético de la antropología
cultural; las elaboraciones teóricas de esta escuela, por lo menos en sus años
iniciales, se basaban a menudo en esa teoría. Nadie menos que Andrei Kolmogorov
(1968) propuso en ese contexto una medida para determinar el carácter más o
menos poético de un texto. En la llamada Escuela de Stuttgart, Max Bense (1972)
aplicó la teoría a la percepción de fenómenos artísticos, desde la pintura 2
Conjeturo que la anécdota es apócrifa, o que su estructura implementa un patrón
que induce a plagiarla y aplicarla a otros acontecimientos. Lo mismo se afirma
que le aconsejó Shannon a Wiener respecto de la palabra “cibernética”
(http://www.asc-cybernetics.org/foundations/definitions.htm). 3 Quienes
elaboraron la teoría de la información saben de estos nudos filosóficos. Cuando
se trata de definir, por ejemplo, la probabilidad como frecuencia de resultados
en experimentos de azar, es difícil evitar las definiciones circulares. Si se
dice que la frecuencia de un resultado específico del revoleo de una moneda es
de 0.5 (entendiendo que la frecuencia es la fracción promedio de “caras” en
largas secuencias) hay que definir entonces el significado de “promedio” sin
usar una palabra que sea sinónimo de probabilidad (MacKay 2003: 26). Nada de
esto es fácil ni intuitivo. Otra forma muy común de concebir la probabilidad es
en términos de creencias o supuestos: la probabilidad de que las obras de
Shakespeare hayan sido escritas por Bacon, o de que una firma sea auténtica;
éste es el punto de vista subjetivo o bayesiano. Esta concepción satisface la
intuición, pero no todos los matemáticos la encuentran aceptable. Reynoso –
Complejidad – 22 hasta la música, pretendiendo formular una estética objetiva
que redujera el margen de subjetividad; en Francia Abraham Moles desarrolló una
especie de sociología semi-formal a la que llamó Sociodinámica de la Cultura
(1978). El antropólogo simbolista Benjamin Colby, a su vez, ha sugerido que
existe analogía entre la organización entendida informacionalmente y la
redundancia en los patrones culturales. Él considera que hay aspectos de la
cultura fuertemente pautados (y por ende, redundantes), mientras que otros
están más expuestos al cambio y son por eso más proclives a la desorganización.
En cierto modo, los mitos y los rituales proporcionan orden y forma a aquellas
regiones de la actividad y el pensamiento humano que de no ser por ello
resultarían las más desordenadas y enigmáticas (Colby 1977). Hasta hace unas
décadas los libros de Bense y de Moles acostumbraban traducirse al castellano y
diseños de investigación como el de Colby eran comunes. Con el correr de los
años esta variedad de sociología y estética informacional dijo todo lo que
tenía que decir (lo que ya nadie recuerda muy bien qué era) y se precipitó en
un camino de rendimiento decreciente. Pueden encontrarse abundantes ejemplos de
uso de la teoría informacional en antropología, psicología y otras ciencias
humanas en la compilación de Alfred G. Smith Comunicación y Cultura (1976-77).
Hoy nadie se ocupa de esos menesteres en estos términos. Casi todo el mundo
cree que las apropiaciones de la teoría de la información por parte de las
humanidades ha resultado un proyecto fallido. Lo reconoció el propio padre de
la teoría general de sistemas, Ludwig von Bertalanffy: “La teoría de la
información, tan desarrollada matemáticamente, resultó un chasco [¿fiasco?] en
psicología y sociología”, y sus contribuciones se limitan a aplicaciones
bastante triviales (1976: 22, 103). Aunque el juicio es bastante lapidario, es
fuerza admitir que algún grado de razón lo asiste, por más que la confusión se
origine en otra parte. También Robert Rosen opina que “nunca se ha descubierto
la utilidad de conceptos como los de entropía, información, negentropía u otros
semejantes para caracterizar la organización” (1980: 364). Como habrá de verse
más adelante, será la teoría sistémica del caos (y no la teoría estadística de
la información) la que proporcione métricas de distribución y magnitudes
constantes susceptibles de aplicarse a hechos de la cultura, la evolución y la
historia: el número de Feigenbaum-Collet-Tresser, la dimensión fractal, la criticalidad
auto-organizada, la distribución de ley de potencia. Se podrá abordar con ellas
desde la música hasta los patrones de asentamiento arqueológicos, desde los
motivos del arte hasta la secuencia de los procesos históricos, para establecer
(según su uso y propósito) ya sea los valores idiosincráticos de un estilo o
caso, o sus aspectos universales. Más allá de sus dilemas semánticos o sus
opositores ideológicos, la teoría de la información sigue siendo tan válida
como siempre y es fundamental en áreas de la teoría y de la práctica que uno ni
siquiera imagina o que se dan por sentadas (cf. MacKay 2003); pero a su lado
existen conceptos y algoritmos que satisfacen elaboraciones más expresivas y de
más alto nivel. Aunque alguna vez se la consideró autosuficiente y definitoria,
la medida de la información sólo da cuenta del valor de una variable en algún
lugar del circuito. Edgar Morin lo consideraría un concepto-problema, antes que
un concepto-solución, y no una noción terminal sino un punto de partida (Morin
1974: 280-281). Yo no creo que sea un problema; es un factor que es mensurable
cuando circula linealmente por un canal; un factor que, cuando se desvinculó de
la idea de significado a la que el sentido común se empeña en asociarlo, dio
lugar a una teoría que hizo posibles a todas las restantes. La teoría de la
información debía sin embargo embeberse en y articularse con otros cuadros
teóricos para resultar de interés conceptual y utilidad pragmática. Eso fue, de
hecho, lo que sucedió. Reynoso – Complejidad – 23 2.3 – Cibernética La
cibernética es una formulación que se conoce también como “teoría de los
mecanismos de control”; como se dijo, fue propuesta por Norbert Wiener hacia
1942 y bautizada así en 1947, aunque existe un antecedente allá por la década de
1920, ligada al nombre de un tal Richard Wagner, de Munich. “Cibernética”
deriva (al igual que el vocablo “gobierno”) de la palabra griega cubernήthς que significa “timonel”, y el
término se refiere a los mecanismos o técnicas de control en general. La palabra
se encuentra por primera vez en el Gorgias de Platón. En el vocabulario
científico la expresión “cibernética” ya había sido usada en 1834 por
André-Marie Ampère en su sistema de clasificación de las ciencias con el
significado de “ciencia del gobierno”. La cibernética forma parte de un campo
de formulaciones teóricas de muy distinta naturaleza que se ocuparon de
sistemas complejos, y que hicieron extensivas sus exploraciones sobre las
características de dichos sistemas a otras disciplinas. En este sentido,
existen dudas sobre la prioridad intelectual de Wiener o de von Bertalanffy en
el terreno de las teorías sistémicas; Bertalanffy parecía bastante preocupado
en demostrar que a él la idea se le había ocurrido primero, a mediados de la
década de 1930, pero que recién tuvo oportunidad de difundirla varios años más
tarde; de todas maneras, afirmaba, los sistemas cibernéticos son sólo un caso
especial, aunque importante, de la clase de los sistemas que exhiben
autorregulación (Bertalanffy 1976: 16; 1982: 110, 141). 2.3.1 – Mecanismos de
control y retroalimentación El esquema cibernético es, entre todos los modelos
sistémicos, el que se relaciona más estrechamente con la teoría de la
información, que ya he caracterizado en el apartado anterior. Pero la cibernética
es algo más que un conjunto de ecuaciones que miden flujos de información.
Wiener concibió la cibernética poco después de la Segunda Guerra, en relación
con el control y corrección del tiro de los cañones antiaéreos. La pregunta
para la cual la cibernética fue la respuesta es ésta: ¿Cómo debe fluir la
información en un mecanismo de tiro para que éste sea eficaz? Antes de Wiener
los ingenieros ya habían trabajado con mecanismos de corrección pero eran
básicamente circuitos eléctricos ad hoc; la novedad de Wiener fue introducir el
concepto de información. Disparar al azar (el método aleatorio) no había
demostrado ser muy práctico; combinar el azar con un proceso selectivo (el
método estocástico) tampoco daba buenos resultados. Dado que los aviones vuelan
a gran velocidad, es preciso predecir la posición futura del aparato a partir
de sus posiciones anteriores y, eventualmente, de la evaluación del margen de
error de los tiros fallados. El mecanismo de puntería del cañón requiere de un
procedimiento o circuito de información que vaya acercando los disparos hasta
abatir el avión, reduciendo paulatinamente la magnitud del error con
oscilaciones cada vez más estrechas. Este circuito de información devuelve al
mecanismo elementos de juicio acerca de los resultados de su propia conducta.
Teleológica o no, la circuitería cibernética no se construye poniendo antes que
nada las causas, sino privilegiando los propósitos. El principio que rige el
funcionamiento de esos circuitos es lo que Wiener llamó retroacción, retroalimentación
o feedback. En estos procesos, la información sobre las acciones en curso
nutren a su vez al sistema, lo realimentan, permitiéndole perfeccionar un
comportamiento orientado a un fin. Sucede como si, en cierta forma, los efectos
pasaran a formar Reynoso – Complejidad – 24 parte de las causas. Algunos llaman
a ésto bucles o circuitos de causalidad circular, diferenciándolos de los
procesos de causalidad lineal. Fig. 2.2 - Retroalimentación Entre paréntesis,
digamos que no hay que llamarse a engaño por la participación de Wiener en un
proyecto militar. Su investigación se aplicó de hecho a una demanda defensiva.
Wiener fue lo que los norteamericanos llaman un liberal y los europeos un
intelectual comprometido y progresista. Luchó contra el belicismo (incluso
negándose a rubricar contratos universitarios con las fuerzas armadas),
combatió al complejo industrial-militar norteamericano y mantuvo posturas
afines al pacifismo y al ecologismo contemporáneos. Wiener se hizo conocer como
antinazi y antiestalinista, aunque subrayaba que no era anticomunista, lo que
en esos años era por lo menos arriesgado; luchó contra la caza de brujas
iniciada por el senador McCarthy, apoyando a víctimas de la persecución como su
amigo Dirk Struik, un notable intelectual y matemático marxista. Según Ron
Eglash (s/f), Wiener fue un pionero legendario al cual los soñadores y utópicos
recurrieron más tarde, en la década de 1960, un momento particularmente
romántico y transgresor. Hay que aclarar que Wiener no inventó el feedback sino
que lo integró en una teoría general de los circuitos o mecanismos de control
mecánicos, biológicos, psicológicos o sociales, a la que llamó cibernética, la
cual tiene poco que ver con el uso que se otorga a veces a la palabra para
designar a la informática, a la biónica o a los robots. Su contribución a la
ciencia no radica en la invención del concepto, sino en su colocación en el
lugar central de una disciplina genérica de formidables valores aplicativos. El
creador de la idea de feedback fue probablemente Harold Black, tan temprano
como en 1927. Wiener encontró que los mismos principios que rigen el ajuste
óptimo de los dispositivos de tiro rigen el comportamiento orientado hacia
metas propio de los organismos: el ejemplo característico es el de llevar un
vaso de agua a la boca, corrigiendo las trayectorias mediante feedback para
minimizar las oscilaciones. También es común en la bibliografía el ejemplo del
termostato que regula la temperatura de un ambiente manteniéndola estable.
James Lovelock señala que la capacidad humana de mantener la postura erecta,
caminar y correr en terrenos accidentados, o la habilidad de sostenerse en pie
en la cubierta de un barco que se balancea, denotan la acción de complejos
mecanismos cibernéticos que, mediante eficaces flujos de información, comparan
la intención con la realidad, detectan las divergencias e introducen las
correcciones necesarias (Lovelock 1985: 63-64). De hecho, cualquier caso de
regulación es oportuno, pues los mecanismos reguladores siempre son
retroalimentantes. La cibernética no tenía en absoluto el propósito de concebir
los humanos como si fueran máquinas, que es lo que alegan sus detractores; lo
que pretendía era más bien indagar los mecanismos biológicos que ejecutan esas
complejas funciones de control con una eficiencia tal que hasta la fecha apenas
existen dispositivos artificiales comparables. En todas las teorías de sistemas
la biología suministra el camino a seguir; cuando llegue el momento en que se
Reynoso – Complejidad – 25 formulen las teorías de la complejidad, las
capacidades de los seres vivos encarnarán también los modelos a tener en
cuenta. De inmediato se encontró que así como existía una modalidad de
retroalimentación que reducía las desviaciones, existía otra (presente en determinados
procesos o susceptible de simularse en mecanismos de amplificación) que era
capaz de ampliarlas casi exponencialmente. Se llamó feedback negativo a la
primera variante y feedback positivo a la segunda, y se definió matemáticamente
a ambas. También se verificó que todos los fenómenos y mecanismos de
retroalimentación (mecánicos, electrónicos, biológicos, ecológicos,
psicológicos y sociales) obedecían a la misma caracterización formal. En otra
palabras, se descubrió que la estructura de los procesos de causalidad circular
era siempre la misma, independientemente de la naturaleza material del sistema
en que estuvieran presentes. Más allá del feedback, que a primera vista es su
concepto más saliente para los lectores provenientes de las humanidades, la
cibernética aborda cuestiones que, como luego se verá, encendieron la
imaginación de algunos antropólogos y psicólogos de la época, y que hoy en día
se perciben tanto o más relevantes en relación con las problemáticas de la
complejidad. Por empezar, la cibernética ilustra con claridad cómo es que se
delimita un sistema, proporcionando directivas que al mismo tiempo que están
expuestas con simplicidad poseen un riguroso fundamento y permiten crear un
conjunto de hipótesis de trabajo independientes del dominio de aplicación.
También enseña que un sistema no es más que una nómina de variables; que cada
sistema material contiene no menos que infinitas variables (y por lo tanto, de
sistemas posibles); que incluso en una ciencia dura a veces es fácil y a veces difícil
delimitar un sistema; que para que algo se pueda considerar un sistema debe
constituir un conjunto de entidades que, con respecto a las variables
consideradas, experimente lo que técnicamente se llaman transformaciones
cerradas y uniformes; y que la definición de esas transformaciones es un
procedimiento sencillo y fácil de aplicar (Ashby 1962: 61). La cibernética
también establece que su idea primaria es el concepto de cambio, ligado a la
noción de diferencia; que para que un concepto semejante sea interesante debe
extenderse al caso en que el factor (u operador) pueda actuar sobre más de un
operando, provocando una transición característica en cada uno de ellos; que el
conjunto de transiciones en un conjunto de operandos es una transformación (p.
23), y que no es necesario que las transformaciones sean numéricas para estar
bien definidas (p. 43). Además la cibernética no es sino un marco, tal vez el
primero de ellos, que se aviene inherentemente a estudiar la complejidad. El
primer trabajo científico sobre complejidad se dice que ha sido “Science and
Complexity” de Warren Weaver (1948), quien también acuñó el concepto de
biología molecular. En función de otro concepto cardinal, el de isomorfismo, la
cibernética define un espacio de conocimiento e investigación al que no
interesa la naturaleza material de los mecanismos de control, pues se supone
que las mismas formas algorítmicas caracterizan a todos los mecanismos, sean
ellos físicos, biológicos o culturales. Todavía hoy encuentro que los ejemplos
del británico Ross Ashby respecto de sistemas, transformaciones y operandos, o
sus caracterizaciones de la complejidad, constituyen una guía operativa y una
invitación a pensar más rica y reveladora que, digamos, los estudios de
Clifford Geertz sobre “La ideología como sistema cultural”, o “El sentido común
como sistema cultural”. Cuando se vuelve a leer a Geertz a la luz de Ashby, se
percibe que el antropólogo habría ganado órdenes de magnitud en su apreciación
de dichos “sistemas” si se hubiera atenido a estas heurísticas. Y que habría
tenido entre manos entidades mejor organiza- Reynoso – Complejidad – 26 das,
para beneficio incluso de sus propios puntos de vista interpretativos. En los
últimos capítulos del libro, cuando se traten las teorías del caos, se encontrarán
lineamientos adicionales para definir un sistema, algunos de los cuales
constituyen heurísticas insoslayables para cualquier disciplina que busque
delimitar el objeto de sus modelos. La cibernética relanzó asimismo la idea de
comportamiento emergente, creada por George Henry Lewes en 1875: la idea
establece que las características del todo no pueden deducirse a partir de las
características de las partes. Esta circunstancia (que literalmente pone muy
nerviosos a los epistemólogos de la línea dura nomológica-deductiva) se suele
ilustrar mediante un ejemplo tan contundente como el de las propiedades del
agua. El agua está formada, como se sabe, por hidrógeno y oxígeno; ambos
elementos son combustibles; más aún, el oxígeno es esencial para la combustión
misma. Sin embargo, el agua no es combustible en absoluto, y hasta se utiliza
para apagar los fuegos. Ross Ashby aporta otras ilustraciones del mismo género:
(1) El amoníaco es un gas; también lo es el ácido clorhídrico. Al mezclar los
dos gases el resultado es un sólido, propiedad que no posee ninguno de los
reactivos. (2) El carbono, el hidrógeno y el oxígeno son prácticamente
insípidos; sin embargo el compuesto “azúcar” tiene un sabor característico que
ninguno de ellos posee. (3) Los veinte (más o menos) aminoácidos de una
bacteria carecen de la propiedad de “autorreproducirse”, aunque el conjunto,
con algunas otras sustancias, posee esa propiedad (Ashby 1972: 155). Los
emergentes no se limitan a la química, ni requieren grandes cantidades de
variables. El sociólogo George Herbert Mead usaba el ejemplo del agua en la
década de 1930 (Mead 1932: 641). Pensando en el carácter no sumativo de los
elementos de cualquier sistema con interacciones fuertes, escribe el sistémico
Gerald Weinberg: Un psicólogo, por ejemplo, se alegraría si pudiera considerar
únicamente pares de interacciones sumados. Esta simplificación significaría que
para comprender el comportamiento de una familia de tres personas, se
estudiaría el carácter del padre y la madre juntos, del padre y del hijo juntos
y de la madre y el hijo juntos. Y cuando se reunieran los tres, su
comportamiento podría predecirse sumando los comportamientos dos a dos. Por
desgracia, la superposición de interacciones apareadas sólo da buenos
resultados en la mecánica y en alguna otra ciencia (Weinberg 1984: 124). La
idea de emergente no autoriza a renegar de la causalidad, ya que aún cuando
ciertas características terminales en una combinación (las llamadas
“divergentes”) no se pueden predecir, otras en cambio, las “convergentes”, son
predecibles. Ambas son, además, deterministas. Hidrógeno y oxígeno, en las
proporciones y condiciones adecuadas, siempre dan agua. Del mismo modo, no se
puede vaticinar por dónde pasarán las astilladuras de una grieta, pero sí se
puede anticipar su patrón, por complicado que sea; y ese patrón no sólo es
propio de las grietas, sino que es análogo al de otros fenómenos. Gregory
Bateson lo sabía muy bien. También sabía que, a diferencia de quienes remiten
la familia, la cultura o la sociedad a un agregado de sujetos, la emergencia
obliga a pensar en un registro más complejo que aquel en el cual se sitúan
típicamente los individualistas metodológicos. En las puertas del siglo XXI, el
concepto de emergente que se maneja en las ciencias de la complejidad enfatiza
que las totalidades complejas se originan, no obstante, en principios y
elementos muy simples (Bak 1996; Holland 1998; Lewin 1999: 213 y ss). Cuando
examinemos los sistemas dinámicos adaptativos volveremos a tratar la cuestión.
Reynoso – Complejidad – 27 Pese a la intención de Wiener de instaurar una
disciplina horizontal, orientada a la problemática de los mecanismos de control
y el flujo de información, semejante campo nunca se concretó. Se ha dicho que
“la cibernética tenía más extensión que contenido” y que en las disciplinas
menos formalizadas sus métodos se percibían engorrosos (Aspray 1993: 248). La
cibernética “fue más un sueño que una teoría acabada, y resultó ser prematura”
(Strogatz 2003: 40). Para Stephen Wolfram (1994: 496), la cibernética fracasó
porque las matemáticas de la teoría de control llegaron a dominar sus textos,
oscureciendo sus objetivos originales, que eran más genéricos. Cosma Shalizi
(2002) lamenta que la cibernética haya suministrado un prefijo que parece indispensable
a pensadores orientados al mercadeo y una fuente de inspiración para una
sub-secta de contempladores del propio ombligo; aún así, bajo su bandera se ha
hecho mucha buena ciencia, aunque no parece que las ideas cibernéticas puedan
mantenerse unidas en un conjunto armónico. Sin embargo, la iniciativa de Wiener
fue capaz de definir una dirección general en las disciplinas científicas de la
segunda posguerra, que comenzaron a prestar menos atención al movimiento, la
fuerza, la energía y la potencia, poniendo mayor énfasis en la comunicación, la
organización y el control. Diversas ciencias y tecnologías, con distintos
vocabularios, orientarían esfuerzos en ese sentido, desarrollando en un grado
inédito la ingeniería de las comunicaciones, los fundamentos matemáticos de los
procesos informáticos, la teoría de autómatas, el estudio de patrones de
auto-organización y las redes neuronales. Gran parte de lo que hoy existe en el
campo de la dinámica no lineal, la complejidad y el caos se origina en esa
inflexión o converge con ella en algún punto. Muchos estudiosos hoy en día se
hacen llamar cibernéticos (Glasersfeld 1992; Halperin 1992; Pangaro 2000;
Dimitrov y otros 2002); y están ciertamente orgullosos de serlo. 2.3.2 –
Aplicaciones antropológicas 2.3.2.1 – Gregory Bateson y la esquismogénesis El
antropólogo que más directamente ha acusado el impacto de la cibernética ha
sido sin duda Gregory Bateson, verdadero guru de la (contra)cultura
californiana, nacido en Inglaterra en 1904 y fallecido en el Instituo Esalen de
California en 1980. Este es el lugar para practicar una visión de conjunto de
la obra batesoniana, la cual recibe cada día más atención fuera de la
antropología a pesar de sus notables falencias, a revisar más adelante. Aclaro,
sin embargo, que el pensamiento de Bateson no siempre coincide con ideas
sistémicas estrictas. Su visión desborda a la sistémica; pero lo esencial de
ella requiere alguna familiaridad con la cibernética, al menos, para
comprenderse mejor. En una época en que la cibernética era todavía una novedad
indigesta entre los practicantes de las ciencias duras, Bateson aportó
elementos de juicio antropológicos que hicieron a su consolidación y que la
popularizaron incluso entre humanistas refractarios a las novedades. Sistémicos
y cibernéticos de primera magnitud (Ross Ashby, Anatol Rapaport, el propio
Wiener) lo citaban siempre con respeto en sus textos esenciales. En su bien
conocida introducción a Cybernetics, Wiener refiere con insistencia que Bateson
y Mead lo instaban a consagrar esfuerzos para desarrollar la cibernética en el
dominio de los estudios económicos y sociales, en nombre de los problemas
urgentes que se planteaban en esa “edad de confusión”. Sin embargo, Wiener no
compartía esas esperanzas, porque, a diferencia de lo que sucedía en el estudio
de los gases, por ejemplo, la falta de datos estadísticos confiables, el
Reynoso – Complejidad – 28 problema de escala y la vinculación fuerte entre el
observador y lo observado serían fatales para la empresa. Escribía Wiener: Por mucho
que simpatice con su actitud de urgencia ante la situación y por mucho que
espere que ellos y otros competentes investigadores traten ese tipo de
problemas, ¼ no
puedo compartir su opinión de que ese aspecto haya de ser para mí prioritario,
ni su esperanza que sea posible lograr un progreso determinante en esa
dirección capaz de lograr un efecto terapéutico en las actuales condiciones de
nuestra sociedad. Para empezar, las grandes cifras que se barajan al estudiar
la sociedad, no sólo son estadísticas, sino que las series estadísticas en que
se basan son excesivamente limitadas. ¼
[L]as ciencias humanas constituyen un mal campo de verificación de la técnica
matemática. ¼
Además, a falta de técnicas numéricas rutinarias razonablemente fiables, el
elemento de juicio del experto que establece la evaluación de las entidades
sociológicas, antropológicas y económicas es tan predominante, que no hay campo
para el novel que haya quedado incólume a la experiencia del experto (Wiener
1985: 49-50). Y agregaba más adelante: Algunos amigos míos ¼ alimentan esperanzas
notables, y falsas creo yo, ¼
con respecto a la eficacia social de las nuevas formas de pensamiento que este
libro [Cybernetics] pueda contener. ¼
[C]onsideran que el cometido principal en un futuro inmediato es ampliar a los
campos de la antropología, la sociedad y la economía los métodos de las
ciencias naturales, con la esperanza de lograr un éxito equiparable en el campo
social. Por creerlo necesario llegan a creerlo posible. En esto, insisto,
muestran un optimismo desmedido y un desconocimiento de la naturaleza del
progreso científico. ¼
Es en las ciencias sociales en las que la interacción entre los fenómenos
observados y el observador es sumamente difícil de minimizar. ¼ Con todo mi respeto para
la inteligencia, honradez de miras de mis amigos antropólogos, no puedo admitir
que cualquier comunidad en las que han investigado ellos sea ya la misma
después de la experiencia (pp. 213-214). Pero aún ante la autorizada renuencia
de Wiener, quien aconsejaba resignarse a mantener las ciencias sociales en el
terreno del “método narrativo a-‘científico’” (p. 215), Bateson (quizá por ser
el principal entre los amigos antropólogos del maestro en el libro canónico de
la nueva disciplina) se atrevió a extrapolar la idea, aunque no, en rigor, a
emprender la formalización necesaria, o siquiera a intentar comprender sus
requerimientos. Establecería así un patrón de uso de las teorías de la
complejidad en el que las ciencias humanas, “conscientes de las dificultades
con que se encuentran para producir modelos teóricamente satisfactorios” se
mostrarían extremadamente bien dispuestas para tomar en consideración
“cualquier cosa que los matemáticos pudieran proporcionarles” (Thom 1985: 52).
2.3.2.1.1 – Bateson y la heterodoxia creativa Casi medio siglo antes de morir,
Gregory Bateson había entrado ya en la historia de los intercambios
disciplinarios con su Naven (1936). Este libro atípico e inclasificable es de
por sí prometedor, pero en el momento de publicarse nadie podía imaginar lo que
vendría después; con los años, Bateson habría de convertirse en una suerte de
hombre renacentista de la antropología, un orfebre de las más amplias síntesis,
obsesionado por la búsqueda de la pauta que conecta los mundos más diversos. Es
necio querer mejorar el inventario que de esos mundos hicieron Levy y
Rappaport, los responsables de su obituario: ¼
evolución biológica, adaptación, ecología, arte, carrera de armamentos,
organización social, comunicación, trasmisión cultural, aprendizaje, juego,
fantasía, películas, carácter y Reynoso – Complejidad – 29 personalidad, y, más
generalmente, la naturaleza y las patologías del pensamiento y de la
epistemología, de la cultura y de una clase variada de procesos integrativos
que él supo llamar ‘mente’ (1982: 379). Sería también arduo recorrer el acervo
conceptual ofrendado por él a una antropología y a una psicología que estaban
ya tan integradas desde su punto de vista, que rara vez sentía la necesidad de
nombrarlas por separado, o de siquiera nombrarlas. Ya en Naven había impuesto
nuevos matices al concepto de ethos, había reproducido vívidamente el proceso
de cismogénesis (que explicaba por vez primera en términos dinámicos la
gestación de dos o más ethos en el seno de cada sociedad), y había definido el
alineamiento y la uniformización crítica de los mismos en la noción de eidos.
Los autores que siguieron las pautas clásicas de Cultura y Personalidad después
de difundidas las ideas de Bateson nos parecen ahora anacrónicos; el dinamismo
del modelo presentado en Naven implicaba asimismo una ruptura respecto de la
pauta epistemológica de los configuracionistas, cuyos sistemas, si en realidad
eran tales, se comportaban más bien como estructuras estáticas,
constitutivamente inapropiadas para el estudio del cambio. Después de Naven,
cuya trayectoria entre los antropólogos se aproximó al fracaso, cuyos atisbos
precursores se juzgan mejor desde nuestros días y cuya debilidad etnográfica el
mismo Bateson se apresuró a reconocer (1958: 278-279), la forja conceptual no
se detuvo. La meticulosidad epistemológica de Bateson, más allá del desorden
aparente y de la anarquía temática de sus ensayos, lo mantuvo lejos de todo
reduccionismo y garantizó que sus encadenamientos categoriales tuvieran lugar
casi siempre en el debido nivel de tipificación: La energía es igual a la masa
por la velocidad al cuadrado, pero ningún especialista en ciencia de la
conducta sostiene que la ‘energía psíquica’ tenga estas dimensiones. Es
necesario, por consiguiente, revisar los elementos fundamentales para encontrar
un conjunto de ideas con el cual podamos contrastar nuestras hipótesis
heurísticas (1985: 22). Incapaz de toda malignidad o infatuación, Bateson dejó
escapar, en un acto de buena voluntad, el hecho de que ciertos estudiosos en las
ciencias del comportamiento sí concebían la energía psíquica en esos términos
fisicistas: no hay más que pensar en el concepto económico freudiano de
sublimación, que describe el encauzamiento de un principio energético, en la
idea jungiana de una energía no libidinal susceptible de cuantificarse, en el
concepto topológico de los vectores de Kurt Lewin (cantidades dirigidas en un
campo de fuerzas), en las leyes que gobiernan los flujos de la energía mental
según Charles Spearman o en las digresiones energéticas del antropólogo
Siegfried Nadel, que vuelan mucho más bajo que el resto de su obra. Ya desde
Naven, los estudios de Bateson no versan sobre un problema empírico (la cultura
Iatmul, la esquizofrenia, la comunicación animal), sino sobre las posibilidades
de estudiarlo y resolverlo, lo cual implica una instancia más epistemológica
que analítica. Su mismo título lo revela sin ambages: Naven: A survey of the
problems suggested by a composite picture of the culture of a New Guinea tribe
drawn from three points of view. Bateson enseñó a los teóricos de ambas
disciplinas el significado de la prueba de Gödel, de la abducción, de los
procesos estocásticos, de los metalenguajes de Alfred Tarski y de los tipos
lógicos de Bertrand Russell; después de él, ser trivialmente falaz se volvió un
poco más difícil. Él mismo, sin embargo, se equivocó muchas veces, sentía
pasión por enseñar cosas que no había aprendido muy bien y siempre mostró
cierta ligereza adolescente en el tratamiento de cuestiones complejas, como si ahondar
en ellas le resultara tedioso. Reynoso – Complejidad – 30 Igual que Alfred
North Whitehead, Bateson urgía la necesidad de sortear toda “falacia de
concretidad mal aplicada” (1985: 89); pero su creencia en la “unidad que
traspasa todos los fenómenos del mundo” (p. 100) le impulsaba hacia adelante,
sin que él mismo cuidara mucho que sus propias concretidades fueran aplicadas
correctamente. Fue, en suma, un pensador reflexivo, siempre audaz y a veces
riguroso, de esos que sólo se dan de tarde en tarde. Ya en la década de 1930 se
animó a reformular la teoría de la cismogénesis mediante las ecuaciones
empleadas por Richardson para describir las carreras armamentistas
internacionales, proyectando hacia su transdisciplina, por primera vez, la
teoría de los juegos. Dialogó con Ashby, con von Neumann y con Wiener en un
plano entusiasta pero también crítico, adelantándose a lo que luego habría de
ser la estrategia sistémica en antropología; traspuso a terminología
cibernética todo lo que Freud encapsulaba bajo el concepto de “procesos
primarios”, sentando las bases para la lectura de Freud y de Lacan que luego
impulsaría Anthony Wilden (Bateson 1985: 166-170; Wilden 1979). Expresó buena
parte de la teoría configuracionista de la socialización acuñando palabras nuevas,
como “protoaprendizaje” y “deuteroaprendizaje” (aprender a aprender),
anticipando ulteriores desarrollos reflexivos de la cibernética de segundo
orden y el “conocer el conocer” de los autopoiéticos (Maturana y Varela 2003:
5). Desarrolló lo que llamaba una teoría del juego y de la fantasía, centrada
en el fenómeno de los marcos (frames) que metacomunican. Y concibió, ampliando
el discurso sobre las disonancias cognitivas y el doble vínculo, toda una nueva
teoría de la esquizofrenia, asomándose a ella como a un bien definido trastorno
o paradoja de la comunicación familiar (1985: 231-308). El psiquiatra Jürgen
Ruesch, trabajando con Bateson, habría de imponer luego este modelo en la
psiquiatría contemporánea, construyendo el cimiento para la más detallada
concepción de Paul Watzlawick (Bateson y Ruesch 1984; Watzlawick y otros 1981).
Por su parte, Watzlawick, Beavin y Jackson, quienes dedican a Bateson su obra
conjunta, amplian el símil computacional poniendo, al lado de Shannon y Weaver,
todo cuanto aporta la semiótica conductista de Morris, por la que Bateson (tal
vez con buen olfato) no mostraba ninguna simpatía. Queda así constituída, en el
seno mismo de la psiquiatría de avanzada, lo que se conoce como enfoque
pragmático, una perspectiva que subsume lo psíquico, lo lingüístico y lo
interactivo, extiendiendo sus incumbencias hasta la comunicación no verbal.
2.3.2.1.2 – Marcos y conceptos batesonianos Aunque quienes recibieron su
influencia no parecen haber sabido siquiera de la existencia de la obra etnográfica
batesoniana, los antecedentes de lo que hoy se conoce como pragmática de la
comunicación, terapia familiar sistémica o terapia comunicacional se remontan a
las primeras observaciones de Bateson acerca de los modelos antropológicos
necesarios para dar cuenta de los fenómenos de contacto cultural, aculturación
y cismogénesis. Dichas observaciones fueron expresadas tan temprano como en
1935, como reacción frente a las estrategias sugeridas por el Social Sciences
Research Council; las pautas académicas del Council intentaban estandarizar los
procedimientos analíticos para clasificar los rasgos de una cultura en base a
criterios que Bateson juzgaba inaceptables. Él creía que no es posible
clasificar los rasgos culturales bajo encabezamientos tales como lo económico,
lo social, lo religioso o lo ético, pues ello implica que cada rasgo tiene una
función única o al menos una función dominante, y que la cultura puede
dividirse en instituciones en la que los rasgos, agrupados en haces que los
constituyen, son funcionalmente homogéneos. La debilidad de esta idea es
manifiesta: Reynoso – Complejidad – 31 Cualquier rasgo de una cultura, tomado
por separado, demostrará al ser examinado, no ser solamente económico o
religioso o estructural, sino participar de todas estas cualidades de acuerdo
con el punto de vista desde el cual lo miremos. [...] De esto se sigue que
nuestras categorías ‘religioso’, ‘económico’, etcétera, no son subdivisiones
reales que estén presentes en las culturas que estudiamos sino meras abstracciones
que adoptamos en nuestros estudios (Bateson 1985: 89). Entre 1927 y 1933
Bateson permaneció en Nueva Guinea estudiando la tribu Iatmul. Un solo elemento
cultural de esa etnía, el ritual de iniciación conocido como Naven, le brindó
material para reflexionar sobre los diseños de investigación, el trabajo de
campo y la epistemología. En ese estudio, incomprendido durante casi setenta
años, Bateson había observado que en los procesos de cambio e interacción de la
vida social se dan dos patrones de crisis o de equilibrio diferentes. Por un
lado están los procesos “complementarios”, en los que los participantes u
oponentes asumen papeles de tipo sádico/masoquista, dominante/subordinado,
exhibicionista/voyeur, etc. Por el otro se encuentran los procesos “simétricos”
en los que se responde a la dádiva con la dádiva (como en el potlatch), a la
violencia con la violencia, y así sucesivamente, como en los dramas sociales de
Victor Turner. En ambos casos, la exacerbación de los comportamientos puede
conducir a la quiebra, al estallido, a la inversión o a la anomia en el sistema
social. El 8 de marzo de 1946, en la primera de las Conferencias Macy de
intercambio transdisciplinario (a las que asistían Norbert Wiener, John von
Neumann, Warren McCulloch, Walter Pitts, Filmer Northrop, Arturo Rosenblueth y
otros), Bateson oye hablar por primera vez del feedback negativo y lo relaciona
con su concepto de esquismogénesis complementaria. Tiempo después, en el
epílogo que en 1958 escribió para Naven, confiesa que la conceptualización
cibernética del fenómeno era más clara, precisa y elegante que su descripción
inicial, pero que en esencia ambas decían lo mismo: Bateson había descubierto
un proceso cibernético antes que se fundara la ciencia capaz de definirlo
(Bateson 1991: 55; Bale 1995). Al elaborar el esquema en el que tales procesos
se tornasen comprensibles, Bateson tuvo que crear una por una sus categorías,
pues ni la cibernética ni la teoría general de sistemas habían sido aún
formuladas o lo estaban siendo recién entonces. Se necesitaban nuevas analogías
que pusieran de manifiesto que las mismas clases de principios operaban en
todas partes, que infundieran en el estudioso la convicción de que los tipos de
operación mental que resultan útiles para analizar un campo también pueden
resultarlo en otro, ya que el andamiaje de la naturaleza, el eidos, es el mismo
en todos los niveles y en todos los dominios. Al mismo tiempo, era preciso que
esta convicción mística en la gran unidad del ser no se transformara en un
desvarío analógico impropio, como el que regía las correspondencias,
sustentadas por algunos, entre las sociedades y los organismos: el rigor de los
razonamientos debía aliarse a la sensibilidad y a la capacidad de construir
abstracciones que se refirieran a términos de comparación entre dos entidades
dispares. En los inicios Bateson incurrió, según él mismo admite (1985:
108-109), en toda suerte de falacias, y más que nada en la falacia de
concretidad, que le hacía manejar las entidades analógicas que iba creando o
tomando en préstamo (ethos, eidos, estructura social) como si fuesen cosas
concretas, capaces de ejercer influencias reales sobre otros objetos o entre
sí. Para corregir esa visión, empero, sólo hacía falta advertir hasta qué punto
los conceptos no son más que rótulos para las perspectivas asumidas por el
investigador. Hacía falta, en otras palabras, alternar dialécticamente el
pensamiento laxo, innovador, con una reflexión severa sobre ese mismo pensa-
Reynoso – Complejidad – 32 miento, una idea que retomaría Edgar Morin. Tanto el
impulso creador como el control reflexivo son esenciales, decía Bateson, para
el progreso científico. A fines de la década de 1930 y principios de la década
siguiente se clausura para Bateson la etapa de las intuiciones oscuras, de la
imaginación desbocada y de los modelos incipientes. Las ciencias duras, urgidas
por la aceleración febril de la guerra y de la planificación tecnológica,
comienzan a difundir precisamente el tipo de esquema que (creía él) la
antropología y la psicología estaban necesitando. Lewis Richardson extrapola
hacia la política la teoría de los juegos del matemático John von Neumann,
Norbert Wiener difunde su cibernética, Ludwig von Bertalanffy su teoría
sistémica y Claude Shannon su teoría de la información. Es posible comprobar
entonces que los conceptos de cismogénesis y los que dan cuenta de la carrera
armamentista no sólo exhiben cierto difuso aire de familia en el proceso de su
crescendo, sino que se los pude describir y comprender un poco mejor echando mano
de las mismas ecuaciones. Si bien algunos aspectos se revelan difíciles o
imposibles de cuantificar (por ejemplo, la jactancia o el grado de rivalidad),
unos y otros fenómenos remiten en última instancia a conjuntos análogos de
relaciones formales. También el artículo de 1942 dedicado a explorar el nexo
entre la planificación social y los diversos tipos de aprendizaje abunda en
hallazgos ingeniosos, al punto que podría decirse que con él se cierra la etapa
del configuracionismo impresionista que operaba en un solo plano de realidad,
comenzando la era del pensamiento integrador; esta era tendrá su primera
culminación algo más tarde, en 1954, con “Una Teoría del Juego y de la
Fantasía” (Bateson 1985: 205-222). En ese denso ensayo se origina además el
concepto de frame, que servirá tanto a la microsociología como a la posterior
teoría cognitiva de los schemata. En el texto en el que Erving Goffman
caracteriza su frame analysis, ningún autor es más citado que Bateson (Goffman
1986). Pocos meses después Bateson lega definitivamente a la psiquiatría un
marco comunicacional apto para comprender y tratar la esquizofrenia sobre la
base del doble vínculo, entendido como pertubación de los códigos de la
interacción, como patología de la comunicación, más que como la enfermedad de
una persona: Nuestro enfoque se basa en aquella parte de la Teoría de las
Comunicaciones que Russell llamó Teoría de los Tipos Lógicos. La tesis central
de esta teoría es que existe una discontinuidad entre una clase y sus miembros.
La clase no puede ser miembro de si misma, ni uno de sus miembros puede ser la
clase, dado que el término empleado para la clase es de un nivel de abstracción
diferente –un tipo lógico diferente– de los términos empleados para sus
miembros. Aunque en la lógica formal se intenta mantener la discontinuidad
entre una clase y sus miembros, consideramos que en la patología de las
comunicaciones reales esta discontinuidad se quiebra de manera contínua e
inevitable y que a priori tenemos que esperar que se produzca una patología en
el organismo humano cuando se dan ciertos patrones formales de esta quiebra en
la comunicación entre la madre y el hijo. [...] Esta patología, en su forma
extrema, tendrá síntomas cuyas características formales llevarán a que la
patología sea clasificada como esquizofrenia (Bateson 1985: 232). Si el
esquizofrénico contemplado por esta hipótesis es un producto de la interacción
familiar, debería ser posible llegar a una descripción formal de las secuencias
experienciales capaces de inducir tal sintomatología. Esta observación es
esencial; porque, consciente de que las teorías que edifica son sólo
constructos idealizados, Bateson logrará entregar los esquemas interpretativos
de más amplias consecuencias teóricas y (según alegará la escuela que habría de
formarse) de más eficaz aplicación clínica. Reynoso – Complejidad – 33 Algún
día habrá que hacer el inventario de los conceptos propuestos por Bateson en
una trama en la cual, sumados todos sus escritos, encontró la forma de vincular
todos con todos: la diferenciación entre mapa y territorio (tomada de Alfred
Korzybski); la identidad entre evolución, aprendizaje e información; la
información definida como “la diferencia que hace una diferencia”; la búsqueda
de la pauta que conecta como clave del saber, anticipando lo que las teorías de
la complejidad llamarán clases de universalidad; la idea de que el mundo
viviente, cultura incluida, se funda no en fuerzas causales sino en la
información, clave de la distinción jungiana entre pleroma (lo no viviente) y creatura
(lo viviente); y finalmente el doble vínculo, alrededor del cual se fundó un
conjunto de escuelas psicológicas. Una sola observación batesoniana (la
desemejanza que él encuentra entre los seres vivos y los productos culturales
debida a la auto-repetición propia de las estructuras naturales) prefigura
tanto lo que Douglas Hofstadter atribuyó a la recursividad en Gödel, Escher,
Bach (1992) como los ulteriores descubrimientos de la geometría fractal de la
naturaleza. 2.3.2.1.3 – Tipos lógicos, esquizofrenia, doble vínculo y
comunicación Por lo que se sabe del aprendizaje, los seres humanos emplean el
contexto como guía y criterio para inferir a qué tipo lógico corresponde un
mensaje. En consecuencia, para comprender la esquizofrenia lo que hay que buscar
no es una experiencia traumática en la etiología infantil sino un patrón
característico de secuencias en el cual el paciente adquiere los hábitos
mentales propios de la comunicación esquizofrénica. Para caracterizar tales
secuencias Bateson forja el término doble vínculo (o doble coacción, según se
quiera traducir bind). El doble vínculo es una paradoja comunicacional en la
que los mandatos que el paciente recibe están en conflicto recíproco, y en la
que mandatos adicionales le impiden salirse del círculo vicioso. Las
condiciones de la comunicación esquizofrénica son enormemente restrictivas,
tanto como es compleja la articulación de la teoría que de ella da cuenta, y
que clama por ser expresada en un diagrama de flujo. Las condiciones presuponen
un sistema familiar en el que el padre es débil o está ausente y en el que la
madre o bien es hostil para con el niño, o bien le infunde temor. Si el niño se
aproxima a la madre, ésta se retira. Si, en consecuencia, el niño también se
retrae, la madre simula un acercamiento que niega su retirada. Su aproximación
ficticia no es más que un comentario sobre su actitud anterior, un mensaje
sobre el mensaje, de un tipo lógico más elevado. Esta secuencia se reitera
indefinidamente. Si el niño comprende la diferencia entre los tipos lógicos de
ambos mensajes, resulta de todos modos “castigado” por lo que su comprensión le
revela: que la madre le rechaza, haciéndole creer que le quiere. Aún frente a
sí mismo, el niño tiene que hacer como si no comprendiera la distinción. Tampoco
puede acercarse a su madre, ni cuando ella se acerca (pués se retirará), ni
mucho menos cuando ella se retrae. A partir de entonces, el niño queda
acorralado, sin elección posible: cualquier actitud suya lo enfrenta a un
castigo, pues es prisionero de una doble coacción. La única forma de eludirla
sería mediante un comentario actitudinal sobre la posición paradójica a que su
madre lo ha reducido. Pero su madre, de un modo u otro, le impedirá siempre
metacomunicarse, atrofiando en él, como consecuencia, la capacidad necesaria
para toda interacción social. El esquizofrénico, aún el adulto, es alguien a
quien su contexto básico de interacción le ha inducido la imposibilidad (al
principio fáctica, luego también lógica) de distinguir el nivel de tipificación
de los mensajes; por ello el esquizofrénico toma al pie de la letra todo
mensaje recibido o emitido, cerrándose, entre otras cosas, a la comprensión de
las metáforas. El esquizofrénico no (se) metacomunica. Reynoso – Complejidad –
34 Tal es, en síntesis muy apretada, el núcleo de la teoría sobre la
esquizofrenia desarrollada por el grupo interdisciplinario de Palo Alto, al que
se integraron también el estudiante de comunicación Jay Haley, el ingeniero
químico John Weakland y los psiquiatras William Fry y Don Jackson. En 1948, por
incitación de Jürgen Ruesch, Bateson había abandonado la antropología para
dedicarse a tiempo completo a la investigación psiquiátrica, en la que
persistirá hasta principios de la década de 1960, cuando la disciplina que
abraza deja de tener un nombre. Bateson siguió después inspeccionando otros
caminos, derivados de su expresiva interpretación de las observaciones
aportadas por los nuevos paradigmas; estos caminos pertenecen, en todo caso, a
la historia de una antropología cuyos límites disciplinarios parecían
disolverse, confundiendo sus preocupaciones con las de otras especializaciones
académicas. Aquí, empero, seguiremos otras pistas, y no porque aquéllas
carezcan de interés. A fin de cuentas, la teoría del doble vínculo era una solución
a problemas lógicos que se presentaron a Bateson al analizar su material de
campo Iatmul y balinés. En los ulteriores escritos batesonianos ese material
asoma de cuando en cuando (cada vez más espaciadamente, por cierto), casi
siempre al servicio de la ejemplificación didáctica de la dimensión cultural o
de la puntuación del contexto. En las siguientes etapas de lo que dió en
llamarse terapia sistémica, el repertorio de los casos aducidos perdió entidad
etnográfica, con la consecuente depreciación de los aspectos contextuales que
conferían al estudio su distintividad. En pocas palabras, las disciplinas
laboriosamente reunidas por iniciativa de Bateson volvieron a distanciarse,
encerrándose en su especificidad. Hay que admitir que la hipótesis del doble
vínculo no era fácil de comprender. Incluso algunos de los allegados a Bateson
prefirieron profundizar sus facetas psicologizantes, subrayando la presencia de
una madre ansiosa y castradora y de un hijo ambivalente; o destacaron sus
connotaciones conductistas, entendiendo todo en términos de estímulos,
castigos, refuerzos y recompensas. Tras unos años de euforia y tras varias
docenas de experimentos en pos de verificación clínica, la teoría comenzó a
saborear el fracaso, producto de la nucleación indebida en torno de algunos de
sus aspectos en detrimento de su sentido de conjunto. Este proceso se
profundiza en lo que José Bebchuck llama “período de la segunda formalización”
de la terapia sistémica, signado por la edición, en 1967, de Pragmatics of Human
Commmunication, de Watzlawick, Beavin y Jackson (1981). En un artículo breve de
1963, el equipo liderado por Bateson, saliendo al cruce de desviaciones
simplistas, insistió en que el doble vínculo no debía concebirse como una
relación entre víctima y verdugo, sino como una fatalidad comunicacional que se
establece entre personas desconcertadas por la paradoja. Pero a pesar de esta
última concordancia, aquí es, en concreto, cuando las opiniones en el interior
del grupo comienzan a diferir, ocasionando el distanciamiento de su conductor.
Para Bateson, la esquizofrenia no era más que un momento aplicativo de la
teoría de la comunicación, la cibernética y el principio de los tipos lógicos.
Ante todo, permítanme decirles que, aunque haya cuidado de varios pacientes
esquizofrénicos, jamás me he interesado intelectualmente por ellos, en tanto
tales. Lo mismo es cierto con respecto a mi trabajo con las culturas indígenas
de Nueva Guinea y de Bali. Mi interés intelectual se ha concentrado siempre en
principios generales que estaban subsecuentemente ilustrados o ejemplificados
por los datos. Lo que quiero saber es: ¿De qué clase de universo se trata?
¿Cómo puede describírselo mejor? ¿Cuáles son las condiciones necesarias y los
Reynoso – Complejidad – 35 límites de la experiencia de la comunicación, de la
estructura y del orden? (Bateson 1966: 416). Tal como lo hace notar Yves
Winkin, Bateson opera aquí una completa transformación de la perspectiva: su
foco ya no es el doble vínculo en el seno del sistema familiar esquizofrénico,
sino el sistema familiar en el seno de la doble coacción (Winkin 1984: 43).
Para Don Jackson, en cambio, la esquizofrenia siguió constituyendo el universo
y el horizonte de sus intereses. Jackson fue el mentor inicial de la pragmática
de la comunicación, la cual añade a los modelos de Bateson un mayor prurito
formal, una cierta deflación de los aspectos vinculados con la matriz social de
la que hablaba Jürgen Ruesch (Bateson y Ruesch 1984) y un puñado de
distinciones semióticas inspiradas en Charles Morris. De allí, precisamente, lo
de “pragmática”, entendida como la dimensión de la semiosis atinente al uso que
los actores hacen de los signos. La teoría en cuestión es largamente
batesoniana en su diseño global, pero, aparte de referencias a la semiótica
conductista que le confieren un aire heterogéneo, hay poco en ella de novedoso:
una presentación de los razonamientos más sistemática que la de Bateson (aunque
también más aburrida) y una clasificación amorfa e incompleta de los tipos
básicos de paradoja comunicacional. Lo que era aceptable en la obra pionera de
Bateson como tanteo exploratorio, en esta teoría deviene puro anacronismo. Esto
es lo que sucede, por ejemplo, con la distinción entre comunicación analógica y
comunicación digital, uno de los aportes batesonianos más endebles, fruto de
una indistinción verdaderamente esquizoide entre diferentes tipos lógicos. La
hipótesis de Paul Watzlawick es que los seres humanos se comunican tanto
digital como analógicamente: El lenguaje digital cuenta con una sintaxis lógica
sumamente compleja y poderosa pero carece de una semántica adecuada en el campo
de la relación, mientras que el lenguaje analógico posee la semántica pero no
una sintaxis adecuada para la definición inequívoca de la naturaleza de las relaciones
(Watzlawick y otros 1981: 68). Se insinúa, además, que la comunicación
analógica (por lo común, no verbal) tiene sus raíces en períodos mucho más
arcaicos de la evolución, y que por lo tanto encierra una validez más general
que el modo digital de la comunicación verbal, relativamente reciente y mucho
más abstracta. Una de las causas o de las manifestaciones típicas de la
patología comunicacional sobreviene cuando un mensaje analógico se toma por
digital, o a la inversa. Pero todo este razonamiento es, al margen de su
plausibilidad, sustancialmente erróneo. Obsérvese, en principio, que el nivel
de tipificación y sustantividad en el que es pertinente la distinción entre lo
analógico y lo digital no ha sido elucidado: en esta hipótesis nos encontramos
tanto con “comunicación” como con “mensajes”, “códigos”, “contextos”,
“términos” y “lenguajes” que (según se pretende) pueden ser tanto analógicos
como digitales, todo ello con referencia metafórica a tipos de computadoras
cuyos atributos han sido mal caracterizados. No es cierto, pongamos por caso,
que “en las computadoras analógicas los datos adoptan la forma de cantidades
discretas y, por ende, siempre positivas” (p. 62), pues (a) puede haber
cantidades discretas negativas y (b) es la continuidad (y no el carácter
discreto) lo que define desde el principio el modo de operar de una computadora
de esa clase. Piénsese, sin ir más lejos, en una balanza clásica, incapaz de
medir según pasos discretos. Tampoco está bien fundada la postura que vincula
lo analógico con lo gestual y lo digital con lo verbalizado, o que afirma que
“en el lenguaje analógico es imposible decir que no”, mientras que en el
lenguaje verbal la significación es unívoca. Pues, siempre de acuerdo con
convenciones precedentes, “si” y “no” son fácilmente expresables en la
comunicación Reynoso – Complejidad – 36 kinésica (moviendo la cabeza, por
ejemplo), mientras que términos verbales como “símbolo” o “conciencia” poseen
una denotación borrosa. Dado que es factible expresarse con mayor o menor abstracción
en uno u otro tipo de código y siendo posible metacomunicar analógicamente
sobre un mensaje digital o a la inversa, no existe correspondencia entre la
clase de comunicación de que se trate y su nivel relativo de tipificación
lógica. En suma, la distinción no sólo es indebida, sino también engañosa. Con
Watzlawick y el grupo de Palo Alto lo que fue en principio una diferenciación
insegura termina transformándose en una reificación: las propiedades de la
forma de tratamiento de las cosas se transforman de repente en atributos de las
cosas mismas. La teoría cosifica, atribuyendo a lo real sus distinciones
discursivas. Prestemos atención a la presencia de Watzlawick entre bastidores:
cuando formule su versión del constructivismo, él habrá de proyectar sobre la
realidad sus propios vacíos conceptuales y, en un acto ontológico que Bateson
nunca hubiera suscripto, consumará la negación de la realidad misma (Watzlawick
1994; Watzlawick y otros 1989). La terapia sistémica de las primeras décadas ya
llevaba la distinción entre analógico y digital al extremo absoluto. No es
ésta, sin embargo, la única objeción que cabe hacerle a los pragmáticos. Como
dice José Bebchuk, Aunque en su momento esta obra [Pragmatics of Human
Communication] fue vista como una Summa pragmática, también es verdad que
considerada desde el presente da la impresión de haber desaprovechado la
riqueza fabulosa de los períodos previos tan llenos de intuiciones, tanteos,
hallazgos y descubrimientos. El mencionado desaprovechamiento fue el resultado
de tres limitaciones poderosas: a) el modelo diádico; b) la exclusión de la
subjetividad, y c) una lógica científica deficitaria (Bebchuk 1987: 2). A esta
lógica insuficiente ya la vimos en acción: la falacia de la concretidad mal
aplicada, oportunamente denunciada por Bateson, había sido introducida de nuevo
por la puerta trasera, una puerta que él mismo había dejado abierta. Pese a que
los trastornos de la comunicación se definían en base a las pautas vigentes en
la cultura en que esa comunicación se manifiesta, la dimensión sociocultural se
había encogido hasta el umbral de lo perceptible, al extremo que la pragmática
de Palo Alto dejó de interesar a los antropólogos. La concentración obsesiva en
la relación diádica madre-hijo había anulado, por añadidura, la dimensión
sistémica del fenómeno, que resultaba así analizado a través de un modelo
mecánico convencional del tipo emisor-receptor, con referencias sólo
ocasionales al contexto. En lenguaje sistémico, se diría que en lugar de un
sistema abierto, relativo a la complejidad organizada, el modelo delineaba un
sistema cerrado, lineal, simple, que sólo trataba una región de la jerarquía de
subsistemas, sin llegar al sustrato biológico o al plano social; a la larga, el
foco del modelo terminaba siendo un juego mecánico entre dos entidades, con una
pizca de feedback aquí y allá. No es de extrañar tampoco que la tendencia
general de las instituciones sistémicas de linaje batesoniano sea hacia una
fisión continua y hacia una multiplicación desenfrenada de pequeños cenáculos
en beligerancia mutua. Las crónicas nos hablan, en efecto, de una terapia
familiar bifocal, enfrentada con una terapia familiar estructural, contrapuesta
a su vez a una terapia múltiple, a otra terapia simbólico-experimental y a otra
modalidad más, conocida como terapia de red, la única, incidentalmente, que
echa mano de categorías y métodos de orden etnográfico (Speck y Attneave 1974;
Simon, Stierlin y Wynne 1988: 360-405). Las escuelas, grupos de influencia e
instituciones se han multiplicado hasta tal punto que la cla- Reynoso –
Complejidad – 37 sificación de las orientaciones sistémicas ha devenido un
juego de ingenio recurrente: quien nombra más cofradías, gana (Giacometti
1981). Este proceso de bifurcaciones cismáticas ya lleva unos buenos treinta
años, y no muestra señales de querer llamarse a reposo. La terapia familiar
sistémica de la década de 1990 y los años siguientes sigue reclamando la
herencia de Bateson, aunque para renovarse ha incorporado ideas provenientes de
la segunda cibernética, el conexionismo, la autopoiesis de Humberto Maturana,
la cibernética de segundo orden de Heinz von Foerster, el constructivismo
radical de Glasersfeld y hasta una tercera cibernética que da una nueva vuelta
de tuerca a un pequeño puñado de ideas (Pakman 1991; Fischer y otros 1997). Por
más que en las historias internas de la antropología el nombre de Bateson siga
sin aparecer a cien años de su nacimiento, su rostro sigue mirando hacia la
cámara en las páginas de docenas de comunidades que todavía elaboran
pensamientos suyos en la Internet del tercer milenio. Extraño destino para un
conjunto de interrogantes que un antropólogo se planteó alguna vez en las
selvas de Nueva Guinea. 2.3.2.1.4 – Críticas a la epistemología de Bateson Tal
vez la crítica que sigue no involucre un acto de justicia, pero lo concreto es
que en las tendencias actuales que responden a los modelos batesonianos se
perpetúan muchos de los problemas conceptuales y metodológicos que se perciben
en la obra del fundador. Si bien Bateson producía el efecto de estar
sintetizando saberes inmensos, la realidad es que su régimen de lecturas fue
siempre muy escueto, según lo revelan sus referencias bibliográficas y las
infidencias de sus allegados. Mary Catherine Bateson, en efecto, confiesa en
“Cómo nació Angel Fears”: “Pienso que mi padre no tuvo en su vida más que
algunas ideas, muy pocas” (1992: 23). En Como yo los veía insiste: “No tenía
muchas ideas: durante toda su vida indagó un conjunto pequeño de temas
sumamente abstractos. … Gregory leía muy poco, incorporaba a su pensamiento
apenas dos o tres libros por año, como si protegiera su capacidad a
concentrarse” (1989: 99, 173). Y en El temor de los ángeles admite que Bateson,
“siempre parco en sus lecturas”, excluido de la academia y sin una fuente
regular de ingresos en sus últimos años, no tuvo más remedio que repetir y
recombinar viejos componentes de su pensamiento, sin hacer los ajustes
necesarios y sin llevar a cabo la integración que esos elementos exigían
(Bateson y Bateson 1989: 18). Fritjof Capra recuerda que la falta de interés de
Bateson por la física se ponía de manifiesto en los errores que solía cometer
al hablar de dicho tema, como confundir la materia con la masa y cosas por el
estilo; también se aburría en el medio de sus conferencias, dejando cabos
sueltos, omitiendo elaborar las conclusiones, negándose a contestar preguntas
que no estimaba interesantes o contestándolas mediante chistes y metálogos a
los que también dejaba inconclusos (Capra 1994: 84, 90). Clifford Geertz
pensaba que Bateson poseía una mente vivaz y metía las narices en variedad de
problemas, pero se aburría con facilidad (Anton-Luca s/f). David Lipset (1980:
xii) cree que Bateson estaba en muchos sentidos muy por delante y muy por
detrás de sus contemporáneos; en sus últimos años, por ejemplo, no manifestaba
interés alguno por estar al tanto de los avances experimentados por los campos
en los que había incursionado. Un amigo de Bateson, el kinésico Ray
Birdwhistell, consigna elementos de juicio coincidentes: La debilidad [de
Bateson] dentro del grupo provenía de su rechazo profundo por los datos, se
integraran o no a sus generalizaciones. Para ser franco, yo diría que los datos
lo mortificaban. Además, una debilidad que siempre dificultó el trabajo con él fue
su falta de dominio Reynoso – Complejidad – 38 de la teoría lingüística
general, que él simplificaba por omisión, como hizo con la teoría de los
‘sistemas’, la semántica o la ‘doble coacción’. … Su propia visión de los
hombres era casi simplista, llena de analogías y de dibujos animados, y
formulada a través de juegos de palabras. … Nunca comprendió el pragmatismo
porque no conocía el trasfondo. Sus sectores y pedazos de pensamiento del siglo
XX, Whitehead y Russell, y von Neumann, etc, no resultaron jamás organizados en
un conjunto operativo dentro de una disciplina. Sus métodos eran casi siempre
analógicos, artísticos y estéticos; sus reivindicaciones según las cuales su
pensamiento era ‘científico’ no resultaban, por cierto, muy convincentes (Carta
personal de Birdwhistell a Wendy Leeds-Hurwitz, citada en Leeds-Hurwitz 1991:
63-64). Al margen de la liviandad de sus conocimientos extradisciplinarios de
carácter técnico, se podría imputar a Bateson una preferencia por recursos
conceptuales que ya estaban cayendo en desgracia en la época en que los
adoptaba; esto es lo que Yves Winkin (1991: 69-70) llama “el fértil anacronismo
de Bateson”, que le llevaba a librar extraños combates teóricos, aparentemente
superados. El más notorio de los conceptos anacrónicos es, naturalmente, el que
concierne a la tipificación lógica, una idea contingente a cierto momento de la
historia de las metamatemáticas a la cual algunos batesonianos, como Anthony
Wilden y los teóricos de la autopoiesis, siguieron usando como si fuera una
poderosa herramienta estructuradora. Tras la cancelación del proyecto de
Hilbert, y sobre todo después de Gödel, la utilidad formal de los tipos lógicos
se percibe modesta y periférica. En la práctica, ese principio (promovido a
“teoría” por los batesonianos) no tiene mucho que ver con conjuntos que se
incluyen a sí mismos, o con las paradojas de la auto-referencia, sino que se
traduce en precauciones a tener en cuenta para no mezclar indebidamente niveles
de análisis, o consejos para no confundir las metáforas con los sentidos
literales. Es obvio que no hace falta invocar las metamatemáticas para eso; con
el sentido común habría sido suficiente. En las nuevas ciencias del caos y la
complejidad el concepto de tipificación lógica ni siquiera figura en los
índices. Por el contrario, algunos creen que los tipos lógicos inhiben o
entorpecen el pensamiento recursivo, que a la larga sería bastante más
esencial. Puede verse un inventario de razones para desprenderse de la teoría
de tipos, “una teoría insignemente fea”, en el texto cardinal de Douglas
Hofstadter (1992: 24-26), quien abriga una concepción que se encuentra más
cerca de Kurt Gödel que de Bertrand Russell. Tal vez como consecuencia de la
precariedad de sus fundamentos formales, el intento de renovación de las
teorías y las prácticas a partir de las ideas de Bateson no coaguló en una
reformulación instrumental, salvo para grupos cerrados de fieles que apenas
fallecido el maestro se volcarían en masa hacia el subjetivismo de la
autopoiesis primero y hacia el nihilismo del constructivismo radical después.
Los antropólogos, mientras tanto, muestran no saber qué hacer con este género
de investigación; la mayoría ha optado por hacer como que no existe, al extremo
que hoy Bateson pertenece más al movimiento new age que a la antropología
(Thompson 1995). Bateson, en suma, no ha logrado integrarse a la corriente
principal de la disciplina. Excepto para especialistas y heterodoxos, su legado
se considera secundario, aunque años más tarde, cuando llegue el momento de la
complejidad y el caos, ningún otro antropólogo se perciba como el que anunciara
con más lucidez lo que estaba por venir. Conjeturo que más allá de las
dificultades para coordinar una metodología proactiva persisten diversas trabas
de orden conceptual: una fatigada distinción entre los lenguajes analógico y
digital; una extrapolación del marco cibernético que es más literaria que
científica, más episódica que sistemática; una visión convencional de la
trayectoria y el cambio estructural en el interior de los sis- Reynoso –
Complejidad – 39 temas que enfrenta con mejor rendimiento los fenómenos de
homeostasis que los de morfogénesis, como se hará evidente luego en la teoría
autopoiética; un desinterés casi activo por la búsqueda de la validez transcultural
de las propuestas; y una alusión demasiado leve al medio sociocultural, que en
el pequeño contexto de una familia sin entorno opera como marco inarticulado,
sin participación real en el diseño sistémico. Así y todo, hoy en día es
ostensible que en la antropología del siglo veintiuno no vendría mal que
surgiera un nuevo Bateson, sensible a las paradojas y capaz de imaginar nuevas
metáforas.
Aquí es necesario deternos este análisis de la esquizofrenia me parece
pertinente el doble vínculo entre en mi pensamiento como la ruptura de la transferencia
primera con la madre, si me pongo a analizar todala familia tiene u rastro de
ese doble vinculo una especide de no hablidada para el meta lenguaje, quizás esto
fue lo que me llevo a entrenarme filosóficamente y lograr una metalenguaje
permanente, el caso de mi madre es crítico, su lenguaje es plano literal
autista, por eso extraño tanto a mi padre por la
posibilidad de reflexionar y vernos a nosotros mismos, la familia de mi madre,
manda , ordena y se siente tan bien de poder lograr una alta efectividad pero
no pueden verse y difícilmente reconocen algún error o alguna responsabilidad y
mucho menos perdonarse y reírse de sí mismos, cuando ellos ríen descargan una
tensión acumulada y desbordan, la tía dueña de casa ira con mi madre y mi abuela ha estado unidos
y lo ve como un trabajo, ella que se sabe abrir al placer no puede permitírselo
cuando se le exige un “trabajo”, la novia también tiene esos rasgos, hemos
empezado a jugar y ella ha matado a todos los inocentes, la final da con el
lobo con el Claudio de este mundo que es mi hijo yo estoy narrando y yo repartí las cartas y me sorprendí al ver que él era el lobo, el Claudio, y lo
fue haciendo muy bien nadie lo podía matar, hasta que en la última ronda lo
descubrieron, el juego es una excusa para botar tensión casi todos lo hacen
menos el medico esposo de mi tía que se divierte y nos divierte, la abuela que
es la tensión encarnada que no puede escuchar y casi no ve y mi madre a la que
le produce tensión ahora todo, sufre muchísimo yo observo con mucha atención,
la enamorada de mi hermano tampoco bota tensión ella está sufriendo, con ella la familia empieza hacer el
doble vinculo, mi madre es experta en esto, mi hermana también sabe hacerlo y
mi tía la dueña de casa detesta ese doble vinculo ella muestra su desagrado en
una y lo está mostrando contra la enamorada
de mi hermano, como siempre mi hermano evade, no confronta pero para analizar esto
con mayor detalle y poder alterar este sistema necesitamos mucha más teoría:
–
Sistemas sociales autorregulados: Siegfried Nadel Aparte de Bateson, uno de los
antropólogos que más tempranamente acusó el impacto de la cibernética ha sido
Siegfried Nadel (1953), quien le dedicó un artículo breve pero sustancial. En
él Nadel propone distinguir entre los controles sociales más explícitos,
intencionales y formalizados, apoyados por castigos y recompensas, y un proceso
auto-regulador más fundamental inmanente a los sistemas sociales. Afirma que
las costumbres, el hábito social, las normas y las expectativas no son en sí
mismas las bases del orden social, y por lo tanto se requiere una de dos
condiciones para funcionar efectivamente: o bien se considera que la conducta
normativa es en sí misma deseable y por ello se la valora, o bien la conducta
se constituye en una rutina que permite obtener mayor éxito con menor riesgo.
Para Nadel, esos serían los verdaderos elementos de la auto-regulación. Tales
mecanismos prestan apoyo a las estructuras y procesos sociales más importantes,
y conforman un nexo instrumental o complejo de relaciones ramificadas entre los
diversos medios y fines de la sociedad. Eso significa que la adhesión a la
conducta canalizada socialmente conduce, en el curso natural de los hechos
sociales, a “premios” (no “recompensas”), mientras que la desviación lleva a
“penalidades” (no “castigos”). Así, en una sociedad folk, el varón que no
contrae matrimonio, comprueba que muchas de las cosas a las que su comunidad
otorga valor no están a su alcance a causa de su condición de soltero, aunque
no se le dispensa nada que se parezca a una penalidad. Habría, por lo tanto,
según Nadel, un proceso circular de retroalimentación en la base de esta
auto-regulación. En el proceso de llevar a cumplimiento las normas se demuestra
la validez de las conductas sancionadas como positivas; las transacciones
implicadas generan información que promueve la adopción ulterior de esas líneas
de conducta. No podemos apelar simplemente a los “controles sociales” de la
crítica pública o de la educación institucionalizada, pues éstas no sólo
salvaguardan, sino que presuponen valores, y por lo tanto representan no tanto
controles que actúan desde fuera sobre la conducta deseada, sino fases en un
proceso circular en virtud del cual los valores engendran conducta y la
conducta refuerza los valores (p. 272). Eso sí, Nadel advierte que este tipo de
auto-regulación es particularmente característico de las sociedades primitivas
y folk; las sociedades complejas, muy diferenciadas y heterogéneas, no admiten
con facilidad este tipo de cohesión. Mientras que los trabajos más tempranos de
Nadel, como The foundations of social anthropology, de 1951, ignoran toda
referencia al programa cibernético, otros textos mayores apenas un poco más
tardíos, como The theory of social structure, de 1957, aprovechan los puntos de
vista dinámicos expresados en el artículo que ya comenté para fundamentar una
crítica al modelo sociológico del equilibrio. Integrando ideas wienerianas y
otras influencias parecidas, Nadel concluye que, “como lo señaló alguna vez
[Meyer] Fortes, la estructura social debe ser ‘visualizada’ como ‘una suma de
procesos en el tiempo’. Con palabras pro- Reynoso – Complejidad – 40 pias, yo
diría que la estructura social es, de modo implícito, una estructura de
acontecimientos” (Nadel 1957: 128). De allí en más, no puede afirmarse que una
sociedad dada posea una estructura integral y coherente. Siempre hay fisuras,
disociaciones, enclaves, de modo que cualquier descripción que pretendiera
exponer una estructura única y permanente, de hecho presentará una imagen
fragmentaria o unilateral (p. 153). Aunque esta clase de procesualismo sea
habitual en los días que corren, en aquellos tiempos el funcionalismo estático
era dominante; la terminología era más insulsa y la sintaxis sociológica más
acartonada, hasta el extremo de la monotonía. Sin duda la cibernética, aún
sirviéndose en su origen de formas de expresión muy distintas, jugó algún papel
en los cambios de visualización y nomenclatura que propuso Nadel en ambos
textos. El primer artículo, por su parte, carga ya con cincuenta años a sus
espaldas. Desde nuestra perspectiva uno se pregunta si hace falta una
argumentación cibernética para ilustrar lo que otros autores llamarían
internalización de valores o enculturación, o si es lícito abstenerse de
indagar qué pasaría en el caso de los sistemas complejos, cuando se supone que
la teoría adoptada está, desde el vamos, equipada exactamente para esa clase de
escenarios. No obstante, la redefinición de Nadel tiene su toque de creatividad
en el giro que habla de la realimentación mutua entre valores y conductas, así
como cierta sutileza conceptual en la adopción de palabras semejantes a las
tradicionales, pero un poco más sensibles a los hechos. Y no está mal que la
lectura de un modelo matemático seco y austero inspire ideas e insinúe heurísticas,
imágenes y conceptos, por más que se los adopte como metáforas provisorias en
textos que nadie volverá a leer. 2.3.2.3 – La Ecosistémica de Roy Rappaport
Diré antes que nada que quien busque en los primeros textos de Roy Abraham
“Skip” Rappaport (de la Universidad de Michigan en Ann Arbor) referencias
directas a la cibernética o la teoría de sistemas no siempre las encontrará. El
modelo en el que él se inspira inicialmente es el de la ecosistémica, una
tendencia dentro de los estudios de ecología en general basada a su vez en la
cibernética y en la teoría de sistemas a través de nexos que no siempre han
sido explícitos, pero que con un poco de trabajo se pueden identificar. Desde
la década de 1960 Rappaport ha venido explotando la posibilidad de utilizar en
ecología cultural criterios y conceptos de la versión sistémica de la ecología
animal. La inspiración del modelo procede en su mayor parte de las obras del
inglés Vero Copner Wynne-Edwards. Este estudioso del comportamiento animal
sostenía que muchos animales sociales practican una especie de autorregulación
determinando el número de su población y limitando su densidad conforme a
valores promedio que se encuentran debajo de la cota que podría llegar a ser
dañina para el ambiente. Se supone que las poblaciones autorreguladas poseen
varias formas para medir el exceso de densidad que se conocen en conjunto como
“señales epideícticas”. Rappaport proyectó estas ideas a la antropología,
postulando que el uso de un marco conceptual generalizado y la consideración
del agregado humano como una población ecológica conmensurable con otras
unidades con las que el grupo actúa formando redes alimentarias, comunidades
bióticas y ecosistemas, hace que las interacciones resulten susceptibles de
medición. Los estudios de Rappaport, en efecto, están atestados de mediciones
de consumo de alimentos, peso de cosechas, número de animales, cantidad de
tierra cultivada, lluvia caída, tiempo invertido en el trabajo y participantes
en un festín ritual. Reynoso – Complejidad – 41 Rappaport propone distinguir
entre el “entorno operacional” y el “entorno cognitivo”, o sea entre el modelo
etic del entorno sustentado por el analista y el modelo emic reconocido por la
comunidad bajo estudio; entiende además que ambos modelos se clarifican
mutuamente. Aunque es posible considerar las interacciones materiales de una
población sin referencia a los modelos cognitivos, estima razonable concebir la
cosmovisión de un pueblo como parte del mecanismo que induce a las personas a
comportarse como se comportan y como elemento para enriquecer la comprensión de
las relaciones materiales. Propone entonces investigar en términos sistémicos
los mecanismos que hacen que las variables del conjunto se mantengan dentro de
rangos tolerables, evitando que se manifiesten oscilaciones que pongan en
crisis la continuidad del sistema. Mantener aplanada la amplitud de las
oscilaciones es, como se ha visto, la misión esencial de los mecanismos de
control retroalimentantes. En los sistemas ecológicos en los que interviene el
hombre, es de esperar que los mecanismos de auto-regulación incluyan
importantes componentes culturales bajo la forma de sistemas simbólicos, pautas
de conducta o racionalizaciones. Los rituales de los Tsembaga, un grupo Maring
de Nueva Guinea, son el ejemplo escogido por Rappaport y desarrollado en
numerosos artículos y en un libro que se ha convertido en un clásico: Cerdos
para los Antepasados (Rappaport 1968). En respuesta a cambios que ponen en
peligro los estados de ciertas variables, se “dispara” el ritual, lo cual tiene
el efecto de retornar el estado del sistema dentro de un rango óptimo.
Rappaport alega que la señal epideíctica clave para los Tsembaga es la
intensidad del trabajo femenino. En la división sexual del trabajo de las
sociedades Maring, las mujeres se encargan del cuidado de los cerdos, de la
atención de las huertas y de preparar la comida. Estas son tareas pesadas.
Inmediatamente antes de la matanza ritual de cerdos (el festival del kaiko),
éstos llegan a consumir cerca del 80% de la mandioca cosechada y el 50% de las
patatas dulces. Las huertas son casi 40% más grandes antes de la matanza que
después. De acuerdo con las estimaciones, la intensidad del trabajo femenino es
proporcional a la cantidad de cerdos, siendo de este modo un indicador simple y
directo de la calidad ambiental. La única respuesta para aliviar un trabajo
excesivo es en este caso el kaiko, el cual suele ser asimismo preámbulo de
guerras intertribales. De esta forma, el ciclo ritual puede interpretarse como
un instrumento para reducir tanto la población de cerdos como la humana; y,
correspondientemente, cerrando el bucle, el trabajo requerido para reconstituir
la piara hasta el advenimiento de otro ritual impide las guerras excesivas. Se
sigue que el ciclo ritual es un homeostato que regula las poblaciones
referidas, la dispersión de los grupos, el estado nutricional y la cualidad
ambiental en su conjunto. En otras publicaciones (“Naturaleza, Cultura y
Antropología Ecológica”, de 1956), Rappaport justifica su enfoque subrayando no
tanto lo que diferencia la cultura humana de las comunidades animales sino más
bien lo que es común a ellas: su equivalencia funcional. No importa, desde el
punto de vista del sistema, que la conducta del cazador humano sea cultural y la
del predador animal no lo sea, si sus propósitos son comparables. Podemos decir
con seguridad –alega Rappaport– que las culturas o sus componentes forman parte
principal de los medios distintivos usados por las poblaciones humanas para
satisfacer sus necesidades biológicas en los ecosistemas en que participan.
Considerar la cultura de este modo (como lo han hecho él y su colega Andrew
Vayda) no va en detrimento lo que pudieran ser sus características únicas ni
demanda ningún sacrificio de los objetivos tradicionales de la antropología.
Por el contrario, mejora esos objetivos proponiendo otros interrogantes acerca
de los fenómenos culturales. Podemos inquirir, por ejemplo, qué efectos
particulares tienen Reynoso – Complejidad – 42 las reglas de residencia y filiación
o prácticas como la guerra sobre la dispersión de las poblaciones respecto de
los recursos disponibles, los efectos de los ritos religiosos sobre las tasas
de nacimiento y defunción y, en fin, podemos averiguar las formas mediante las
cuales el hombre regula los ecosistemas que domina. A menudo los rangos de
viabilidad de las variables de un sistema se establecen empíricamente. En lo
que se refiere por ejemplo al tamaño de una población, es casi seguro que por
debajo de cierto valor mínimo la población no puede reproducirse a sí misma, y
por encima de cierto valor máximo agotaría sus bases de subsistencia. En este
caso, el “entorno cognitivo” (el modelo ambiental sustentado por los actores)
actúa como la memoria de un computador o el mecanismo regulador del sistema que
se encarga del control “automatizado” de un proceso. En este sistema, las
señales concernientes al estado de las variables se comparan a los valores
ideales de referencia, y en caso que los valores sean críticos se inician
programas de normalización. Cuando más rutinaria y ritualista sea la pauta
simbólica, tanto más automática será la respuesta de la población a las
presiones del entorno y más autorregulado se presentará el sistema ante el
análisis. Mediante este símil, podemos averiguar, de una manera razonable, cuál
es el valor adaptativo de una ideología. En 1971 Rappaport publica en American
Anthropologist un artículo titulado “Ritual, Santidad y Cibernética” en el que
analiza (ya satisfecho el estudio de los valores homeostáticos del ritual) los
aspectos comunicacionales e informacionales del mismo. En este artículo
establece con mayor claridad sus relaciones de dependencia con la teoría de
sistemas y la cibernética. Como uno de los indicadores de la influencia
sistémica en Rappaport anotemos el uso de su definición de sistema. Él no
utiliza el término para designar una colección de entidades que comparten
alguna característica ontológica, como la que implican las nociones de sistema
religioso o sistema de parentesco; lo usa en cambio en el sentido de un
conjunto de variables tal que el cambio del valor del estado de una de ellas
acarrea cambios en el valor del estado de al menos otra variable, lo cual es
consistente con los criterios de Ross Ashby (1972a: 60-63) para delimitar un sistema
en el sentido cibernético de la palabra. Las características ontológicas de los
componentes del mundo físico de los cuales se derivan las variables son
irrelevantes. Podemos incluir en el ámbito de un solo sistema o subsistema
variables abstraídas de fenómenos culturales, biológicos o inorgánicos
(Rappaport 1971: 59). En opinión de Rappaport, el ritual es un mecanismo de
comunicación altamente estilizado, comparable a las exhibiciones eróticas que
los etólogos han estudiado en los animales. Desde esta perspectiva, el ritual
podría redefinirse como “un conjunto de actos convencionales de display a
través del cual uno o más participantes transmiten, tanto a ellos mismos como a
los demás presentes, información concerniente a sus estados fisiológicos, psicológicos
o sociales”. El ritual vendría a ser un mecanismo indicador del estado de
ciertas variables. Tanto el contenido como la ocasión de ocurrencia de esos
rituales son pertinentes en esta comunicación. El contenido no sólo se compone
de referencias estructurales, como se reconoce habitualmente, sino que incluye
también información cuantitativa, más allá del dato obvio del número de
participantes. Incluye además una especie de alusión métrica, analógica,
representada por los valores que se consumen o se distribuyen. Con el correr de
los años, y bajo el hechizo de la moda interpretativa, Rappaport se fue
interesando por lo que antes definía como el entorno cognitivo. En 1975 su
modelo adquiere una contextura mixta, a mitad de camino entre una visión etic materialista
similar a la de Reynoso – Complejidad – 43 sus primeros estudios y una
concepción hermenéutica (no necesariamente emic) relacionada con las ideas de
Clifford Geertz. Esta postura es explícita, y consta en una ponencia titulada
“Meaning and Being”: el significado al que se alude es el conjunto de sentidos
subjetivos que posee el ritual, en términos geertzianos; el “ser” es la
dimensión objetiva de la ceremonia como mecanismo de control global de un
sistema. Más tarde, Rappaport (1979) publica una compilación de siete ensayos
con una introducción en la que reafirma sus compromisos sistémicamente más
puros por un lado y atenúa la parte etic de sus modelos por el otro. Rappaport
caracteriza su punto de vista como una especie de nuevo funcionalismo que
difiere del anterior por su atención a los mecanismos cibernéticos de
auto-regulación; como lo expresó después uno de sus críticos (el fenomenólogo
Johannes Fabian), tenemos aquí a Malinowski reformado por Bateson. En este
libro Rappaport también responde a sus críticos, en especial a Jonathan
Friedman y a Marshall Sahlins (la compilación es tres años posterior al
manifiesto antimaterialista de Sahlins, Cultura y Razón Práctica). Esas
críticas no habían sido de buena calidad, como puede inferirse del recargado
didactismo de este párrafo de Friedman: El materialismo vulgar, el materialismo
mecánico y el economicismo son términos que se refieren a una forma simplista
de materialismo, rechazada por Marx, que contempla las formas sociales como
meros epifenómenos de tecnologías y ambientes, ya sea por causación directa o
por alguna racionalidad económica que hace a las instituciones el producto de
la optimización social. Esta estrategia ha hecho su aparición en la forma que
Marshall Sahlins ha llamado el “nuevo materialismo” ¼, la ecología neo-funcional y el
materialismo cultural, ambos insertos en la ideología funcionalista-empirista
que ha caracterizado a la mayor parte de la ciencia social americana (Friedman
1974: 456-457). En esos años, muchos de quienes habían sido materialistas
abandonaban sus convicciones científicas e ideológicas y se sumaban a las
nuevas corrientes como se pudiera, sin guardar las formas. También Rappaport
acusó el impacto; los textos más tardíos de su compilación tienen un costado
regresivo, pues concedieron demasiada relevancia a los significados como
mediadores entre el entorno cognitivo y el entorno real. Débil desde el
principio, su fundamentación materialista se diluyó y él mismo terminó
abrazando un culturalismo no declarado, desde el cual, para sosegar a los
objetores, otorgó a la cultura ideacional un estatuto casi autónomo. Hubiera
sido interesante que Rappaport desarrollara sus ideas a fondo y sin
interferencias; pero el espíritu de los tiempos fue más fuerte, y se cobró con
él (y con la ecosistémica) una de sus víctimas más calificadas. 2.3.2.4 –
Críticas y alternativas procesuales a la ecosistémica Han existido dos líneas
de crítica a modelos como los de Rappaport y a otras concepciones semejantes.
La primera conserva los objetivos y principios de la ecología cultural, pero no
necesariamente se atiene a marcos de cibernética o teoría de sistemas. La
segunda propone abandonar los marcos sistémicos y el estudio del vínculo entre
cultura y ambiente, y concentrar la investigación en los procesos singulares o
en los sujetos, también singulares. Revisaremos ambas líneas en ese orden. Los
trabajos de Rappaport han sido impugnados por los especialistas en ecología
genérica y por los participantes de esa experiencia peculiarmente norteamericana
que fue la ecología cultural. Las obras más cuestionadas han sido las primeras,
y en especial su texto clásico sobre los rituales Tsembaga. MacArthur y
Buchbinder, separadamente, han presentado evi- Reynoso – Complejidad – 44
dencia de que los Tsembaga no están muy bien alimentados, una condición que es
inconsistente con la idea de Rappaport de que la población sabe regularse por
debajo del nivel de riesgo ambiental. Algunos autores (Bates y Lees, Samuels,
Peoples) han señalado que no está claro el modo en que los requerimientos de
equilibrio propios del conjunto social se traducen en incentivos de la conducta
individual concreta. Otro crítico (Salisbury) afirma que los Tsembaga han
permanecido muy poco tiempo en su ambiente (unos docientos años) como para
haber desarrollado el modelo adaptativo finamente ajustado que propone
Rappaport (Foin y Davis 1987). En el momento de su publicación Cerdos para los
antepasados fue la pieza mejor documentada en ecología cultural; sus diez
apéndices proporcionaban una colección de datos sin precedentes sobre el clima,
la producción agrícola, la fauna y los intercambios de energía de una sociedad
con su ambiente. El problema es que esos datos no están integrados al análisis
de la forma en que el ritual y otras conductas simbólicas operan como
mecanismos de control, sino que nada más aparecen próximos, aludidos en
contigüidad. Están todas las cuantificaciones que deberían estar, y quizá hasta
algunas variables se han cuantificado de más; pero falta una relación sistemática
entre las islas de números, falta propiamente el sistema. El estudio no
constituye entonces una demostración rigurosa, cuantitativamente fundamentada,
de las causas ecofisiológicas de las respuestas conductuales humanas a sus
necesidades. A pesar de su rico trasfondo de hechos, el análisis no es más que
una construcción analógica en la cual las complejidades ecosistémicas, la
activación de los procesos simbólicos y una impresión generalizada de causación
se sugieren plausiblemente, pero no se demuestran. Rappaport sigue el protocolo
de la estrategia en que se inspira, pero no realiza las operaciones de enlace
sin las cuales todo lo demás es estéril. Como dice McArthur, sus demostraciones
vuelven a parecerse a las propuestas funcionalistas clásicas. El mismo
Rappaport, algunos años más tarde, admitiría reflexivamente las debilidades del
método: ¼
Cerdos para los antepasados constituye un intento de análisis sistémico, un
análisis en el cual las unidades están claramente especificadas, se ha dado
importancia objetiva a los rangos de meta y a los valores de referencia, y se
identifican los mecanismos de regulación. Debe admitirse libremente que no se
ajustó a los rigurosos requerimientos del análisis sistémico, y que por lo
tanto es vulnerable a crítica en sus propios términos (Rappaport 1979: 68). Se
percibe que falta en esta autocrítica familiaridad con las premisas de las
teorías sistémicas. Rappaport habla de un “análisis” de las variables
involucradas y parece estar en busca de alguna forma de explicación; pero la
cibernética está menos interesada en variables que en las relaciones
funcionales entre ellas (en el sentido matemático de función) y procura
determinar qué sucede y no por qué (Ashby 1972a: 24). Mientras las autocríticas
de Rappaport han sido deficientes, muchas de las críticas por parte de terceros
trasuntan una doxa que se encuentra en el límite de la difamación. Uno de los
ataques más virulentos contra la cibernética y la teoría de sistemas se
presentó en la revista Social Research en un artículo titulado “La Teoría de
Sistemas como Ideología”, luego transformado en libro; esta diatriba del
conservador Robert Lilienfeld (1975; 1978) viola una por una las reglas de una
crítica responsable: define como sistémicos enfoques que a todas luces no lo son
(la inteligencia artificial, la teoría de los juegos, la investigación
operativa), caricaturiza con trazos groseros los lineamientos de las diversas
teorías, sugiere que está en marcha una conspiración
sistémico-positivista-tecnocrática para dominar el mundo, Reynoso – Complejidad
– 45 ignora la existencia de técnicas de diagramación exitosas (como la
dinámica de sistemas y el modelo forresteriano) y considera que postular
objetivos tales como modelar la conducta o el pensamiento humano implica tratar
a las personas o a las sociedades como si fueran fórmulas, máquinas o
algoritmos. Con palpable indignación moral, afirma Lilienfeld: El mundo social,
el mundo de la historia humana concreta, no puede ser contenido en sistemas
lógicos cerrados, no importa cuan grande sea la computadora, no importa cuantas
variables se construyan en el sistema¼
[L]a literatura [sistémica] consiste por completo en definiciones abstractas,
conceptualizaciones, estructuras formales y comentarios sobre otras
definiciones abstractas, conceptualizaciones y estructuras formales; en ningún
lado se pueden encontrar problemas concretos, específicos y empíricos que hayan
sido definidos, estudiados, o elaborados o de los que se haya podido aprender
algo. Los pocos materiales empíricos que se encuentran en la literatura son
sólo un pastiche de ilustraciones menores que no prueban nada (Lilienfeld 1975:
657). Lejos de mi intención está reivindicar las apropiaciones antropológicas
de las teorías de sistemas, algunas de las cuales carecen en efecto de una
operacionalización satisfactoria. Pero ¿cómo sería posible tratar una realidad,
según Lilienfeld, sin que medie una abstracción y sin que se establezca un
límite? ¿No intentan también los enfoques humanísticos contener el mundo y la
historia en una narrativa cerrada? ¿Son éstos tan satisfactorios que no sea
preciso intentar comprender la realidad de otra manera? ¿No es también
ideológico y autoritario prohibir que los fenómenos se aborden desde otras
coordenadas? Ante tantísimas aplicaciones que han impactado en la ciencia, la
tecnología y la vida cotidiana ¿puede alguien decir que una teoría sistémica
como la cibernética ha sido improductiva? Al igual que el resto de la
antropología, las teorías sistémicas acusaron en los años recientes el impacto
y el desafío de las posturas interpretativas, del individualismo y de un
conjunto de posturas cualitativas que ocasionaron en diversos rincones de la
disciplina un sensible vaciamiento metodológico. Como parte de estas
transformaciones, Joan Vincent escribió un artículo para el Annual Review of
Anthropology, titulado “Sistema y Proceso”, donde analiza lo que ella entiende
es un relevo de las teorías sistémicas generales por teorías procesuales de
validez local. Su discusión se inscribe en una polémica más amplia, sostenida
entre sistémicos emergentistas por un lado e individualistas metodológicos por
el otro. Aunque no lo adviertan, estos últimos (al suponer que las propiedades
del conjunto son analíticamente reducibles a las conductas de sus componentes individuales)
promueven un retorno a los modelos que aquí hemos caracterizado como mecánicos,
abandonando en el camino todo lo que ha podido aprenderse acerca de los efectos
emergentes de las interacciones complejas. Curiosamente, su postura procesual
coincide, en su búsqueda de singularidades y significados, con lo que en
arqueología se considera más bien post-procesual, lo que denota una disociación
radical entre las especialidades antropológicas. Basándose en Stephen Pepper
(un refinado filósofo pragmático especialista en metáfora, apreciado también
por Victor Turner), dice Vincent que las teorías sistémicas y las procesuales
se caracterizan por diferentes preocupaciones que se traducen en vocabularios
específicos: el vocabulario sistémico incluiría las nociones de estadio, nivel,
entorno, variable, evolución, disparador, retroalimentación, integración. Las
metáforas procesuales equivalentes serían, en cambio, fase, campo, contexto,
elemento, historia, umbral, movimiento, duración. Las correspondencias entre
ambos conjuntos de conceptos (que señalan un verdadero cambio de paradigma e
intereses intelectuales opuestos) se ordenarían como en la tabla 2.3. Vincent
pretende que las metáforas raíces del pensamiento sistémico son las máquinas y
los Reynoso – Complejidad – 46 organismos; las del pensamiento procesual, en
cambio, son el contexto y el suceso histórico. Dado que el suceso (y en
especial, el suceso de la crisis) es común a ambos pensamientos, la oposición
significativa es entre suceso histórico y evento evolutivo. Teorías Sistémicas
Teorías Procesuales Estadio Fase Nivel Campo Entorno Contexto Variable Elemento
Evolución Historia Disparador Umbral Retroalimentación Movimiento Integración
Duración Tabla 2.3 – Sistema versus Proceso No se trata, alega Vincent, de que
haya un bando de sistémicos segregado de otro bando de procesualistas. Ella
registra que muchos antropólogos que emplearon el pensamiento sistémico para
sus datos de campo han adoptado una vena más procesual en las décadas de 1970 y
1980. Entre ellos se encuentran Brown, Orlove, Vayda, Rappaport y Geertz, quien
se formó en la filas de la ecología cultural. En opinión de Vincent, la
principal debilidad de la teoría ecosistémica radica en el énfasis en la
integración funcional y en la auto-regulación, de modo que en ella los procesos
diacrónicos se tornan problemáticos. Vincent afirma que la teoría de sistemas
en el área en que mejor se desarrolló (la ecosistémica) está muerta: Vayda
seguramente puso el último clavo en el ataúd sistémico cuando incorporó al
discurso antropológico seis hallazgos biológicos: los ecosistemas no son
cibernéticos; las sucesiones ecológicas no exhiben tendencias holísticas; no
existe ningún “equilibrio de la naturaleza”; la evidencia de formación de
patrones en comunidades biológicas es a menudo dudosa; no existe ninguna
evidencia rigurosa que justifique las nociones de comunidad y de persistencia
ecosistémica. El concepto de ecosistema es “un regreso contra-heurístico a la
metafísica esencialista griega” (Vincent 1986: 104). A la luz de las nuevas
teorías de la complejidad, ninguno de los hallazgos biológicos de Vayda puede
sostenerse; la mayor parte de esas teorías conciernen, por el contrario, a la
formación de patrones en comunidades bióticas (cf. Flake 1999; Ball 2001; Camazine
y otros 2003; S. Johnson 2003). Pero sea o no lícito hablar de ataúdes, la
ecosistémica y la ecología cultural están seguramente en crisis; se las difunde
a través de publicaciones especializadas que no llegan al común de los
antropólogos, como el Journal of Ecological Anthropology, y por alguna razón se
han tornado un campo particularmente tedioso dentro de la disciplina. Para
escapar de la teleología de los sistemas cerrados en equilibrio, antropólogos
ecológicos como Bates, Orlove y Vayda han vuelto su atención hacia los
individuos, en un movimiento que tiende a destacar las especificidades de sus
objetos de estudio, antes que sus isomorfismos con los objetos de otras
disciplinas. A mediados de la década de 1970 (y es de creer que el momento no es
inocente, habida cuenta del auge arrollador que experimentaba la antropología
interpretativa), Vayda se convierte al individualismo metodológico, después de
haber impulsado la ecosistémica la década anterior (Vayda y McKay 1975).
Comienza a pensar que “el ecosistema es una entidad analítica, no una unidad
biológica”, que los ecosistémicos han incurrido en la “falacia ecológica” y que
“las interacciones que se observan en ecosistemas complejos no requieren ser
consideradas como expresión de propiedades de auto-organización de los sistemas
mismos; se las puede entender, más bien, co- Reynoso – Complejidad – 47 mo las
consecuencias de diversas y variables estrategias adaptativas de organismos
individuales que viven juntos en espacios restringidos” (pp. 229 y ss.). Vayda
promueve, por lo visto, una disyuntiva cuestionable, pues en cibernética ambos
conceptos (auto-organización y estrategias adaptativas) han ido siempre de la
mano (Ashby 1962); el desarrollo ulterior de los autómatas celulares, los
modelos de agentes y el algoritmo genético en la ciencia de la complejidad
demostraría que las tácticas adaptativas de los individuos son precisamente los
mecanismos del micronivel de cuya interacción resulta, a alto nivel, la
auto-organización del conjunto (Bak 1966; Holland 1998). Por otra parte, no
parece haber en su crítica una comprensión cabal del concepto de falacia
ecológica, la cual consiste en atribuir a individuos características que son
propias del nivel grupal (por ejemplo, estimar ingresos promedio por individuo
a partir de ingresos regionales). La falacia ecológica es un error de
inferencia que se debe a la falta de distinción entre niveles de organización;
este concepto bien conocido surgió en estadística y su denominación nada tiene
que ver con la ecología como disciplina, sino con nociones de grupos, agregados
y poblaciones. De ningún modo implica que una estrategia ecológica sea
inherentemente falaz. Aunque el giro interpretativo representado por la
profesión de fe de Vincent resultó triunfante a lo largo de la década de 1980,
su trabajo clama por una contracrítica. Es inexacto que los procesualistas
aprecien los fenómenos dinámicos, en tanto que los sistémicos favorecen los
equilibrios y las estructuras mecánicas. El vocabulario dinámico de la cibernética
es por amplio margen más rico, es también de orden procesual y se encuentra
harto mejor formalizado. Menciono al azar: cambio, ciclo de estado, cinemática,
diferencia, diferenciación, dinámica, duración, emergencia, entropía, estado,
fase, flujo, inestabilidad, perturbación, proceso, propagación, sucesión,
transformación, transiciones, trayectoria, vectores. Los procesualistas,
naturalmente, dicen ser partidarios de la dinámica; pero no han articulado un
modelo al respecto, aparte de proferir periódicamente palabras-mantra tales
como suceso, acontecimiento, historia o cualquier otra sugerente menos de
diacronía que de singularidad. Ni campo, ni contexto, ni elemento, traídos a
colación por Vincent, son ideas intrínsecamente procesuales. Las categorías restantes
ni tienen una definición precisa, ni pueden mantener su semántica estable de
una página a otra. Además, tanto Bateson como Nadel sabían del carácter
diacrónico de la cibernética. Hasta su advenimiento, ninguna teoría había sido
más sensible a los problemas de la diferencia, el cambio y la dinámica. Tomemos
cualquier texto de Wiener o Ashby, concedámosle alguna atención, y
comprobaremos que pocas veces antes de ellos han formulado en la práctica
científica preguntas más substanciales en torno a la incidencia y al sentido
del tiempo. Reynoso – Complejidad – 48 2.4 – La teoría general de sistemas
Aunque se ha discutido mucho su verdadera naturaleza, la teoría general de
sistemas (en adelante TGS) no es rigor una teoría relativa a una serie
específica de fenómenos; por el contrario, es un genuino marco general, cuya
distintividad consiste en ser transdisciplinario, a diferencia de (por ejemplo)
la teoría de la relatividad o la teoría sintética de la evolución que operan
sólo dentro de campos restringidos (física y biología, en esos casos). No sólo
la teoría es general y transdisciplinaria; también su objeto lo es, al punto
que numerosos traductores prefieren traducir su nombre como “teoría de los
sistemas generales”: se trata de sistemas auto-organizados, independientes de
la naturaleza de los elementos que los componen (de ahí su generalidad), y que
pueden ser tanto físicos como biológicos, sociológicos o microsociológicos,
hasta determinado umbral mínimo de complejidad. 2.4.1 – Sistemas generales
Podemos decir que la TGS constituye una elaboración consciente de teorías e
ideas que estaban flotando en el ambiente (la termodinámica, la termodinámica
de los sistemas abiertos, la cibernética, la teoría de juegos, la investigación
operativa) y que coincidían en afirmar que las ecuaciones que describen un
sistema (o a un nivel que hoy llamaríamos iconológico, los diagramas de flujo
que lo denotan) son aplicables a entidades diferentes en cuanto a su
composición material, leyes, funciones y fuerzas intrínsecas. El mismo diagrama
de flujo se puede aplicar al termorregulador de un edificio, a la regulación
del azúcar en la sangre o a la regulación (según dirá Rappaport más tarde) de
los rituales en una sociedad. Ludwig von Bertalanffy (fallecido en 1972) dice
que los diversos sistemas que pueden ser descriptos mediante un mismo diagrama
son isomorfos, lo cual quiere decir que es posible construir una teoría general
de los sistemas caracterizables por una misma estructura formal. La TGS es, al
igual que la cibernética y de las teorías que se verán después, intrínsecamente
independiente de toda disciplina. El manifiesto de la TGS, establecido por la
Sociedad para la Teoría General de Sistemas en 1956, propone este programa: Las
funciones principales son: (1) investigar el isomorfismo que presenten
conceptos, leyes y modelos en diferentes campos de estudio y facilitar
transferencias entre un campo y otro; (2) impulsar el desarrollo de modelos
teóricos en las esferas en que falten; (3) minimizar la duplicación de
esfuerzos en las diferentes disciplinas; (4) promover la unidad de las ciencias
mejorando la comunicación entre especialistas (Bertalanffy 1976: 14). La teoría
se concentra en aspectos de los sistemas inaccesibles a un tratamiento
científico convencional: organización, jerarquía, diferenciación progresiva,
competencia, elección de metas, interacción de muchas variables, crecimiento,
finalidad, evolución hacia una organización superior. El requisito de la teoría
es que los sistemas sean relativamente complejos (pues en entidades complejas
es donde se originan los llamados emergentes), que mantengan flujos de
intercambio de información y/o energía con su entorno, y que en el interior del
sistema se produzcan las llamadas “interacciones fuertes”. En este sentido,
George Klir proporciona una simple definición de sistema, S=(C,R), donde S
denota el sistema como un conjunto de entidades (C) y un conjunto de relaciones
(R) (Klir 1993). Existen umbrales mínimos de complejidad a partir de los cuales
los sistemas comienzan a manifestar conductas emergentes, es decir, efectos de
conducta que no están linealmente re- Reynoso – Complejidad – 49 lacionados con
sus causas aparentes. En otras palabras, la emergencia de determinadas
conductas en apariencia inexplicadas o espontáneas (la aparición de la vida a
partir de la sustancia inerte, la aparición del pensamiento a partir de las
estructuras biológicas, la formación de comportamientos que parecen orientados
a fines, la capacidad auto-organizativa de un sistema) son un efecto conjunto de
la complejidad de las interacciones y de la presencia de circuitos no lineales
de retroalimentación. La epistemología subyacente a la teoría sistémica es
radicalmente distinta de la epistemología mecanicista clásica. Esta última es
lineal, reduccionista y sumativa. Una relación lineal asume la forma “Si P,
entonces Q”, lo cual presupone un nexo causal en un solo sentido, P® Q. Consecuencia de esta
idea es el principio de que causas similares producen efectos similares: las
condiciones iniciales determinan el resultado final. La epistemología clásica
utiliza procedimientos analíticos que entrañan dividir una entidad en sus
partes constituyentes y en sus relaciones causales aisladas. Su modelo
condicional es básicamente una ecuación que mantiene constantes todas las demás
variables excepto aquella específicamente considerada. Este es el principio
analítico conocido como ceteris paribus, que literalmente significa “si todo lo
demás permanece igual”. Este tipo de reducción depende de dos condiciones:
primero, las interacciones entre las partes se consideran débiles, al punto de
poder despreciarse. Sólo en estas condiciones es posible desensamblar
analíticamente el conjunto para luego volverlo a reunir. Segundo, las
relaciones entre partes deben ser lineales para poder ser sumativas:
considerando una a una las relaciones entre entidades parciales podremos
arribar al comportamiento del todo. Pero incluso manifestaciones de la
naturaleza o la cultura aparentemente simples no son susceptibles de analizarse
según estas pautas: el análisis del oxígeno por un lado y del hidrógeno por el
otro no permite predecir ni explicar las propiedades del agua; el estudio
psicológico de los miembros de una sociedad no permite predecir ni explicar el
régimen conductual de la cultura. Cada nivel de análisis posee propiedades
específicas, irreductibles; en el paso de un nivel al siguiente aparecen
características que ya en cibernética se llamaban emergentes, los que se
ejemplificaban de forma parecida. La teoría de sistemas pretende superar la
incapacidad de la analítica convencional para dar cuenta del comportamiento de
los sistemas complejos. Su epistemología ha conocido desarrollos bastante
complicados, aunque nunca se sistematizó en un conjunto coherente, quizá por su
carácter colectivo. Su comprensión cabal involucra la consideración de
numerosos cuerpos de teoría: la teoría de la información, la cibernética, el
análisis matemático de las funciones no lineales, etc. Sin pretender dar una
visión realista, podría decirse, sintéticamente, que la TGS puede comprenderse
a partir de seis conceptos centrales: totalidad, estasis, equifinalidad,
multifinalidad, morfogénesis y jerarquía. Totalidad Un sistema es un conjunto
de componentes y de relaciones entre ellos que posee propiedades distintas a la
de sus componentes tomados en forma aislada. Dado este principio, es razonable
postular que no se debería nunca partir del análisis de las partes, sino del
estudio de la totalidad. En consecuencia, las leyes que gobiernan el
comportamiento del todo se consideran primarias: el todo es más que la suma de
sus partes. La idea está históricamente relacionada con un argumento semejante
propuesto hacia 1920 en la psicología de la Gestalt (Wertheimer, Köhler,
Koffka). Una Gestalt es, en efecto, una configuración, una totalidad
irreductible; un efecto gestáltico es una característica emergente que no sólo
no puede pre- Reynoso – Complejidad – 50 decirse a partir de los elementos
básicos de la configuración, sino que tampoco puede retrodecirse yendo analíticamente
desde el conjunto a las partes que lo conforman. Un concepto alternativo es el
de holismo, acuñado por el estadista sudafricano Jan Smuts en 1926. Existe una
diferencia importante entre el concepto de totalidad en la TGS y en el
funcionalismo. En éste se pone énfasis en el orden y en la cooperación entre
los componentes. Para Bertalanffy, por el contrario, la competencia entre las
partes y el conflicto son aspectos necesarios de los sistemas. Cuando se
considera el comportamiento de una totalidad se advierte que posee una
coherencia tal que parece obedecer a un plan preestablecido. Se dice que la
conducta de un sistema es teleológica, que está orientada hacia fines. Un fin
es un estado hacia el cual tiende un sistema en función de su organización estructural,
de las relaciones e interacciones imperantes y de su relación con su entorno.
Las propiedades de estos sistemas autorregulados serían caracterizadas en las
sucesivas elaboraciones de von Bertalanffy y otros pensadores que se
identificaron con el paradigma: George Klir, Anatol Rapoport, Russell Ackoff,
Ervin Laszlo y Kenneth Boulding. En años recientes el concepto holístico de
totalidad ha sido reemplazado en las nuevas ciencias por el de emergencia de
abajo hacia arriba, el cual reviste un carácter más dinámico. Estado estable,
homeostasis y morfostasis Aunque a veces lo parezca (sobre todo en sus
apropiaciones por funcionalistas en la línea de Parsons) la TGS no es una
teoría de los equilibrios de un sistema, sino una vía de acceso a la
comprensión de sus cambios. La serie de cambios de un sistema a lo largo del
tiempo es lo que se caracteriza como su trayectoria. Tal como se ha definido en
las teorías sistémicas, la trayectoria de los sistemas muestra no tanto un
equilibrio sino una homeostasis; el término fue acuñado por el biólogo Walter
Cannon en un libro titulado La Sabiduría del Cuerpo que fuera publicado en
1932. Como decía Cannon, “la palabra no implica fijeza, inmovilidad ni
estancamiento: significa una condición que puede variar, pero que es relativamente
constante” (1932: 24). Bertalanffy demostró que sólo dentro de los sistemas
cerrados y simples se pueden dar equilibrios verdaderos. La materia inerte no
está en equilibrio sino que decae. El equilibrio aparente de determinados
sistemas abiertos y complejos es en realidad un estado estable [steady state]
caracterizado por fluctuaciones débiles. El proceso mediante el cual se
restablece el estado estable en medio de las fluctuaciones es lo que se conoce
como homeostasis. En caso que las fluctuaciones no puedan ser controladas por
los mecanismos reguladores del sistema, se pierde momentáneamente el estado
estable y el sistema evoluciona cambiando sus estructuras, en un proceso
llamado morfogénesis, que se describe más adelante. Tras modificar su estructura,
los sistemas abiertos poseen la capacidad de recuperar un nuevo estado estable
después de una perturbación. La trayectoria de un sistema es una secuencia
alternada de estados estables y transformaciones estructurales. Mientras que en
el funcionalismo clásico el equilibrio se refiere al orden y a la cooperación
entre partes, en la teoría de sistemas la homeostasis posee un aspecto
dinámico, más que estático. La estabilidad es una actividad; un sistema en
estado estable es capaz de responder dentro de ciertos márgenes a estímulos
ambientales cambiantes. Fuera de esos márgenes el sistema se ve empujado a la
restructuración. El nexo entre el concepto sistémico de homeostasis y la noción
cibernética de retroalimentación es muy estrecho. Morfostasis es,
etimológicamente, el mantenimiento de la forma, función, organización o estado.
Los estados estables en los sistemas vivientes están controlados por circuitos
de retroalimentación negativos. Un sistema viviente se autorregula porque en él
los insumos no sólo afectan a los eductos, sino que estos últimos a- Reynoso –
Complejidad – 51 fectan a los primeros. El resultado es que el sistema se
adapta homeostáticamente a sus condiciones ambientales. Equifinalidad En la
física clásica se afirmaba que condiciones similares producen efectos
similares, y que por lo tanto resultados disímiles corresponden a
circunstancias disímiles. Al analizar los efectos de autorregulación de los
sistemas abiertos, Bertalanffy flexibilizó esta concepción introduciendo la
noción de equifinalidad: en la ontogénesis es posible alcanzar un estado adulto
normal siguiendo un número enorme de diferentes y complicadas rutas de
desarrollo. Diversas condiciones iniciales pueden producir condiciones
terminales idénticas; o, lo que es lo mismo, no se puede retrodecir cuáles son
las condiciones que han generado un estado de cosas. La equifinalidad sería un
caso especial del principio general de irreversibilidad. En la dinámica no
lineal y las nuevas teorías de la complejidad el concepto de equifinalidad casi
no se utiliza, aunque la retrodicción continúa interdicta; en el algoritmo
genético el concepto está implícito (Holland 1992b: 13). Multifinalidad Este
concepto es el inverso del anterior, y fue introducido en la teoría sistémica
algo más tardíamente. El mismo establece que condiciones iniciales similares
pueden llevar a estados finales diferentes; dos culturas que se desarrollan en
ámbitos ecológicos muy parecidos pueden desembocar en sistemas socioculturales
muy distintos. Los formuladores de la ecología cultural (entre ellos, el propio
Julian Steward) conocían muy bien esta peculiaridad. El origen y la
ejemplificación más convincentes de esta categoría se aplican a fenómenos
biológicos. Bertalanffy fue de hecho un biólogo que pensaba haber desarrollado,
gracias a este concepto, una concepción dinámica alternativa al evolucionismo.
Equivocadamente, pensaba que sólo los sistemas abiertos exhibían esta
propiedad. Hoy en día, particularmente en las ciencias del caos, se prefiere
usar expresiones como “sensitividad a las condiciones iniciales” y
“no-linealidad”. Morfogénesis Literalmente “surgimiento de la forma”. Es un
concepto biológico fundamental, junto con el crecimiento y la diferenciación
celular. La morfogénesis es el proceso causal complejo que amplía la desviación
y que resulta en la formación de nuevas estructuras o en el cambio radical de
la estructura de un sistema. Incidentalmente, digamos que la idea de
morfogénesis había sido planteada y elaborada por Alan Turing (1952) en
términos anticipatorios de “ruptura de la simetría”, en un texto que después se
convirtió en una referencia clásica de las ciencias de la complejidad. En la
fase más tardía de la teoría de sistemas, en la que se revisaron todos los
supuestos a instancias de las ideas de Ilya Prigogine generando lo que Magoroh
Maruyama llama segunda cibernética, la clave de la trayectoria de un sistema no
se encuentra tanto en las condiciones iniciales como en las redes de
retroalimentación positiva que amplían la desviación. Desviaciones amplias
resultan en procesos de estructuración habitualmente más complejos y por ello
tendencialmente más inestables. Jerarquía El concepto de jerarquía presupone
que los fenómenos están estructurados en niveles y en conjuntos de niveles, y
que cada cual es un conjunto de otros conjuntos. Un sistema jerárquico está
compuesto por subsistemas interrelacionados, hasta llegar al nivel de los
subsistemas elementales. Cada subsistema está especializado y participa de
maneras diferentes en Reynoso – Complejidad – 52 el flujo de materia, energía o
información en el interior del sistema total. La sociedad es un sistema
jerárquico que comprende diversos subsistemas. Los diferentes subsistemas de un
sistema disfrutan de cierto grado de libertad y autonomía. La jerarquía
presupone distintos niveles de integración y organización. La premisa básica de
la teoría de las jerarquías establece por un lado el isomorfismo global de los
sistemas jerárquicos y por el otro la especificidad relativa de los distintos
niveles. Entre un nivel y otro siempre existe una discontinuidad que no puede
ser objeto de un análisis expresado en relaciones lineales de determinación. En
principio, la ley general que se deriva del estudio de las jerarquías establece
que no se pueden explicar linealmente los sucesos de un nivel superior en
términos de los sucesos propios de los niveles inferiores (lo social a partir
de lo psicológico, el pensamiento a partir de la biología), pues entre ambos
planos median complejos procesos de emergencia. Cada nivel de la jerarquía está
gobernado por sus propias leyes. A fines de la década de 1960 la teoría de la
jerarquía de Howard Pattee, Herbert Simon, Stanley Salthe y otros se convirtió
en un cuerpo teórico relativamente separado de la TGS. Aunque en la constitución
de la disciplina intervinieron muchos estudiosos, para bien o para mal la
corriente lleva el sello personal de Bertalanffy, quien en su época fue
saludado como una celebridad para luego caer en el olvido. Fue éste un
personaje con ideas menos “liberales” que las de Norbert Wiener, ciertamente.
Con una ingenuidad que el tiempo se ha encargado de acentuar, decía Bertalanffy
de las orientaciones benefactoras del estado: Concuerda con la ética cristiana
acoger incluso al más humilde de nuestros hermanos, pero ¿hasta qué punto son
útiles y morales los cuidados que hoy prodigamos a los retrasados mentales, a
los dementes e incluso a los criminales, si sabemos con tanta certidumbre como
nos es conocido cualquier hecho científico que el resultado será el deterioro
de las reservas genéticas humanas y la futura multiplicación de generaciones de
idiotas y malhechores? (Bertalanffy 1974: 61). Publicado en una de esas
infaltables selecciones de textos misceláneos que dibujaban semblanzas de las
inquietudes humanísticas y la sensibilidad de los grandes sabios, el
razonamiento de Bertalanffy, ejemplo culminante del principio de ceteris
paribus, ni siquiera es consistente con su propio proyecto de trascender el
pensamiento lineal. El llamamiento de von Bertalanffy en pro de la unificación
de las ciencias tuvo por efecto la realización de numerosos congresos
interdisciplinarios orientados a materializar esos objetivos. Aquí vamos a
considerar los dos simposios más importantes que se desarrollaron alrededor de
la Teoría de Sistemas en la antropología y en disciplinas afines. El primero
tuvo lugar desde 1951 en adelante en forma de series de conferencias, reunidas
luego por Roy Grinker bajo el título pretencioso de Hacia una Ciencia
Unificada; participaron el antropólogo Jules Henry, Florence Kluckhohn,
Lawrence Frank (el inventor del marbete “Cultura y Personalidad”), el
psiquiatra Jürgen Ruesch y el sociólogo Talcott Parsons. El segundo fue un
panel que se desarrolló en 1977 como una de las mesas de discusión de un
encuentro mundial de antropólogos, cuyas conclusiones fueron vertidas y
discutidas en un artículo publicado en Current Anthropology al año siguiente.
El primer simposio no fue muy memorable para las ciencias sociales, aunque
algunos sistémicos de la línea dura presentaron en él ponencias de interés. La
invocación de una ciencia unificada y la presencia de Talcott Parsons,
pontífice del funcionalismo sociológico, alcanzó para desacreditar todo el
programa. Era por lo menos la cuarta vez que se anunciaba la unificación de las
ciencias: la primera, a principios de siglo, había estado asociada a los
positivistas lógicos, la segunda (entre 1930 y 1950) al conductismo de Clark
Hull en Yale y la Reynoso – Complejidad – 53 tercera (hacia 1954) a la
tagmémica de Kenneth Pike, con el auspicio del Instituto Lingüístico de Verano.
Con posterioridad a la sistémica, se habló también de unificar las ciencias
bajo el signo de la sociobiología (la “nueva síntesis”), o de la hermenéutica
geertziana, que se soñaba acaudillando nada menos que una refiguración de las
ciencias sociales sobre la base de un puñado de metáforas: la cultura como
texto, como drama, como campo (Geertz 1996). Como se sabe, ningún proyecto
unificador funcionó. En los años del primer simposio sistémico Talcott Parsons
ya no era ni la sombra del pope autocrático que había sido, y aunque su
funcionalismo sociológico tenía algunos puntos en común con la teoría de
sistemas, es obvio que su figura era más un indicio de continuidad,
conservadurismo, aburrimiento y apego al orden establecido que de una genuina
renovación epistemológica. El segundo simposio tampoco fue triunfal. En
noviembre de 1977 se realizó una discusión en un panel sobre análisis
sistémicos en antropología, en el contexto de la Conferencia Mundial que tuvo
lugar en Houston. El único antropólogo relativamente conocido que participó en
ese panel fue su organizador, Fred Eggan; el nombre de los otros participantes
no impresiona demasiado: Demitri Shimkin, Richard Blanton, Gerald Britan,
Marian Lundy Dobbert, Howard Harrison, John Lowe, Karen Michaelson, Beatrice
Miller y Miriam Rodin. En síntesis, y tomando este evento como ejemplar, podría
decirse que nunca un antropólogo de gran renombre abrazó la teoría de sistemas,
si bien unos pocos de cierta magnitud (Marvin Harris, Roy Rappaport, Gregory
Bateson) se han manifestado en principio de acuerdo con ella. Como sucede a
veces con los artículos del Current, lo más interesante fue la discusión
crítica. El análisis de los comentarios y respuestas podría servir para evaluar
la tibia recepción de la teoría de sistemas por parte de los antropólogos,
muchos de los cuales oirían hablar por primera vez de ella a través de la
desordenada caracterización de Rodin, Michaelson y Britan. No vale la pena una
discusión pormenorizada. Señalo solamente que la postura que se pone de
manifiesto en los comentarios oscila entre acusaciones de empleo de una jerga
engañosa y métodos oscuros, y apreciaciones constructivas, como la de Randall
Sengel, que sintetizan los principios fundamentales de la TGS en palabras
semejantes a las que he utilizado hasta aquí. 2.4.2 – Teorías de los sistemas
sociales y vivientes A título de ejemplo de los usos característicos, en esta
sección del estudio haré referencia a dos libros sumamente distintos, el primero
de escala modesta y el segundo monumental, que en su momento fueron clásicos de
la teoría de sistemas aplicada. En un texto muy conocido de Walter Buckley
(1970), La Sociología y la Teoría Moderna de los Sistemas, este sociólogo,
presente en todos los simposios que se realizaron durante dos décadas alrededor
de la sistémica, procura conciliar esa teoría con la tradición funcionalista de
Talcott Parsons y Amitai Etzioni, sin marcar suficientemente sus contrastes y
trayendo a colación bibliografía procesualista que no guarda relación con el
tema. La palabra “moderna” en el mero título del trabajo delata la antigüedad
de su concepción. En su bibliografía falta la contribución primaria de
Prigogine y sobra la elaboración secundaria de Maruyama, y lo mismo pasa con
los sociólogos verdaderamente creativos y Pitirim Sorokin. TGS, primera y
segunda cibernética aparecen referidas varias veces como si fueran idénticas.
En suma, el libro es ecléctico, desordenado, lleno de largas citas de autores
sólo tangencialmente vinculados al proyecto. Los modelos mecánicos,
organísmicos y sistémicos no se encuentran bien contrastados; por añadidura,
muchas de sus caracterizaciones teoréti- Reynoso – Complejidad – 54 cas son
imprecisas, por lo que se lo debe consultar con fuertes precauciones. Tras el
desbande de la teoría de sistemas, se ha visto a Buckley rondando congresos de
ciencias de la complejidad y autopoiesis, en actitud de haber estado siempre
allí. El segundo texto al que me refería, Living Systems, de James Grier Miller
(1978), constituye el esfuerzo más notable que se ha hecho de unificar la
teoría de sistemas, proveyendo una armadura sistemática a todos los niveles de
análisis, desde el organismo unicelular hasta el conjunto de las naciones del
planeta. Personaje influyente y carismático, inventor del término “ciencias del
comportamiento”, Miller (fallecido en noviembre de 2002) se hizo conocer por su
propuesta de ordenamiento de los subsistemas que conforman los sistemas
complejos, a los que dispuso en dos órdenes que comprenden a los subsistemas
que procesan energía por un lado y a los que procesan información por el otro.
Un subsistema peculiar, el reproductor, es el único que procesa a la vez
información y energía. No viene al caso caracterizar cada subsistema procesador
de energía (ingestor, distribuidor, convertidor, almacenador, expulsor, motor,
sustentador) o de información (transductor de entrada, transductor interno,
canal y red, decodificador, asociador, memoria, dedicidor, encodificador,
transductor de salida). Su enumeración, por sí sola, alcanza para esbozar el
cuadro. El capítulo más importante de la enciclopedia sistémica de Miller (que
abarca 1100 páginas en letra muy pequeña) es el cuarto, donde alinea hipótesis
concernientes a todos los sistemas vivos. El logro y el límite de su sistémica
consisten en un esfuerzo por identificar los subsistemas de cada nivel de
organización, compendiando y homogeneizando la literatura disponible. El valor
de esta propuesta sólo podría establecerse al cabo de un examen que considere
sus aspectos integrativos y los desafíos de sus hipótesis individuales; no creo
que valga la pena realizar aquí este examen, pues desde entonces su modelo no
ha tenido continuidad. En general, la reacción de la antropología académica le ha
sido hostil; el texto, que en algún momento se creyó que fundaba una
transdisciplina específica (la Teoría de los Sistemas Vivientes), ya casi ni se
menciona, salvo como ejemplo aleccionador de los excesos a los que alguna vez
se llegó. El factor negativo más saliente es su insistencia en el mantenimiento
de las estructuras antes que en los procesos de cambio y desequilibrio. A
propósito de los emergentes, por ejemplo, escribe Miller: [E]s necesario ser
preciso en la definición de los emergentes. Muchos autores los han discutido en
términos vagos y místicos. Me opongo a cualquier conceptualización de los
emergentes (como la sustentada al principio, y luego rechazada, por algunos
psicólogos de la Gestalt) que involucre características inescrutables del todo,
mayores que la suma de sus partes, no susceptibles a los métodos ordinarios de
análisis científico (Miller 1978: 29). Miller demuestra no haber comprendido
que la razón de ser de la teoría sistémica era constituir una alternativa no
reduccionista, precisamente, a los “métodos ordinarios de análisis científico”,
que más bien encarnan la mentalidad que debía superarse. Asimismo, la palabra
“complejidad” apenas aparece en el denso índice temático del libro de Miller, y
siempre que lo hace está más referida a agregaciones sumativas en el proceso
evolutivo de organismos y sociedades que a una epistemología diseñada para
tratar con ella. Lo suyo deviene entonces una versión entre mecanicista y
organísmica del funcionalismo, antes que una verdadera teoría de sistemas. Es
significativo que haya sido Bertalanffy quien cuestionara más duramente esta
concepción funcionalista cercana al equilibrio, vinculada a la sociología de
Talcott Parsons, Robert Merton, Kingsley Davis y otros; el propio padre de la
idea reconoció que el desarrollo de la Reynoso – Complejidad – 55 teoría de
sistemas en psiquiatría y psicología tampoco “representa un desenlace
emocionante de descubrimientos nuevos” (Bertalanffy 1976: 230). Conviene
prestar atención a sus palabras textuales: La principal crítica al
funcionalismo, particularmente en la versión de Parsons, es que insiste
demasiado en el mantenimiento, el equilibrio, el ajuste, la homeostasia, las
estructuras institucionales estables, y así sucesivamente, con el resultado de
que la historia, el proceso, el cambio sociocultural, el desenvolvimiento
dirigido desde adentro, etc., quedan en mala posición y aparecen, si acaso,
como “desviaciones” con una connotación de valor negativa. De modo que la
teoría parece ser de conservadurismo y conformismo, que defiende el “sistema”
(o la megamáquina de la sociedad presente, como dice Mumford) como es,
descuidando conceptualmente el cambio social y así estorbándolo. Es claro que
la teoría general de los sistemas ¼
está a salvo de esta objeción, ya que incorpora por igual mantenimiento y
cambio, preservación del sistema y conflicto interno; convendrá, pues, como
esqueleto lógico para una teoría social mejorada (Bertalanffy 1976: 205-206).
La TGS no estaba en realidad a salvo de la misma objeción, al punto que su
tratamiento marginal del cambio y la temporalidad llevaría más tarde a una
segunda cibernética, en la que los procesos y las crisis terminarían causando
la bancarrota, tal vez defintiva, de los estudios estructurales. Pero esa es
otra historia, a examinar más tarde. La TGS recibe hoy mucho menos crédito que
la cibernética, aunque los antropólogos que no saben mucho ni de una ni de otra
sienten mayor repulsa por el concepto de mecanismo de control que por las ideas
de isomorfismo. Actualmente, sólo unos pocos estudiosos de las teorías de la
complejidad vinculan a éstas con la teoría general (Phelan 1999; Manson 2001).
Los más viejos casi no la recuerdan y entre los más jóvenes son raros los que
tomaron nota de su existencia. Una rara supervivencia de la TGS es la corriente
ecléctica llamada Systems Thinking, de la que a su vez derivan el diseño
evolutivo de sistemas de Béla Banathy (1996) y la muy publicitada Quinta
Disciplina de Peter Senge (1990). Pero ya no se encuentran manifestaciones
vivas de la TGS en estado puro, aún cuando, contra toda lógica, todavía se siga
editando la publicación periódica International Journal of General Systems y el
veterano George Klir continúe siendo su editor. Hoy se cree que la TGS había
nacido prematuramente y con excesiva hybris, factores que contribuyeron a su
declinación (Stepp 1999); concebida para unificar todas las disciplinas, no se
generalizó ni siquiera en el interior de una sola de ellas. Su uso permaneció
restringido a ciertos expertos bienintencionados que tenían proyectos
envolventes y unificadores; pero aunque sus programas se situaran en contra de
la reducción mecanicista y la analiticidad, y manejaran con destreza un
repertorio de ecuaciones complicadas, sus resultados dejaban bastante que
desear. El holismo vitalista de la TGS fue reemplazado luego, en las ciencias
de la complejidad, por un esquema de causas simples para efectos complejos y
una idea de auto-organización “de abajo hacia arriba” (Phelan s/f; Shalizi
2001b); los diagramas de flujo y las ecuaciones diferenciales fueron
sustituidos por gráficas de atractores, series temporales y ecuaciones de
diferencia discretas, su difusa generalidad fue suplantada por conceptos más
articulados (clases de universalidad, scaling, renormalización, criticalidad) y
los sistemas dejaron de ser abiertos para ser nuevamente cerrados. La
competencia con teorías más dinamistas, con mayores énfasis en el desequilibrio
y la complejidad, con algoritmos más impactantes y con emergentes
experimentalmente tratables en modelos computacionales, llevó a la TGS a una
muerte tranquila, sin que nadie la llorara demasiado. Reynoso – Complejidad –
56 2.4.3 – Aplicaciones de la TGS en ciencias sociales Cuando a fines de la
década de 1950 comenzó a difundirse la teoría de sistemas, unos cuantos
científicos sociales se entusiasmaron. Ella parecía ofrecer precisamente lo que
sus ciencias no tenían: herramientas para abordar interacciones multivariadas
que estaban más allá de la comprensión intuitiva o de lo que podía lograrse
mediante el análisis de las partes separadas; un marco a la altura de la
complejidad del objeto; una fundamentación alimentada por varias disciplinas
trabajando en conjunto; y una cantidad de conceptos relativos al cambio como
nunca se había visto desde los días del evolucionismo, aunque tal vez no
suficiente para establecer ante la mirada del público una diferencia tajante
con los modelos funcionalistas, que ya iniciaban su camino al destierro. Pese a
que en torno de la TGS nunca se generó nada parecido a las legendarias
conferencias Macy, un puñado de científicos sociales llegó a ser visitante
asiduo de los simposios transdisciplinarios organizados por los teóricos de
sistemas, más o menos integrados con la comunidad cibernética. Pero apenas
corrió un poco más de tiempo para que los antropólogos, los arqueólogos y los
sociólogos comprometidos con el proyecto sintieran que las promesas no se
cumplían. El primer problema con el que se encontraron consistía en la
dificultad de determinar cuáles eran los sistemas; el segundo, la
identificación de los mecanismos, subsistemas y jerarquías pertinentes. Las
heurísticas para definir los sistemas, condición indispensable para ponerse a
trabajar, no estaban formuladas con tanta nitidez como en la cibernética de
Ashby, porque la TGS alentaba un modelo totalista con más de un punto en común
con el principio de la caja negra. Faltando ese instrumento, no había ni
siquiera objetos adecuados a los cuales aplicar la teoría. A las pretensiones
de no pocos estudiosos que alegaban que cualquier entidad a estudiarse
calificaba espontáneamente como sistema, se le hubiera podido responder con la
vieja y sensata observación de Donald Campbell, quien pensaba que es impropio
suponer que un grupo cualquiera de cosas constituye un sistema; que lo constituya
o no, pensaba Campbell, es más bien una hipótesis a demostrar (Buckley 1970:
74). De todas maneras, muchos de los principios de la TGS congeniaban con el
espíritu de la época. En antropología sociocultural, Clifford Geertz (1963) y
Marshall Sahlins (1964), que por aquel entonces cultivaban una ecología
cultural sin personalidad, desarrollaron trabajos discursivos que sugerían un
trasfondo sistémico; a decir verdad nunca pusieron las manos en el fuego por el
movimiento, pero se llegó a pensar que lo miraban con simpatía (Wood y Matson
1973: 674). En arqueología utilizaron conceptos de sistemas David R. Harris,
William Rathje, James Hill (1970) y Rosetta Stone. Sus prácticas combinaban
ideas de la TGS con otras de la cibernética, en particular la ley de variedad
requerida y los conceptos de variedad y restricciones de Ross Ashby (1972a).
Los trabajos de Hill, en particular, centrados en la explicación sistémica del
cambio, serían más tarde una de las fuentes de inspiración de los modelos de
cultura artificial de Nicholas Gessler (1994). Las teorías sistémicas
sustentaron también parte del modelo procesual de lo que aún hoy se llama Nueva
Arqueología. Esta corriente es desde hace tiempo un blanco favorito de la
crítica de sus adversarios, antes que un movimiento catalizador para la
disciplina. Acaso el optimismo imperante en tiempos de Lewis Binford y sus
seguidores, que encontraban sistemas por todas partes porque relajaban sus
criterios de delimitación, y que pensaban que los sistemas habrían de servir
para “analizar” el comportamiento de sus partes constitutivas o para “explicar”
sucesos en función de “leyes”, testimonie mejor que ningún otro elemento de
juicio las falencias de la TGS en la toma de conciencia de sus propios
principios. Reynoso – Complejidad – 57 En un terreno más sólido y perdurable
que el de esas experiencias se encuentran los estudios sistémicos de Clarke,
Schiffer y Flannery. En su Analytical archaeology, el inglés David Clarke
(1968) realizó el esfuerzo más significativo hasta la fecha de vinculación
entre la TGS y la teorización arqueológica. Éste era particularmente ambicioso,
ya que se proponía nada menos que re-escribir los conceptos, procedimientos y
formulaciones procesuales de la arqueología desde una perspectiva sistémica, a fin
de comprender la cultura material en función del sistema que ésta constituye.
Clark redefinió primero los conceptos de atributos, artefactos, tipos,
conjuntos, cultura, grupo cultural y tecnocomplejo conforme a ese plan; así,
por ejemplo, los artefactos devinieron sistemas de atributos, los tipos
sistemas de artefactos y atributos, etcétera. Luego procuró estructurar el
tratamiento de cada concepto de manera que los patrones de variación implicados
en la interpretación de los artefactos (o tipos, o lo que fuere) en términos
conductuales no se derivaran meramente de su definición o de su existencia. En
palabras que podrían haber sido de Roy Rappaport, Clarke enfatizó el papel de
la cultura material como sistema de regulación ambiental y como sistema de información.
Clarke subrayaba que se requiere mayor sensibilidad a la variación de los
atributos de artefactos y más rigor en los conceptos que emplean los
arqueólogos para definir asociaciones de artefactos; los conceptos, decía,
deben ser politéticos y no monotéticos, y debe prestarse atención a la trama de
relaciones anidadas y jerárquicas que median entre las diversas entidades. Una
cuestión esencial, pensaba, es comprender de qué manera la variedad máxima
necesaria para la supervivencia de un sistema se mantiene a niveles lo
suficientemente bajos como para el sistema no se vea amenazado. La pregunta a
formularse es cómo se alcanza y mantiene una situación de equilibrio, y cómo
varía ese equilibrio de una sociedad a otra. Clarke no llegó a contestar esa pregunta,
pues falleció a la edad de treinta y ocho años en 1976. La segunda contribución
sistémica en arqueología que todavía se estima de algún valor es la de Michael
Schiffer (1972). Su principal aporte es tal vez la invitación a que los
arqueólogos expandan su concepción del contexto sistémico en el que se produce
la distribución pautada de los artefactos de manera que queden incluidos los
procesos pos-deposicionales. Schiffer ha identificado algunas transformaciones
que afectan la pauta de esas distribuciones; sostiene que la forma en que esas
distribuciones son afectadas es cognoscible y que tal vez tenga carácter de
ley. Aunque los procesos pos-deposicionales enmascaran los patrones producidos
por la conducta primaria, no lo hacen de una forma drástica; siempre se podrán
encontrar patrones significativos si se tienen en cuenta esos procesos
transformadores. En otras palabras, hay que considerar esos procesos como parte
del sistema antes que como un obstáculo para la interpretación. La joya de la
corona en el uso de la TGS en arqueología probablemente sea la propuesta de
Kent Flannery (1968). Su análisis de los orígenes de la agricultura en el Nuevo
Mundo demuestra la potencialidad del pensamiento sistémico más allá de sus
flaquezas puntuales. En primer lugar, Flannery se opone a la idea de tratar de
comprender los orígenes de la agricultura, o el cambio en general, como un
proceso que involucra la adaptación de una población a su ambiente. En vez de
eso sugiere que la verdadera comprensión se deberá al análisis de los sistemas
de adquisición (procurement) que involucran la interacción de patrones de
conducta y tecnología con los recursos disponibles. En lugar de considerar las
prácticas de subsistencia en términos normativos, hay que concentrarse en los recursos
específicos y en los patrones particulares de extracción que se instrumentan
para explotarlos. En el caso de las tierras altas mesoamericanas, Flannery
identifica seis sistemas de adquisición basados en el Reynoso – Complejidad –
58 maguey, el fruto del cactus, las legumbres arborícolas, las hierbas
silvestres, el venado y el conejo. Luego Flannery plantea este dilema: si
dentro de una sociedad hay tantos sistemas adquisitivos, habrá que resolver
conflictos sustantivos para integrarlos. Flannery postula entonces dos
mecanismos de integración: la disponibilidad estacional de los recursos y las
tareas grupales, a los que describe en términos que no habré de detallar aquí.
Por último Flannery desplaza su atención a la desaparición de ese sistema y su
reemplazo por otro basado en la explotación de recursos domesticados. En
contraste con estudios precedentes que se preguntaban cómo se descubrió o
inventó la domesticación, Flannery señala la emergencia gradual de sistemas de
adquisición. Basándose en el concepto de Maruyama de amplificación de las
desviaciones, los cambios que identifica como “disparadores” que iniciaron el
proceso son las modificaciones genéticas del maíz y los frijoles que
incrementaron la productividad de esos recursos. Fred Plog considera que al
plantear las cosas de este modo, Flannery agregó más detalle e insight a
nuestra comprensión de este episodio evolutivo. Aunque su investigación se
reconoce preliminar, hoy sabemos mucho más sobre las prácticas mesoamericanas
de subsistencia antes, durante y después del proceso de domesticación que si no
se hubieran realizado sus estudios. Lo mismo puede decirse de sus trabajos
sobre los orígenes de la civilización y el estado, que tampoco detallaré en
este lugar. Cualesquiera sean las limitaciones y el carácter tentativo de las
ideas de Flannery, dice Plog (1975: 214), las preguntas que formuló trasladaron
nuestra atención desde las instituciones y los eventos hacia los procesos,
desde la descripción de las prácticas culturales hacia el esfuerzo por comprender
su evolución gradual, y desde los sucesos difíciles de definir en base a las
observaciones arqueológicas hacia otros que son más sensibles a los datos de
los que se dispone. Como puede verse, el impacto de la TGS en la arqueología ha
sido modesto, aunque de indudable provecho. No es fácil atribuir ni las culpas
por aquello ni el mérito por esto, pues nunca hubo un proyecto sistémico puro o
explícito; las ideas sistémicas se mezclaron con preocupaciones de
sistematización ligadas a la disciplina y a sus objetos peculiares que hubieran
estado allí de todos modos, y a esa mezcla se agregaron unos cuantos modelos de
simulación y diagramas de flujo que fueron también híbridos o inespecíficos.
Pero la tentativa dista de haber sido desastrosa. En una tesitura que valdría
la pena contrastar con las invectivas de Lilienfeld, hace ya más de tres
décadas escribía Plog: Los conceptos sistémicos no son varas mágicas, ni son
jerga. Han sido usados para reformular problemas arqueológicos clásicos en
formas que hacen que la solución eventual de esos problemas devenga más
probable. Se requerirá mucho más trabajo a nivel conceptual, empírico y
analítico antes que ese potencial se realice (Plog 1975: 216). Pero aún cuando
surgieran conceptos que daban impresión de diacronía y dinamicidad y se
replantearan algunos problemas de maneras más sutiles o desde ángulos
novedosos, estaba faltando a todas luces una teoría de la complejidad de los
procesos, una algorítmica robusta, criterios formales de isomorfismos y
universalidades, y una comprensión estructural del cambio. También faltaban,
por supuesto, las computadoras y los instrumentos de visualización que luego
habilitarían una dimensión de experiencias mucho más rica. Eso recién llegaría
varios paradigmas más tarde, junto con las teorías del caos, que conciernen más
a algoritmos y a capacidades emergentes bien definidas que a ambiciosas
narrativas totalizadoras.
No hay comentarios:
Publicar un comentario