Buscar este blog

lunes, 23 de septiembre de 2024

De la teoría de la información de Claude E. Shannon y Warren Weaver a la teoría de la transferencia ontológica.

 

De la teoría de la información de  Claude E. Shannon y Warren Weaver a la teoría de la transferencia  ontológica.   

 

El problema de las autoconciencia en la dialéctica del amo y el esclavo nos lleva a tres irresoluciones

La primera la expuesta por Hegel:

Una autoconciencia sea hace sierva de la otra para no mirar mientras que la otra se queda sin su reconocimiento porque no puede ser reconocida por un siervo que al hacerse siervo ha perdido su autoconciencia.

 

La segunda expuesta por Marx

 

El amo reconoce al siervo como alguien libre y contrata con el pero capitaliza su trabajo y entonces el siervo o más bien el proletariado no puede realizar su libertad porque su trabajo no le pertenece, y el burgués tampoco recibe su reconocimiento porque la relación se hace conflictiva en una lucha de clases.

 

La tercera expuesta por la cibernética

No hay amo visible, virtualmente todo somos libres más inmersos en la internet luchamos por el reconocimiento todo el tiempo, buscando vistas, en esa búsqueda nos auto explotamos y deshumanizamos porque el medio exige  mínima entropía en la comunicación, redundancia y convencionalidad al punto de invertirnos en máquinas, mientras el amo invisible dueño de las plataformas en internet va capitalizando nuestra lucha por el reconocimiento.    

https://www.youtube.com/watch?v=6DARcyzvNTM&t=3s dialéctica amo y esclavo

Para comprender esta irresolución veamos la teoría de la información de  Claude E. Shannon y Warren Weaver y su base en la lógica de Boole para luego para a eexponer nuestra teoría de la transferencia ontológica.

 

https://www.youtube.com/watch?v=qAbegfjieVk   Teoría de la información  

 

https://www.youtube.com/watch?v=4ic-J79O9hg teoría de la información desarrollada

 

 

En 1949, Shannon y Weaver lanzaron una teoría

matemática de la comunicación conocida también

como Teoría de la información. Su primera versión

apareció en el Bell System Technical Journal de octubre

de 1948, perteneciente a la Bell Telephone Laboratories,

organización a la que Shannon se encontraba

profesionalmente ligado.

Poco después el sociólogo Warren Weaver redactó un

 ensayo destinado a enfatizar las bondades de esta

propuesta, que fue publicado junto al texto anterior en

julio de 1949. El trabajo de Shannon se titula The

Mathematical Theory of communication .

 

Este se trata de un modelo de comunicación, más exactamente, de una teoría de la

información pensada en función de la cibernética, ciencia que estudia el funcionamiento

de las máquinas, especialmente, las máquinas electrónicas. Cuando Shannon habla de

información, se trata de un término con un sentido completamente diferente del que

nosotros le atribuimos en general (noticias que nos traen a diario la prensa, la radio y la

TV). Se trata para él de una unidad cuantificable que no tiene en cuenta el contenido del

mensaje .

Según Denis McQuail , este modelo se centraba en la eficiencia técnica de los canales de

3

comunicación para la transmisión de información. 

 

 

Además, La comunicación es vista como un proceso secuencial que comienza desde la

fuente, que elige un mensaje, que es transmitido, en forma de señal y mediante un canal

de comunicación, hacia un receptor, que vuelve a convertir la señal en un mensaje dirigido

a un destino.

El modelo de Claude Elwood Shannon se aplica entonces a cualquier mensaje

independiente de su significación, sobre esto él matemático refiere:

“Con frecuencia los mensajes tienen significado; es decir, se refieren o

están correlacionados de acuerdo con algún sistema con ciertas

entidades físicas o conceptuales. Estos aspectos semánticos de la

comunicación son irrelevantes para el problema de ingeniería. El

aspecto significativo es que el mensaje real es uno seleccionado de un

conjunto de mensajes posibles ”

 

Esta teoría permite, sobre todo, estudiar la cantidad de información de un mensaje en

función de la capacidad del sistema para transmitir y/o almacenar. Esta capacidad se

mide según el sistema binario (dos posibilidades I / O) en bits (binary digits) asociados a

la velocidad de transmisión del mensaje, pudiendo esta velocidad ser disminuida por el

ruido. Claude Shannon dice que el tiempo necesario para transmitir información es

proporcional a la cantidad de información transmitida o sea, si se transmite más

información, será necesario mayor tiempo.

Además el autor trata de establecer a través de esta teoría una ecuación matemática para

poder medir el valor informativo de los mensajes (la fidelidad con la que es transmitido

el mensaje del emisor al receptor), tomando en consideración la "información" como un

valor cuantificable en los procesos de comunicación.

Objetivos de este modelo

El principal objetivo del modelo es mejorar la eficiencia y eficacia en la transmisión de

información, a través de:

1)     La velocidad en la creación y transmisión de los mensajes. 

 

 

2) eficiencia en la capacidad de los canales de la comunicación

3) La codificación eficaz de los mensajes, que evite la ambigüedad y los ruidos entre

emisor y receptor.

Ejemplo: El lenguaje informático es hoy en día uno de los más eficaces. En este

contexto de Shannon comienza a desarrollar su uso con aplicaciones en militares y

redes.

Problemas del proceso de comunicación

Los problemas en el proceso de comunicación según la teoría de la información, pueden

ser causados por variables distintas. Al surgir un problema se deben realizar tres

interrogantes:

1° Nivel; ¿Con qué precisión pueden transmitirse los símbolos de la comunicación?

2° Nivel: ¿Con qué precisión los símbolos que se trasmiten son recibidos con el

significado deseado?

3° Nivel: ¿Con que efectividad el significado recibido afecta a la conducta del

receptor en el sentido deseado?

Los elementos de del modelo

El modelo de Shannon (Gráfico) se representa por un esquema compuesto por distintos

elementos: una fuente (information source), un transmisor (transmitter), un canal, un  receptor (Receptor), un destino (destination). Dentro de este modelo y como novedad

para la época, se incluye el concepto de ruido (Noise source), que aporta una cierta

perturbación.

Examinaremos algunas características de estos elementos.

La Fuente Consiste en el elemento emisor inicial del proceso de comunicación; produce

un cierto número de palabras o signos que forman el mensaje a transmitir. Por

ejemplo, puede ser la persona que, habiendo descolgado el teléfono y marcado el

número comienza a hablar. Puede ser, del mismo modo, la persona que habla a través

de la radio, televisión, podcast, etc. Una fuente es en sí misma un conjunto finito de

mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de

datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres

que conforman dicho archivo.Es importante también destacar, que este modelo

distingue distintos tipos de fuente.

a) aleatoria cuando no es posible predecir cuál será el próximo mensaje a emitir

por la misma.

b) estructurada cuando posee un cierto nivel de redundancia, es decir es

predecible, repetitiva.

La fuente aleatoria posee la particularidad de emitir mensajes que no es posible

comprimir, es decir la información pura no puede ser comprimida sin que se pierda un

grado de significación (valor) sobre el mensaje emitido.

El Mensaje, para la teoría de la información, es un conjunto de ceros y unos. Un archivo,

un paquete de datos que viaja por una red, es decir, cualquier cosa que tenga una

representación binaria puede considerarse un mensaje.

El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero

debido a que tratamos con información digital nos referiremos casi siempre a mensajes

binarios.

El transmisor: Es el emisor técnico, el que transforma el mensaje emitido en un conjunto

de señales o códigos que serán adecuados al canal encargado de transmitirlos. Así en

nuestro ejemplo, el transmisor transformará la voz en impulsos eléctricos que podrán ser

transmitidos por el canal.

El canal (Signal en el Gráfico): Es el medio técnico que debe transportar las señales

codificadas por el transmisor. Este medio será, en el caso del teléfono, los cables, o la red  de microondas por la empresa telefónica en comunicaciones internacionales.

El código es un conjunto de unos y ceros que se usan para representar un cierto

mensaje de acuerdo a reglas o convenciones preestablecidas. Es importante destacar

que la forma de codificación es arbitraria, es decir responde a una convención

preestablecida.

La información contenida en un mensaje es proporcional a la cantidad de bits que se

requieren como mínimo para representar al mensaje, por eso hacemos hincapié en la

naturaleza matemática y primordialmente funcional de este modelo. El concepto de

información puede entenderse más fácilmente si consideramos un ejemplo.

Supongamos que estamos leyendo un mensaje y hemos leído "cadena de c…."; la

probabilidad de que el mensaje continúe con "caracteres" es muy alta. Así, cuando

efectivamente recibimos a continuación "caracteres" la cantidad de información que

nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a

ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos

información que la ocurrencia de mensajes menos probables, es decir es más eficiente

y por lo tanto positiva al sistema. 

 

 

El receptor: También aquí se trata del receptor técnico, cuya actividad es la inversa de

la del transmisor. Su función consiste en decodificar el mensaje. Importante, no

confundir con el receptor de otros modelos.

El destinatario: Constituye el verdadero receptor a quien está destinado el mensaje. Será

entonces la persona a quien se dirige el llamado telefónico o el conjunto de

persona-audiencia de radio o de TV.

El ruido: Fue un concepto novedoso en el campo de la comunicación. El ruido o distorsión

es un perturbador, que altera en diverso grado la señal durante su transmisión. También

se debe considerar, muy especialmente, el ruido no técnico. Esto es, aquel que proviene

del contexto psicosocial. Todos los elementos precedentes son considerados como ruidos

que pueden, entonces, provenir del canal, del emisor, del receptor, del mensaje, etcétera.

Otros conceptos importantes del modelo: Entropía de la información.

La entropía de la información es un término usado por Shannon en que explica cómo se  puede considerar la cantidad de información promedio que contienen los símbolos usados.

Los símbolos con menor probabilidad son los que aportan mayor información, es decir

en un texto no es lo mismo el sustantivo que un artículo. Digamos que el sustantivo

aporta mayor información, debido a su “valor textual” (N.del.Profesor: Término en el que me

refiero al valor que posee este como elemento sustancial en el texto) a diferencia con respecto al

artículo que no posee dicho valor textual. Es decir podemos entender un texto con

errores que cuente con faltantes en, por ejemplo artículos o adjetivos pero será más

difícil de entender si faltan sustantivos.

El término entropía fue utilizado en otras ciencias como por ejemplo la sociología (Emile

Durkheim) y siempre esta relacionado con el desorden, es decir la capacidad del sistema

hacia la destrucción. En este caso, para la teoría de la información es un concepto más

relacionado con “la medida del desorden” es decir, cómo controlarlo y predecirlo, a

través de un análisis cuantitativo de sus elementos.

“Si todos los elementos de la señal son equiprobables (igual de probables) a la

hora de aparecer, entonces la entropía será máxima.”

Es decir, todos los elementos poseen el mismo valor, ninguno esta subordinado a otro,

por lo tanto el mensaje es ininteligible, posee el máximo de ruido posible.

A modo de conclusión

El modelo de Shannon y Weaver es muy atractivo debido a su relativa sencillez y

flexibilidad. Además representó un aporte importantísimo en el desarrollo de las

tecnologías de la información que utilizamos hoy en día.

Es cierto, que no deja de ser un enfoque meramente instrumental y conductista,

pero no olvidemos que todos los procesos de comunicación que transportan

información pueden estar subsumidos a un limitado número de preguntas

disyuntivas, casi representadas en una estructura binaria, es decir, digital, (si/no),  Esta visión es un enfoque quizás, resulta meramente funcional a los intereses de las

partes implicadas en la Fuente/emisor y no considera cuestiones inherentes a el

receptor/ consumidor del mensaje. Pero no olvidemos que todos los mensajes

pueden ser analizados como dijimos antes, “a vuelo de pájaro” de una manera

meramente instrumental, para poder reconocer falencias o mejoras que puedan ser

aplicadas en su proceso comunicativo.

No obstante, quizás como humilde crítica muestra que en realidad no es mucho más  que un modelo Estímulo -Respuesta ampliado. Ya que al no tomar las condiciones

cualitativas del mensaje no logra explicar las particularidades de la comunicación

humana. 

 

 

¿Pero no afecta esta  teoría cualitativamente a los mensajes? ¿No tiene ninguna incidencia semántica? 

Veamos con más detenimiento la teoría para darnos una idea sobre esto 

 

 

¿Qué es realmente la información?

O dicho de otra manera: ¿cómo debe ser explicado el hecho de que una señal transporta cierto contenido informativo? ¿Cuáles son las características de este hecho? Dar respuesta adecuada a estas preguntas no es, ni mucho menos, una cuestión trivial. Se trata, sin lugar a dudas, de contestar a una de las cuestiones que han alimentado parte de los esfuerzos intelectuales de la última década: cómo definir la noción de contenido informativo y, por tanto, qué significa que una señal transporte cierta información. Pero aunque describir qué es la información no sea una tarea sencilla y la contaminación conceptual reinante nos impida acercarnos con claridad a este objeto de conocimiento, es posible arrojar un poco de luz sobre esta espesa confusión terminológica. Un primer paso para establecer la clarificación del concepto de información podemos encontrarlo indirectamente en el tratamiento de la noción de información que, desde el ámbito de la matemática, han ofrecido algunas teorías, principalmente la introducida por Claude Shannon y conocida como la teoría matemática de la comunicación. El objetivo principal que se persigue con este artículo es mostrar que, aunque desde la teoría matemática de la comunicación no se pretende aportar nada sobre la definición de contenido informativo —sólo se intenta presentar un tratamiento de la medida de la cantidad de información adecuado para el trabajo y los problemas de los ingenieros—, es posible extraer de esta propuesta ciertas restricciones que debemos imponer a la hora de diseñar un análisis semántico de la noción de información. Y para alcanzar este objetivo desdoblaremos esta tarea en dos episodios. Por un lado, en el apartado que viene a continuación, se realizará una breve exposición de las principales ideas contenidas en la teoría matemática de la comunicación. Por otro lado, en el apartado final, destacaremos algunas restricciones útiles que nos puede ofrecer esta teoría y que, si bien no definen directamente la noción de contenido informativo, deben de ser tenidas en cuenta y respetadas a la hora de proponer una teoría semántica satisfactoria de la información. En definitiva, en los siguientes apartados pasaremos revista a las ideas técnicas presentadas por Shannon, pero no con la intención de encontrar en la teoría matemática de la comunicación una respuesta directa a la cuestión de qué es lo que se dice cuando utilizamos el término información, sino para ver lo que podríamos decir —y lo que no podríamos decir— si utilizaramos correctamente este mismo término al tener en cuenta algunas restricciones matemáticas extraíbles de dicha teoría.

 

 

 

II. CANTIDAD Y FLUJO INFORMATIVO

 

 

En concreto, dentro de la propuesta de Shannon los contextos informativos se consideran formados por fuentes (de información) que, a su vez, son definidas como conjuntos de acaecimientos con cierta probabilidad de ocurrencia. Al hilo de esta distinción entre las fuentes de información y las ocurrencias (o mensajes) que las conforman podemos introducir las principales definiciones que aparecen en esta teoría. En primer lugar presentaremos la ecuación que es utilizada para calcular la información asociada a una ocurrencia si. La fórmula adecuada para medir la cantidad de información asociada a si (o su valor de sorpresa, I(si)), dada su probabilidad p(si), es: 

(1) I(si) = log 1/p(si) bits3 = - log p(si) bits (dado que log (1/x) = - log x). I(si) puede entenderse también como la información necesaria para representar que se ha producido la ocurrencia de si, o como el número de pasos o decisiones binarias (bits) necesarios para reducir n posibilidades de una fuente a una. Dentro de la teoría matemática de la comunicación, la cantidad de información de un estado o un mensaje concreto sólo es considerado como un estadio para el cálculo de la cantidad media de información de una fuente que contiene varios estados con un valor de sorpresa propio. Para calcular esta media ponderada de información se utiliza la siguiente fórmula: (2) I(S) = p(s1) . I(s1) + p(s2) . I(s2) + p(s3) . I(s3) +...+ p(sn) . I(sn) = ∑ p(s i=1 n i) . I(si) bits / mensaje 4 . Por I(S), también llamada entropía, debemos entender el valor medio por símbolo de la información suministrada por la fuente S, o, también, el valor medio de la incertidumbre de un observador antes de conocer la salida de la fuente S. La importancia de esta cantidad dentro de la teoría presentada por Shannon —en detrimento de la de cantidad de información de un mensaje concreto— se justifica por el hecho de que es mucho más fructífera y útil a la hora de intentar diseñar soluciones a los problemas centrados en los aspectos de la ingeniería de la comunicación. Es poco útil intentar encontrar un canal que sirva para transmitir información exclusivamente en función de la cantidad de información asociada a un mensaje determinado de una fuente: si bien lograríamos que ese mensaje se transmitiese de una manera correcta, podría ser que para el resto de los mensajes de la fuente el canal utilizado no fuera adecuado. Es mucho más rentable diseñar un canal teniendo en cuenta el valor medio por símbolo de la información suministrada por la fuente. Hasta ahora hemos presentado el tratamiento de la cantidad de información generada por una fuente haciendo referencia exclusiva a mensajes o fuentes independientes, y para ello hemos introducido las fórmulas (1) y (2). Pero en la mayoría de los casos prácticos no podemos hablar de fuentes de información que sean independientes o que estén fuera de la influencia informativa de otras fuentes. A menudo, las fuentes se encuentran en relación informativa con otras fuentes. Cuando esto ocurre, cuando dos fuentes se encuentran relacionadas informacionalmente, decimos que entre ellas existe una transmisión o flujo de información. En estos contextos de interacción informativa, las definiciones de cantidad de información anteriormente expuestas no son suficientes para recoger matemáticamente este flujo o transmisión de información.  (A continuación se exponen más formulas si queiren revisarlas aquí está el artículo file:///C:/Users/PC/Downloads/Dialnet-TeoriaMatematicaDeLaComunicacionYTeoriaSemanticaDe-4254150.pdf lo pueden buscar como: Teoría matemática de la comunicación y teoría semántica de la información1 Mario Pérez Gutiérrez nosotros vamos de frente a las restricciones que es lo que nos importa)

 

III. RESTRICCIONES MATEMÁTICAS Y CONTENIDO INFORMACIONAL Como ya hemos indicado anteriormente, el objetivo último de la teoría matemática de la comunicación es el tratamiento de las cantidades medias de información, distanciándose totalmente de cualquier desarrollo de los aspectos semánticos del contenido informacional de los mensajes individuales y concretos de una fuente. La única mirada dedicada a estos mensajes sólo busca la contribución numérica de la cantidad de información de los mismos a la de la media. En este sentido, cuando evaluamos los beneficios explicativos que nos ofrece la teoría matemática de la comunicación, podemos encontrar algunos problemas que pueden hacernos pensar que de esta teoría poco se puede aprovechar para satisfacer nuestros intereses teóricos centrados en el análisis semántico de la información. Por un lado, aparece un problema estrechamente relacionado con el uso posible de esta teoría: la grave dificultad que se presenta cuando intentamos aplicar sus fórmulas a situaciones concretas. En estas situaciones cotidianas, a menudo es difícil conocer con exactitud la mayoría de los valores de la probabilidad que conforman las ecuaciones, lo que hace casi imposible un cálculo numérico adecuado de las cantidades de información que intervienen. Pero aunque esta dificultad sea evidente, como veremos más adelante, debemos defender un uso adecuado de estas fórmulas. Si rechazamos el uso ambicioso de estas ecuaciones en su intento de encontrar valores numéricos, podemos obtener un beneficio adecuado de las mismas: podemos obtener comparaciones entre el valor de las cantidades de información, y lo que es mejor, mediante el uso de estas fórmulas, podemos realizar juicios comparativos entre el valor de la cantidad de información generada en la fuente y el valor de la recibida por el receptor. Y, por otro lado, nos encontramos con el problema consistente en que las definiciones matemáticas derivadas de la teoría matemática de la comunicación no son de gran ayuda cuando intentamos descifrar el contenido semántico asociado a las señales: nos dicen cuánta información transporta una señal pero no qué información es transportada. Y esa independencia entre el cuánto y el qué queda de manifiesto si contemplamos los casos en los que dos señales pueden transportar la misma cantidad de información y sin embargo indicar contenidos informativos totalmente distintos. En estos casos, la teoría presentada por Shannon, asignándoles el mismo valor numérico, no es capaz de discriminar entre dos señales que claramente, desde un punto de vista semántico, son diferentes. En definitiva, para satisfacer nuestros intereses explicativos referentes a la información, debemos buscar una teoría que sea capaz de discriminar la información de que p de la información de que q aunque la información de que p y la información de que q sean indistinguibles desde el punto de vista de la cantidad de información. Y la teoría matemática de la comunicación, claramente no se encuentra preparada para esta discriminación.

 

 

 

 

Pero lo que nos interesa son las restricciones

 

Así hay restricciones informacionales enfocadas en la cantidad de informaciones  y comunicacionales que tratan sobre las relaciones matemáticas  que se produce entre las fuentes que están en relación comunicacional.   

 

 

 

 

Veamos esto videos para comprender las restricciones  

Primero volvamos al video inicial

https://www.youtube.com/watch?v=4ic-J79O9hg donde se establece la formula de la información  y luego introduzcámonos de lleno:  

https://www.youtube.com/watch?v=pW5xb3OxiCE&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w

Introducción

 

https://www.youtube.com/watch?v=_TBSkGowTdQ&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w&index=2

Entropía  

 

 

https://www.youtube.com/watch?v=J57Ot02Ou10&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w&index=3

 

Fuentes de información 

 

Y reeleamos el articulo 

 

file:///C:/Users/PC/Downloads/Dialnet-TeoriaMatematicaDeLaComunicacionYTeoriaSemanticaDe-4254150.pdf

Así el autor concluye que hay que respetar en todo proceso de comunicación los límites que un canal no confiable ofrece a la trasmisión de mensajes sin error, o la cantidad de información mínima o máxima  que debe transportar una ocurrencia sobre para poder hablar de que entre los dos existe un flujo informativo.

 

Más lo que nos preocupa es que el modelo comunicacional no es humano pero incide en lo humano deshumanizándolo así al quitar todo ruido de la comunicación desde el primer teorema de Shanon se pierde el contexto humano y al intentar reducir la entropía se pierde la autoconciencia humana que se busca equívocamente pero lo peor es que se hace imposible la transferencia del ser, porque no se comprende la comunión espiritual basa de toda comunicación genuinamente humana con nuestra propuesta de transferencia ontológica queremos superar toda esta deshumanización volviendo a una relación de autoconciencias y no de máquinas, pero para hacerlo hagamos una yuxtaposición entre la lógica booleana y nuestra ciencia del logos:

Empecemos con los valores digitales de cero y uno 0 1  

 

https://www.youtube.com/watch?v=uPHx9GqKDVA&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=1

 

 

En la ciencia del logos

 

El 1 representa el ser

Y el 0 el no ser

Partiendo  de la docta ignorancia sabemos el ser y el no ser son lo mismo y que no lo son

1=0  1≠ 0

 

Y entonces tenemos el ser comprendido como la igualdad eterna entre el ser y el no ser y tenemos el devenir donde el ser y el no ser don distintos.

 

 

Vayamos ahora a las ondas ontológicas.

 

 

https://www.youtube.com/watch?v=KudEtftdrfk&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=2

 

A diferencia de las ondas digitales lo que tenemos es una onda sinusoide.

 

                     

                      

1                                     1

 

                       0

   

 

    Esa es la onda del ser  valle

 

 

 

                        1

 

 

0                                                                     0   

 

 

Esa es la onda del no ser  pico

 

 

 

Lo que está  “mal” son las ondas contratransferenciales  

 

 

Done el pico se altera   1→←1 

 

Y donde el valle se corta 0 0 

 

 

Esto representaría la transferencia negativa en el psicoanálisis, aquí es donde se corta la comunión y aparece el conflicto.

 

 

Con estas bases vamos a ahora si a lógica de Bolee y sus puertas lógicas:  

 

 

https://www.youtube.com/watch?v=nbEOWmykuzA&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=212

 

La puerta de Not o puerta de inversión en la matemática transferencial esto es importantísimo porque toda la matemática se basa en la conversión y en la inversión.

 

Así que tenemos la función inversiva

 

1↓=0

 

Y la función conversiva

 

0↑=1 

 

Así cada vez que del ser pasemos al no ser hay una inversión

 

1→0 

 

Y cada vez que pasemos  del no ser  al ser hay una conversión.

 

0→1    

 

 Sea el paso progresivo →  o regresivo ← 

 

Ahora veamos la compuerta lógica and

https://www.youtube.com/watch?v=h9INco4mHcg&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=213

 

Y comprendamos que en la matemática transferencial

Si yo paso del ser al no ser hay transferencia 1→0

 

Igual si yo paso del no ser al ser 0→1 hay transferencia

 

Pero si yo paso del será al ser 1→←1 hay contratransferencia, conflicto o en psicoanálisis transferencia negativa.  

Y esa contra trasferencia se invierte en desintegración:

 

1→←1↓= 0  0 

 

Así mismo la desintegración se convierte en contra transferencia

 

 

0         0 ↑= 1→←1 

 

Toda la ciencia del logos trata de superar la contratranferencia y la desintegración que de ella deviene.

 

¿Cómo hacerlo?

 

Pues tengo que volver al ser en el misterio pascual

 

1         vida→0 muerte →1 resurrección

 

O tengo que volver al cero en el misterio dharmico

 

Iluminación 0 Nirvana←1 conciencia de maya ←0

 

La clave es la oración que pide perdón para salir del bucle contra transferencial y así entrar en la transferencia pascual.

 

Y la meditación que desaparece la ilusión de cualquier problema o entidad en el devenir toda pasa y así se entra en el misterio dharmico posibilitando otra vez la transferencia ontológica.   

No hay comentarios: