De la teoría de la
información de Claude E. Shannon y Warren
Weaver a la teoría de la transferencia ontológica.
El problema de las
autoconciencia en la dialéctica del amo y el esclavo nos lleva a tres
irresoluciones
La primera la expuesta
por Hegel:
Una autoconciencia sea
hace sierva de la otra para no mirar mientras que la otra se queda sin su
reconocimiento porque no puede ser reconocida por un siervo que al hacerse
siervo ha perdido su autoconciencia.
La segunda expuesta por
Marx
El amo reconoce al
siervo como alguien libre y contrata con el pero capitaliza su trabajo y
entonces el siervo o más bien el proletariado no puede realizar su libertad
porque su trabajo no le pertenece, y el burgués tampoco recibe su
reconocimiento porque la relación se hace conflictiva en una lucha de clases.
La tercera expuesta por
la cibernética
No hay amo visible,
virtualmente todo somos libres más inmersos en la internet luchamos por el
reconocimiento todo el tiempo, buscando vistas, en esa búsqueda nos auto
explotamos y deshumanizamos porque el medio exige mínima entropía en la comunicación,
redundancia y convencionalidad al punto de invertirnos en máquinas, mientras el
amo invisible dueño de las plataformas en internet va capitalizando nuestra
lucha por el reconocimiento.
https://www.youtube.com/watch?v=6DARcyzvNTM&t=3s
dialéctica amo y esclavo
Para comprender esta
irresolución veamos la teoría de la información de Claude E. Shannon y Warren
Weaver y su base en la lógica de Boole para luego para a eexponer nuestra
teoría de la transferencia ontológica.
https://www.youtube.com/watch?v=qAbegfjieVk Teoría de la información
https://www.youtube.com/watch?v=4ic-J79O9hg
teoría de la información desarrollada
En
1949, Shannon y Weaver lanzaron una teoría
matemática de
la comunicación conocida
también
como
Teoría de la
información. Su primera versión
apareció
en el Bell System Technical Journal de octubre
de
1948, perteneciente a la Bell Telephone Laboratories,
organización
a la que Shannon se encontraba
profesionalmente
ligado.
Poco
después el sociólogo Warren Weaver redactó un
ensayo destinado a enfatizar las
bondades de esta
propuesta,
que fue publicado junto al texto anterior en
julio
de 1949. El trabajo de Shannon se titula The
Mathematical
Theory of communication .
Este
se trata de un modelo de comunicación, más exactamente, de una teoría de la
información
pensada en función de la cibernética, ciencia que estudia el funcionamiento
de
las máquinas, especialmente, las máquinas electrónicas. Cuando Shannon habla de
información,
se trata de un término con un sentido completamente diferente del que
nosotros
le atribuimos en general (noticias que nos traen a diario la
prensa, la radio y la
TV). Se trata
para él de una unidad
cuantificable que no tiene en cuenta el contenido del
mensaje .
Según
Denis McQuail ,
este modelo se centraba en la eficiencia técnica de los canales de
3
comunicación para la transmisión
de información.
Además,
La comunicación es vista como un proceso secuencial que comienza
desde la
fuente, que elige un
mensaje, que es transmitido, en forma de señal y mediante un canal
de
comunicación, hacia un receptor, que vuelve a
convertir la señal en un mensaje dirigido
a
un destino.
El
modelo de Claude Elwood Shannon se aplica entonces a cualquier mensaje
independiente
de su significación, sobre esto él matemático
refiere:
“Con
frecuencia los mensajes tienen significado; es decir, se refieren o
están
correlacionados de acuerdo con algún sistema con ciertas
entidades
físicas o conceptuales. Estos aspectos semánticos de la
comunicación
son irrelevantes para el problema de ingeniería. El
aspecto
significativo es que el mensaje real es uno seleccionado de un
conjunto
de mensajes posibles ”
Esta
teoría permite, sobre todo, estudiar la cantidad de información de un mensaje
en
función
de la capacidad del sistema para transmitir y/o almacenar. Esta capacidad se
mide
según el sistema binario (dos posibilidades I / O) en bits (binary digits)
asociados a
la
velocidad de transmisión del mensaje, pudiendo esta velocidad ser disminuida
por el
ruido. Claude Shannon dice que el tiempo necesario para transmitir información es
proporcional
a la cantidad de información transmitida o sea, si se transmite más
información,
será necesario mayor tiempo.
Además
el autor trata de establecer a través de esta teoría una ecuación matemática
para
poder
medir el valor informativo de los mensajes (la fidelidad con la que es
transmitido
el
mensaje del emisor al receptor), tomando en consideración la
"información" como un
valor
cuantificable en los procesos de comunicación.
Objetivos de
este modelo
El
principal objetivo del modelo es mejorar la eficiencia y eficacia en la
transmisión de
información,
a través de:
1)
La velocidad en
la creación y transmisión de los mensajes.
2)
eficiencia en la capacidad de los canales de la comunicación
3)
La codificación
eficaz de los mensajes, que evite la ambigüedad y los
ruidos entre
emisor
y receptor.
Ejemplo:
El lenguaje informático es hoy en día uno de los más eficaces. En este
contexto
de Shannon comienza a desarrollar su uso con aplicaciones en militares y
redes.
Problemas del
proceso de comunicación
Los
problemas en el proceso de comunicación según la teoría de la información,
pueden
ser
causados por variables distintas. Al surgir un problema se deben realizar tres
interrogantes:
1°
Nivel; ¿Con qué precisión pueden transmitirse los símbolos de la comunicación?
2°
Nivel: ¿Con qué precisión los símbolos que se trasmiten son recibidos con el
significado
deseado?
3°
Nivel: ¿Con que efectividad el significado recibido afecta a la conducta del
receptor
en el sentido deseado?
Los elementos
de del modelo
El
modelo de Shannon (Gráfico) se representa por un esquema compuesto por distintos
elementos: una fuente (information
source),
un transmisor (transmitter),
un canal, un receptor
(Receptor),
un destino (destination).
Dentro de este modelo y como novedad
para
la época, se incluye el concepto de ruido (Noise source), que aporta una cierta
perturbación.
Examinaremos
algunas características de estos elementos.
La
Fuente Consiste en el
elemento emisor inicial del proceso de comunicación; produce
un
cierto número de palabras o signos que forman el mensaje a transmitir. Por
ejemplo,
puede ser la persona que, habiendo descolgado el teléfono y marcado el
número
comienza a hablar. Puede ser, del mismo modo, la persona que habla a través
de
la radio, televisión, podcast, etc. Una fuente es en sí misma un conjunto
finito de
mensajes:
todos los posibles mensajes que puede emitir dicha fuente. En compresión de
datos
se tomará como fuente el archivo a comprimir y como mensajes los caracteres
que
conforman dicho archivo.Es
importante
también destacar,
que
este
modelo
distingue
distintos tipos de fuente.
a)
aleatoria cuando no es posible predecir cuál será el próximo mensaje
a emitir
por
la misma.
b)
estructurada cuando posee
un cierto
nivel de redundancia, es decir es
predecible,
repetitiva.
La
fuente
aleatoria posee
la
particularidad de
emitir
mensajes
que no es posible
comprimir,
es decir la información pura no puede ser comprimida sin que se pierda un
grado
de significación (valor) sobre el mensaje emitido.
El
Mensaje, para la teoría
de la información, es un conjunto de ceros y unos. Un archivo,
un
paquete de datos que viaja por una red, es decir, cualquier cosa que tenga una
representación
binaria puede considerarse un mensaje.
El
concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero
debido
a que tratamos con información digital nos referiremos casi siempre a mensajes
binarios.
El
transmisor: Es el emisor técnico, el que
transforma el mensaje emitido en un conjunto
de
señales o códigos que serán adecuados al canal encargado de transmitirlos. Así
en
nuestro
ejemplo, el transmisor transformará la voz en impulsos eléctricos que podrán
ser
transmitidos
por el canal.
El
canal (Signal en el
Gráfico): Es el medio técnico que debe transportar las señales
codificadas por el transmisor.
Este medio será, en el caso del teléfono, los cables, o la red de microondas por la empresa telefónica en
comunicaciones internacionales.
El
código es un conjunto
de unos y ceros que se usan para representar un cierto
mensaje
de acuerdo a reglas o convenciones preestablecidas. Es importante destacar
que
la forma de codificación es arbitraria, es decir responde a una convención
preestablecida.
La
información contenida en
un mensaje es proporcional a la cantidad de bits que se
requieren
como mínimo para representar al mensaje, por eso hacemos hincapié en la
naturaleza
matemática y primordialmente funcional de este modelo. El concepto de
información
puede entenderse más fácilmente si consideramos un ejemplo.
Supongamos
que estamos leyendo un mensaje y hemos leído "cadena de c…."; la
probabilidad
de que el mensaje continúe con "caracteres" es muy
alta. Así, cuando
efectivamente
recibimos a continuación "caracteres" la
cantidad de información que
nos
llegó es muy baja pues estábamos en
condiciones de predecir qué era lo que iba a
ocurrir.
La ocurrencia de mensajes de alta probabilidad de aparición aporta menos
información
que la ocurrencia de mensajes menos probables, es decir es más eficiente
y por lo tanto positiva al
sistema.
El
receptor: También aquí se trata del receptor
técnico, cuya actividad es la inversa de
la
del transmisor. Su función consiste en decodificar el mensaje. Importante, no
confundir
con el receptor de otros modelos.
El
destinatario: Constituye el verdadero receptor a
quien está destinado el mensaje. Será
entonces
la persona a quien se dirige el llamado telefónico o el conjunto de
persona-audiencia
de radio o de TV.
El
ruido: Fue un concepto novedoso en el
campo de la comunicación. El ruido o distorsión
es
un perturbador, que altera en diverso grado la señal durante su transmisión.
También
se
debe considerar, muy especialmente, el ruido no técnico. Esto es, aquel que
proviene
del
contexto psicosocial. Todos los elementos precedentes son considerados como
ruidos
que
pueden, entonces, provenir del canal, del emisor, del receptor, del mensaje,
etcétera.
Otros
conceptos importantes del modelo: Entropía de la información.
La entropía de la información es
un término usado por Shannon en que explica cómo se puede considerar la cantidad de información
promedio que contienen los símbolos usados.
Los
símbolos con menor probabilidad son los que aportan mayor información,
es decir
en
un texto no es lo mismo el sustantivo que un artículo. Digamos que el
sustantivo
aporta
mayor información,
debido a su “valor textual” (N.del.Profesor: Término en el que
me
refiero
al valor que posee este como elemento sustancial en el texto) a diferencia con respecto
al
artículo
que no posee dicho valor textual. Es decir podemos entender un texto con
errores
que cuente con faltantes en, por ejemplo artículos o adjetivos pero será más
difícil
de entender si faltan sustantivos.
El
término entropía fue utilizado en otras ciencias como por ejemplo la sociología
(Emile
Durkheim) y siempre
esta relacionado con el desorden, es decir la capacidad del sistema
hacia
la destrucción. En este caso, para la teoría de la información es un concepto
más
relacionado
con “la medida del desorden” es decir, cómo controlarlo y predecirlo, a
través
de un análisis cuantitativo de sus elementos.
“Si
todos los elementos de la señal son equiprobables (igual de probables) a la
hora
de aparecer, entonces la entropía será máxima.”
Es
decir, todos los elementos poseen el mismo valor, ninguno esta subordinado a
otro,
por
lo tanto el mensaje es ininteligible, posee el máximo de ruido posible.
A modo de
conclusión
El
modelo de Shannon y Weaver es muy atractivo debido a su relativa sencillez y
flexibilidad.
Además representó un aporte importantísimo en el desarrollo de las
tecnologías
de la información que utilizamos hoy en día.
Es
cierto, que no deja de ser un enfoque meramente instrumental y conductista,
pero
no olvidemos que todos los procesos de comunicación que transportan
información
pueden estar subsumidos a un limitado número de preguntas
disyuntivas, casi representadas en
una estructura binaria, es decir, digital, (si/no), Esta visión es un enfoque quizás, resulta
meramente funcional a los intereses de las
partes
implicadas en la Fuente/emisor y no considera cuestiones inherentes a el
receptor/
consumidor del mensaje. Pero no olvidemos que todos los mensajes
pueden
ser analizados como dijimos antes, “a vuelo de pájaro” de una manera
meramente
instrumental, para poder reconocer falencias o mejoras que puedan ser
aplicadas
en su proceso comunicativo.
No obstante, quizás como humilde
crítica muestra que en realidad no es mucho más
que un modelo Estímulo -Respuesta ampliado.
Ya que al no tomar las condiciones
cualitativas
del mensaje no logra explicar las particularidades de la comunicación
humana.
¿Pero no afecta esta teoría cualitativamente a los mensajes? ¿No
tiene ninguna incidencia semántica?
Veamos con más detenimiento la teoría para darnos una idea
sobre esto
¿Qué es
realmente la información?
O dicho de
otra manera: ¿cómo debe ser explicado el hecho de que una señal transporta
cierto contenido informativo? ¿Cuáles son las características de este hecho?
Dar respuesta adecuada a estas preguntas no es, ni mucho menos, una cuestión
trivial. Se trata, sin lugar a dudas, de contestar a una de las cuestiones que
han alimentado parte de los esfuerzos intelectuales de la última década: cómo
definir la noción de contenido informativo y, por tanto, qué significa que una
señal transporte cierta información. Pero aunque describir qué es la
información no sea una tarea sencilla y la contaminación conceptual reinante
nos impida acercarnos con claridad a este objeto de conocimiento, es posible
arrojar un poco de luz sobre esta espesa confusión terminológica. Un primer
paso para establecer la clarificación del concepto de información podemos
encontrarlo indirectamente en el tratamiento de la noción de información que,
desde el ámbito de la matemática, han ofrecido algunas teorías, principalmente
la introducida por Claude Shannon y conocida como la teoría matemática de la
comunicación. El objetivo principal que se persigue con este artículo es
mostrar que, aunque desde la teoría matemática de la comunicación no se pretende
aportar nada sobre la definición de contenido informativo —sólo se intenta
presentar un tratamiento de la medida de la cantidad de información adecuado
para el trabajo y los problemas de los ingenieros—, es posible extraer de esta
propuesta ciertas restricciones que debemos imponer a la hora de diseñar un
análisis semántico de la noción de información. Y para alcanzar este objetivo
desdoblaremos esta tarea en dos episodios. Por un lado, en el apartado que
viene a continuación, se realizará una breve exposición de las principales
ideas contenidas en la teoría matemática de la comunicación. Por otro lado, en
el apartado final, destacaremos algunas restricciones útiles que nos puede
ofrecer esta teoría y que, si bien no definen directamente la noción de
contenido informativo, deben de ser tenidas en cuenta y respetadas a la hora de
proponer una teoría semántica satisfactoria de la información. En definitiva,
en los siguientes apartados pasaremos revista a las ideas técnicas presentadas
por Shannon, pero no con la intención de encontrar en la teoría matemática de
la comunicación una respuesta directa a la cuestión de qué es lo que se dice
cuando utilizamos el término información, sino para ver lo que podríamos decir
—y lo que no podríamos decir— si utilizaramos correctamente este mismo término
al tener en cuenta algunas restricciones matemáticas extraíbles de dicha
teoría.
II. CANTIDAD Y FLUJO INFORMATIVO
En concreto, dentro de la propuesta de Shannon los contextos
informativos se consideran formados por fuentes (de información) que, a su vez,
son definidas como conjuntos de acaecimientos con cierta probabilidad de
ocurrencia. Al hilo de esta distinción entre las fuentes de información y las
ocurrencias (o mensajes) que las conforman podemos introducir las principales
definiciones que aparecen en esta teoría. En primer lugar presentaremos la
ecuación que es utilizada para calcular la información asociada a una
ocurrencia si. La fórmula adecuada para medir la cantidad de información
asociada a si (o su valor de sorpresa, I(si)), dada su probabilidad p(si),
es:
(1) I(si) = log 1/p(si) bits3 = - log p(si) bits (dado que
log (1/x) = - log x). I(si) puede entenderse también como la información
necesaria para representar que se ha producido la ocurrencia de si, o como el
número de pasos o decisiones binarias (bits) necesarios para reducir n
posibilidades de una fuente a una. Dentro de la teoría matemática de la
comunicación, la cantidad de información de un estado o un mensaje concreto
sólo es considerado como un estadio para el cálculo de la cantidad media de
información de una fuente que contiene varios estados con un valor de sorpresa
propio. Para calcular esta media ponderada de información se utiliza la
siguiente fórmula: (2) I(S) = p(s1) . I(s1) + p(s2) . I(s2) + p(s3) . I(s3) +...+
p(sn) . I(sn) = ∑ p(s i=1 n i) . I(si) bits / mensaje 4 . Por I(S), también
llamada entropía, debemos entender el valor medio por símbolo de la información
suministrada por la fuente S, o, también, el valor medio de la incertidumbre de
un observador antes de conocer la salida de la fuente S. La importancia de esta
cantidad dentro de la teoría presentada por Shannon —en detrimento de la de
cantidad de información de un mensaje concreto— se justifica por el hecho de
que es mucho más fructífera y útil a la hora de intentar diseñar soluciones a
los problemas centrados en los aspectos de la ingeniería de la comunicación. Es
poco útil intentar encontrar un canal que sirva para transmitir información
exclusivamente en función de la cantidad de información asociada a un mensaje
determinado de una fuente: si bien lograríamos que ese mensaje se transmitiese
de una manera correcta, podría ser que para el resto de los mensajes de la
fuente el canal utilizado no fuera adecuado. Es mucho más rentable diseñar un
canal teniendo en cuenta el valor medio por símbolo de la información
suministrada por la fuente. Hasta ahora hemos presentado el tratamiento de la
cantidad de información generada por una fuente haciendo referencia exclusiva a
mensajes o fuentes independientes, y para ello hemos introducido las fórmulas
(1) y (2). Pero en la mayoría de los casos prácticos no podemos hablar de
fuentes de información que sean independientes o que estén fuera de la
influencia informativa de otras fuentes. A menudo, las fuentes se encuentran en
relación informativa con otras fuentes. Cuando esto ocurre, cuando dos fuentes
se encuentran relacionadas informacionalmente, decimos que entre ellas existe
una transmisión o flujo de información. En estos contextos de interacción
informativa, las definiciones de cantidad de información anteriormente
expuestas no son suficientes para recoger matemáticamente este flujo o
transmisión de información. (A
continuación se exponen más formulas si queiren revisarlas aquí está el artículo
file:///C:/Users/PC/Downloads/Dialnet-TeoriaMatematicaDeLaComunicacionYTeoriaSemanticaDe-4254150.pdf
lo pueden buscar como: Teoría matemática de la comunicación y teoría semántica
de la información1 Mario Pérez Gutiérrez nosotros vamos de frente a las
restricciones que es lo que nos importa)
III. RESTRICCIONES MATEMÁTICAS Y CONTENIDO INFORMACIONAL
Como ya hemos indicado anteriormente, el objetivo último de la teoría
matemática de la comunicación es el tratamiento de las cantidades medias de
información, distanciándose totalmente de cualquier desarrollo de los aspectos
semánticos del contenido informacional de los mensajes individuales y concretos
de una fuente. La única mirada dedicada a estos mensajes sólo busca la
contribución numérica de la cantidad de información de los mismos a la de la
media. En este sentido, cuando evaluamos los beneficios explicativos que nos
ofrece la teoría matemática de la comunicación, podemos encontrar algunos
problemas que pueden hacernos pensar que de esta teoría poco se puede
aprovechar para satisfacer nuestros intereses teóricos centrados en el análisis
semántico de la información. Por un lado, aparece un problema estrechamente
relacionado con el uso posible de esta teoría: la grave dificultad que se
presenta cuando intentamos aplicar sus fórmulas a situaciones concretas. En
estas situaciones cotidianas, a menudo es difícil conocer con exactitud la
mayoría de los valores de la probabilidad que conforman las ecuaciones, lo que
hace casi imposible un cálculo numérico adecuado de las cantidades de
información que intervienen. Pero aunque esta dificultad sea evidente, como
veremos más adelante, debemos defender un uso adecuado de estas fórmulas. Si
rechazamos el uso ambicioso de estas ecuaciones en su intento de encontrar valores
numéricos, podemos obtener un beneficio adecuado de las mismas: podemos obtener
comparaciones entre el valor de las cantidades de información, y lo que es
mejor, mediante el uso de estas fórmulas, podemos realizar juicios comparativos
entre el valor de la cantidad de información generada en la fuente y el valor
de la recibida por el receptor. Y, por otro lado, nos encontramos con el
problema consistente en que las definiciones matemáticas derivadas de la teoría
matemática de la comunicación no son de gran ayuda cuando intentamos descifrar
el contenido semántico asociado a las señales: nos dicen cuánta información
transporta una señal pero no qué información es transportada. Y esa
independencia entre el cuánto y el qué queda de manifiesto si contemplamos los
casos en los que dos señales pueden transportar la misma cantidad de
información y sin embargo indicar contenidos informativos totalmente distintos.
En estos casos, la teoría presentada por Shannon, asignándoles el mismo valor
numérico, no es capaz de discriminar entre dos señales que claramente, desde un
punto de vista semántico, son diferentes. En definitiva, para satisfacer
nuestros intereses explicativos referentes a la información, debemos buscar una
teoría que sea capaz de discriminar la información de que p de la información
de que q aunque la información de que p y la información de que q sean
indistinguibles desde el punto de vista de la cantidad de información. Y la
teoría matemática de la comunicación, claramente no se encuentra preparada para
esta discriminación.
Pero lo que nos interesa son las restricciones
Así hay restricciones informacionales enfocadas en la
cantidad de informaciones y comunicacionales
que tratan sobre las relaciones matemáticas que se produce entre las fuentes que están en
relación comunicacional.
Veamos esto videos para comprender las restricciones
Primero volvamos al video inicial
https://www.youtube.com/watch?v=4ic-J79O9hg
donde se establece la formula de la información y luego introduzcámonos de lleno:
https://www.youtube.com/watch?v=pW5xb3OxiCE&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w
Introducción
https://www.youtube.com/watch?v=_TBSkGowTdQ&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w&index=2
Entropía
https://www.youtube.com/watch?v=J57Ot02Ou10&list=PLarIdvSxyFn7S00Anmell9I6GxPkLlG7w&index=3
Fuentes de información
Y reeleamos el articulo
file:///C:/Users/PC/Downloads/Dialnet-TeoriaMatematicaDeLaComunicacionYTeoriaSemanticaDe-4254150.pdf
Así el autor concluye que hay que respetar en todo proceso
de comunicación los límites que un canal no confiable ofrece a la trasmisión de
mensajes sin error, o la cantidad de información mínima o máxima que debe transportar una ocurrencia sobre para
poder hablar de que entre los dos existe un flujo informativo.
Más lo que nos preocupa es que el modelo comunicacional no
es humano pero incide en lo humano deshumanizándolo así al quitar todo ruido de
la comunicación desde el primer teorema de Shanon se pierde el contexto humano y
al intentar reducir la entropía se pierde la autoconciencia humana que se busca
equívocamente pero lo peor es que se hace imposible la transferencia del ser,
porque no se comprende la comunión espiritual basa de toda comunicación genuinamente
humana con nuestra propuesta de transferencia ontológica queremos superar toda
esta deshumanización volviendo a una relación de autoconciencias y no de máquinas,
pero para hacerlo hagamos una yuxtaposición entre la lógica booleana y nuestra
ciencia del logos:
Empecemos con los valores digitales de cero y uno 0 1
https://www.youtube.com/watch?v=uPHx9GqKDVA&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=1
En la ciencia del logos
El 1 representa el ser
Y el 0 el no ser
Partiendo de la docta
ignorancia sabemos el ser y el no ser son lo mismo y que no lo son
1=0 1≠ 0
Y entonces tenemos el ser comprendido como la igualdad
eterna entre el ser y el no ser y tenemos el devenir donde el ser y el no ser
don distintos.
Vayamos ahora a las ondas ontológicas.
https://www.youtube.com/watch?v=KudEtftdrfk&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=2
A diferencia de las ondas digitales lo que tenemos es una
onda sinusoide.
1 1
0
Esa es
la onda del ser valle
1
0
0
Esa es la onda del no ser pico
Lo que está “mal” son
las ondas contratransferenciales
Done el pico se altera
1→←1
Y donde el valle se corta 0 0
Esto representaría la transferencia negativa en el psicoanálisis,
aquí es donde se corta la comunión y aparece el conflicto.
Con estas bases vamos a ahora si a lógica de Bolee y sus
puertas lógicas:
https://www.youtube.com/watch?v=nbEOWmykuzA&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=212
La puerta de Not o puerta de inversión en la matemática transferencial
esto es importantísimo porque toda la matemática se basa en la conversión y en
la inversión.
Así que tenemos la función inversiva
1↓=0
Y la función conversiva
0↑=1
Así cada vez que del ser pasemos al no ser hay una inversión
1→0
Y cada vez que pasemos
del no ser al ser hay una conversión.
0→1
Sea el paso
progresivo → o regresivo ←
Ahora veamos la compuerta lógica and
https://www.youtube.com/watch?v=h9INco4mHcg&list=PL46-B5QR6sHntg3995-PvwyzUGZu4epRU&index=213
Y comprendamos que en la matemática transferencial
Si yo paso del ser al no ser hay transferencia 1→0
Igual si yo paso del no ser al ser 0→1 hay transferencia
Pero si yo paso del será al ser 1→←1 hay contratransferencia,
conflicto o en psicoanálisis transferencia negativa.
Y esa contra trasferencia se invierte en desintegración:
1→←1↓= 0 0
Así mismo la desintegración se convierte en contra transferencia
0
0 ↑= 1→←1
Toda la ciencia del logos trata de superar la
contratranferencia y la desintegración que de ella deviene.
¿Cómo hacerlo?
Pues tengo que volver al ser en el misterio pascual
1
vida→0 muerte →1 resurrección
O tengo que volver al cero en el misterio dharmico
Iluminación 0 Nirvana←1 conciencia de maya ←0
La clave es la oración que pide perdón para salir del bucle
contra transferencial y así entrar en la transferencia pascual.
Y la meditación que desaparece la ilusión de cualquier
problema o entidad en el devenir toda pasa y así se entra en el misterio
dharmico posibilitando otra vez la transferencia ontológica.
No hay comentarios:
Publicar un comentario