La Lógica Transcursiva ha demostrado que las
neuronas no hablan, pero que han descubierto cómo
hacer para que quien las porta, lo haga por ellas.
Dante R. Salatino, 2020
2
CREATIVIDAD
INVESTIGACIÓN Y
LÓGICA TRANSCURSIVA III
Lenguajes, Lógica y Modelos en
Ingeniería
Organizó
Facultad Regional Mendoza, Universidad Tecnológica Nacional
Secretaría de Extensión Universitaria
Departamento de Materias Básicas
Grupo de Investigación en Matemática Aplicada a la Ingeniería y
Gestión (IEMI )
Departamento de Ingeniería en Sistemas de Información
3
Universidad Tecnológica Nacional
Rector: Ing. Héctor Aiassa
Vicerrector: Ing. Haroldo Avetta
Facultad Regional Mendoza
Decano: Esp. Ing. José Balacco
Vicedecano: Ing. Ricardo Antonio Fuentes
Secretaria Académica: Prof. Liliana Ruth Repetto
Secretario Administrativo: Ing. Ángel Oscar Pitton
Secretario de Extensión Universitaria: Ing. Carlos Oscar
Mallea
Secretario de Ciencia Tecnología y Posgrado: Ing. Antonio
Álvarez Abril
Secretario de Asuntos Estudiantiles: Ing. Adrián Sierra
Secretario de Tecnologías de la Información y las
Comunicaciones: Ing. Jorge Abraham
Comisión académica evaluadora de los trabajos
Dr. Dante Roberto Salatino (UNCuyo)
Dr. Ing. Guillermo Alberto Cuadrado (FRM-UTN, UNCuyo)
Lic. Luis Gómez (FRM-UTN, UNCuyo)
4
Universidad Tecnológica Nacional
Facultad Regional Mendoza
CREATIVIDAD
INVESTIGACIÓN Y
LÓGICA TRANSCURSIVA III
Lenguajes, Lógica y Modelos en
Ingeniería
Dante Salatino, Luis Gómez
& Guillermo Cuadrado
(Editores)
Facultad Regional Mendoza
Universidad Tecnológica Nacional
2020
5
CREATIVIDAD, INVESTIGACIÓN Y LÓGICA
TRANSCURSIVA
Editores:
Dante Roberto Salatino
Luis Eduardo Gómez
Guillermo Alberto Cuadrado
Diseño de cubierta
Diego Andrés Salatino
Primera edición. Mendoza, 2020.
Salatino, Dante Roberto
Creatividad, investigación y lógica transcursiva III : lenguajes,
lógica y modelos en ingeniería / Dante Roberto Salatino ; Luis
Eduardo Gómez ; Guillermo Alberto Cuadrado.- 1a edición para el
profesor - Ciudad Autónoma de Buenos Aires : Universidad
Tecnológica Nacional. Facultad Regional Mendoza, 2020.
402 p. ; 22 x 15 cm.
ISBN 978-950-42-0199-1
1. Lógica. 2. Ciencias Tecnológicas. 3. Ingeniería. I. Gómez, Luis
Eduardo. II. Cuadrado, Guillermo Alberto. III. Título.
CDD 511.3
ISBN 978-950-42-0194-6
Queda hecho el depósito que marca la Ley 11.723
Grupo de Investigación en Matemática Aplicada
a la Ingeniería y Gestión (IEMI)
Facultad Regional Mendoza,
Universidad Tecnológica Nacional
Rodríguez 273, Ciudad
M5502JMA Mendoza, República Argentina
6
Índice
I
1.
Prólogo
Guillermo A. Cuadrado
11
Autores y Filiación
19
Fundamentación y Lógica Transcursiva
21
Teselados aperiódicos de Penrose. Una
interpretación desde la Lógica Transcursiva
23
Dante R. Salatino; María G. Vázquez; Gustavo A.
Masera
2.
Elementos subjetivos en el fundamento del
Cálculo Infinitesimal
51
Guillermo Alberto Cuadrado
3.
Teoría del Destino en Borges; Enfoque
Transcursivo
71
Dante Roberto Salatino
4.
El Modelo Extendido de Aprendizaje
Organizacional desde la perspectiva de la Lógica
Transcursiva
87
Esteban Anzoise; Cristina Scaraffia
5.
Subjetividad del Valor en la Escuela Austríaca
de Economía. Una interpretación desde la
Lógica Transcursiva
121
Facundo Corvalán; Dante Salatino; Gustavo Masera
6.
Lógica Transcursiva: un hilo de Ariadna para
explicar la actualización del mito de Medea
137
Luciana Benítez Schaefer
7
7.
De la policontextura transclásica a la
transcursiva
155
Luciano Paolo Russo
II
Investigación y Lógica Transcursiva
167
8.
Refuncionalización del concepto Sistemas de
Ecuaciones Lineales: crecimiento de
poblaciones y cadenas de Markov
169
Ana M. Narvaez; Juan N. Ferraro
9.
La revolución multivariante de la investigación
185
Ricardo Césari; Matilde Césari
10. Bases Neurobiológicas de una Nueva
Inteligencia Artificial. Programa Psiquis
207
Dante Roberto Salatino
11. Nuevo Modelo Nosológico de la Endometritis
Crónica
245
Dante R. Salatino; Alberto E. Tersoglio
12. La Modelización: Su Lógica y Alcances
265
Raúl César Pérez; M. Noelia Robles
III
Creatividad e Innovación
13. Modelado Heurístico de la Demostración por el
Absurdo
281
283
Luis Gómez
14. La resistencia al uso de herramientas analíticas
en contextos organizacionales. Estudio
exploratorio piloto
Esteban Anzoise; Cristina Scaraffia; Julio Cuenca
8
311
15. Factores que impactan en la Intención de Uso de 331
herramientas analíticas en PYMES. Estudio
descriptivo inicial
Esteban Anzoise; Cristina Scaraffia; Julio Cuenca
16. Importancia del factor motivacional en la
formación por competencias
353
Gabriela Tomazzeli; Carolina Bernaldo
17. Epistemología de las ciencias de la Ingeniería:
zoom sobre el experimento
361
Julio Ortigala
18. Sobre la aplicabilidad de la lógica en los
procesos de modelización en ciencia
375
Juan Redmond; G. Cuadrado; R. López Orellana
19. Modelo cualitativo de Infranómica: aplicación a la
nueva generación de infraestructuras
387
Gustavo A. Masera; Ricardo R. Palma
9
10
Prólogo
Guillermo A. Cuadrado
Es pertinente señalar que existen dos sentidos para el
término ‘ciencia’, uno objetivo y otro subjetivo. El primero
se refiere a que la ciencia está organizada para asegurar
la objetividad de sus afirmaciones. En cambio, el otro
propone que para hacer ciencia o practicarla se
requieren ciertas aptitudes del sujeto, como entender y
realizar correctamente las operaciones efectivas de cada
actividad planteada. Resulta oportuno hacer notar que la
lógica transcursiva permite tratar ambos puntos de vista,
el objetivo y el subjetivo, ya que como método de
investigación científica, se sustenta en la perspectiva del
sujeto que investiga. El mismo fue desarrollado por
Dante Salatino en Semiótica de los sistemas reales
(2009) y sus fundamentos se remiten a la lógica transclásica de Gotthard Günther y a ciertas nociones
presentes en las obras de Charles S. Peirce, Evariste
Galois y otros autores.
El propósito de la ciencia es producir nuevos
conocimientos y estos se encuentran en la intuición y la
imaginación del sujeto que indaga la realidad, buscando
respuesta a las incógnitas que se plantean, sin importar
si éstas son grandes o pequeñas. Cabe recordar, que en
toda investigación hay un objeto de estudio y un método
que posibilita su análisis. El primero es siempre la
porción de realidad observada, mientras que el método,
cuando se trata de la lógica transcursiva, considera las
manifestaciones evidentes de la realidad y la perspectiva
del investigador, en forma simultánea.
En lo que atañe al conocimiento científico y el método
para obtenerlo, cada uno de ellos tiene dos
componentes. El primero tiene una componente
11
abstracta, fundada en teorías, y otra empírica, asentada
en los hechos. En cambio, el método se compone del
descubrimiento y la validación. Pero, dado que un
descubrimiento no se equipara con los hechos ni su
validación con una teoría, es necesario observar su
producto lógico.
Si se tiene en cuenta que la ciencia es una manera de
observar la realidad, esta metodología lo hace
prescindiendo de cualquier marco de referencia. Este
hecho permite acoplar los aspectos subjetivos y
objetivos de la realidad, ya sea en forma integral o
restringida, de acuerdo con la delimitación del objeto
estudiado. Una de las características distintivas de la
lógica transcursiva es que frente a un tema nuevo, poco
teorizado, ofrece la posibilidad de reducir la explosión
combinatoria de los posibles factores intervinientes.
Las razones presentadas sugieren que investigar
también consiste en combinar procedimientos, en este
caso: se integran los orientados a descubrir algo, con los
aplicados a validar lo descubierto. Dicho brevemente,
sería similar a descubrir algo usando una teoría, como
sucedió con el descubrimiento del electromagnetismo,
partiendo de la teoría de Maxwell. Cabe agregar, que de
manera similar sigue ocurriendo en muchas áreas del
conocimiento. En efecto, estudiar la realidad desde el
punto de vista del observador significa prescindir de
cualquier marco de referencia.
En ese mismo sentido, el caso paradigmático es la teoría
de la relatividad, donde la luz no se sustenta en ningún
sistema de referencia, sin embargo, todos los sistemas
de la física clásica se mueven con relación a ella.
Además, de esa forma, se logra que todos los sistemas
de referencia tengan un movimiento relativo nulo
respecto a la luz, de acuerdo con el segundo principio de
12
la teoría de la relatividad. Significa entonces, que el
método de la lógica transcursiva opera de la misma
forma que lo hace la luz. Además, por el hecho de no
tener un sistema de referencia permite acoplar la
realidad subjetiva con la objetiva.
Por otra parte, la Facultad Regional Mendoza, UTN
realizó en octubre de 2019 el Foro sobre Lenguajes,
Lógica y Modelos en Ingeniería (LLMI) y Tercer Foro de
Lógica Transcursiva (LT) para alentar a los docentes
investigadores a exponer sus producciones y facilitar la
difusión de ideas novedosas como considerar el enfoque
del investigador y emplear las transformadas
relacionales de la Lógica Transcursiva, para analizar el
objeto de investigación. Los trabajos presentados,
después de incorporar las sugerencias y críticas
realizadas durante el foro, son los que integran este
volumen.
En cuanto a los autores, estos son docentes de la
Universidad de Valparaíso, Universidad Nacional de
Cuyo y de la Facultad Regional Mendoza, UTN, muchos
del Grupo de Investigación en Matemática Aplicada a la
Ingeniería y Gestión (IEMI). Es pertinente señalar que
fue este último grupo el que se ocupó de compilar,
diagramar y gestionar esta publicación. Este libro está
organizado en tres secciones, Fundamentación y Lógica
Transcursiva, con siete capítulos, Investigación y Lógica
Transcursiva, con cinco capítulos, y Creatividad e
Innovación, con siete capítulos. Las contribuciones
encaran diversas temáticas y todas son innovativas en
sus enfoques.
El primer trabajo de la sección de Fundamentación y
Lógica Transcursiva presenta una interpretación de los
teselados aperiódicos de Penrose, desde la Lógica
Transcursiva (LT), donde plantea la existencia de una
13
“belleza intrínseca” que se circunscribe a un patrón
universal, al igual que la LT. En la segunda contribución
se reinterpreta el concepto de límite, usando la
perspectiva del observador, que es la visión
característica de la LT. Esa forma de entendimiento
permite recuperar los aspectos dinámicos y subjetivos
del concepto de límite, manteniéndolo en el dominio de
la aritmética. Así lo hizo Cauchy cuando reorganizó y
fundamentó el Cálculo con esa noción únicamente. El
tercero busca un patrón que describa la ficción literaria
que le da sustento al universo de Borges. El análisis de
algunos de sus cuentos, plantea una supuesta “teoría
del destino”, que en un tiempo subjetivo y cíclico
presenta personajes antitéticos y un “eterno retorno”,
que mantiene su relación con un referente “real”. El
cuarto considera el modelo extendido de aprendizaje
organizacional, analizando cómo integrar el proceso de
decisión para enfrentar problemas no estructurados, en
una organización que aprende. Concluye recomendando
establecer etapas de institucionalización de las
soluciones halladas a problemas no estructurados a
través del uso de “herramientas de apoyo a procesos de
decisión” basadas en modelos.
Por su parte, el quinto examina la teoría subjetiva del
valor de Escuela Austríaca de Economía y muestra que,
más allá de las diferencias entre sus autores, existe
cierta continuidad en la relevancia de la cuestión
subjetiva, frente a la tradición clásica del valor. El sexto
explica la actualización del mito de Medea en la tragedia
del poeta griego Eurípides, considerando la metodología
de la LT. Para ello se describe la relación entre las
emociones y la presencia de rasgos arquetípicos
femeninos en la configuración de la protagonista. La
articulación de esos factores con el mito griego explica el
éxito de la tragedia, en un público muy posterior al del
14
mito originario. El séptimo trabajo explora el paso de la
lógica transclásica de Günther a la lógica transcursiva de
Salatino, ya que la primera explica el sujeto desde lo
volitivo, en tanto que la segunda introduce el proceso
cognitivo del sujeto. El trabajo explica de qué manera la
modelización transcursiva de la experiencia subjetiva es
una evolución teórica que implica un cambio teórico al
interior de la lógica, que pretende explicar la existencia
subjetiva volitiva y cognitiva.
La octava contribución corresponde a la sección de
Investigación y Lógica Transcursiva. La misma presenta
el rediseño del contenido clásico de los Sistemas de
Ecuaciones Lineales (SEL) como un modelo de estado
lineal dinámico y discreto que permita explicar la
solución de una ecuación en diferencia lineal. Este
rediseño permite migrar la planificación de SEL, para un
modelo de aprendizaje centrado en contenidos a otro
centrado en competencias, exigencia de los Estándares
de Segunda Generación para la Acreditación de las
Carreras de Ingeniería, propuestos por el Consejo
Federal de Decanos de Ingeniería. Por su parte, el
noveno trata sobre cambios en la metodología de la
investigación que objetan la evaluación de la validez de
los enfoques estadísticos tradicionales. El método
multivariado PLS-Path Modeling (mínimos cuadrados
parciales en modelos de pautas) proporciona un medio
que permite la interacción entre la teoría y los datos. Si
una teoría está bien especificada se refleja en un vasto
sistema de relaciones entre variables. En ese sentido, la
aplicación de la Lógica Transcursiva (LT) aclara la citada
interrelación entre teoría y datos empíricos del proceso
de investigación.
Para continuar, el décimo trabajo presenta un emulador
de procesos cognitivos basado en una teoría de Salatino
15
(2013), que justifica el comportamiento oscilatorio
autónomo de varias regiones del sistema nervioso
central y fundamenta el funcionamiento del aparato
psíquico. El emulador presentado es un microcontrolador
Arduino que se programó con las pautas de la Lógica
Transcursiva. De ese modo, se simularon los rudimentos
de un “sistema perceptivo”, acoplando las entradas
según un supuesto grado de atención. De este modo, se
busca fundamentar una Inteligencia Artificial (IA) con
sustento neurobiológico. La décima primera contribución
indaga sobre un nuevo modelo que ayude al diagnóstico
de la endometritis crónica como una patología con
entidad propia. El análisis de las relaciones entre los
elementos fundamentales que determinan la patología
crónica se realizó siguiendo los principios de la Lógica
Transcursiva. Este hecho permitió brindar otros
elementos de diagnóstico y tratamiento, como el uso de
cultivos de células madre mesenquimales para
regenerar un endometrio sano. La duodécima desarrolla
un estudio de caso que analiza los límites aceptables de
un modelo y las condiciones de su validez, confrontando
los fenómenos reales con sus simulaciones. De este
modo, se puede determinar si el ajuste es aceptable y
evaluar el grado de validez de su utilización.
El décimo tercer trabajo corresponde a la sección
Creatividad e Innovación e introduce
un modelo
heurístico para el aprendizaje de la demostración por el
absurdo en forma indirecta. Esta última resulta de
combinar deducción formal y abducción, introduciendo
cambios en el modelo de búsqueda. El modelo
heurístico presentado tiene aplicación en los cursos de
Lógica, cuando se enseña la demostración por el
absurdo. La décimo cuarta contribución hace un análisis
de la ‘intención de uso’ de las herramientas de apoyo a
los procesos de decisión. El mismo revela que la
16
correlación estadística entre la generación del
participante y la intención de uso de herramientas
analíticas no es significativa. Además señala que existe
una oportunidad para mejorar el proceso de difusión de
estas herramientas en la formación de ejecutivos de los
sectores metalmecánico y de desarrollo de software, que
contribuyen mucho al desarrollo de las exportaciones y
al Producto Bruto Geográfico.
Por su parte, la décimo quinta contribución determina los
factores que inciden en la intención de uso de
herramientas de apoyo al proceso de decisión en
pequeñas y medianas empresas, aplicando el modelo de
análisis de fuerzas de Kurt Lewis. Con relación a estas
herramientas se identificaron 16 factores que favorecen
su uso y 14 que generan resistencia. Y concluye que es
posible acelerar el uso de esas herramientas
difundiéndolas convenientemente en la organización.
Mientras que el décimo sexto trabajo se ocupa de los
factores motivacionales en la formación por
competencias, que establece el Consejo Federal de
Facultades Ingeniería. Además, presenta una propuesta
de trabajo en las aulas, para iniciar a los alumnos en la
adquisición de esas competencias. El décimo séptimo
analiza el experimento como un proceso de entradas,
transformaciones y salidas y se centra en su diseño,
controlando el sistema de medición estadísticamente,
donde la calibración de los instrumentos tiene mucha
significación. Se encontró que el diseño del experimento
debe estar apoyado por herramientas de análisis
estadístico descriptivas, correlacionales, inferenciales o
de varianza de factores.
En lo que atañe al décimo octavo trabajo defiende la
aplicabilidad de la lógica como condición de adecuación
que debe cumplir todo enfoque sobre la modelización,
17
que pretenda ser preciso y adecuado. La demostración
de ese punto se realiza empleando el caso de los
modelos que no poseen sistema objetivo. Y concluye
que si no se considera la aplicabilidad de la lógica
pertinente a tal función, esa condición de adecuación es
incompleta y puede conducir a conclusiones absurdas
sobre el sistema objetivo. Finalmente, la décimo novena
analiza los fundamentos de los modelos cualitativos
basados en la Infranómica, especialidad que teoriza
sobre cuestiones complejas de la sociedad moderna,
que provienen de las infraestructuras y su
funcionamiento y además, proporciona la base
metodológica para tratarlas. El propósito del trabajo se
orienta a clarificar el debate sobre los problemas que
surgen de la interacción entre diferentes infraestructuras,
especialmente las denominadas ‘críticas’. Se concluye
que la modelización de la Infranómica permite
comprender las interrelaciones entre aspectos
concurrentes de la nueva generación de infraestructuras,
caracterizadas por su interacción con los sistemas
electromecánicos y las tecnologías de información y
comunicación, aspectos claves para lograr el objetivo del
desarrollo sostenible.
Para finalizar, hay que poner de relieve que el tanto el
Foro sobre Lenguajes, Lógica y Modelos en Ingeniería
(LLMI) y Tercer Foro de Lógica Transcursiva como esta
publicación fueron posibles gracias a los esfuerzos de la
Facultad Regional Mendoza, UTN, que apoyó su
realización con su infraestructura y recursos materiales.
***
18
Autores y Filiación
Anzoise, Esteban; Universidad Tecnológica Nacional
Bernaldo, Carolina; Universidad Tecnológica Nacional
Césari, Matilde; Universidad Tecnológica Nacional
Césari, Ricardo; Universidad Tecnológica Nacional
Corvalán, Facundo; Universidad Nacional de Cuyo
Cuadrado, Guillermo; FRM - UTN - UNCuyo
Cuenca, Julio; Universidad Tecnológica Nacional
Ferraro, Juan N.; Universidad Tecnológica Nacional
Gómez, Luis; FRM, UTN - UNCuyo
López, Rodrigo; Universidad de Valparaíso, Chile
Masera, Gustavo A.; Universidad Nacional de Cuyo
Narvaez, Ana M.; Universidad Tecnológica Nacional
Ortigala, Julio; Universidad Tecnológica Nacional
Palma, Ricardo; Universidad Nacional de Cuyo
Pérez, Raúl César; Universidad Tecnológica Nacional
Redmond, Juan; Universidad de Valparaíso, Chile
Robles, M. Noelia; Universidad Tecnológica Nacional
Russo, Paolo; Universidad Nacional de Cuyo
19
Salatino, Dante R.; Universidad Nacional de Cuyo
Scaraffia, Cristina; Universidad Tecnológica Nacional
Tersoglio, Alberto E.; Centro Internacional de Reproducción
Asistida
Tomazzeli, Gabriela; Universidad Tecnológica Nacional
Vásquez, María G.; Universidad Nacional de Cuyo
***
20
21
22
1. TESELADOS APERIÓDICOS DE PENROSE
Una interpretación desde la Lógica Transcursiva
Dante R. Salatino1; María G. Vázquez2; Gustavo A. Masera3
Resumen: El propósito de este trabajo es realizar una
interpretación de la obra de Roger Penrose, en particular
sobre su descubrimiento de los teselados aperiódicos,
desde el método propuesto por la Lógica Transcursiva (LT).
Se ha señalado en numerosas ocasiones la alta valoración
que posee la obra de Penrose en el campo científico y de
divulgación. En lo que respecta específicamente a su aporte
al campo de los desarrollos geométricos señalados, el
interrogante que nos surge se refiere a: ¿por qué esas
teselaciones parecen atractivas, ¿por qué llaman la atención
del observador, el cual queda fascinado frente a sus
patrones constructivos? En este sentido, la contribución del
trabajo se ubica en comprensión del significado de sus
teselados aperiódicos y los efectos "estéticos", e incluso
artístico-decorativos de los mismos. Se plantea, en el trabajo
de Penrose, la existencia de una “belleza intrínseca”
producto de ceñirse a un patrón universal, tal como lo hace
la LT.
Palabras clave: Roger Penrose, geometría, historia cultural,
lógica transcursiva.
1Instituto
de Filosofía – FFL - UNCuyo
Facultad de Filosofía y Letras. Universidad Nacional de Cuyo.
3
Facultad de Filosofía y Letras. Universidad Nacional de Cuyo. Facultad de
Ciencias Económicas y Jurídicas. Universidad del Aconcagua.
2
23
“En un cierto sentido, el análisis matemático es una
Sinfonía del infinito.”
David Hilbert “On the infinite”,
en Hilary Putnam, 1998,
Philosophy of Mathematics, p. 277.
1.0. FUNDAMENTOS
Roger Penrose es un académico de relevancia mundial
por su contribución al campo de la física gravitacional
(twistor theory)4 , la mecánica cuántica y la cosmología,
además de sus aportes en áreas diversas, tales como la
relación mente-cerebro, las percepciones de la cuarta
dimensión, el estatuto de las matemáticas, la relación
entre computación y conciencia, etc.
Paralelamente a la extensión de una vasta popularidad
como autor de textos de divulgación científica (¿p.e.
What is Life?, con Schrödinger; The Road to Reality), el
scholar británico generó toda una serie de
investigaciones plasmadas en obras ‘cuasiartisticas’ que
tienen su fuente en los estudios sobre las posibilidades
conceptuales de la geometría y en el desarrollo de
matemáticas lúdicas. No son obras artísticas de suyo,
sino que, de sus construcciones, puede decirse, emanan
efectos estéticos. De esta manera, teselados, triángulos,
formas tridimensionales de las baldosas, poliedros sobre
un plano, cuasicristales y un sinnúmero de objetos
imposibles5 forman parte del mundo-Penrose.
Los estudios de historia cultural comparada hacen
referencia al uso estético de repeticiones en diversas
4
Objetos geométricos abstractos que operan en un complejo multidimensional
que subyace bajo el espacio-tiempo.
5
Según Martín Gardner, una estructura u objeto imposible es el dibujo de una
figura sólida que no puede existir ya que incorpora elementos contradictorios.
Cfr. Prólogo, en Roger Penrose, La mente nueva del emperador, p. 9
24
sociedades (los mandalas en India, con sus significados
rituales; los patrones geométricos en el Islam; llegando
tal vez al arte más banal del op-art, Vasarely e incluso,
en un ámbito más local, hasta las obras de J. Le Parc).
sugiriendo que entre otros atractivos, las teselaciones de
Penrose son "difíciles" y no derivables de elementos de
la naturaleza; hay que calcularlos, y nadie llegaría a ellos
solamente con una intuición. También es interesante la
relación entre la (no-) recursividad de las teselaciones
con la "(no-) decibilidad" de problemas lógicomatemáticos relacionados. Y surgen, inevitablemente,
preguntas sobre cuándo la geometría va más allá de la
comprensión humana; sobre teselaciones que progresan
hacia el infinito sin repetirse nunca.
Una publicación reciente dedicada al científico británico
manifiesta que detrás del amplio espectro de sus
esfuerzos analíticos se encuentra la indagación por un
proyecto filosófico (Hercé Fernández, 2014). Penrose
aparece así obsesionado por el sentido de lo que se
presenta ontológicamente a su reflexión. El interrogante
que intenta responder sería, en esta línea: ¿qué es lo
que hay? Y, yendo más lejos aún, ¿por qué hay lo que
hay? Desde la perspectiva de este documento
sostenemos, por el contrario, que, en Penrose, hay una
concepción del mundo que no se encuentra al final, sino
al principio de su búsqueda y que puede denominarse,
en sus propios términos, la “geometría del universo”. La
belleza está ahí, sólo hay que saber observar el orden
matemático del cosmos y descubrir, por ejemplo, la
complejidad de sus patrones invariantes o, de sus
estructuras más complejas.
A desentrañar el significado de alguna de sus
desarrollos geométricos, orientamos el documento.
25
Realizamos para ello, una interpretación de
teselados aperiódicos desde la lógica transcursiva.
los
2.0. EL VÍNCULO ESCHER-PENROSE
Tal como sostuvo el científico británico en una
entrevista6, la principal influencia que tuvo en la génesis
de su concepción geométrica fue el encuentro iluminador
con la obra de Maurits C. Escher. Un evento académico
se transformó en un episodio clave en la vida de
Penrose. Por iniciativa del Museo Stedelijk de
Amsterdam, se decidió anexar al Congreso Internacional
de Matemáticas una muestra pictórica. En su
inauguración, el 2 de septiembre de 1954, N.G. de
Bruijn, presidente del comité organizador, defendió la
idea de la conexión imprescindible entre el arte y las
matemáticas7. Y puesto que en la exposición se había
destinado un espacio especial para las obras de Escher,
los juegos de perspectivas en las xilografías y las figuras
geométricas del artista holandés se convirtieron, de allí
en más, en una fuente de inspiración para Penrose. A
Roger se le unió su padre (Lionel, genetista) en la
relación de amistad intelectual con el creador de figuras
imposibles, teselados e infinitos en un entorno de
admiración mutua y de esfuerzos conjuntos. A la
correspondencia que mantuvieron durante años,
continuó una serie de investigaciones traducidas en
papers y experimentos reales con poliedros y formas
geométricas materializadas en diseños de caminos,
puentes y otras estructuras, donde las más conocidas de
éstas quizás sean el “tribar o triángulo” y las “escaleras”
de Penrose, denominadas así en su honor.
6
https://www.youtube.com/watch?v=xkigMZ2DeDs
https://www.escherinhetpaleis.nl/escher-today/international-congressmathematicians-1954/?lang=en
http://www.epsilones.com/paginas/laboratorio/laboratorio-002-teseladopenrose.html
7
26
La contribución entre Escher y los Penrose fue más que
fructífera. De modo similar al vínculo que mantuvo con el
geómetra H. Coxeter (1999), la relación entre científicos
y artista fue de doble vía, tal como indicamos en un
artículo anterior sobre el tema (Masera, Vásquez y
Salatino, 2017). Escher utilizó la escalera diseñada por
Penrose en “Ascending y Descending”; el triánguloPenrose en su litografía “Waterfall” y el nonaedro del
joven Roger en su última litografía denominada “Ghosts”.
La muerte de Escher en 1972, poco tiempo anterior al
descubrimiento de las primeras baldosas aperiódicas de
Penrose de estructura pentagonal, imposibilitó su
proyección al campo artístico.
Sin embargo, podemos pensar que –al contrario de
Escher- Penrose no tuvo explícitamente un interés
artístico prioritario ya que enfatizó más el sistema
conceptual y de representación teorética que las
modalidades estéticas de expresión. Aunque, sin dudas,
su visión de la geometría lo condujo luego a descubrir la
belleza que emana de patrones, regularidades,
simetrías, formas aperiódicas y aquellas que se vinculan
a las estructuras de los cuasicristales.
3.0. DE KEPLER A LOS TESELADOS DE PENROSE
Un teselado es una regularidad o patrón de figuras que
cubre completamente una superficie plana sin
solapamientos, es decir, sin que las piezas se
superpongan sobre otras y sin que queden huecos entre
ellas.
Una taxonomía básica indica que estos teselados
pueden ser clasificarse según su periodicidad: si el
teselado se puede desplazar en dos direcciones
independientes del plano y hacer que coincida consigo
mismo, se dirá que es periódico.
27
Si no, se hablará de teselado no-periódico o aperiódico,
esto es, son mosaicos cuya estructura no se repite, de
modo que no existe una celda base que repetida genere
el mosaico .
Los desarrollos de Penrose no se hicieron en el vacío,
por lo que puede resultar útil analizar la historia previa y
el trabajo de Penrose. Los revestimientos, o
"teselaciones" como también se les llama, han existido
en la decoración y el diseño desde incluso antes de la
antigüedad. Los sumerios, por ejemplo, usaron baldosas
de arcilla para decorar sus paredes y fueron algunos de
los primeros en hacerlo. Los romanos y otros grupos que
florecieron en la antigüedad clásica también crearon
decoraciones con azulejos. En síntesis, hacia la creación
o descubrimiento desde los teselados periódicos a los
aperiódicos puede identificarse una serie de etapas : 1las figuras de Johannes Kepler; 2- la fase que lleva de
los teselados periódicos a los aperiódicos, con base en
los aportes de Hao Wang, Berger y Robinson; 3- los
desarrollos de Penrose.
En un análisis histórico, hay que tener en cuenta a los
descubrimientos de Johannes Kepler. Este astrónomo (y
consecuentemente matemático) de los Países Bajos, fue
el primer autor en publicar un estudio detallado de los
mosaicos elaborados con base en los polígonos
regulares en el Libro II de Harmonices Mundi ("La
armonía del mundo"), publicado en 1619. En esta obra
da cuenta de las tres leyes que rigen el movimiento de
los planetas. Roger Penrose se inspiró en estos trabajos
de Kepler, en particular, en el capítulo donde trata
acerca de los polígonos estrellados (pentagonales en su
mayoría). Basándose en el pentágono regular construyó
un mosaico rómbico, cuyas piezas se basan en dos
partes del pentágono (dos triángulos y Gnomon áureos),
28
a fin de desarrollar un método para crear sus flechas y
cometas como base para las estructuras de teselado
aperiódicas .
De acuerdo con la enciclopedia sobre teselados que
mantiene la Universidad de Bielefeld, hay disputas entre
los expertos sobre cómo definir "aperiódico". Una
posibilidad es usarlo como sinónimo de no periódico.
Quizás, lo más correcto sea, en primer lugar, considerar
que un mosaico periódico es aquel en el que puede
delinearse en una región y que cubre todo el plano por
traslación, es decir, cambiando la posición de la región
sin rotarla ni reflejarla . Algunas de las figuras de Escher
son típicas de estos teselados, por ejemplo, la de
pájaros negros y blancos, donde los contornos encajan
unos con otros con exactitud. (Gardner, 2008).
Muchos de éstos se popularizaron cuando Martin
Gardner publicó en su columna de Scientific American
(enero de 1977), los avances realizados en la
exploración de las teselaciones mosaico-aperiódicas.
Además de Roger Penrose, otros matemáticos, como
John Conway y Robert Ammann han realizado
importantes contribuciones en esta línea de
investigación.
Un mosaico aperiódico es un mosaico no periódico con
la propiedad adicional de que no contiene parches
periódicos arbitrariamente grandes. Un conjunto de tipos
de mosaico (o prototipos) es aperiódico si las copias de
estos mosaicos solo pueden formar inclinaciones no
periódicas. Los teselados de Penrose (Penrose’s tilings)
son los ejemplos más conocidos de estos últimos.
4.0. LA CREATIVIDAD EN PENROSE SEGÚN LA LT
Según sugerimos en otro trabajo (Masera, Vásquez y
Salatino, 2017), cuando analizábamos la creatividad
29
humana desde la LT, que ésta surge del sustrato común
que constituyen los aspectos fundamentales que
sustentan la realidad subjetiva. Ese ‘lenguaje universal’
que indica cuáles son los aspectos del comportamiento
que una vez integrados mediante lo cognitivo afloran en
la superficie como una conducta determinada (Salatino,
2017, p. 278).
La creatividad puede ser equiparada a un verdadero
lenguaje, en donde el ‘lenguaje universal’ mencionado
de franco arraigo biológico, se comportaría como su
‘aspecto sintáctico’. Un lenguaje natural (Salatino, 2012)
caracterizador de los afectos que afianzan tanto lo
volitivo como lo cognitivo en nuestra psiquis, haría las
veces de ‘aspecto semántico’.
Por último, un lenguaje convencional habilitado para la
comunicación en el medio sociocultural respaldaría su
‘aspecto pragmático’. Debe destacarse que la ‘columna
vertebral’ del lenguaje genérico que representa la
creatividad está en la estrecha relación que existe entre
los elementos profundos de sus tres componentes
(Salatino, 2017, pp. 279-280). El vivenciar o la
organización visceral del conocimiento mediante el
‘lenguaje universal’.
El intuir o la integración afectiva de los tres elementos
básicos a través del ‘lenguaje natural’; y el ‘crear’ o la
proyección social de los sentimientos y motivaciones con
la ayuda del ‘lenguaje convencional’.
30
Figura 1 PAU DE LA CREATIVIDAD EN ESCHER
Referencias: S: sujeto – LC: lenguaje convencional
LN: lenguaje natural – LU: lenguaje universal
La Figura 1 deja constancia de este enfoque subjetivo y su
aplicación a la producción geométrica de Escher.
En el caso de Penrose, más allá de la influencia intuitiva que
pudo ejercer en él el trabajo de Escher, coadyuvaron otros
aspectos. Su gran dominio de las matemáticas y genial
vocación creativa, lo llevaron a descubrir en 1974 un conjunto
de mosaicos, que si se disponían de una manera particular, el
relleno con ellos del espacio, no era periódico. Los mosaicos
estaban compuestos por dos rombos, uno ancho y otro
angosto que se podían repetir infinitamente. La no
periodicidad de los mosaicos se sustentaba en que la
proporción entre ambos rombos era un número irracional: la
razón áurea () (Huggett, 1998, p. 216) (Figura 2).
31
Figura 2 PAU DE LA RAZÓN ÁUREA
Este número irracional fue definido por primera vez por
Euclides hace más de 2000 años (Elementos, VI,
descripción 3, p. 228). El PAU bicíclico (Salatino, 2017)
de la Figura 2, así lo manifiesta:
“Lo pequeño es a lo grande, como lo grande es al todo.”
Vemos también, en el esquema anterior, que el número
“5” es la clave de la relación; algo que condice con el
tipo de simetría que muestran estos mosaicos, y los
cuasicristales que luego abordaremos.
La proporción o razón áurea está presente cual “patrón
universal”, en las matemáticas; en la geometría; en la
naturaleza (en el caparazón de algunos moluscos, en las
flores del girasol, en algunos cristales, en la forma del
ADN, etc.); en el cosmos, en la pintura (Leonardo,
Velázquez, Durero, Dalí); en la música (escala
heptatónica, Béla Bartók, Claude Debussy); en la
arquitectura; en la economía (comportamiento de los
mercados financieros (Prechter, 1996, p. 194)).
La “divina proporción” como la bautizara el fraile
franciscano y matemático Luca Pacioli (1509), parece
ser la clave de la belleza natural, ya que la podemos
encontrar tanto en las flores o frutos (la distribución de
las semillas de una manzana forma una estrella de cinco
32
picos o pentagrama (Livio, 2003, p. 8)) como en los
animales, e inclusive, en el ser humano. Pero además,
está relacionada con la “sucesión de Fibonacci” (Pisano
(Fibonacci), 1857, p. 284) que representa una estructura
matemática fundamental. Antes de que Fibonacci
escribiera su trabajo en 1202, la secuencia ya había sido
discutida por los eruditos hindúes, que durante mucho
tiempo habían estado interesados en los patrones
rítmicos que se forman a partir de la prosodia sánscrita
(sílabas cortas y largas); por lo tanto, tanto Gopãla
(antes de 1135) como Hemachandra (1150)
mencionaron los números 1, 2, 3, 5, 8, 13, 21, ...,
explícitamente (Knuth, 1997, p.80).
No hay ninguna indicación de que Fibonacci se diera
cuenta de que existía alguna conexión entre su serie
numérica y la razón áurea (Herz-Fischler, 1998, p. 144).
Fue Johannes Kepler, en 1611, quien descubrió que la
razón consecutiva de los números de Fibonacci
converge hacia la razón áurea (1) (Livio, 2003, p. 153).
(1)
La belleza aparente, objetiva o cuantitativa (si se quiere),
que nos muestran los teselados o mosaicos de Penrose,
parece sustentada en un fenómeno natural. Pero, no hay
duda de que hay algo más. Ese aspecto “extra”,
cualitativo o subjetivo que según nuestra perspectiva, es
el que define la belleza universal que contagian estas
formas, lo trataremos de desentrañar desde la visión
transcursiva.
33
Figura 3 PAU DE LA BELLEZA UNIVERSAL
Referencias: SP: nivel aparente – PR: nivel profundo
Números: sucesión de Fibonacci - ⎯: espiral de Fibonacci
S: sujeto – O: objeto – V: transformación evidente
: transformación no evidente
La Figura 3, presenta en un PAU (patrón autónomo
universal, Salatino, 2017) estructural, el grupo algebraico
que constituyen los determinantes de la “belleza
extrínseca”, es decir, aquella que está a la vista y que es
suficiente para movilizar nuestra sensibilidad, cuando
contemplamos alguna de estas construcciones estéticas.
El elemento que interrelaciona tanto a los mosaicos de
Penrose como a la sucesión de Fibonacci, como ya
hemos visto, es la razón áurea. Esta última, porque
converge hacia ella, mientras que los primeros, la ponen
en evidencia cuando crecen, esto es, cuando divergen.
Además, intencionalmente se han superpuesto en el
diagrama, una serie de cuadrados cuyas superficies
siguen la progresión de Fibonacci, y una aproximación a
la espiral áurea (espiral de Fibonacci) generada
dibujando arcos circulares que conectan las esquinas
opuestas de los cuadrados ajustados a los valores de la
sucesión, adosando sucesivamente cuadrados de lado
34
1, 2, 3, 5 y 8; y que tiene un sentido de giro contrario a
las agujas del reloj, igual que el nivel profundo del PAU.
Aunque, el esquema que estamos analizando no se
agota en los considerandos anteriores. Hay “algo más”.
Ese elemento extra () intenta representar el
condicionante principal de una “belleza intrínseca”, que
en definitiva es quien determina la belleza que podemos
apreciar, y motivo de este trabajo. Cabe destacar algún
otro detalle en el diagrama precedente, por ejemplo, que
el cuadrado de lado 5, sea el único que está incluido
totalmente en el nivel profundo del PAU. Recordemos
que el número “5” es el corazón de la razón áurea, pero
además, un indicador de la simetría quíntuple de los
teselados aperiódicos.
¿Qué representa en este caso?
Proponemos que los teselados de Penrose constituyen
un sistema dinámico adaptativo; algo similar a un ser
vivo (Salatino, 2009).
Hablar de seres vivos es hablar, según la biología
clásica, de sistemas abiertos, que intercambian
sustancias y energía con su entorno. El concepto de
apertura contribuyó de una manera formidable a la
comprensión del funcionamiento de los seres biológicos
que mostraban conductas que no encajaban del todo,
con el comportamiento termodinámico regido por el
segundo principio de los sistemas cerrados; algo
parecido a lo que ocurre con los teselados aperiódicos.
Tan trascendente fue esta nueva visión que dio origen,
de la mano de Wiener en 1948 (1998), a la Cibernética
como la ciencia que explica el funcionamiento de los
sistemas físicos basada en los procesos de regulación y
control biológicos (homeostasis).
35
La Cibernética, no obstante, solo contempla sistemas
formales (ideales), que son capaces de mantener un
estado estacionario, o sea, de corregir desviaciones que
se producen en el cumplimiento de una norma o fin
preestablecidos, al interactuar con su entorno.
El análisis del sistema propuesto necesita una
cibernética distinta que permita explicar y no solo
describir el funcionamiento del aspecto real profundo ()
que hemos planteado como el determinante de los
procesos subjetivos que fundamentan una “belleza
intrínseca”.
Para
comprender
mejor
esta
precisaremos algunos conceptos:
dinámica
real,
4.1. Frontera (Morin, 1986, p. 235): Separación de los
niveles del sistema, aunque no se refiere a un límite neto
sino a una unidad activa de doble identidad ya que
significa a la vez distinción y pertenencia, siendo
simultáneamente, apertura y cierre. Un filtro que deja
pasar pero que a la vez frena. Es en ella en donde se
dan la disyunción y la conjunción en forma simultánea.
La que permite un estado estacionario, pero que esta
vez lejos del equilibrio homogéneo y estático del
homeostato cibernético.
4.2. Estado estacionario de no equilibrio (Prigogine y
Nicolis, 1977, p. 4): Es el único mecanismo capaz de
mantener activo un sistema. Es decir, mediante una
particular tramitación de la dinámica, puede sostener
una organización estable a pesar de las importantes
perturbaciones que vienen desde el entorno. De esta
forma, se genera una situación de “desequilibrio estable”
que impide que el sistema se vea sometido a un estado
de “aislamiento”. En los teselados equivaldría a la
36
aparición de rupturas, huecos o solapamientos que
malogren su disposición.
4.3. Retroacción y Recursión (Morin, 1986. p. 215): Lo
típico de una organización activa es el cambio; pero, ese
cambio debe poseer algunos aspectos típicos, por
ejemplo: debe ser cíclico.
Hay dos tipos de comportamiento cíclico: 1) aquel que
opera en la superficie, en la evidencia, y haciendo de la
salida del sistema una nueva entrada, trata de corregir
una desviación. Causalidad lineal hecha manifiesta
mediante una retroacción. Este comportamiento sería
propio de los mosaicos o teselados periódicos (belleza
explícita). 2) aquel tipo que trabaja en la profundidad, en
donde el final del proceso “nutre” el principio. “Los
estados o efectos finales producen los estados o causas
iniciales”. Causalidad circular que se cumple mediante
una recursión. Según la hipótesis defendida en este
trabajo, este comportamiento sería el de los teselados
de Penrose.
El PAU de la belleza universal que hemos propuesto es
un ciclo doble. Por un lado, aquel que tiene el semblante
fenoménico (superficial) de la retroacción (SVO), y el
otro, el generativo (profundo) de la recursión (OS).
Reúne en una misma dinámica la “morfostasis” o
constancia evolutiva de la forma y la “morfogénesis” o
creación de nuevas formas. Une en fin, nacimiento,
existencia y autonomía.
4.4. Retroalimentación negativa (Wiener, 1998, p. 133)
y Retroalimentación positiva (Morin, 1986, p. 252): La
retroalimentación negativa es aquel mecanismo que
se encarga de compensar las desviaciones de un estado
determinado. Propende a la constancia, a la
organización, al desequilibrio estable, a la conservación
37
de las formas (morfostasis) por un proceso repetitivo de
rechazar las perturbaciones. Fundamento de la
periodicidad.
La retroalimentación positiva, en dirección opuesta a la
anterior, produce acentuación y amplificación de una
desviación y aceleración de un proceso por sí mismo,
sobre sí mismo. Promueve la desorganización mediante
una tendencia que tanto puede ser destructora (tal como
la considera la cibernética clásica), como “creadora” de
formas (morfogénesis) y sustento de una historia o
evolución.
La regulación de nuestro PAU lleva en sí larvados
antagonismos complejos (opuestos, complementarios y
concurrentes); un ensamble de retroalimentaciones
negativas y positivas (Figura 4).
Figura 4 REGULACIÓN COMPLEJA DEL PAU
Referencias: −: retroalimentación negativa
+: retroalimentación positiva
La regulación y el control tradicionales tienen que ver
con el concebir estas retroalimentaciones como
excluyentes. La regulación de la organización dinámica
de nuestro sistema las contempla como concurrentes
(heterárquicas).
38
La retroalimentación negativa sola es propia de los
sistemas que no evolucionan (teselados periódicos). La
retroalimentación positiva sola es típica de aquellos
sistemas que van directamente a su destrucción
(teselados de Penrose no válidos, con interrupciones o
solapamientos (Hill et al., 2005)) . Obligadamente, para
evolucionar, se necesita de ambas al mismo tiempo.
¿Cómo es posible la coexistencia? ¿Cómo es posible
que el mismo proceso que promueve el desorden, la
desorganización y la destrucción, sea genésico?
La coexistencia queda comprendida desde que
explicamos la simultaneidad de lo superficial (lo aparente
y cuantitativo) y lo profundo (lo profundo y cualitativo) en
la realidad. La desorganización de la organización, no
niega a esta, como tampoco el O niega el S en un
universo policontextural (Salatino, 2009) sino que la
transforma, reorganizándola.
Esta reorganización favorece la complejización por dos
vías distintas, pero partiendo de un mismo fenómeno: la
catástrofe. El “tocar el límite”, el descontrol transitorio de
la retroalimentación positiva en su tendencia creciente.
Las dos vías, igual que en los seres vivos, son: a) el
desarrollo y b) la evolución.
a) Desarrollo: representa la complejización estructural
autoorganizada mediante fluctuaciones (Wagensberg,
1989, p. 42). Una sinusoide amortiguada, típica de la
retroalimentación negativa, marca una curva asintótica
de infinita aproximación que representa en forma
dinámica el cambio aparente que identifica a los
teselados periódicos, que respetan la sucesión de
Fibonacci. Este surgir “pulsado” y discreto de lo profundo
es típico del fenómeno, de lo que se presenta y aparece
pero que a la vez es amortiguado (se va extinguiendo ‘a
39
saltos’ en el tiempo) lo cual significa que las
desviaciones respecto a un estado de desequilibrio
estable cada vez son menores y esto al mismo tiempo
nos dice, que se están “corrigiendo” errores por desvío,
“restando” las diferencias encontradas, de allí lo negativo
de la retroalimentación (Figura 5).
Figura 5 RETROALIMENTACIÓN NEGATIVA DE LA
SUCESIÓN DE FIBONACCI – MORFOSTASIS
Referencias: : razón áurea
En el PAU las “sustracciones” anteriores no se pierden
sino que se transforman. Son “acumuladas” en el nivel
profundo (transformación no evidente) y cuando se llega
a un determinado límite o umbral, lo oculto se hace
evidente. La retroalimentación negativa se hace positiva
arrastrando a todo el sistema fuera del equilibrio
(Wagensberg, 1989: 42). Al sobrepasar una “distancia
crítica” desde el equilibrio, el sistema deja de ser lineal
(perdiéndose la proporcionalidad causa/efecto) lo cual
nos indica que hay más de una alternativa para
aproximarse nuevamente a un estado estable. En su
devenir o evolución, el sistema se ve enfrentado a una
disyuntiva.
40
Puede reorganizarse en función de lo planteado en su
‘interior’ y en su dependencia con el entorno
(adaptación). Esta tarea la lleva a cabo ‘robándole’
complejidad al entorno y mediante estructuras
intermedias (semejantes a las estructuras disipativas
(Prigogine, 1977, p. 4)) “tramita” esta inestabilidad que lo
acosa, generando un cierto orden a partir del desorden
(evoluciona y ‘sobrevive’). Pasando así a un nuevo nivel
de desequilibrio estable de mayor complejidad, en donde
vuelve a regir la retroalimentación negativa y comienza
todo de nuevo después de transcurrido un cierto tiempo.
Proceso al que se denomina morfostasis, y explica muy
bien cómo se forman los mosaicos periódicos, que solo
se desarrollan y crecen.
b) Evolución: representa el mecanismo de la
emergencia, de la creación de estructuras nuevas o
morfogénesis; del surgir de los mosaicos aperiódicos. La
triada superficial (SVO) que hemos propuesto en el PAU,
no es la única que existe en este sistema policontextural
(Salatino, 2017). Este arreglo tiene la posibilidad de
disponerse de seis formas distintas. De hecho, la
primera generación de teselados de Penrose se originó
desde tres patrones básicos, que luego por combinación,
dieron los seis que formaban esta serie (Figura 6).
Figura 6 PRIMERA GENERACIÓN DE PENROSE
41
Referencias: SVO: germen (Modificado de Grünbaum y
Shephard, 1987, p. 531)
La LT explica la emergencia de nuevas formas a través
del ‘apareamiento’ entre dos tripletes superficiales,
dándose algo similar a una ‘fecundación’.
La producción de una ‘discontinuidad’ en la estructura
compleja del PAU, promueve la escisión funcional entre
lo superficial (lo fenoménico) y lo profundo (lo genésico).
El disparador del proceso de fecundación es el mismo
que en el caso del desarrollo, con la diferencia de que
aquí el proceso de retroalimentación positiva no se
estabiliza sino que logra (dada su violencia desmedida)
provocar una fisura en la estructura del PAU, ‘liberando’
el nivel profundo. Obviamente que en este caso, el
“padre” deja de existir como estructura real (“muere”)
pero a su vez sigue “viviendo” en el hijo, (el mosaico)
haciéndose efectivas simultáneamente, las dos
tendencias de la retroalimentación positiva: destrucción y
creación (Figura 7).
Figura 7 RETROALIMENTACIÓN POSITIVA DE LOS
TESELADOS DE PENROSE – MORFOGÉNESIS
Referencias: : razón áurea
42
Posteriormente, Penrose produjo una segunda
generación aperiódica que solo tenía dos elementos
(cometa y dardo), pero originados de un mismo patrón
(Penrose, 1978) (Figura 8).
Figura 8 SEGUNDA GENERACIÓN DE PENROSE
Referencias: S: sujeto – O: objeto – V: transformación
aparente - : transformación no aparente - : razón áurea
(Modificado de Grünbaum y Shephard, 1987, p. 539)
Como se puede apreciar en la figura anterior, Penrose
partió de un cuadrado cuyos lados tienen una longitud
43
equivalente a la razón áurea (). Al inclinar el cuadrado
hacia la derecha 18º, se genera un rombo cuyos ángulos
internos son múltiplos de 36º. Dividió la diagonal mayor
según (1,618), y unió después el punto obtenido con
los vértices obtusos. Entonces, cada uno de los
segmentos rectilíneos mide 1 o . El ángulo mínimo es
de 36º y los demás ángulos son múltiplos de él
(Gardner, 2008, p. 6). Este PAU, al escindirse, da origen
a los dos elementos complementarios que conformarán
distintos mosaicos aperiódicos, como el mostrado en el
ángulo superior derecho de la Figura 8. Allí se aprecian
una serie de pequeñas esferas blancas que certifican la
aperiodicidad del mosaico.
Lo podemos asegurar
porque hemos representado los elementos básicos con
los colores de la luz, es decir, el dardo con los colores
primarios, y el cometa con los secundarios. La única
forma de obtener un mosaico correcto es adosando los
vértices que tienen colores complementarios. Cuando
los colores primarios y los secundarios se suman dan
blanco, mientras que la existencia de esferas de
cualquier otro color detectaría un mosaico mal formado.
El encaje adecuado de los elementos básicos en una
proporción igual a la razón áurea, corroborado por la
formación de “parches” con simetría múltiplo de “5”
(decágono rojo) da fundamento a la belleza intrínseca
que poseen estas composiciones.
5.0. CUASICRISTALES
El estado cuasicristalino es una tercera forma de la
materia sólida junto a la cristalina y la amorfa (Trebin,
2003). Los cristales son estructuras ordenadas y
periódicas. Las sustancias amorfas, en cambio, son
desordenadas y no periódicas. Los cuasicristales, por su
parte, son estructuras ordenadas que no son periódicas.
44
Un ordenamiento no periódico, como ya dijimos, se
caracteriza por la falta en él de simetría traslacional.
Experimentalmente la aperiodicidad se revela en el
patrón de difracción de estos sólidos, que es diferente a
la simetría de orden 2, 3, 4, o 6 que presentan los
cristales.
El primer cuasicristal lo descubrió Dan Shechtman del
Instituto Tecnológico Israelí en 1984, quien por este
descubrimiento, recibió el Premio Nobel de Química en
2011.
El aporte de Penrose diez años antes, con sus teselados
aperiódicos, dio la posibilidad de explicar algunas de las
particulares propiedades físicas de estos sólidos (Figura
9).
Figura 9 PATRONES DE DIFRACCIÓN DE ELECTRONES
EN CUASICRISTALES DECAGONALES
Referencias: (a) Cobalto básico – (b) Modificación Al70Ni15Co15
Flecha: decágono
(Modificado de Trebin, 2003, p.18)
La Figura 9 muestra los patrones de difracción de
electrones en el eje decagonal del Cobalto (a), y de la
45
aleación AlNiCo (Acrónimo de Aluminio-Níquel-Cobalto,
usada para fabricar potentes imanes permanentes) (b).
En (a) se observa una baja dispersión y la formación de
reflexiones fundamentales (el PAU superpuesto,
formado por pentágonos). En cambio, en (b) se muestra
la típica modificación en los patrones de reflexión que se
producen cuando se genera la aleación (flecha). Aquí se
ha superpuesto un “decágono de Penrose” formado con
saetas y dardos.
9.0. CONCLUSIONES
A modo de reflexión final creemos que puede ser
enriquecedor plantear una comparación entre los
teselados de Penrose y algunas de las obras de Escher.
Una historia que se ha repetido muchas veces señala
cómo la Alhambra influyó decisivamente en las
creaciones del artista holandés. Pero tanto en el arte
islámico, como en las obras de Escher, la repetición
juega un papel importante. En este trabajo hemos
resaltado que la innovación de Penrose se encuentra en
el descubrimiento de unos mosaicos o baldosas en los
que la no-repetición es fundamental. De aquí la idea
central que hemos señalado, sobre derivaciones
estéticas e incluso decorativas, basadas en funciones
matemáticas y en figuras geométricas. Pero, este
significado surge cuando hay una contemplación
inteligente, esto es, no ingenua del observador.
En cierto sentido, Penrose nos plantea un camino
análogo, aunque de sentido contrario al de Maurits C.
Escher, Esto es así porque su interés está básicamente
orientado a las ciencias. Con el tiempo, los
descubrimientos de ciertas propiedades de la geometría,
lo conduce a “develar” ciertas formas que están, aunque
a primera vista desprevenida, no matemática, no se
“vean”. Si se pudiera realizar un paralelismo, teniendo en
46
cuenta su formación disciplinaria, Penrose se encuentra
más cercano a H. Coxeter o a H. Poincaré, que a Escher
. Sin embargo, las derivaciones de su obra, por los
efectos estéticos que ésta genera, lo aproximan
ciertamente al artista de los Países Bajos. Pero, sin
dudas, Escher se encuentra en el cruce de caminos y es
la referencia clave para estos geómetras.
Hay dos dimensiones que revela la empatía entre
Escher y Penrose. La primera se encuentra en el
reconocimiento del orden armónico que subyace a la
estructura de la realidad, la cual siempre y sobre todo,
sostendrán al unísono, es matemática. La otra se refiere
al “elemento platónico” presente en la generación de
figuras geométricas, el cual implica, según Penrose:
“Acceder o descubrir una verdad profunda, más que
demostrar”. Tal como ha afirmó uno de los más
profundos conocedores de su obra, Martín Gardner:
“Los resultados de Penrose en matemáticas y física —y
sólo he mencionado una pequeña parte— surgen de una
permanente admiración por el misterio y por la belleza
del ser!”. M. Gardner, p. 10.
Se ha logrado un aporte en cuanto a la comprensión del
significado de los efectos estéticos y artísticodecorativos de los teselados aperiódicos de Penrose, al
abordarlos como un sistema dinámico adaptativo, similar
a un ser vivo.
En estos mosaicos se plantea y demuestra la existencia
de una “belleza intrínseca” (oculta), que a modo de un
“genotipo” como patrón universal cualitativo, determina
la “belleza natural cuantitativa” o “fenotípica” (la que se
ve) que le otorga otro patrón universal como es la razón
áurea. Una disposición en total sintonía con la Lógica
Transcursiva.
47
REFERENCIAS
CONWAY, J. H. with Heidi Burgiel and Chaim GoodmanStrauss. (2008). The symmetries of things, Wellesley,
MA.
COXETER, H. S. M. (1999). The Beauty of Geometry.
New York, Dover Books
CUCKER, F. (2013). Manifold Mirrors. The Crossing
Paths of the Arts and Mathematics, Cambridge,
Cambridge University Press
EUCLIDES (2007). Elementos. Introducción General:
Luis Vega – Traducción: M. L. Puertas Castaños.
Madrid, Editorial Gredos, S.A.
GAMWELL, L. (2016) Mathematics and Art: A Cultural
History. Princeton and Oxford, Princeton University
Press.
GARDNER M. (2008). Mosaicos de Penrose y escotillas
cifradas. Barcelona, España, Biblioteca Desafíos
Matemáticos, RBA Coleccionables, S. A.
GRÜNBAUM, B.; SHEPHARD, G.C. (1987). Tilings and
Patterns. New York, W. H. Freeman and Company.
HERCE FERNÁNDEZ, R. (2014). De la física a la
mente: El proyecto filosófico de Roger Penrose. Madrid :
Biblioteca Nueva.
HERZ-FISCHLER, R. (1998). A Mathematical History of
the Golden Number. New York, Dover Publications, Inc.
HILL, M.; STEPNEY, S.; WAN, F. (2005). Penrose Life:
Ash and Oscillators. En Advances in Artificial Life.
LNCS, volume 3630, pp. 471-480.
HUGGETT, S.A. (Edit.).(1998). The Geometric Universe
Science, Geometry, and the Work of Roger Penrose.
Oxford, Oxford University Press.
KNUTH, D.E. (1997). The Art of Computer Programming.
Volume 1 Fundamental Algorithms. California, USA,
Addison-Wesley.
48
LIVIO, M. (2003). The Golden Ratio. The story of phi, the
world’s most astonishing number. New York, Broadway
Books.
LOEB, A. (1993). Concepts & Images: Visual
Mathematics, Birkhäuser Basel, Design Science
Collection.
MASERA, G.A.; VÁSQUEZ, M.G.; SALATINO, D.R.
(2017). “The Map and the Universe: The Work of Maurits
Cornelis Escher from a Cultural-Historical Approach.”
Inter. J. Res. Methodol. Soc. Sci., Vol., 3, No. 2: pp. 27–
35. (Jul. – Sep. 2017); ISSN: 2415-0371.
MORIN, E. (1986). El método. La naturaleza de la
naturaleza. Madrid, Cátedra.
NOVAK, M. (edit.) (2006). Complexus Mundi: Emergent
Patterns in Nature. New Jersey, World Scientific.
PACIOLI, L. (1509). De divina proportione. Venezia,
Paganino Paganini.
PENROSE, R. (1978). Pentaplexity: A Class of
Nonperiodic Tilings of the Plane. En Eureka, 39, pp. 1622.
PENROSE, R. (1999). Lo grande, lo pequeño y la mente
humana. Cambridge University Press, Madrid, 1999.
PENROSE, R.; GARDNER, M. (2002).The Emperor's
New Mind: Concerning Computers, Minds, and the Laws
of Physics. Oxford University Press, USA
PISANO, L. (FIBONACCI) (1202-1857). Il Liber Abbaci.
Roma, Baldassarre Boncompagni.
PRECHTER, R. R. (1996). R. N. Elliott’s Masterworks.
The Definitive Collection. Georgia, USA, New Classics
Library.
PRIGOGINE, I.; NICOLIS, G. (1977). Self-Organization
in Nonequilibrium Systems. From Dissipative Structures
to Order through Fluctuations. N. Y., John Wiley & Sons.
49
ROTA, G-C. (1997). ‘The Phenomenology of
Mathematical Beauty’. Synthese. Vol. 111, No. 2, pp.
171-182.
SALATINO, D. R. (2009). Semiótica de los sistemas
reales – Tesis Doctoral en Letras especialidad
Psicolingüística por la Facultad de Filosofía y Letras de
la Universidad Nacional de Cuyo, Mendoza, Argentina –
Director: Dra. Liliana Cubo de Severino.
SALATINO, D. R. (2012). Aspectos psico-biosocioculturales
del
lenguaje
natural
humano.
Introducción a la teoría psíquica del lenguaje - Mendoza,
Argentina - Desktop Publishing, Amazon.
SALATINO, D. R. (2017). Tratado de Lógica
Transcursiva. Origen evolutivo del sentido en la realidad
subjetiva. Mendoza, Edición del autor.
SHECHTMAN, D. et al. (1984). Metallic phase with longrange orientational order and no translational symmetry.
Physical Review Letters, vol. 53, pp. 1951-1953.
TEGMARK, M. (2014). Our Mathematical Universe: My
Quest for the Ultimate Nature of Reality. New York,
Knopf.
TREBIN, H-R. (2003). Quasicrystals. Structure and
Physical Properties. Germany, Wiley-VCH.
WIENER, N. (1998). Cibernética o El control y
comunicación en animales y máquinas. Barcelona,
TusQuets.
WAGENSBERG, J. (1989). Ideas sobre la complejidad
del mundo. Barcelona: TusQuets.
***
50
2. ELEMENTOS SUBJETIVOS EN EL
FUNDAMENTO DEL CÁLCULO INFINITESIMAL
Guillermo Alberto Cuadrado8
RESUMEN
: El propósito de esta contribución fue reinterpretar el concepto
de límite usando la Lógica Transcursiva, que tiene en cuenta
la perspectiva del observador. El método usado para obtener
la información consistió en el análisis lógico y epistemológico
de la bibliografía pertinente. Para ello se revisaron los sentidos
de los términos ‘subjetivo’ y ‘objetivo’; se especificó la
formalización del concepto de límite, desde Cauchy a su forma
actual; se aplicó la lógica Transcursiva al límite. Se encontró
que los gráficos de límite de los manuales universitarios
soslayan la naturaleza de proceso de su definición, que sí
recupera la lógica Transcursiva. Lo que permitió concluir que
este instrumento permite recuperar los aspectos dinámicos y
subjetivos de los conceptos de límite y de infinitésimo y los
mantiene en dominio de la aritmética, siguiendo la idea de
Cauchy.
Palabras clave:
transcursiva.
límite,
infinitésimo,
proceso,
lógica
1.0 INTRODUCCIÓN
La ciencia, entre otras posibilidades, tiene un sentido
objetivo y otro subjetivo. Si bien, la misma está
organizada para asegurar la objetividad, ella demanda
ciertas aptitudes del sujeto que hace ciencia, como
entender y realizar correctamente las operaciones
pertinentes de cada actividad planteada. Ese criterio
también se aplica al Cálculo Infinitesimal, ya sea que se
lo considere un lenguaje para describir porciones de
realidad o como instrumento, que permite establecer
conexiones entre los contenidos científicos y para
8
Grupo IEMI, F. R. Mendoza, UTN, UNCuyo.
51
resolver problemas. Por cierto, si bien la objetividad del
Cálculo es manifiesta, su subjetividad es más recóndita,
pero se encuentra incluso en su fundamento.
Los sentidos objetivo y subjetivo de la ciencia han sido
tratados con diferentes perspectivas y por algunos
autores citados en este trabajo, como E. Agazzi (1934;-),
F. Hayek (1899-1992), J. von Uexküll (1864-1944), J.
Bochenski (1902-1995), K. Popper (1902-1994). Cabe
añadir, que D. Salatino (1949;-) propone un particular
punto de vista para tratar lo objetivo y lo subjetivo. Se
trata de la Lógica Transcursiva, un método
complementario de la ciencia, que tiene en cuenta la
perspectiva del observador.
Una rama de las ciencias formales es el Cálculo
Infinitesimal, para el cual también se ajustan las
consideraciones de objetividad y subjetividad. Ese hecho
es manifiesto cuando con él se resuelven problemas, ya
que hay un resolvente que usa el cálculo como
instrumento,
estableciendo
substituciones
y
transformaciones para encontrar la solución.
En cambio, cuando los objetos del Cálculo se
determinan conceptualmente los aspectos subjetivos son
menos palpables, ya que a veces quedan enmascarados
por el formalismo de las definiciones, como es el caso
del concepto de ‘límite’. Precisamente, Agustín L.
Cauchy (1789-1857) definió el límite como un concepto
aritmético, eliminando todo apoyo en la intuición
geométrica, que era la modalidad usada antes de él.
Conviene destacar, que al definir el límite de ese modo,
este último se convirtió en el fundamento del Cálculo
Infinitesimal, ya que permitió determinar de un modo
mucho más riguroso la continuidad de una función, los
infinitésimos, las derivadas, las integrales y las series. El
cambio conceptual significó un avance de los aspectos
52
objetivos sobre los subjetivos, hecho que tiene una
importancia decisiva en el aprendizaje de la disciplina.
Cabe agregar, que el concepto aritmético del límite
mejoró el rigor de la disciplina, pero fue en detrimento de
la captación intuitiva que ofrecía la presentación
geométrica del concepto de derivada. Esta última se
ejemplifica con rectas secante que tienen un punto en
común sobre la curva, mientras el segundo punto
cambia acercándose al anterior. De ese modo, las
pendientes de las rectas van asemejándose cada vez
más. Cuando el segundo punto comienza a ubicarse
muy próximo del primer punto, la transformación finaliza
porque se ha llegado al límite.
Es pertinente indicar, que a partir de la segunda mitad
del siglo XIX y por razones que no se tratan aquí, la
matemática se orientó hacia el análisis exacto de los
conceptos y la búsqueda de la estructura axiomática de
los sistemas, para justificarlos en forma lógica. Muchos
de los desarrollos y descubrimientos en matemática
conmovieron sus propios fundamentos (Bochenski:
1949, 32-39; Agazzi: 1978, 89). En ese proceso, el
concepto aritmético de límite introducido por Cauchy se
formalizó con las expresiones de la Lógica Simbólica,
exigiendo un mayor esfuerzo de abstracción para
comprenderlo.
Naturalmente, este hecho significó un nuevo avance de
la objetividad sobre la subjetividad. Esta última quedó
tan arrinconada, que el aprendizaje del límite se redujo a
prácticas mecánicas y repetitivas, por la imposibilidad de
asociar el nuevo concepto con la información
matemática que los alumnos ya conocían. De ese modo,
todas las nociones que dependen del límite también
terminan asimilándose de un modo mecánico similar.
53
El problema que plantea esta contribución consiste en
recuperar el aspecto subjetivo del concepto de límite en
el Cálculo y hacerlo más evidente usando Lógica
Transcursiva. Como esta última considera el punto de
vista del observador, incluye a quién está aprendiendo
límite, concepto fundamental para la mayoría de los
conocimientos de esa disciplina. Por esa razón, este
trabajo se ubica en una línea de investigación que
emplea la epistemología contemporánea, para mejorar la
enseñanza de la matemática en carreras de ingeniería.
El propósito de esta contribución es reinterpretar el
concepto de límite usando la Lógica Transcursiva, que
tiene en cuenta la perspectiva del observador. En tal
sentido, fue necesario satisfacer ciertos objetivos
específicos, como: revisar sucintamente los sentido y
subjetivo y objetivo de la ciencia; especificar el proceso
de formalización del concepto de límite, justificando la
contribución de Cauchy, y el cambio a su forma lógica
actual; examinar brevemente las bases de la lógica
Transcursiva; y aplicar la misma al límite para explicitar
su aspectos objetivos y subjetivos.
Este trabajo está organizado del siguiente modo. En
primer lugar, se caracterizan sentidos objetivo y
subjetivo de la ciencia revisando brevemente los puntos
de vista de Agazzi; Hayek, von Uexküll, Bochenski y
Popper. En segundo lugar, se describe el concepto
aritmético de límite, expresado por Cauchy y se indican
los temas que son fundamentados por él, en el Cálculo
Infinitesimal. En tercer lugar, se analiza la definición
actual expresada en términos de la Lógica Simbólica. Y
para finalizar, se describe sintéticamente la Lógica
Transcursiva y se la aplica a la definición de límite.
54
2.0. ASPECTOS OBJETIVOS Y SUBJETIVOS EN LA
CIENCIA
En principio, la palabra ‘objetivo’ indica una referencia al
objeto, pero su sentido se contrapone a ‘sujeto’,
determinándose ambos como términos relacionales y
mutuamente excluyentes, debido a que la afirmación de
uno de ellos, atrae al otro en forma tácita. Así, en vez de
decir que una característica es ‘objetiva’ por ser
inherente al objeto, se afirma que la misma es objetiva
por cuanto es independiente del sujeto que la afirma o la
percibe.
La diferencia entre ambos sentidos de ‘objetivo’ es clara.
En un sentido, la objetividad es alguna característica
inherente al objeto, con una existencia independiente del
sujeto, que tiene nociones de ella. En consecuencia, ese
conocimiento es universal y necesario, como requisito
formal de la objetividad, sin procurar que refleje
propiedades de los objetos o que implique alguna
consecuencia de este tipo. En el otro sentido, la
objetividad debe ser válida para todos los sujetos, para
que sea universal y necesaria.
La ciencia moderna, por un largo período adoptó la idea
de conocimiento objetivo en el primer sentido. Sin
embargo, por razones que exceden a este trabajo,
después de la segunda mitad del siglo pasado, optó por
el segundo tipo, que admite la existencia de objetos
cuando hay un sujeto que los conoce (Agazzi: 1978,
405-406).
Cabe señalar, que los términos ‘subjetivo’ y ‘objetivo’,
aún con ciertas dificultades, han permitido señalar
diferencias entre las ciencias naturales y las sociales,
Además, el vocablo ‘subjetivo’ destaca que, si bien,
todas las personas poseen una estructura común que
55
hace posible la comunicación, cada una de ellas tiene
conocimientos y creencias distintas, incluso a veces,
contradictorias en muchos aspectos. Sin embargo, si las
todas las personas tuviesen idénticos conocimientos y
creencias, no importaría si ese hecho se describe como
un hecho objetivo o subjetivo (Hayek: 1955, 29).
Ahora bien, en el sentido de Kant, el espacio sólo existe
en la mente del sujeto, para estructurar sus
experiencias. El material específico del espacio, esto es,
los signos locales, los signos de dirección y la forma que
asume este material son creaciones subjetivas. Esas
cualidades espaciales unidas al acto de tomar
consciencia del objeto percibido de manera reflexiva
hacen posible el espacio. Si no fuese así, este último
sería nada más que una serie de cualidades sensoriales,
como colores, sonidos, olores, entre otros, y estos
tendrían sus formas y leyes específicas, pero no habría
un escenario común en el que todos pudieran
desempeñar su papel.
La distinción entre objetivo y subjetivo tiene un
significado real, aun admitiendo que no existe la
objetividad absoluta. Incluso, si el sujeto estuviera al
tanto de las señales de dirección subjetivas que
acompañan los movimientos de sus músculos, no sabría
nada de un mundo objetivo, sino que estaría rodeado
por un espacio subjetivo. Cada signo local es
estrictamente subjetivo, pero si se asocia a una cualidad,
se convierte en objetivo (Von Uexküll: 1926, 48-50).
Por su parte, Bochenski (1976: 30-31) sostiene que la
ciencia tiene dos significaciones, una subjetiva y otra
objetiva. La primera es el atributo de un hombre en
particular, que posee un saber sistemático para realizar
correctamente las operaciones intelectuales y manuales
de una ciencia, como consecuencia de haber penetrado
56
sistemáticamente en sus relaciones de contenido. Este
aspecto subjetivo requiere del investigador capacidad,
dedicación y predisposición, para hacer posibles los
descubrimientos científicos. Pero, éstos se conocen, si el
científico los comunica en algún lenguaje que exprese
ese conocimiento en una descripción.
Cuando eso ocurre, el conocimiento se vuelve objetivo y
se formula en oraciones enunciativas, como ‘el Sol es
una estrella’. Por ese motivo, en la significación objetiva,
la ciencia es un conjunto de proposiciones objetivas y
una construcción social, ya que esa realidad está en el
pensamiento de muchos hombres, porque ninguno de
ellos conoce todas las proposiciones de una disciplina.
En efecto, este aspecto objetivo de la ciencia permite
comunicar, fundamentar y verificar de manera
intersubjetiva los resultados de una investigación.
En relación con estos conceptos, la teoría de los tres
mundos de Karl Popper (1974, 76-77, 107-108), clasifica
el mundo en tres categorías: mundo 1, de los objetos
físicos; mundo 2, de las disposiciones, expectativas y
procesos mentales y mundo 3, de los contenidos
objetivos de pensamiento científico, artístico o de otra
índole, que se encuentra en el contenido de libros,
bibliotecas, museos, computadoras y repositorios
digitales. El mundo 3 es autónomo y en él existen
relaciones lógicas implícitas. Cuando alguien las
encuentra hace un descubrimientos teórico, de la misma
manera que en el mundo 1 se hacen los
descubrimientos geográficos o se encuentran nuevas
especies de plantas o animales.
Ahora bien, el mundo 3 comienza y se desarrolla en el
lenguaje humano; y consiste en problemas, teorías y
argumentos, que se vuelven independientes de los
sujetos que los enunciaron, al ser presentados ante
57
otros de alguna forma. Por ese motivo, está
potencialmente disponible para ser conocido por quién
desee explorarlo. En cambio, la mayor parte del
conocimiento subjetivo que tiene una determinada
persona es inherente al mundo 2. Este último, depende
del contenido de los repositorios que tiene el mundo 3,
que influyen sobre las disposiciones para actuar o sobre
el interés que tienen los sujetos por el conocimiento.
Resulta evidente que las descripciones escritas en algún
lenguaje contribuyen a la emergencia de ese mundo 3,
donde se plantean problemas, se argumenta, se hacen
críticas racionales, y esos argumentos sobre las
descripciones consideran su contenido, su verdad o su
verosimilitud. En cambio, el conocimiento subjetivo de la
ciencia busca aplicar correctamente el método científico,
esto es, el proceso destinado a explicar fenómenos,
relacionar sucesos y enunciar leyes que expliquen
hechos físicos o sociales, para lograr aplicaciones útiles
al hombre.
3.0. CONCEPTO ARITMÉTICO DE límite DE CAUCHY
El concepto de límite tiene antecedentes en el método
de recubrimiento de los griegos, y más modernamente,
en los trabajos de Newton, D’Alembert y Lacroix, que lo
consideraban el fundamento del cálculo. Sin embargo,
este último era concebido como un instrumento para
tratar problemas geométricos. Sólo Euler y Lagrange
intentaron establecer el cálculo sobre un formalismo,
pero con escaso éxito. La mayoría de los autores
presentaban en sus trabajos la idea de límite concebido
geométricamente. Sin embargo, esas teorías quedaron
eclipsadas cuando aparecieron los textos de Cauchy,
donde el concepto de límite se convirtió en un concepto
aritmético, sin apoyo geométrico (Collette: 2000, 312).
58
Esta transformación conceptual se puede constatar en la
enunciación del límite que Cauchy (1821, 4) presenta en
la parte Preliminar de su libro Curso de Análisis:
“Cuando los valores sucesivamente atribuidos a una
misma variable se aproximan indefinidamente a un valor
fijo, de manera que llegan a diferir tan poco como se
quiera de él, este último se llama el límite de todos los
demás”. Esta definición, más verbal que numérica,
informa la idea intuitiva de límite.
Con respecto al concepto de ‘infinitésimo’, enunció que
son aquellas cantidades de la variable dependiente, que
tienden a valer cero: “Cuando los valores numéricos
sucesivos
de
una
misma
variable
decrecen
indefinidamente de manera que disminuyen por debajo
de todo número dado, esta variable resulta ser lo que se
llama un infinitamente pequeño o cantidad infinitamente
pequeña. Una variable de esta especie tiene cero como
límite” (Ibid., 5, 27-28).
También se ocupó de teorizar sobre la continuidad de
las funciones. Él sostenía que “una función ‘f(x)’
permanecerá continua con respecto a ‘x’ entre los límites
dados, si, entre estos límites, un aumento infinitamente
pequeño en la variable siempre produce un aumento
infinitamente pequeño en la función misma” (Ibid., 3435).
Cauchy utilizó el límite para fundamentar la mayoría de
los conceptos del Cálculo Infinitesimal. También
reemplazó la práctica usual de definir la integral como la
inversa
del diferencial,
ofreciendo
definiciones
independientes para cada uno de esos objetos. Además,
por primera vez transformó esa relación inversa en un
genuino teorema: el ‘teorema fundamental del cálculo
integral’, exigiendo condiciones necesarias y suficientes
sobre una función para que éste se cumpla. En ese
59
sentido, fue pionero en la práctica de determinar
condiciones necesarias y suficientes para la verdad de
un teorema. (Grattan-Guinness: 2004, 133-135).
También se ocupó de la convergencia o divergencia de
series numéricas infinitas, ofreciendo definiciones
generales y exigiendo condiciones para que se cumplan
los resultados. Además, hizo un tratamiento adecuado
de las condiciones de convergencia de las series de
potencias de Taylor y de Mc. Laurin (Cauchy: 1829, 9199).
3.1. DEFINICIÓN ACTUAL DE límite
A fines del siglo XIX y principios del XX, por razones que
no es el caso tratar aquí, se produjo una crisis de los
fundamentos de la matemática y la física. Este hecho
impulsó el desarrollo de la lógica simbólica, para estudiar
los mismos, eliminando aspectos irrelevantes o
engañosos de la matemática y del lenguaje corriente. En
esa actividad destacaron Richard Dedekind (1831-1916),
Giuseppe Peano (1858-1932), Georg Cantor (18451918) y Gottlob Frege (1848-1925), los cuáles
articularon los principios básicos de la matemática,
intentando reducir todo el cálculo infinitesimal a la
aritmética, la teoría de conjuntos y la lógica pura (Agazzi:
1978, 89; Bochenski: 1949, 32-39).
Frege sostenía que muchos errores de razonamiento
matemático eran síntomas de confusiones conceptuales
no reconocidas. Para evitar ese problema concibió un
sistema que representara contenidos de pensamiento en
forma simbólica y sólo desde el punto de vista lógico, lo
que generó la actual lógica simbólica. Se trata de un
sistema que extiende el concepto matemático de función
(Stefanians: 2007, 19-20; Frege: 1972, 224-226).
Posteriormente, el grupo Bourbaki reconstruiría todas las
60
disciplinas matemáticas en una única arquitectura
estructural. Lo hizo usando la lógica de Cantor y Frege,
enfatizando la forma antes que los contenidos (Piaget,
1993: 74-79). Esa metodología no tardó en difundirse en
varios manuales universitarios de Cálculo.
Las actuales aproximaciones intuitivas al concepto de
límite no difieren demasiando de la presentada por
Cauchy, en cambio la formalizada dice lo mismo de
manera muy diferente. En ese sentido, una presentación
intuitiva dice que ‘una función f(x) tiende hacia el límite
‘l’, si ‘f(x)’ queda tan cerca de ‘l’ como el usuario del
Cálculo desee, sólo con hacer que ‘x’ esté lo
suficientemente cerca de a, pero sin ubicarse en esa
posición.
Lím f(x) = l puede presentarse así: x→ a f(x)→ l
x→a
En cambio la definición formal de límite expresada en
términos de la lógica simbólica o de la teoría de
conjuntos dice:
Lím f(x) = l def. ()(())(x)(0<|x - a|< |f(x)−l|< )
x→a__________________-_R+___R+ __domf
Lím f(x) = l def. ()(())(x )(xE*(a; ) f(x)E(l; ))
x→a_________________-__R+___R+ __domf
Con referencia a la notación, se usa la propuesta por A.
Tarski, que debajo de cada cuantificador coloca el
dominio de este. El aspecto subjetivo del usuario de esta
definición se encuentra en el término ‘()’, que dice:
‘para cualquier que se elija’. Luego, a partir de ‘’ se
obtienen los otros elementos de la definición.
La expresión ‘|f(x)−l|<’ informa que el módulo de la
diferencia es un infinitésimo, por ser menor que
cualquier número dado, teniendo como límite a cero. Por
una parte, la diferencia ‘f(x)−l’ puede ser positiva o
negativa, en consecuencia ‘|f(x)−l|=|φ(x)|’. Por otra, la
61
elección del ‘’ determina la magnitud del infinitésimo, o
dicho de otro modo, define la cantidad de decimales
exactos que necesita el usuario de la definición.
Además, si se considera que ‘f(x)’ es continua en ‘a’, se
verifica que el límite coincide con el valor de la función
en ‘a’, esto es ‘l = f(a)’. Por ejemplo, sea ‘f(x)= (x); a=1;
y =1/1000’.
Tabla N° 1
x
a
a
a
a
a
b
b
d
d
d
d
d
a
a
a
1,200000
1,100000
1,010000
1,002100
1,002001
1,002000
1,001999
1,001990
1,001900
1,000000
0,999999
0,999901
0,998009
0,998001
0,990000
0,900000
(x)−1=φ(x)
−0,0954411
−0,0488088
−0,0009495
−0,0049875
−0,0010000
−0,0009994
−0,0009985
−0,0009945
−0,0009495
−0,0000000
−0,0000199
−0,0001979
−0,0009599
−0,0010000
−0,0050125
−0,0513167
En la tabla se puede
observar a partir de que
valores el módulo de
φ(x) es un infinitésimo
menor que '1/1000'. Eso
significa que si sólo se
leen
tres
decimales
todas las diferencias se
ven iguales a '0,000'.
Dicho de otro modo, una
vez que el usuario de la
definición
fija
la
precisión
‘’
surgen
infinitos valores ‘f(x)’
similares a ‘f(a)’, cuya
diferencia con éste no es
detectable.
El ‘’ de una milésima determina que los infinitésimos se
encuentran después del tercer decimal, asegurando para
la función una precisión de tres decimales. El valor de la
función en ‘1’ determina el límite ‘l’, que en este caso es
‘l=(1)=1’.
Luego
la
función
cumple
que
‘1−0,001<(X)<1+0,001’.
Si se elevan al cuadrado todos los términos de la
expresión, la desigualdad se conserva y se obtiene
‘(1−0,001)2<x<(1+0,001)2’ o ‘−0,001999<x−1<0,002001’.
62
Luego, si ‘=mín{1; 2}’ entonces ‘= 0,001999’.
Si se toman valores ‘x’ del entorno ‘E*(1; 0,001999)’, la
diferencia entre la función y su límite es un infinitésimo
‘(x)−1=φ(x)’. Obsérvese ‘φ(x)=f(x)−l’ puede verse
como una traslación del eje de abscisas coordenados al
valor ‘l’. En ese caso la función ‘φ(x)’ tendrá un cero en
‘a=1’.
Naturalmente, la condición rectora es que las ‘x’ se
saquen del entorno
‘E*(1;0,001999)[0,001999;_1,002001)’.
4.0 DESCRIPCIÓN
TRANSCURSIVA
SUCINTA
DE
LA
LÓGICA
La lógica transcursiva fue desarrollada por Dante
Salatino en su tesis doctoral Semiótica de los sistemas
reales (2009) para dar cuenta de la realidad subjetiva y
el lenguaje natural. La misma tiene antecedentes en la
lógica transclásica de Gotthard Günther y las influencias
de autores como G. W. F. Hegel, L. Wittgenstein, C. S.
Peirce, E. Galois entre otros.
Es pertinente señalar, que la ciencia objetiva se sustenta
en una lógica binaria que demarca dicotomías como
objeto o sujeto, existencia o su ausencia, positivo o
negativo, cantidad o cualidad, designado o nodesignado. Se trata de un universo objetivo que admite
una sola negación, denominado ‘monocontextura’. En
cambio, la lógica policontextural, que propuso Günther,
es un lenguaje con más de una negación, que le permite
justificar la distribución heterárquica de sistemas binarios
en múltiples contexturas. Cada una de estas últimas
surge de aplicar negaciones sucesivas, permitiendo así,
las contexturas del objeto, el sujeto y lo subjetivo, que
son valores lógicos. De esta manera, cada negación
produce un desplazamiento a la contextura sucesiva,
63
siguiendo un ciclo. A pesar de su ingeniosa concepción,
esa lógica tuvo dificultades en su aplicación (Salatino:
2009, 44-45).
Por su parte, Salatino (2009, 46-47) propuso la lógica
transcursiva que es una lógica policontextural
modificada, con el propósito de transformar esa
herramienta en operativa y útil. Las modificaciones
consistieron en: 1) distribuir los valores lógicos utilizando
operadores booleanos; 2) elaborar autómatas llamados
patrones autónomos universales (paus), que son
análogos de los autómatas finitos de la lógica clásica; 3)
incluir un tiempo interno o psíquico, que suplir la falta de
sincronización, dado que cada forma de expresión de la
identidad requiere de un tiempo propio; 4) proponer un
lenguaje universal, para especificar la interacción
simultánea entre las contexturas; y 5) agregó una cuarta
contextura para advertir de la cognición, fundamento
esencial de la lógica transcursiva.
En esta lógica se asigna ‘1’ al desorden y ‘0’ al orden,
luego la contextura del sujeto será identificada con el
código ‘01’, porque tiene desorden y ausencia de orden.
Por razones equivalentes, la contextura del objeto será
identificada con el código ‘10’, porque tiene orden y
ausencia de desorden. En la lógica clásica, en la
relación directa entre sujeto y objeto, cuando se designa
el objeto, el sujeto desaparece, dado que su ‘lenguaje’
tiene una sola negación y prioriza la designación de
objetos. Luego, para rescatar el sujeto que se pierde al
hacer la designación del objeto, se crea una nueva
contextura o nicho ontológico en donde alojar al sujeto
negado. Para dar cuenta de la relación directa o
evidente entre sujeto y objeto se genera otro nicho
ontológico, destinado a contener lo denotado de los
otros dos, asignándole el código ‘11’, que significa que
64
contiene la co-presencia de orden y desorden. A eso se
agrega un cuarto nicho ontológico, que sugiere que entre
sujeto y objeto también existe una relación indirecta o
profunda, que no es evidente, cuyo código binario es
‘00’, por alojar lo no designado del objeto y del sujeto,
dicho de otro modo, el nicho aloja la co-ausencia
(Salatino: 2012, 202-204).
La lógica transcursiva dispone de una biblioteca de
patrones autónomos universales (paus), para analizar
fenómenos diversos, considerándolos como si fueran
sistemas. Estas estructuras relacionales están
conformadas siempre por los mismos elementos
genéricos y fundamentales, y en cada tipo sólo varía la
secuencia de sus relaciones para realizar las
transformaciones.
4.1.
DEFINICIÓN
TRANSCURSIVA
DE
límite
CON
LÓGICA
Tal como se indicó, el aspecto que corresponde al sujeto
(S) de esta definición se encuentra en el término ‘()’,
que le ofrece al usuario la opción de elegir el ‘’, de
acuerdo con sus propósitos. A él se le opone el ‘’ que
es el objeto (O). Ambos, están vinculados por ‘f(x)’ (V) y
a éste se le opone ‘l’ (). Luego, a partir de ‘a’ y ‘f(x)’ se
obtiene ‘’, y éste determina los otros dos elementos de
la definición: ‘’, y ‘l’.
En el caso del límite, se aplica un PAU hemicíclico
exógeno que comienza como “externo”, siguiendo la
secuencia SVO en sentido horario, impulsada por ‘l’
desde el ‘’. Luego, cuando alcanza un cierto umbral, el
ciclo dextrógiro se amplía siguiendo la secuencia OSV.
Esto ocurre por ser una heterarquía explícita, donde el
plano profundo de la lógica transcursiva se hace
evidente cuando recorre los lados del rectángulo OSV.
El PAU hemicíclico se usa cuando el objetivo es escindir
65
apariencia de realidad, permitiendo abordar sistemas
que representan un ensamble de dos o más estructuras
que se alternan en sus funciones. El mismo, se aborda
desde la relación directa de los elementos
fundamentales. Puede manejar dos o más variables a
través de operaciones binarias híbridas XENIAs
‘↬(⊙⊕)/↫(⊕⊙)’ (Salatino: 2013, 198; 2019, 52-73 ).
Para utilizar estos conceptos es conveniente aplicar la
expansión de Boole de la regla que corresponde a la
implicación material.
Para agilizar las notaciones se establece
la tabla de la izquierda. Luego, si la
misma se aplica a la definición de límite,
surgen dos expresiones una sólo formal y
otra que contiene los significados.
significado
p : xE*(a; )
p : xE*(a; )
q : f(x)E(l; )
q : f(x)E(l; )
La tabla de verdad que corresponde a una implicación
material es la siguiente:
caso
p
q
pq
a
F
F
V
b
F
V
V
c
V
F
F
d
V
V
V
Para una función continua solamente
existen los casos a, b y d, mientras
que el caso c es imposible. La
expansión de Boole consiste en hacer
la conjunción de cada fila cambiando
las variables de modo que conjunción
sea verdadera, luego, se hace la disyunción de las filas
verdaderas,
entonces
la
expresión
queda:
‘pq(pq)(pq)(pq)’. Si a continuación se
explicitan los significados, la definición se transforma del
siguiente modo:
xE*(a; )f(x)E(l; )
equivale a
[xE*(a; )f(x)E(l; )][xE*(a; )f(x)E(l; )][xE*(a; )f(x)E(l; )]
−−−−−− a −−−−−→
−−−−− b −−−−−−−→
−−−−−− d −−−−−→
En el siguiente PAU hemicíclico exógeno ‘’ ocupa la
66
posición de S(01), ‘’ la de O(10) y ‘f(x)’ la de V(11), en
tanto que ‘l’ ocupa la posición de (00). Si se analizan
los valores de la Tabla N° 1. Puede ver claramente que
‘x→ a f(x)→ l’ y que ‘l=f(a)’ en funciones continuas es
un proceso de transformaciones sucesivas.
Si en la función dada, el acercamiento de ‘x’ se produce
desde la derecha comenzando por ‘x=1,2’, el PAU
comienza a ciclar desde ‘f(1,2)’, siguiendo la secuencia
SVO del triángulo superior, en donde ‘φ(x)> ’. En cuanto
‘x’ pasa el valor ‘1,002001’ ingresa a un umbral
condicional ya que ‘φ(x) < ’ y comienza a ciclar
siguiendo la secuencia OSV hasta que alcanza el
umbral definitivo ubicado en ‘x = 1,001999)’, donde
continúa ciclando hasta infinito en forma dextrógira, en
un proceso de continuo acercamiento a ‘(a; l)’.
5.0. DISCUSIÓN
El último proceso señalado tiene la misma estructura
que la paradoja de Zenón de Elea, por la cual “la flecha
no puede llegar al blanco”, porque tiene que recorrer
primero la mitad de la distancia, y luego la mitad de la
mitad que queda, y así sucesivamente, en un proceso
que no termina nunca.
Los gráficos de límite que traen los manuales
universitarios inducen a pensar este concepto como un
objeto únicamente, soslayando que también es un
proceso. Este último, involucra objetos determinados
67
como ‘(a; l)’ y además, un conjunto infinito de objetos
indiferenciados, porque los infinitésimo que los
diferencian quedan por debajo del ‘’ que determina la
cantidad de decimales que se consideran efectivamente.
Conviene destacar que el ‘’, objeto regulador del
proceso infinito del límite, siempre lo determina el
usuario de la definición.
Importa señalar también, que la Lógica Transcursiva
aporta el criterio de ‘umbral’, a partir del cual las
coordenadas ‘(x; f(x))’ quedan ciclando en ese proceso
dinámico e infinito de acercamiento a las coordenadas
‘(a; l)’. Adicionalmente, el umbral condicional ‘[1; 2)’
ocurre cuando los acercamientos a ‘a’ se producen
desde la derecha, en curvas creciente y cóncavas hacia
abajo o en curvas decrecientes y cóncavas hacia arriba.
En cambio, en aproximaciones a ‘a’ desde la izquierda,
el umbral condicional ‘(1; 2]’ se presenta, en curvas en
curvas crecientes y cóncavas hacia arriba o en aquellas
decrecientes y cóncavas hacia abajo.
Además, la existencia de umbrales condicional explica
por qué la definición de límite es la implicación material
‘x(E*(a;)f(x)E(l;)’. Sólo cuando la función es
simétrica con respecto a un eje vertical y ‘a’ se
encuentra por donde este pasa no hay ningún umbral
condicional.
6.0. CONCLUSIONES
Una revisión sucinta de los sentidos de lo subjetivo y lo
objetivo contribuye a reflexionar sobre los desempeños
propios y ajenos de quienes estudian ciencia.
Se evalúa de cierta importancia incorporar en los
estudios universitarios, discusiones sobre la distinción
‘objetivo-subjetivo’, sobre todo en el marco de las
relaciones entre mundo 2 y mundo 3, con el objeto de
68
impulsar la creatividad que se relaciona con efectuar
descubrimientos en el mundo 3.
La definición aritmética de límite presentada por Cauchy
en su libro Curso de Análisis (1821), incorpora la idea de
un proceso dinámico en este concepto, que se pierde en
los manuales universitarios cuando se lo grafica.
Las gráficas de límite de los manuales universitarios
inducen a pensar que el límite es una coordenada y no
un conjunto infinito de estas a partir de un umbral.
La Lógica Transcursiva, permite recuperar los aspectos
dinámicos y subjetivos de los conceptos de límite y de
infinitésimo, manteniéndolos en el dominio de la
aritmética, tal como lo ideara Cauchy.
Esta investigación podría aplicarse a otros objetos del
Cálculo que se fundamentan en el concepto de límite.
La Lógica Transcursiva es un potente instrumento que
permite encontrar nuevas razones de significación.
***
REFERENCIAS
Agazzi, Evandro (1978). Temas y problemas de filosofía
de la física. Barcelona: Herder.
Bochenski, Joseph. M. (1949). La filosofía actual.
Fondo de Cultura Económica, México.
Cauchy, Augustin-Louis (1821). "Analyse Algébrique".
Cours d'Analyse de l'Ecole Royale Polytechnique.
L'Imprimerie Royale, Debure frères, Libraires du Roi et
de la Bibliothèque du Roi.
Cauchy, Augustin-Louis (1829). Leçons sur le Calcul
Différentiel. Paris: Chez de Bure Frères, Libraires du Roi
et de la Bibliothèque du Roi.
69
Collete, Jean-Paul. (2000). Historia de las matematicas.
vol. II. 4ª ed. México: Siglo XXI.
Frege,
Gottlob.
(1972).
Conceptografía.
Los
Fundamentos de la Aritmética. Otros Estudios
Filosóficos. México: Universidad Autónoma de México
Grattan-Guinness, Ivor. (2004). “Cálculo”. En Audi,
Robert. Diccionario Akal de Filosofía. Madrid: Akal.
Hayek, Friedrich. (1955). The Counter-Revolution of
Science. Studies on the Abuse of Reason. London: The
Free Press of Glencoe, Collier-Macmillan Limited.
Piaget J. “El concepto de estructura” (72-105). En: BarHillel y otros. (1993). El pensamiento científico.
Conceptos, avances, métodos. Madrid, Tecnos.
Salatino, Dante R. (2009). Semiótica de los sistemas
reales. Tesis Doctoral en Letras. Facultad de Filosofía y
Letras,
Universidad Nacional de Cuyo, Mendoza,
Argentina.
Salatino, Dante R. (2012). Aspectos psico-biosocioculturales
del
lenguaje
natural
humano.
Introducción a la teoría psíquica del lenguaje - Mendoza,
Argentina - Desktop Publishing, Amazon, ISBN 978-98733-2379-9.
Salatino, D. R. (2019). “Fundamentals of a new research
method”. En: Inter. J. Res. Methodol. Soc. Sci.,Vol. 5,
No. 1: pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371.
Stepanians, Markus. (2007). Gottlob Frege. Una
introducción. Trad. Juan Redmond. En Cuadernos de
lógica, epistemología y lenguaje. Vol.1. Londres: College
Publications.
Von Uexküll, Jakob (1926). Theoretical Biology.
London: Kegan Paul, Trench, Trubner & Co., Ltd.
***
70
3. TEORÍA DEL DESTINO EN BORGES
Enfoque transcursivo
Dante Roberto Salatino9
Resumen: El propósito de este trabajo fue la búsqueda de un
patrón que describiera la realidad fictiva que le da sustento al
universo borgiano. Para ello se siguieron los preceptos
metodológicos básicos de la Lógica Transcursiva.
Identificados los elementos fundamentales que estructuran
esa realidad netamente subjetiva, se planteó como hipótesis
de trabajo abordar una supuesta “teoría del destino” que surge
del análisis de algunos de sus cuentos, aplicando el patrón
encontrado. Es importante resaltar además que, como se
aprecia en todas las figuras utilizadas para este ejemplo, están
dados los elementos de un PAU, lo cual confirma que en
Borges, el presupuesto es la unidad, mientras que el
problema, tal vez circunstancial, se limita a tratar de explicar
las apariencias cambiantes de lo que en esencia se mantiene
inalterable. Confirman esta hipótesis la conjunción de
personajes antitéticos y el respaldo del “eterno retorno” en un
tiempo subjetivo y cíclico, aunque, sin perder en ningún caso,
la relación explícita con un referente “real”. Estas son las
bases fundamentales de la Lógica Transcursiva.
Palabras clave: Jorge Luis Borges, Estructura de un cuento,
Modelos literarios, Lógica Transcursiva.
1.0 INTRODUCCIÓN
De entre los muchos exponentes de habla hispana que
hay en el género de ficción, tomaremos el que a nuestro
juicio es el nombre cimero de la producción fantástica:
Jorge Luis Borges. Un antirrealista que con la elegancia
propia de los clásicos nos llevó por los caminos
‘intelectivos’ de una imaginación razonada que privilegia
menos los argumentos psicológicos que las situaciones.
No obstante, el brillante ejercicio estético con el que
9
UNCuyo
71
desacreditó el mundo real, poniéndonos al corriente del
desorden y el sinsentido de un mundo alucinatorio, no
fue óbice para que, a la vez, nos legara la ambigüedad
de sus ficciones fantásticas y el oxímoron de una
temporalidad infinita que define, y muy bien, la realidad
subjetiva.
Porque Borges, en el fondo, fue un realista que logró
subvertir el idealismo imperante trocándolo por una
visión subjetiva, a pesar de la aparente ‘racionalidad’ de
sus elucubraciones, es que lo tomamos como uno de los
mejores ejemplos prácticos de aplicación de los
principios de la Lógica Transcursiva (LT) (Salatino,
2017). Trataremos de desentrañar su “teoría del
destino”.
2.0. ANÁLISIS DE LA REALIDAD EN BORGES
Desde tiempos ancestrales el ser humano es un
incansable buscador de sentido. Lo que acontece y lo
impacta, lo sume en la ignorancia; igual que lo conocido
de primera mano, como la muerte, en la desesperación.
El por qué las cosas son como son ha desvelado sus
noches y acortado sus días. Nadie nunca ha sabido de
dónde venimos y hacia dónde vamos. La psiquis
humana tiene además, la habilidad de generar ideas y
experiencias
que no
pueden ser
explicadas
racionalmente (Armstrong, 2008, p. 5).
Borges, en sus relatos, solucionó ese hiato
inconmensurable que existe entre la realidad y la razón.
Haber supuesto que la realidad primera es la razón, fue
una audacia griega que no comparte. Borges determinó
que la realidad es un misterio; cuando se manifiesta es
solo signo o aparición de lo que, por propia naturaleza,
se oculta (Tamayo y Ruiz Díaz, 1955, p. 136). Borges,
72
entonces, aborda la realidad desde el sujeto, y para él,
es lo único que hay, lo demás es mera ilusión.
Los relatos discurren en esa realidad contrapuesta y
matizada por un tiempo cíclico (Figura 1).
Figura 1 PAU DE LA REALIDAD EN LOS RELATOS DE
BORGES
Vemos en el esquema anterior que los hechos reales
están presentes, pero se contraponen a una ficción que
también es “real”. Lo empírico y lo irreal se ensamblan
en un movimiento oscilante, fundamentando una historia
que aspira a ser eterna, o sea, atemporal. Este patrón
autónomo universal (PAU) (Salatino, 2009) integra un
universo mágico pero a la vez, tan humano que lleva a
flor de piel un destino, fugaz tal vez, pero auténtico.
El planteo anterior se dirime entrelazando en la
dialéctica de las manifestaciones humanas, aquellas
que, produciendo una especie de asombro mesiánico,
aparecen como sobrenaturales o sagradas, pero
fundantes de un mundo utópico tan favorable como
posible (Figura 2).
73
Figura 2 PAU DE LAS MANIFESTACIONES REALES EN
BORGES
Referencias: SO: sujeto objetivo – OO: objeto objetivo
VO: transformación aparente – SS: sujeto subjetivo
OS: objeto subjetivo – VS: transformación oculta
En perfecta armonía con lo propuesto por la LT, en el
mundo de Borges, la identidad “escindida” del sujeto
captura en sí todas las manifestaciones reales, aunque
con algún matiz orientalista, que entreverando lo
subjetivo y lo objetivo en un enigma sobrenatural, lo
arropa en el relato sometiéndolo a un tiempo circular.
En el “realista” Borges hay una marcada tendencia hacia
lo legendario. “Lo legendario – dice – recrea la realidad
de una manera que solo accidentalmente es falsa”
(Formas de una leyenda, 1952, p. 180).
Otro de los rasgos por demás real, que caracterizan la
plasticidad estética en estos relatos, lo constituye el
“eterno retorno”. Secundado por Marco Aurelio (El
tiempo circular, 1936, p. 176), entre tantos otros, afirma
al unísono:
74
“Ten siempre presente, por tanto, esas dos
cosas: una, que todo, desde siempre, se presenta
de forma igual y describe los mismos círculos, y
nada importa que se contemple lo mismo durante
cien años, doscientos o un tiempo indefinido; la
otra, que el que ha vivido más tiempo y el que
morirá más prematuramente, sufren idéntica
pérdida. Porque solo se nos puede privar del
presente, puesto que éste solo posees, y lo que
uno no posee, no lo puede perder” (Meditaciones,
Libro II, 14, p. 65).
El fiel testigo del “eterno retorno” es, y lo expresa en las
palabras de Marco Aurelio, el “eterno presente”, que
precisa un mismo origen y un mismo aspecto. El pasado
consiste en el presente de la memoria y el futuro en el
presente de las esperanzas y los miedos (Williamson,
2013, p. 10). En estos arquetipos temporales, en todo
equivalentes al PAU definido por la LT, por universales
no obstante, representa los avatares del devenir que se
despliegan en un tiempo ilusorio y trivial (Figura 3),
aunque no por eso, menos subjetivo (Nueva refutación
del tiempo, 1952).
Figura 3 PAU DE LOS AVATARES DE LA VIDA
75
La Figura 3, mediante un PAU hemicíclico endógeno
(Salatino, 2019) nos dice, con un aire oriental, que el
sujeto al poco de nacer (tiempo = 0), antes es un
anciano, para luego ser un objeto muerto; solo de forma
eventual y enfermedad mediante esta fatalidad puede
tardar un instante en manifestarse. Cuando el presente
se ha perdido, solo queda lugar para la paz que otorga la
eternidad. Entonces, el ciclo vuelve a empezar.
Los textos orientales a los que Borges tan
frecuentemente adhiere, sobre todo hindúes, dejan ver
que el propósito del arte, tal como sucede con la
subjetividad, no es una expresión de la realidad ceñida a
nuestros sentidos, sino una sugerencia de lo que la
trasciende mediante manifestaciones indirectas [el de
la LT]. La cuestión no es solo explicar sino sugerir. Los
relatos borgianos administran magistralmente la
sugerencia para caracterizar sus personajes reales
(Figura 4).
Figura 4 PAU DE LOS PERSONAJES
Los personajes en los cuentos de Borges, transparentan
una identidad difusa, ambigua y hasta etérea. El nombre
del personaje “visible” casi nunca puede conocerse por
deducción, o en su defecto, solo se consigue presentir
su existencia. Estos sujetos indefinidos se pueden
76
reducir a “alguien” por mera conjetura, o estar
representados en los procesos por los que pasan, que
generalmente, no alcanzan a ser asignados a nadie.
La circularidad circunstancial de personajes casi
anónimos logra constituirse en un índice de la realidad
que está más allá de las apariencias, igual que en la LT.
Con este estilo de aire confuso, Borges logra afianzar la
identidad del observador y de lo observado, para
describir la realidad subjetiva (Figura 5).
Figura 5 PAU DE LOS PARES HETERÁRQUICOS
La heterarquía o la simultaneidad es usada como
argumento filosófico y hasta religioso. La figura anterior
sugiere que estos “pares contrapuestos”, que responden
a la matriz observador/observado, tienen destinos
encontrados, como veremos en el punto siguiente.
3.0. TEORÍA DEL DESTINO
Habiendo caracterizado someramente lo que Borges
entiende por “realidad”, intentaremos abordar desde la
LT una supuesta teoría del destino, que surge del
análisis de algunos de sus cuentos. Nos hemos basado
en el mejor y primer análisis que se haya hecho de la
obra y el estilo borgiano, me refiero a “Borges, enigma y
77
clave” (Tamayo y Ruiz Díaz, 1955)10. De este magnífico
libro se ha tomado como referencia su Capítulo V:
Teoría del Destino. Allí se nos muestra, al comparar
algunos relatos, que es posible detectar una suerte de
forma genérica que, cual principio estructural, ofrece un
conjunto de características condicionadas mutuamente.
La concepción que Borges nos ofrece sobre el destino
de sus personajes y en definitiva del hombre en general,
se basa, no en una fatalidad insoslayable, sino en el
fugaz instante en que se define su historia.
“Cualquier destino, por largo y complicado que
sea, consta en realidad de un solo momento en
que el hombre sabe para siempre quién es.”11
Según la visión borgiana, dos son los aspectos que
podemos destacar, que atravesando heterárquicamente
la vida, determinan una semblanza. Por un lado, los
momentos
estructurantes, y por otro, el conflicto
funcional entre la realidad utópica y la verdad histórica.
Los tres relatos comparados son:
a) El acercamiento a Almotásim (Historia de la
eternidad - 1936)
b) Tema del traidor y del héroe (Ficciones – 1944)
c) Biografía de Tadeo Isidoro Cruz (El Aleph –
1949)
En los cuentos consignados, como casi en cualquier otro
relato de Borges, pueden individualizarse en forma clara
tres momentos (que en realidad son cuatro) (Figura 6).
“Este ‘olvidado’ primer volumen escrito por Ruiz Díaz llevó a
Borges a declarar en los Estados Unidos que él no existía, que era
solo el invento de un profesor de Mendoza” (Correas, 2011, p. 34).
11
Biografía de Tadeo Isidoro Cruz (El Aleph).
10
78
Figura 6 PAU DE LOS MOMENTOS ESTRUCTURANTES
DEL DESTINO
Estos momentos pueden manifestarse o bien
explícitamente mediante la evidencia, o bien en forma
implícita a través de una sensación. También, lo pueden
hacer por medio de la unión u organización de las
situaciones anteriores, o en su defecto, sin su
participación. Un primer momento ①(01) que afecta al
sujeto (S) en donde surge el presentimiento de que algo
va a ocurrir en un futuro cercano.
Un segundo momento ②(10) que involucra a los objetos
(O) y denota la resistencia que las cosas circundantes y
los otros hombres parecen mostrar, anticipadamente,
con el fin de que no se cumpla un presentimiento aún
oscuro y eventual. Ruiz Díaz lo señala, acertadamente,
en los tres relatos: “…el estudiante musulmán a partir de
la noche en que apuñala a un desconocido (o piensa
que lo ha matado); las traiciones de Kilpatrick antes de
ser descubiertas; las peripecias de Tadeo Isidoro Cruz
después de la noche que adivina que la ciudad y él
serán siempre mutuamente hostiles.”
79
Un tercer momento ③(11) de transformaciones
evidentes (V) que conspiran constituyéndose en una
amenaza actual para la vida del sujeto, quien al
considerarse superado por la oposición que el medio
circundante inflige, sospecha el inminente cumplimiento
de un presagio asaz sombrío. De nuevo, Ruiz Díaz nos
ilustra cómo plantea Borges este tercer momento: “…el
estudiante llega a la última etapa de su acercamiento;
Kilpatrick reconoce su traición; Cruz, por fin, hombre que
no sabe leer, descifra con cegadora fuerza intuitiva el
símbolo instantáneo que la noche de pelea le depara.”
Irrumpe en un cuarto momento ⓪(00), repentino,
opuesto y complementario, una transformación oculta
() que como una revelación instantánea dejará
plasmado para siempre el destino (la historia) del sujeto.
Ruiz Díaz, así lo expresa: “…el estudiante desaparece
llamado por la luz remota que misteriosamente ha
guiado su peregrinación; Kilpatrick ruega firmar su
sentencia de muerte a condición de que el cumplimiento
de ésta sirva a la liberación de Irlanda; Cruz, se ve a sí
mismo plenariamente en el desertor Martín Fierro y, fiel
a la premonición de su enemistad con la ciudad, acepta,
con coraje feliz, su tempestuoso destino.”
Todo el proceso anterior termina articulándose con el
otro elemento propuesto por Borges como determinante
de un destino; esto es, una situación conflictiva que se
dirime mediante una función: el paso a una leyenda,
pese a la memoria y el olvido que conspiran contra el
simbolismo de una narración, tratando de imponer un
existir concreto. Esta inserción en la leyenda significa, a
fin de cuentas, el cumplimiento de un destino anticipado
por la revelación.
80
Veamos por qué se plantea el conflicto entre una
realidad utópica y la que es considerada, por evidente, la
verdad histórica (Figura 7).
Los momentos descritos anteriormente le dan sustento
estructural a una función, a una proyección de esa
estructura en otra estructura. Esta última, a diferencia de
la anterior que es de índole temporal, presenta un
eslabonamiento de relaciones que dejan al descubierto
un destino que es el de un individuo, pero a la vez, es el
de todos.
El verdadero conflicto planteado por Borges se da entre
el tiempo y el destino, pero él lo proyecta en forma
alegórica, en sus relatos, en la leyenda y la historia,
como también, en el mito y la religión, o en la filosofía y
la ciencia. Lo peculiar de esta proyección está en
representar una profunda conciliación de contrarios que
termina manifestándose en una bifurcación temporal que
cobra dimensiones de un fabuloso divorcio cronológico.
Se trata en realidad, y Borges lo enfatiza notoriamente,
de una diversificación del tiempo que se da en el mismo
interior del sujeto, con lo cual confirmamos lo ya
adelantado. Una visión subjetiva de la realidad que se
dirime en la contraposición de un tiempo cronológico, o
el instante en donde se define el destino, tal como lo
plantea la LT.
Figura 7 PAU DEL CONFLICTO ENTRE LA REALIDAD Y LA
VERDAD
81
En la figura anterior podemos ver dispuestos en
oposición al héroe (el traicionado) y al traidor, pero
cohabitando en el mismo sujeto. Así, la memoria y el
olvido son los artífices de estos ‘rostros antitéticos’. Lo
equivalente se podría mostrar en el caso de “El
Acercamiento a Almotásim”, entre el buscador y el
buscado, o, en “Biografía de Tadeo Isidoro Cruz”, entre
el perseguidor y el perseguido.
El traidor es definido por la memoria que se guarda de
los actos cometidos. Hechos justificados por la supuesta
lucha contra las resistencias antepuestas a su eventual
destino urdidas por los otros hombres mediante el avieso
uso de las cosas.
El héroe, en cambio, surge del olvido de aquellos actos
comprometidos. Memoria y olvido se confabulan para
erigir una historia, la historia aparente en donde hay
pruebas fehacientes de la traición que condicionan su
destino. Un instante es tiempo de sobra para revertir la
situación. Acepta pagar por su traición, pero de una
manera velada, para que caiga en el olvido y así dar
cuerpo al héroe que pasa a formar parte de una leyenda,
de una realidad ficticia que, sin transgredir la verdad
histórica, permitió que un traidor se convirtiera en héroe
reencontrándose con su propia historia.
Ruiz Díaz, deja constancia en los tres relatos de la
solución de este conflicto, como vimos en el cuarto
momento ya consignado, pero, además, remarca que el
destino es configurado en reciprocidad intrínseca con la
leyenda en muchos de sus otros relatos. En
correspondencia con el “Tema del traidor y del héroe”,
aunque la tradición mostrara un perfil paradigmático y
respetado; Borges pone en relieve al traidor (memoria)
que la leyenda omite (olvido), en evidente oposición,
complementariedad y concurrencia.
82
4.0. CONCLUSIONES
En la rápida incursión que hemos realizado en este
trabajo, de la monumental, por compleja, obra de Jorge
Luis Borges, pudimos vislumbrar que, en realidad, no se
sustenta en considerar a la naturaleza como mera
ilusión, o tal vez, velando sus evidentes aspectos
subjetivos, sino mediante el devenir o una historia, y el
“aprendizaje” o dar cuerpo a un héroe. Borges rescata
así, para elaborar sus escritos, parte del pensamiento
hindú:
“La creencia de que el universo es variado sin
límites, simultáneo y en donde, todas las
posibilidades pueden existir sin excluirse”
(O’Flaherty, 2004, p. II).
El respaldo buscado en un “símbolo” para aludir a la
cultura hindú, le permite a Borges conjuntar el culto y el
rito, o sugerir el paso de lo profano a lo sagrado, o de lo
ilusorio a lo real, o del hombre a la divinidad, o de la
ignorancia al conocimiento, o de la muerte a la vida, y,
por lo tanto, a la captación de la verdad (Eliade, 1980, p.
14).
Un detalle no menor es que, sí utiliza personajes reales
en sus cuentos, o por lo menos, hace referencia a
hechos que ocurrieron en el lugar en donde,
supuestamente se desarrolla la historia. Así sucede, por
ejemplo, en “El acercamiento a Almotásim”, en donde
con el año de edición de la supuesta novela policial,
hace alusión a la revuelta que por entonces afectaba a la
India por la separación entre musulmanes e hindúes. En
el “Tema del traidor y del héroe”, rescata al verdadero
héroe de la batalla de Junín (Perú, 6 de marzo de 1824),
que fue su bisabuelo, el Coronel Manuel Isidoro Suárez.
Lo propio ocurre en “Biografía de Tadeo Isidoro Cruz”,
donde menciona detalles y lugares que están
83
directamente relacionados con sus antepasados y sus
desempeños en la gesta revolucionaria (Blaustein, 2012,
p. 95).
Es importante resaltar además que, como se aprecia en
todas las figuras utilizadas para este ejemplo, están
dados los elementos de un PAU, lo cual confirma que en
Borges, el presupuesto es la unidad, mientras que el
problema, tal vez circunstancial, se limita a tratar de
explicar las apariencias cambiantes de lo que en esencia
se mantiene inalterable. Confirman esta hipótesis la
conjunción de personajes antitéticos y el respaldo del
“eterno retorno” en un tiempo subjetivo y cíclico. Estas
son las bases fundamentales de la Lógica Transcursiva.
84
REFERENCIAS
Armstrong, K. (2008). A Short History of Myth.
Edinburgh, Canongate Books.
Aurelio, M. (2005). Meditaciones. Introducción: García
Gual, C. Traducción: Bach Pellicer, R. Madrid, Editorial
Gredos.
Borges, J.L. (2011-1936). Historia de la Eternidad. En
Borges, Obras Completas. Buenos Aires, Sudamericana.
Borges, J.L. (1998-1944). Ficciones. Barcelona, Alianza
Editorial.
Borges, J.L. (2011-1949). El Aleph. En Borges, Obras
Completas. Buenos Aires, Sudamericana.
Borges, J.L. (2011-1952). Otras inquisiciones. En
Borges, Obras Completas. Buenos Aires, Sudamericana.
Correas, J. (2011). Los falsificadores de Borges.
Buenos Aires, Alfaguara.
Eliade, M. (1980). El Mito del Eterno Retorno. Madrid,
Emecé.
Fine, R.; Blaustein, D. (2012). La fe en el universo
literario de Jorge Luis Borges. Tübingen, Georg Olms
Verlag AG.
O’Flaherty, W.D. (2004) Mitos hindúes. Madrid,
Ediciones Siruela.
Salatino, D. R. (2009). Semiótica de los sistemas reales
Tesis Doctoral en Letras especialidad Psicolingüística
por la Facultad de Filosofía y Letras de la Universidad
Nacional de Cuyo, Mendoza, Argentina.
Salatino, D. R. (2017). Tratado de Lógica Transcursiva.
El origen evolutivo del sentido en la realidad subjetiva.
Mendoza, Argentina, Primera autoedición. ISBN: 978987-42-5099-5.
Salatino, D. R. (2019). “Fundamentals of a new research
method” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No. 1:
pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371. (Con
mención de honor)
85
Tamayo, M.; Ruiz Díaz, A. (1955). Borges, enigma y
clave. Buenos Aires, Editorial Nuestro Tiempo.
Williamson, E. (2013). The Cambridge Companion to
Jorge Luis Borges. Cambridge, UK, Cambridge
University Press.
86
4. EL MODELO EXTENDIDO DE
APRENDIZAJE ORGANIZACIONAL DESDE LA
PERSPECTIVA DE LA LÓGICA TRANSCURSIVA
Implicancias para la mejora de los procesos de
decisión
Esteban Anzoise12; Cristina Scaraffia13
Resumen: Este trabajo analiza la integración del
proceso de decisión para enfrentar problemas no
estructurados en una organización que aprende
considerando el Modelo Extendido de Aprendizaje
Organizacional. Para ello se utiliza el enfoque de la
Lógica Transcursiva (LT) para analizar el proceso de
institucionalización de la respuesta organizacional a un
problema no estructurado a nivel de individuo, grupo y
organización. La secuencia de operaciones incluidas en
el Modelo Extendido de Aprendizaje Organizacional se
analiza utilizando el patrón relacional sustentado por la
Lógica Transcursiva denominado Patrón Autónomo
Universal (PAU). Como primera conclusión se halla que
el análisis del proceso para enfrentar problemas no
estructurados desde la perspectiva de la Lógica
Transcursiva permite visualizar y confirmar el sentido de
propagación del cambio organizacional propuesto por el
Modelo Extendido de Aprendizaje Organizacional. Los
hallazgos identifican la necesidad de establecer etapas
de institucionalización de soluciones a problemas no
estructurados, a través del uso de Herramientas de
Apoyo a Procesos de Decisión (HAPD) basadas en
modelos, para lograr su efectiva adopción. Como
segunda conclusión, se obtiene información sobre el
sentido de propagación del cambio a nivel
organizacional lo que respalda los postulados de Kurt
Lewin sobre la posibilidad y existencia de mecanismos
para realizar un cambio a nivel individual, grupal y
12
13
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
87
organizacional. Como tercera conclusión, se establece
la conexión entre el individuo, el grupo y la organización
en un contexto de Aprendizaje Organizacional a través
de ciclos de aprendizaje. Esto permite superar las
limitaciones del análisis clásico propuesto por la Teoría
del Comportamiento Planeado que explica cómo las
actitudes pueden predecir un comportamiento probable.
Finalmente, se halla soporte al Modelo de Difusión de
Tecnologías Innovadoras propuesto por Everett Rogers
al confirmar el proceso de adopción de las (HAPD)
basadas en modelos en la solución de problemas no
estructurados. Surgen como principal recomendación la
necesidad de establecer etapas de institucionalización
de las soluciones halladas a problemas no
estructurados a través del uso HAPD basadas en
modelos para lograr su efectiva adopción.
Palabras claves: <proceso de decisión>, <comportamiento
planeado>, <herramientas de apoyo al proceso de decisión>,
<Lógica Transcursiva>, <aprendizaje organizacional>.
1.0. INTRODUCCIÓN
Desde sus inicios en los 60s, la aplicación de la
perspectiva del Nuevo Darwinismo en el campo del
desarrollo organizacional y la economía de las
organizaciones (Nicholson & White, 2006), no solo ha
permitido entender la naturaleza y el rol de las rutinas
organizacionales, el impacto de las elecciones
estratégicas, el crecimiento de la complejidad
organizacional en la supervivencia y desarrollo de las
organizaciones en un contexto de complejidad creciente
(Hannan & Freeman, 1984), sino que también ha
permitido construir un puente en la aparente divergencia
de las perspectivas en estrategia de negocios y ecología
organizacional (Hodgson, 2013). La adaptación a un
88
contexto cambiante y de complejidad creciente demanda
la mejora del proceso de decisión a través de un proceso
de sistematización de este, así como la transmisión de
experiencias pasadas mediante bases de datos
relacionales y la aplicación de Herramientas de Apoyo al
Proceso de Decisión (HAPD) basadas en modelos. Sin
embargo, la aplicación sistemática de dichas
herramientas es todavía limitada. Diversos estudios a
nivel global coinciden en que solo el 35% de los
ejecutivos de alto rango basan sus decisiones
principalmente en datos internos y la información
resultante del análisis sistemático de datos o
estadísticas, mientras que el 33% decide en base a
experiencia e intuición, y el 25% en base a consultoría
externa (Ariely, Rao, & Yager, 2016). Decidir no es la
tarea más demandante en términos de horas del
personal en cargos directivos de una organización, pero
sin embargo es la más importante (Drucker, 2007), ya
que la realización de decisiones correctas en un
ambiente complejo conduce al éxito y la supervivencia
de la organización en el largo plazo (Drucker, 2007;
Grünig & Kühn, 2013; Probst & Bassi, 2014).
La necesidad de decidir en un contexto de complejidad
creciente donde los modelos mentales presentan altas
limitaciones frente al resultado provisto por las HAPD
basadas en modelos, lleva a formular como pregunta
válida, aquella sobre los factores que ayuden a la
incorporación de dichas herramientas analíticas en el
proceso de decisión de los ejecutivos de organizaciones
privadas. Diversos modelos de comportamiento
organizacional compiten en el análisis de dicho problema
y sus respuestas están limitadas a la extensión del
modelo utilizado. Puede citarse el modelo de Fuerzas de
Kurt Lewin que provee un enfoque que permite
89
identificar tanto los factores que promueven como los
que se oponen al uso de Herramientas de Apoyo al
Proceso de Decisión (HAPD) basadas en modelos de
decisión de base estadística. Sin embargo, no brinda
información sobre el sentido de propagación del cambio
a nivel organizacional. El Modelo de Difusión de
Tecnologías Innovadoras de Everett Rogers brinda un
enfoque temporal del proceso de adopción de las
nuevas tecnologías, conectando la etapa de
conocimiento de dichas tecnologías con la decisión de
adopción o rechazo de las mismas y su posterior
implementación o no. Una limitación de este modelo es
la ausencia de ponderación de la creencia del sujeto en
la implementación exitosa o no de la decisión sobre la
innovación bajo análisis. Desde la perspectiva de la
Teoría del Comportamiento Planeado [Theory of
Planned Behavior] (Ajzen, 1991, 2002, 2011; Harder,
2009) se halla un modelo que explica cómo las actitudes
pueden predecir un comportamiento probable. Ajzen
postula
que
las
intenciones
determinan
el
comportamiento de manera causal y que las intenciones
son provocadas por dos factores: la influencia de las
actitudes hacia el comportamiento y la influencia de las
normas subjetivas (Ajzen y Fishbein, 1977). Este modelo
postula una secuencia asíncrona de eventos a nivel
individuo para llegar a definir la actitud del mismo
respecto de un determinado comportamiento, pero el
análisis organizacional clásico de este modelo no
establece la conexión entre el individuo y la organización
en un contexto de Aprendizaje Organizacional. Este
estudio argumenta que el análisis del proceso de
Aprendizaje Organizacional desde la perspectiva de la
Lógica Transcursiva permite superar las limitaciones
impuestas por el análisis organizacional clásico y
establecer las etapas de institucionalización de las
90
HAPD basadas en modelos para lograr su efectiva
adopción en la resolución de problemas no
estructurados.
2.0. METODOLOGÍA DE ANÁLISIS
El análisis de la resolución de un problema no
estructurado a nivel organizacional se realiza desde la
perspectiva de la Lógica Transcursiva (LT). Esta lógica
propone la existencia de un modelo relacional, del
género de Modelo Autómata Finito Determinista No
Sincrónico, denominado Patrón Autónomo Universal
(PAU) de validez universal. Este modelo relacional
establece una correspondencia particular entre dos
subgrupos: uno superficial formado por elementos
estáticos perfectamente identificados por un código
binario y la transformación aparente que los relaciona; y
el otro de naturaleza profunda formado por los mismos
elementos estáticos pero ahora con una transformación
oculta que los desorganiza para reorganizarlos en un
siguiente estado produciendo una evolución adaptativa
frente a las demandas del marco de referencia planteado
en un contexto de investigación definido. Este modelo
así propuesto permitiría describir la relación entre los
diferentes componentes de fenómenos sociales y
naturales tales como biología, filosofía, psicología,
economía, física y literatura (Salatino, 2017a, 2017b).
Para el área social, la LT propone un modelo definido
por cuatro elementos: dos de ellos de naturaleza estática
identificados como sujeto (S) observador (01), unidad
biológica con capacidad para introspección y para
interactuar con el mundo en forma independiente; y el
objeto (O) observado (10), que es aprehendido mediante
el sistema bio-externo (la biología del sujeto, que
pertenece a la misma categoría que todos los objetos
91
inertes (sin vida) que se encuentran en el entorno)14. El
tercer elemento (V) es la transformación que
interrelaciona el S observador con el O observado, lo
que se proyecta, a modo de respuesta en el sistema
sociocultural (SSC). Finalmente, como cuarto elemento
identifica el Sistema Psico-Interno (SPI) que reside en el
interior del Sujeto donde se procesa la percepción del
mundo externo luego de cada interacción con el mismo y
se genera una nueva visión del mundo que transforma al
sujeto (Figura 1). La tabla 1 muestra las condiciones
lógicas asignadas a cada estado del modelo planteado
donde la transición entre los diferentes estados depende
del resultado de la transición anterior.
Figura 1: Esquema del Patrón Autónomo Universal para el
área social. Adaptado de Salatino, D. R. (2017). Beyond
the Decisions-Making II: Methodological Aspects.
14
Nota del autor: Desde la concepción subjetivista de la LT, el único "sujeto"
que existe es el observador. Los "otros sujetos" que conviven con él, son
vistos como "objetos" con capacidad para modificar el entorno, algo que un
objeto inerte no puede hacer.
92
International Journal of Research & Methodology in Social
Science, 3(2), 18.
Tabla 1
Relación lógica entre los componentes del modelo social
de la LT
OBSERVADOR
SUJETO
DESCRIPTOR
0
1
El Sujeto surge como
referencia y es
independiente del
Objeto Observado
1
0
El Objeto Observado
existe en el Sistema
Bio-Externo (SBE) y ve
al Sujeto como un ente
distinto
1
1
El Objeto Observado
existe y ve al sujeto
como parte de un
Sistema Sociocultural
(SSC) donde interactúa
en una relación
estímulo - respuesta
0
0
El Sujeto se aleja del
mundo externo y
reflexiona sobre sí
mismo y su aprendizaje
del mundo exterior.
Dicha reflexión cambia
la visión del observador
93
de la realidad (SSC)
Fuente: Adaptado de Salatino, D. R. (2017). Beyond the
Decisions-Making II: Methodological Aspects. International
Journal of Research & Methodology in Social Science, 3(2), 18
3.0. EL MODELADO DEL PROCESO DE DECISIÓN A
NIVEL ORGANIZACIONAL
El proceso de decidir es siempre un proceso de creación
y selección de alternativas frente a una determinada
situación15. El primer modelo secuencial del proceso
racional de decisión, adecuado para el contexto
organizacional, fue propuesto por Herbert Simon (1960)
como una secuencia lineal de tres etapas o fases en el
contexto general de la solución de problemas: 1)
actividad de inteligencia que comprende la búsqueda en
el contexto de situaciones que requieran una decisión; 2)
la actividad de diseño que comprende las acciones de
invención, desarrollo y análisis de posibles cursos de
acción; y 3) la actividad de elegir o selección de un curso
de acción particular de los identificados como posibles
cursos de acción (Simon, 1960). La resolución del
problema continúa con la implementación de la decisión
realizada y la evaluación de su eficacia. Con ligeras
variaciones este modelo secuencial es el predominante
en el contexto organizacional (Luthans, 2011; Robbins &
Coulter, 2005) para la resolución de problemas. Sin
embargo, diversos estudios muestran la existencia de
modelos no secuenciales del proceso de decisión
15
Nota del Autor: La voz inglesa Decide tiene las acepciones de 1. Come or
bring to a resolution in the mind as a result of consideration / 1.1. Make a
choice from a number of (Decide, 1989). La voz inglesa Choose tiene las
acepciones de 1. Pick out (someone or something) as being the best or most
appropriate of two or more alternatives / 1.1. Decide on a course of action.
(Choose, 1989).
94
basados en procesos paralelos en diferente orden según
la situación (Witte 1972, p.180), pudiendo citarse el
Modelo no Secuencial de Decisión (Mintzberg,
Raisinghani, & Théorêt, 1976); el Modelo del Hombre
Económico (Behling & Schriesheim, 1976; Simon, 1955,
1979); el Modelo del Hombre Administrativo (Behling &
Schriesheim, 1976; Simon, 1955, 1979) y el Modelo del
Favorito Implícito (Behling & Schriesheim, 1976).
Independientemente del modelo considerado, todos
comparten las tres fases identificadas por Herbert Simon
(1960). Estos modelos de decisión son procesos válidos
tanto para las decisiones programadas (de aplicación en
problemas bien estructurados), como para las no
programadas (de aplicación en problemas pobremente
estructurados) (Mintzberg et al., 1976). Una decisión
programada se aplica a problemas estructurados o
rutinarios cuya resolución se alcanza aplicando criterios
preestablecidos o procedimientos establecidos para
lidiar con dicha situación16. Las decisiones no
programadas se emplean en las situaciones no
estructuradas, nuevas y no bien definidas de naturaleza
no recurrente para las cuales no hay un procedimiento
específico para su resolución. La realidad muestra que el
universo de decisiones es un continuo entre ambos tipos
de decisiones y a medida que se incrementa el nivel de
responsabilidad el número de decisiones sin programar
se incrementa en relación con el número de problemas
16
Nota del Autor: En relación con la resolución de problemas estructurados
puede identificarse tres tipos de decisiones programadas: 1) procedimiento
definido como el conjunto de pasos sucesivos que da el gerente para
responder a un problema estructurado luego de identificarlo; 2) regla definida
como una declaración explícita de lo que pueden y no pueden hacer los
gerentes; y 3) políticas entendidas como normas que establecen parámetros
generales para quien decide, en lugar de declarar explícitamente qué debe o
no debe hacerse, y establecen un término ambiguo que deja la interpretación
a quien decide (Robbins & Coulter, 2005).
95
no estructurados como se muestra en la Figura 2
(Simon, 1960).
4.0. LA INTEGRACIÓN DEL PROCESO DE DECISIÓN
EN EL APRENDIZAJE ORGANIZACIONAL DESDE LA
LT
El aprendizaje organizacional (AO) es un campo de
investigación académica y práctica profesional con un
desarrollo relativamente reciente concentrado en el
análisis de los procesos relacionados con el aprendizaje
individual y colectivo en las organizaciones (Tsang,
1997). El concepto de aprendizaje organizacional es
presentado por Cyart y March (1963) como parte del
modelo desarrollado del proceso de decisión en las
organizaciones, cuando afirman que las compañías
aprenden de la experiencia con la intención de
adaptarse a las condiciones del medio ambiente (Cyert &
March, 1963). El desarrollo del área de aprendizaje
organizacional abarca diversos aspectos tales como a)
la estructura y tipos de aprendizaje organizacional
(Argote, 2013; Castaneda & Rios, 2007; Hedberg, 1981);
b) impacto en decisiones estratégicas (Shrivastava &
Mitroff, 1982); c) decisiones en contextos inciertos y
cambiantes (Duncan & Weiss, 1979; Fiol & Lyles, 1985;
March & Olsen, 1975); y d) las curvas de aprendizaje en
las organizaciones (Argote, 2013; Dutton & Thomas,
1984). Desde diversas perspectivas existe una
convergencia en considerar que “el aprendizaje
organizacional es el conjunto de actividades y procesos
por los cuales una organización eventualmente alcanza
el ideal de una organización que aprende” (Caldwell,
2012; Chatterjee, 2011; Finger & Brand, 1999, p. 136;
96
Senge et al., 2000). Los diversos modelos coinciden en
identificar como etapas del aprendizaje organizacional
(1) el aprendizaje de la experiencia pasada, (2) la
adquisición de conocimiento, (3) el procesamiento en un
nivel organizacional diferente, (4) identificar y corregir los
problemas, y (5) el cambio a nivel organizacional. Una
organización que aprende a actuar de manera eficiente,
se adapta fácilmente al cambio, detecta y corrige los
errores y mejora continuamente sus procesos de
decisión y el logro de sus objetivos (Argyris & Schön,
1995; Silins, Zarins, & Mulford, 2002).
Figura 2: Diagrama situacional que relaciona tipos de
decisión – tipos de problemas y niveles organizacionales.
Adaptado de Robbins, S. & Coulter, M. (2012).
Administración (J. F. J. Dávila Martínez Trans. 8va ed.).
Mexico, D.F.: Pearson Education – Capítulo 6 (decisión).
Zietsma, et al. (2002) desarrollan el Modelo Extendido
de Aprendizaje Organizacional (Zietsma, Winn, Branzei,
97
& Vertinsky, 2002) como una mejora al modelo basado
en la Teoría de Aprendizaje Multinivel (Crossan, Lane, &
White, 1999) como se muestra en la Figura 3. Este
Modelo Extendido de Aprendizaje Organizacional se ha
aplicado a diferentes tipos de organizaciones, incluso las
de educación superior (Anzoise, Scaraffia, & Curadelli,
2016; Castaneda & Rios, 2007). Este modelo identifica
tres niveles de aprendizaje: 1) individuo; 2) grupo; y 3) la
organización, y sus diferentes rutas de integración, que
van desde el individuo a la organización y de la
organización al individuo, ya que el aprendizaje
individual aislado, no garantiza el aprendizaje
organizacional al ser necesario un proceso de
transferencia entre todos los integrantes de la
organización para institucionalizar el conocimiento
generado (Senge, 1998; Senge et al., 2000). Dado que
todos los integrantes de una organización deciden en
cada una de las cuatro funciones gerenciales (planear,
organizar, dirigir y controlar) es necesario considerar en
los diferentes niveles de decisión, el resultado del
proceso de decisión y encontrar el modo de incorporarlo
al conocimiento organizacional.
En el caso de decisiones programadas para enfrentar
problemas
estructurados,
la
aplicación
de
procedimientos estandarizados tales como reglas y
procedimientos asegura la obtención de un resultado
cierto. Dado que el contexto cambia es necesario
almacenar los resultados obtenidos y utilizar
herramientas que ayuden a determinar reglas de
rendimiento y efectividad de las decisiones realizadas. A
medida que la organización enfrenta problemas no
estructurados, la relación individuo - grupo organización surge como elemento desencadenador del
proceso de decisión. Si se considera la Fase 1 del
98
proceso de decisión (inteligencia) donde se debe
identificar el problema, a nivel individual, el proceso de
aprendizaje incluye intuir (capacidad de comprender en
forma preconsciente algo nuevo de lo cual no tiene
explicación previa); atender (proceso activo guiado por
preconceptos y las habilidades cognitivas del observador
de buscar información del contexto); retener (transformar
la información de un evento para su representación en la
memoria del observador como reglas o conceptos
expresados en forma de imágenes o construcciones
verbales); y producir (conversión de representaciones
simbólicas en acciones).
Figura
3:
Modelo
Extendido
de
Aprendizaje
Organizacional. Adaptado de Zietsma, C., Winn, M.,
Branzei, O., & Vertinsky, I. (2002). The war of the woods:
Facilitators and impediments of organizational learning
processes. British Journal of Management, 13 (Special
Issue 2), 61-74.
99
Desde la perspectiva de la Lógica Transcursiva, el
Sujeto (Ejecutivo) interactúa con la Organización
(Sistema Socio Cultural (SSC)) que requiere que los
Ejecutivos enfrenten un problema no estructurado. El
Observador, para este caso el Objeto Observado, queda
definido por el Conocimiento Organizacional generado e
integrado en la organización. El Sujeto no halla
respuesta al problema bajo análisis en el Conocimiento
Organizacional existente por lo que inicia un ciclo de
evaluación interna como Ejecutivo (3). Como
consecuencia, en su Espacio de Reflexión Interno (SPI)
inicia un ciclo de aprendizaje individual Intuir-AtenderRetener – Producir (4). Al salir de este Espacio de
Reflexión Interno inicia una etapa de integración a nivel
grupal (5) que lo lleva a interactuar con el Grupo al cual
pertenece (6) como se muestra en la Figura 4.
Entre los individuos y los grupos surge el proceso de
interpretación y el de experimentación. El proceso de
interpretación es entendido como la explicación a través
de palabras, imágenes y metáforas y/o acciones de una
idea propia a otros, lo que se traduce en aprendizaje en
un contexto social desde la perspectiva de la Teoría
Cognitiva Social. El proceso de experimentación es el
realizado por individuos y grupos cuyo resultado añade
significado a sus interpretaciones cognitivas. Desde la
perspectiva de la Teoría Cognitiva Social, en ambos
niveles solo se produce aprendizaje cuando el individuo
se da cuenta que el resultado es consecuencia de sus
acciones. Por lo que el problema no estructurado
detectado en el contexto es compartido y analizado en
forma grupal para poder pasar a la Fase 2 e identificar
criterios de decisión, ponderarlos y desarrollar
alternativas de solución del problema identificado. En
esta instancia del proceso de decisión se manifiestan los
100
procesos de aprendizaje de conversación (o diálogo) y
modelado social (como facilitador de altos niveles de
aprendizaje a través de la observación que permite
modelar acciones, aprender reglas y decisiones al
observar a otros, y extraer principios abstractos
contenidos en los pensamientos y acciones exhibidas
por otros; lo que permite aprender reglas generales para
manejar diferentes situaciones antes que solo tener
respuestas especificas o rutinas preestablecidas). Esto
es requerido para poder hallar consenso rápidamente a
través de la diversidad cultural de los individuos que
componen la organización, al buscar los elementos
culturales comunes.
Figura 4: Esquema del ciclo de aprendizaje individual
inicial de resolución de un problema no estructurado
desde la perspectiva de la Lógica Transcursiva
101
Desde la perspectiva de la Lógica Transcursiva, el
Sujeto (Grupo), ahora con un determinado nivel de
Inteligencia y Alternativas de Solución del problema no
estructura a enfrentar, inicia un ciclo de aprendizaje
grupal a través de la Conversación (7). El Grupo ahora
interactúa con el sistema organizacional (8) encontrando
el mismo requerimiento de enfrentar un problema no
estructurado (9). Como consecuencia, inicia un ciclo de
evaluación interna grupal (10), que genera un Modelado
Social del problema (11), surgiendo el consenso de
utilizar HAPD basadas en modelos en su proceso de
decisión (12), como se muestra en la Figura 5. Ahora, el
Grupo interactúa con el Individuo (13), iniciando un
proceso de Aprendizaje Organizacional Grupo –
Individuo.
Al salir del nivel grupal, ahora el Sujeto (Individuo)
continúa su interacción con la organización (14), donde
persiste el requerimiento de enfrentar un problema no
estructurado (15), cuya solución no la halla en el
Conocimiento Organizacional (Objeto Observado). Inicia
nuevamente una evaluación interna como ejecutivo (16),
que lo lleva a un estadio de Producir – Interpretar
utilizando HAPD basadas en modelos (17). Al salir de
este estadio con un nuevo nivel de respuesta al
problema bajo análisis avanza hacia un nuevo nivel de
integración a nivel grupal (18), en un nuevo ciclo de
interacción con el Grupo (19). En esta etapa de
Aprendizaje Organizacional Grupo – Individuo – Grupo,
el Sujeto (Grupo) continúa el ciclo de aprendizaje grupal
a través de las acciones de Conversación – Modelado
Social (20). El Grupo continúa su interacción con la
organización (21), donde persiste el requerimiento de
enfrentar un problema no estructurado (22), cuya
102
solución no la halla en el Conocimiento Organizacional
(Objeto Observado). Por ello continúa la evaluación
interna grupal (23), y las acciones de Conversación –
Modelado Social (24), que llevan al Grupo a iniciar una
etapa de integración a nivel organizacional (25), y su
consecuente interacción (26) (27) como se muestra en la
Figura 6.
Figura 5: Esquema del ciclo de aprendizaje grupal inicial
de resolución de un problema no estructurado desde la
perspectiva de la Lógica Transcursiva
103
Figura 6: Esquema del ciclo de aprendizaje grupal
avanzado de resolución de un problema no estructurado
desde la perspectiva de la Lógica Transcursiva
Luego de identificados los criterios de decisión,
ponderarlos y desarrollar alternativas de solución del
problema bajo análisis, se pasa a la Fase 3 donde se
evalúan las alternativas generadas y se elige la que
presenta mejores resultados para la organización. Es
ahora necesario elevar la propuesta de solución del
problema a niveles superiores de decisión por lo que
entre el grupo y la organización, surge el proceso de
integración definido como “el proceso de desarrollar una
comprensión compartida entre individuos y la realización
de acciones coordinadas a través de ajustes mutuos”.
Este proceso permite, a medida que se profundiza entre
los integrantes, crear una visión y valores compartidos
que alinean los procesos de decisión con los objetivos
estratégicos a alcanzar. Cuando se autoriza la decisión,
104
sigue el paso de implementar la alternativa elegida y
evaluar la eficacia de dicha decisión. El resultado de la
evaluación de la decisión implementada se realimenta al
grupo, surgiendo el proceso de experimentación el cual
es realizado por individuos y grupos dando como
consecuencia un aprendizaje cuando el individuo se da
cuenta que el resultado es consecuencia de sus
acciones. Es lo que en términos de aprendizaje
organizacional Chris Argyris (1991) define como un
doble lazo de aprendizaje (Argyris, 1991). A nivel de
individuo es necesario promover dicho proceso de
aprendizaje a través de la motivación (en la presencia de
incentivos un aprendizaje todavía no evidenciado puede
transformarse en acción). El establecimiento de un
contexto altamente cambiante enfrenta a individuos y
grupos a descubrir la complejidad de decidir y la
necesidad de incorporar Herramientas de Apoyo al
Proceso de Decisión, para poder mejorar el impacto de
las decisiones en los resultados organizacionales.
Finalmente, a nivel organizacional surge el proceso de
aprendizaje identificado como institucionalizar definido
como el proceso de asegurar que las acciones rutinarias
ocurran, ya que el aprendizaje de los individuos y grupos
es asimilado en la organización a través de
procedimientos, estructuras, sistemas y estrategias
(Crossan et al., 1999). Definido el modelo de aprendizaje
organizacional a nivel de individuos y grupos, la
búsqueda de la excelencia organizacional a través de la
mejora del proceso de decisión lleva a un proceso de
sistematización de dicho proceso, así como la
transmisión de experiencias pasadas mediante bases de
datos relacionales y la aplicación de Herramientas de
Apoyo al Proceso de Decisión (HAPD). Esto es cierto si
105
el problema se ha vuelto rutinario. En la práctica, la
volatilidad del contexto mueve las decisiones a áreas de
incertidumbre específica o general por lo que es
necesario registrar dichos procesos de aprendizaje en
bases de datos relacionales y asociarlas a modelos
orientados a análisis estadístico, geográfico, social,
financiero, matemático, analítico, de simulación o de
optimización para resolver el creciente número de
problemas no estructurados que surgen.
Desde la perspectiva de la Lógica Transcursiva, el
Grupo interactúa con la Organización (27) iniciando un
proceso de Integración (28) en el Espacio de Reflexión
(SPI). Ahora el Sujeto (Organización) presenta la nueva
normativa (29) al Sistema Organizacional (SSC) para
poder dar respuesta consensuada al requerimiento de
resolver un problema no estructurado (30), que todavía
no forma parte del Conocimiento Organizacional (Objeto
Observado). En consecuencia, se inicia una evaluación
interna organizacional (31) que continúa el proceso de
Integración (32) en el Espacio de Reflexión (SPI). Si
existe consenso a nivel de la Alta Dirección, el resultado
es el apoyo a una nueva forma de resolver un problema
(33) por lo que la nueva normativa es aceptada (34).
Esta nueva forma de resolver un problema no
estructurado es integrada al sistema organizacional
como parte del Conocimiento Organizacional (35) y se
inicia la Institucionalización del aprendizaje (36). En este
punto, la Organización define el Sistema de
Entrenamiento, Comunicación, Motivación y Evaluación
del cumplimiento de dicha normativa en todos los niveles
organizacionales (37). Como consecuencia, se inicia un
proceso TOP – DOWN de difusión del conocimiento (38)
(39) a través de la interacción de la Organización con los
106
diferentes Grupos e Individuos (40), como se muestra en
la figura 7 en términos del modelo de estados postulado
por la LT para el campo social.
Figura 7: Esquema del ciclo de institucionalización del
aprendizaje organizacional de resolución de un problema
no estructurado desde la perspectiva de la Lógica
Transcursiva
5.0. CONCLUSIONES Y RECOMENDACIONES
Como primera conclusión se halla que el análisis de la
resolución de un problema no estructurado a nivel
organizacional desde la perspectiva de la Lógica
Transcursiva, permite visualizar el sentido de
propagación del cambio organizacional propuesto por el
Modelo Extendido de Aprendizaje Organizacional. Este
modelo fue desarrollado (Zietsma et al., 2002) como una
mejora al modelo basado en la Teoría de Aprendizaje
Multinivel (Crossan et al., 1999) y tiene aplicación en un
107
amplio abanico de organizaciones, incluso las de
educación superior (Anzoise et al., 2016; Castaneda &
Rios, 2007). Este modelo identifica tres niveles de
aprendizaje: 1) individuo; 2) grupo; y 3) la organización y
sus diferentes rutas de integración que van desde el
individuo a la organización y de la organización al
individuo como se muestra en la Figura 8. De igual
forma, este modelo postula que el aprendizaje individual
aislado no garantiza el aprendizaje organizacional al ser
necesario un proceso de transferencia entre todos los
integrantes de la organización para institucionalizar el
conocimiento generado (Senge, 1998; Senge et al.,
2000). De igual forma, este análisis permite visualizar la
ruta de integración y de realimentación entre el individuo
y el grupo a través de acciones como el modelado social
(valoración del nivel de aceptación de las HAPD para
resolver un problema no estructurado antes de
adoptarla); la conversación (obtener información
concreta de resultados observables del uso de HAPD
para resolver un problema no estructurado, y la
búsqueda de información para identificar las
competencias requeridas para poder utilizar las HAPD
basadas en modelos antes de adoptarla); la
interpretación (valoración del nivel de aceptación de las
HAPD para resolver un problema no estructurado antes
de adoptarla ) y la experimentación (determinar la
posibilidad de probar la HAPD para resolver un problema
no estructurado antes de adoptarla). De igual forma
permite visualizar la ruta de integración y de
realimentación entre el grupo y la organización a través
de acciones como la integración del conocimiento a nivel
de individuo y de grupo (procedimientos donde se
aplican HAPD basadas en modelos para resolver un
108
problema no estructurado); y la institucionalización del
conocimiento organizacional (normas que hacen
mandatorio el uso de HAPD basadas en modelos para
resolver un problema no estructurado).
Como segunda conclusión, se halla que el análisis del
proceso de cambio organizacional, asociado con la
resolución de un problema no estructurado utilizando
HAPD basadas en modelos, desde la perspectiva de la
Lógica Transcursiva, permite ampliar el análisis que se
realiza utilizando el Modelo de Análisis de Fuerzas de
Kurt Lewin al obtener información sobre el sentido de
propagación del cambio a nivel organizacional. Este
análisis respalda los postulados de Kurt Lewin sobre la
posibilidad y existencia de mecanismos para realizar un
cambio organizacional (Burnes, 2004; Lewin, 1947).
Como tercera conclusión, se halla que la aplicación de la
Lógica Transcursiva (LT) permite superar las
limitaciones del análisis clásico del modelo, propuesto
por la Teoría del Comportamiento Planeado [Theory of
Planned Behavior] (Ajzen, 1991, 2002, 2011; Harder,
2009), que explica cómo las actitudes pueden predecir
un comportamiento probable. Ajzen postula que, en una
secuencia asíncrona de eventos a nivel individuo, las
intenciones de este determinan el comportamiento de
manera causal y que las intenciones son provocadas por
dos factores: la influencia de las actitudes hacia el
comportamiento y la influencia de las normas subjetivas
(Ajzen y Fishbein, 1977). El análisis desde la perspectiva
de la Lógica Transcursiva permite establecer la conexión
entre el individuo, el grupo y la organización en un
contexto de Aprendizaje Organizacional. Como cuarta
conclusión, se halla que la aplicación de la Lógica
109
Transcursiva (LT) permite dar soporte y ampliar el
Modelo de Difusión de Tecnologías Innovadoras
propuesto por Everett Rogers (Rogers, Singhal, &
Quinlan, 1995). Este modelo brinda un enfoque temporal
lineal del proceso de adopción de las nuevas tecnologías
conectando la etapa de conocimiento de dichas
tecnologías con la decisión de adopción o rechazo de las
mismas, y su posterior implementación o no. Una
limitación existente es la ausencia de ponderación de la
creencia del sujeto en la implementación exitosa o no de
la decisión sobre la innovación bajo análisis. El análisis
desde la Lógica Transcursiva (LT) permite identificar el
peso relativo de la etapa de Conocimiento (normas que
hacen mandatorio el uso de HAPD basadas en modelos;
entrenamiento en el uso de las HAPD, y la valoración del
nivel de aceptación de las HAPD antes de adoptarlas) al
conectarla con la etapa de Desarrollo de Creencias de
Control (obtener información concreta de resultados
observables del uso de HAPD; la búsqueda de
información para identificar las competencias requeridas
para poder utilizar las HAPD, y determinar la posibilidad
de probar la HAPD antes de adoptarla) que define el
Control Percibido de Comportamiento propuesto por la
Teoría de Comportamiento Planeado de Ajzen.
110
Figura
8:
Modelo
Extendido
de
Aprendizaje
Organizacional desde la perspectiva de la Lógica
Transcursiva. Basado en Zietsma, C., Winn, M., Branzei,
O., & Vertinsky, I. (2002). The war of the woods:
Facilitators and impediments of organizational learning
processes. British Journal of Management, 13 (Special
Issue 2), 61-74.
En consecuencia, surgen como principal recomendación
la necesidad de establecer etapas de institucionalización
de las HAPD basadas en modelos para lograr su
efectiva adopción en la resolución de problemas no
estructurados. Esto requeriría 1) el mostrar la existencia
111
de resultados observables a través de una
implementación gradual y la generación de “islas de
desarrollo” que permitan superar el miedo de aprender
nuevos conceptos lo que aleja a los individuos de su
zona de confort ; 2) dar la posibilidad de probar las
HAPD basadas en modelos antes de adoptarla de modo
de superar la resistencia al uso de nuevas herramientas
tecnológicas (Juneja, 2018; Liu, Lee, & Chen, 2011;
Sharda, Barr, & McDonnell, 1988; Singh, 1999); 3) medir
y desarrollar las competencias requeridas para poder
utilizar HAPD a nivel organizacional (Catalano, 2018); y
4) adecuar el tipo de HAPD al contexto cultural del
individuo
considerando
no
solo
las
brechas
generacionales sino también los diferentes tipos de
inteligencia que impactan en la habilidad integrativa del
usuario del modelo,
y la dificultad para entender
fácilmente
los
modelos
matemáticos
formales
embebidos en los mismos (Al-Mamary, Alina
Shamsuddin, & Aziati, 2013; Lilien & Rangaswamy,
2004; Stern, 2003).
112
REFERENCIAS
Ajzen, I. (1991). The Theory of Planned Behaviour.
Organizational Behavior and Human Decision
Processes, 50, 179-211.
Ajzen, I. (2002). Perceived Behavioral Control, SelfEfficacy, Locus of Control, and the Theory of
Planned Behavior. Journal of Applied Social
Psychology, 32, 1-20.
Ajzen, I. (2011). The theory of planned behaviour:
reactions and reflections. Psychol Health, 9,
1113-1127.
Al-Mamary, Y. H., Alina Shamsuddin, & Aziati, N. (2013).
The Impact of Management Information Systems
Adoption in Managerial Decision Making: A
Review Management Information Systems, 8(4),
010-017.
Anzoise, E., Scaraffia, C., & Curadelli, S. (2016, octubre
20 y 21, 2016). Modelos de decisión en el
Aprendizaje Organizacional en la Educación
Superior. Paper presented at the IV Congreso
Internacional ECEFI 2016 - Cuarto Congreso
Internacional de Educadores en Ciencias
Empíricas en Facultades de Ingeniería: ECEFI
2016, Mendoza, Argentina.
Argote, L. (2013). Organizational Learning. Creating,
Retaining and Transferring Knowledge. New
York: Springer US.
Argyris, C. (1991). Teaching Smart People how to Learn.
Harvard Business Review(Mayo - Junio 1991), 99
- 109.
Argyris, C., & Schön, D. A. (1995). Organizational
Learning II: Theory, Method, and Practice (1st
ed.). Reading, MA: Addison-Wesley.
Ariely, D., Rao, A., & Yager, F. (2016). The human
factor: Working with machines to make big
113
decisions. Retrieved from New York:
https://www.pwc.com/us/en/advisory-services/bigdecisionsurvey/assets/the_human_factor_working_with_
machines_to_make_big_decisions.pdf
Behling, O., & Schriesheim, C. (1976). Organizational
behavior : theory, research, and application (1st
ed.). Boston: Allyn and Bacon.
Burnes, B. (2004). Kurt Lewin and the Planned Approach
to Change: A Re-appraisal. Journal of
Management Studies, 41(6), 977-1002.
Caldwell, R. (2012). Systems Thinking, Organizational
Change and Agency: A Practice Theory. Critique
of Senge’s Learning Organization. Journal of
Change Management, 1-20.
Castaneda, D. I., & Rios, M. F. (2007). From Individual
Learning to Organizational Learning. The
Electronic Journal of Knowledge Management,
5(4), 363 - 372.
Catalano, A. (2018). Tecnología, innovación y
competencias ocupacionales en la sociedad del
conocimiento. Retrieved from Buenos Aires:
https://www.ilo.org/wcmsp5/groups/public/--americas/---ro-lima/---ilobuenos_aires/documents/publication/wcms_6359
46.pdf
Crossan, M. M., Lane, H. W., & White, R. E. (1999). An
Organizational Learning Framework: From
Intuition to Institution. The Academy of
Management Review, 24(3), 522-537.
doi:10.2307/259140
Cyert, R. M., & March, J. G. (1963). A behavioral theory
of the firm (1st ed.). Englewood Cliffs: Prentice
Hall.
114
Chatterjee, S. (2011). Organizational Learning and
Learning Organization: A Critical Review – A
Paradox. Asian Journal Of Computer Science
And Information Technology, 1(3), 64 -70.
Choose. (1989, June 2018). Oxford Living English
Dictionary. 2nd. Retrieved from
https://en.oxforddictionaries.com/definition/choos
e
Decide. (1989, June 2018). Oxford Living English
Dictionary. 2nd. Retrieved from
https://en.oxforddictionaries.com/definition/decide
Drucker, P. F. (2007). The Effective Executive (2nd
Revised ed.). New York: Elsevier.
Duncan, R. B., & Weiss, A. (1979). Organizational
learning: Implications for organizational design. In
B. Staw (Ed.), Research in Organizational
Behavior (pp. 75-123). Greenwich, CT: JAI Press.
Dutton, J. M., & Thomas, A. (1984). Treating Progress
Functions as a Managerial Opportunity. Academy
of Management Review, 9(2).
Finger, M., & Brand, S. B. (1999). The concept of the
“learning organization” applied to the
transformation of the public sector. In M.
Easterby-Smith, L. Araujo, & J. Burgoyne (Eds.),
Organizational Learning and the Learning
Organization. London:: Sage.
Fiol, C. M., & Lyles, M. A. (1985). Organizational
Learning. The Academy of Management Review,
10(4), 803-813.
Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex
Problems (M. Montani, A. Clark, & C. O'Dea,
Trans. 3rd ed.). Berlin Springer-Verlag.
115
Hannan, M. T., & Freeman, J. (1984). Structural Inertia
and Organizational Change. American
Sociological Review, 49(2), 149-164.
Harder, A. (2009). Planned Behavior Change: An
Overview of the Diffusion of Innovations. Florida:
Florida Cooperative Extension Service, Institute
of Food and Agricultural Sciences, University of
Florida Retrieved from
http://edis.ifas.ufl.edu/pdffiles/WC/WC08900.pdf.
Hedberg, B. (1981). How organizations learn and
unlearn? . In P. C. Nystrom & W. H. Starbuck
(Eds.), Handbook of Organizational Design:
Adapting Organizations to their Environments
(Vol. 1, pp. 8-27). London: Oxford University
Press.
Hodgson, G. M. (2013). Understanding Organizational
Evolution: Toward a Research Agenda using
Generalized Darwinism. Organization Studies
(OS), 34(7), 973-992.
doi:10.1177/0170840613485855
Juneja, P. (2018). Limitations & Disadvantages of
Decision Support Systems. Retrieved from
https://www.managementstudyguide.com
website:
https://www.managementstudyguide.com/limitatio
ns-and-disadvantages-of-decision-supportsystems.htm
Lewin, K. (1947). Frontiers in Group Dynamics: Concept,
Method and Reality in Social Science; Social
Equilibria and Social Change. Human Relations,
1(5), 38.
Lilien, G. L., & Rangaswamy, A. (2004). Marketing
Engineering: Computer-assisted Marketing
Analysis and Planning. Victoria, B.C.:
DecisionPro, Inc.
116
Liu, Y., Lee, Y., & Chen, A. N. K. (2011). Evaluating the
effects of task-individual-technology fit in multiDSS models context: A two-phase view. Decision
Support Systems, 51(3), 688-700.
doi:10.1016/j.dss.2011.03.009
Luthans, F. (2011). Organizational Behavior. An
Evidence-Based Approach (12th ed.). New York:
McGraw-Hill/Irwin.
March, J. G., & Olsen, J. P. (1975). The uncertainty of
the past: Organizational learning under ambiguity.
European Journal of Political Research, 3, 147171.
Mintzberg, H., Raisinghani, D., & Théorêt, A. (1976). The
Structure of "Unstructured" Decision Processes.
Administrative Science Quarterly, 21(2), 246-275.
Nicholson, N., & White, R. (2006). Darwinism-A new
paradigm for organizational behavior? Journal of
Organizational Behavior, 27(2 - Special Issue:
Darwinian Perspectives on Behavior in
Organizations), 111-119. doi: 10.1002/job.345
Probst, G., & Bassi, A. (2014). Tackling Complexity. A
Systemic Approach for Decision Makers.
Sheffield, UK: Greenleaf Publishing.
Robbins, S. P., & Coulter, M. (2005). Toma de
Decisiones: la esencia del trabajo del gerente (J.
F. J. D. Martínez, Trans.). In M. d. Anta (Ed.),
Administración (8 ed., pp. 614). México: Pearson
Educación de México, S.A. de G.V.
Rogers, E. M., Singhal, A., & Quinlan, M. M. (1995).
Diffusion of Innovations. In D. Stacks & M.
Salwen (Eds.), An integrated approach to
communication theory and research. . New York:
New York: Routledge.
Salatino Cuccia, D. R. (2017a). Beyond the DecisionsMaking II: Methodological Aspects. International
117
Journal of Research & Methodology in Social
Science, 3(2), 18.
Salatino Cuccia, D. R. (2017b). Tratado de lógica
transcursiva : origen evolutivo del sentido en la
realidad subjetiva (1st ed.). Godoy Cruz,
Mendoza.
Senge, P. M. (1998). La quinta disciplina: el arte y la
práctica de la organización abierta al aprendizaje
(C. Gardini, Trans.). Buenos Aires: Ediciones
Granica, S.A.
Senge, P. M., Kleiner, A., Roberts, C., Ross, R., Roth,
G., & Smith, B. (2000). La danza del cambio: Los
retos de sostener el impulso en organizaciones
abiertas al aprendizaje. Bogotá: Editorial Norma.
Sharda, R., Barr, S. H., & McDonnell, J. C. (1988).
Decision Support System Effectiveness: A
Review and an Empirical Test. Management
Science, 34(2), 139-159.
doi:10.1287/mnsc.34.2.139
Shrivastava, P., & Mitroff, I. I. (1982). Frames of
reference managers use: A study in applied
sociology of knowledge. In R. Lamb (Ed.),
Advances in strategic management (pp. 161182). Greenwich, CT: JAI Press.
Silins, H., Zarins, S., & Mulford, B. (2002). What
Characteristics and Processes Define a School
as a Learning Organisation? Is This a Useful
Concept To Apply to Schools? International
Education Journal, 3(1), 11.
Simon, H. A. (1955). A Behavioral Model of Rational
Choice. The Quarterly Journal of Economics,
69(1), 99-118.
Simon, H. A. (1960). The New Science of Management
Decision (Vol. 3). New York: Harper & Row.
118
Simon, H. A. (1979). Rational Decision Making in
Business Organizations. The American Economic
Review, 69(4), 493-513.
Singh, S. K. (1999). Toward an Understanding of EIS
Implementation Success. In M. A. Mahmood & E.
J. Szewczak (Eds.), Measuring Information
Technology Investment Payoff: Contemporary
Approaches (1st ed., Vol. 1, pp. 107-127).
Hershey, PA: Idea Group Inc (IGI).
Stern, D. (2003). Increasing acceptance of managers for
the use of marketing decision support systems.
Paper presented at the Australian and New
Zealand Marketing Academy Conference,
Adelaide, Australia.
Tsang, E. (1997). Organizational learning and the
learning organization: a dichotomy between
descriptive and prescriptive research. Human
Relations, 50(1), 57-70.
Zietsma, C., Winn, M., Branzei, O., & Vertinsky, I. (2002).
The war of the woods: Facilitators and
impediments of organizational learning
processes. British Journal of Management,
13(Special Issue 2), 61-74.
119
120
5. SUBJETIVIDAD DEL VALOR EN LA ESCUELA
AUSTRÍACA DE ECONOMÍA
Una interpretación desde la Lógica Transcursiva
Facundo Gustavo Corvalán17; Dante Salatino18; Gustavo
Masera19
RESUMEN
En el documento se propone un análisis del surgimiento de la
teoría subjetiva del valor en la Escuela Austríaca de
Economía. Cualesquiera que fueran las diferencias
observables entre las generaciones de autores, hay una línea
de continuidad en el relieve de la cuestión subjetiva, frente a la
tradición clásica del valor. Se concluye que para los
representantes de la escuela austríaca, la importancia de la
subjetividad en la economía, era para ellos parte de un
sistema filosófico que se fundamentaba en el individualismo
metodológico Por lo tanto, sería engañoso y reduccionista
considerarlos simplemente como una perspectiva técnica de la
dimensión económica, sino más bien, como miembros de una
corriente de pensamiento con fuertes preocupaciones en la
filosofía y la metodología de las ciencias sociales.
PALABRAS CLAVE
Subjetivismo, Valor, Escuela Austríaca, Lógica Transcursiva
1.0. INTRODUCCIÓN
El impulso del subjetivismo en la Escuela Austríaca de
Economía estuvo marcado, generalmente, por las
17
Facultad de Ciencias Económicas, Jurídicas y Sociales, Universidad
Nacional de San Luis.
18
Instituto de Filosofía, Facultad de Filosofía y Letras, Universidad Nacional de
Cuyo.
19
Facultad de Filosofía y Letras, Universidad Nacional de Cuyo; Facultad de
Ciencias Económicas y Jurídicas, Universidad del Aconcagua. .
121
preocupaciones teórico-metodológicas en torno al
tiempo, las expectativas y la incertidumbre. Así, la
discusión fundamental consolidó una tendencia dentro
de la escuela por explicar la dinámica de los fenómenos
económicos a través de la investigación de los estados
mentales subjetivos de los actores tomadores de
decisiones. A lo largo del siglo XX el subjetivismo se ha
transformado en la marca distintiva de la tradición de la
Escuela Austríaca de Economía. Empero, los
economistas de esta corriente persiguieron una postura
subjetivista con diversos matices y grados de
profundidad en sus análisis. Es por ello por lo que el
objetivo del presente escrito es presentar una
aproximación a la evolución del tratamiento del
subjetivismo en las fases de la escuela.
2.0. EL SUBJETIVISMO EN LA ESCUELA
AUSTRÍACA
A principios de la década de 1870 la llamada revolución
marginalista, exteriorizada de diversas formas por Carl
Menger, León Walras y Stanley Jevons, consolidó un
objetivo explícito: iniciar un debate teórico y
metodológico en torno a la resolución de las dificultades
presentadas por la teoría clásica y su concepción sobre
el valor. Los economistas austríacos, forjaron una
tendencia conceptual que comprende al subjetivismo del
valor como un fenómeno que genera un proceso en
donde el individuo interactúa en los mercados cargado
de diversas valoraciones subjetivas. Se genera, en esta
visión, una formación de precios guiada por decisiones
individuales de producción y consumo. El subjetivismo
no se relaciona necesariamente en un enfoque del valor
relacionado con la identificación de apreciaciones
individuales, sino que comienza, paulatinamente, a
colocar el foco de atención en la búsqueda de un
122
equilibrio en dónde las interacciones se desarrollarían
continuamente en tanto las circunstancias exógenas
logren cierta permanencia.
Los “Principios de Economía Política”, de Carl Menger,
reflejaron una nueva síntesis de perspectivas de análisis
de los fenómenos económicos y, consecuentemente,
una reconceptualización de la incipiente ciencia
económica. Estas nociones encontraron sus alcances en
el subjetivismo, partiendo de la concepción de que el
hombre es un ser que no está sujeto al devenir histórico,
sino que es protagonista de este. La economía,
entonces, no es una ciencia que trate sobre objetos
materiales, sino sobre los hombres y sus
consideraciones y todas las actividades que deriven de
su acción.
La crítica de Menger al enfoque teórico predominante se
sustenta sobre la proposición acerca que la teoría
económica no debía ocuparse de las actividades
puramente comerciales, sino en cómo se desarrollan en
cuanto a la actividad humana. El punto de partida son
las necesidades humanas. Así, los individuos tienen
diversas necesidades y tienden a alcanzar una
necesidad de satisfacción y, razonablemente, evidencian
causalidades determinadas para que se pueda llegar a
ese estado. En el movimiento constante de causa y
efecto entran en contacto nuestra personalidad y las
diversas necesidades que conforman una gran
“interconexión global” (Menger. 1997). Para ello, observó
los comportamientos humanos para llegar a la
conclusión de que gran mayoría de las conductas
individuales son regulares en la actividad económica.
Estas se suceden en todo tiempo y lugar generando
leyes universales del comportamiento económico. En
este sentido, se afirma que la obra fundacional de la
123
Escuela Austríaca busca no solo establecer las leyes del
comportamiento económico del hombre, sino lograr
reconocerlas.
El campo teórico de la economía no es, empero,
totalmente novedosa ya que, como sostiene Roncaglia
(2005: 236), hubo una serie de precursores a la
concepción subjetivista de la economía.
A partir de esta redefinición, se consolida una tendencia
que permanece en gran parte de los economistas de la
Escuela Austríaca: el subjetivismo metodológico y el
análisis de las decisiones de los individuos sustentadas
en escalas de valores propias que solamente ese
individuo conoce.
Menger se distanció considerablemente del pensamiento
económico predominante, porque si bien reconoce
líneas de causalidad duales en la actividad económica
vinculadas a la valoración subjetiva de los bienes de
orden superior, estos se presentan como la causa
objetiva de la aparición de bienes de orden inferior y,
luego, de la satisfacción de necesidades humanas
concretas. Así, en los “Principios…” se exhibió un
individualismo caracterizado por la competencia de
diversas categorías de necesidades concretas por la
satisfacción de brindar las cantidades disponibles de
bienes de cualquier índole. Es que el subjetivismo se
restringía a una noción genética de las necesidades
individuales y sociales (Cubeddu, 1993).
El encargado de complejizar este cuerpo teórico es
Böhm-Bawerk y su subjetivismo multicausal e
interseccional. El discípulo de Menger identificó una
serie de proposiciones que establecieron una base
praxeológica de la interpretación de los fenómenos
económicos. De esta manera, determinó que la calidad
124
de los bienes no es un atributo objetivo del mismo ya
que, en primer lugar, redireccionó la atención a la
relación existente entre el bien y el sujeto económico
(Caldwell, 1990). El valor de los bienes se presenta
sujeto a los cambios en las dimensiones de las
relaciones subjetivas frente a la ausencia de algún tipo
de valoración de las condiciones objetivas. En este
sentido, el bien no contiene un valor per se ya que, en
un segundo momento, entra en juego el rol de los
criterios abstractos no marginales como la felicidad,
satisfacción, etc.
3.0. ENTRE LA TRADICIÓN Y EL DISTANCIAMIENTO
Mises continua con la tradición subjetivista. Sin
embargo, puede observarse que ciertos elementos de
ambigüedad contenidos en sus dos predecesores
generaron cierta incomodidad que llevó a replantear los
postulados de sus mentores. De cierta forma, la falla que
encontró Mises en el subjetivismo exploratorio se
encontraba en la afirmación acerca de que el valor era
medible. Esta crítica generaba una imposibilidad de
desarrollar una teoría consistente del mismo. Así, el
autor sostuvo que “Sobre el tema de la medición del
valor, como en una serie de temas adicionales que están
estrechamente vinculados con él, los fundadores de la
teoría subjetiva del valor se abstuvieron del desarrollo
constante de sus propias doctrinas. Esto especialmente
en Böhm-Bawerk.” (Mises, 2007: 40).
La relación teórica que tienen Menger y Mises es, por lo
menos, difusa ya que la conexión entre los “Principios…”
y la “Acción Humana” visibilizan cierta distancia en
cuanto Mises propone dotar a las ciencias de la acción
humana con un carácter lógico de validez universal. Es
por ello que resultaría infructuoso encontrar los
fundamentos del subjetivismo y la praxeología en
125
Menger (Mises, 2007). El punto de partida de Mises se
encuentra en su intento por establecer una reflexión
sobre la esencia de la acción de los sujetos fundada en
el carácter de la estructura lógica de la mente. A partir
de esta noción se hace necesario un apriorismo
metodológico que sea capaz de encontrar herramientas
a priori a cualquier experiencia para comprender la
realidad: la praxeología. En esta perspectiva, se genera
un elemento dual en la decisión subjetiva del sujeto ya
que la acción se muestra como la manifestación de la
voluntad del individuo, pero a la vez como la esencia de
su naturaleza y existencia. Es decir que mientras se
hable de la satisfacción de algún tipo de deseo del
individuo, la “acción humana es necesariamente siempre
racional” (Mises, 2013). Las elecciones en el proceso
económico, en Mises, se conciben en cuanto el
resultado de la elección de un juicio de valor.
Con ello, el distanciamiento con las nociones
exploratorias de la escuela se consolidó en la
concepción de Mises sobre la relación entre el interés
individual y la naturalidad de los fenómenos y de la
acción.
Cubeddu
(1993)
sostiene
que
las
conceptualizaciones
debidas
a
Menger
serán
reemplazadas por un subjetivismo que cambia el foco de
atención al dirigirse hacia el descubrimiento de leyes a
priori que regulan las acciones mismas y permiten el
logro de fines de tipo individual. Por lo tanto, la
capacidad de conocimiento sobre el comportamiento
basadas en la comprensión de las leyes naturales fue
reemplazada, en Mises, por consideraciones lógicas de
validez universal.
La postura de Friedrich von Hayek difería de la del
fundador de la escuela y de la Mises. Aunque reconoce
los aportes a la investigación social y económica
126
realizado por Mises mediante su subjetivismo, la noción
de Hayek no alcanzó el extremo de este: se buscó
comprender una nueva organización del complejo
relacional que incluye a la experiencia individual y al
mundo externo. Esto se lograría a través de la
reformulación de sensaciones subjetivas, junto a la
abstracción y su calificación de los fenómenos en
acuerdo a criterios teóricos.
Es decir que el énfasis de Hayek se encuentra en un
nivel de subjetivismo, en cierto sentido, más profundo y
abarcador al buscar la compatibilidad de las intenciones
de diversos individuos, su división del conocimiento y el
proceso en el cual este es adquirido para llegar, de este
modo, a la conformación de las expectativas subjetivas
(Hayek, 1978). De esta forma, el aporte relevante de
Hayek radica en su capacidad de destacar el dinamismo
del proceso competitivo y relacionarlo con un
subjetivismo sensible al rol del cambio de conocimiento y
de las expectativas.
4.0. RECONCEPTUALIZACIONES INTRATEÓRICAS
Cabe reflexionar, en este marco, acerca de los alcances
de la teoría económica de los marginalistas y sus
sucesores neoclásicos con respecto a la representación
de una teoría económica subjetiva. En este sentido, las
perspectivas, sobre el subjetivismo, exploradas por la
primera y segunda generación de la Escuela Austríaca
han sido criticadas y reconceptualizadas dentro de la
corriente. La década de 1970 fue el reflejo de proyectos
que buscaron alcanzar una explicación satisfactoria de la
relación entre el subjetivismo, el individualismo
metodológico y la ciencia económica. De esta manera,
se inició un proceso exploratorio que encauzó
contribuciones relevantes a la temática con las obras de
Kirzner (1973) y Rizzo y O´Driscoll (1979). En términos
127
generales, se enfatizó en la idea de que el subjetivismo
encauza espacios de creatividad y autonomía de la
elección individual generando, en la visión de esta
generación, una economía que trata de abordar los
pensamientos que llevan a la toma de decisiones.
En esta década Israel Kirzner se convirtió en el líder del
denominado “renacimiento austríaco” (Gloria-Palermo,
1999). Para comprender las contribuciones del autor es
necesario mencionar que se preocupó, enfáticamente,
por revisar los principales postulados de Carl Menger y,
muchas veces, fue contra sus predecesores inmediatos,
Mises y Hayek.
Rizzo y O´Driscoll (1979) señalaron que la autonomía
relativa de la elección de los individuos encauza,
necesariamente, a una previsibilidad imperfecta de las
consecuencias de esas elecciones. Cuando el sujeto
opta por tomar el curso de una acción particular, sus
consecuencias estarán delimitadas en los cursos de
acciones que otros individuos escojan. Por lo tanto, en
un contexto en dónde impera el subjetivismo creativo y
autónomo en los sujetos, el futuro se torna desconocido
e incognoscible. Es por ello por lo que las
preocupaciones sobre el análisis del subjetivismo se
centraron en el contexto de conocimiento del individuo,
la naturaleza del aprendizaje y la división del
conocimiento en el elemento societal.
Hay una distancia de los anteriores análisis del
subjetivismo psicológico que, generalmente, apelaban a
las nociones de irracionales y colocaban el foco en una
investigación sobre las percepciones individuales del
sujeto en el mundo real. Debido a la imposibilidad de
una observación directa de la perspectiva del individuo
sobre el mundo, la problematización debía ser
hipotetizada en un contexto del resultado que el analista
128
deseara explicar. Cabe destacar que la propuesta
acerca del carácter analítico situacional no implicaba, en
perspectiva
de
estos
autores,
plantear
el
comportamiento
individual
como
un
problema
matemático. La novedad, entonces, radica en la
propuesta de examinar la toma de decisiones subjetivas
desde un análisis dinámico y no determinista. La lógica
de una resolución problemática radica en su
racionalización y reconstrucción de una situación (Rizzo
y O´Driscoll, 1986). Si al presentar estas situaciones
hipotéticas se plantea que estos individuos se
encuentran frente a los mismos problemas sería
dificultoso sostener que todos ellos tienden a adquirir
conocimiento para la toma de decisiones de formas
similares. Es más, sigue existiendo una distribución del
conocimiento, aunque el stock fuera utilitario para todos
ellos. En este sentido, se genera un entramado complejo
en donde la dinámica relacional subjetiva entre los
bienes y los individuos produce la adquisición de
conocimiento que, necesariamente, no es útil para todos.
Es por ello por lo que el conocimiento derivado de las
decisiones subjetivas debe comunicarse.
La comunicación de esas decisiones se plantea en dos
términos: a través de los precios y a través de las
instituciones. En primer lugar, la abundancia y escasez
de los bienes y la oferta y la demanda del mercado, y su
consecuente impacto en la conformación del precio,
encauzará los cursos de acción futuro de los sujetos. En
un segundo lugar, las instituciones son capaces de
lograr encauzar las subjetividades a través de la
coordinación de las expectativas y la generación de
confianza en el cumplimiento de determinadas funciones
económicas. Aquí se retoma el concepto de Hayek
(1973) acerca del rol de las instituciones en las
adaptaciones eficientes al entorno.
129
Aquí, se introduce una confluencia del sentido
popperiano de la visión austríaca del subjetivismo y de
los conceptos introducidos por Israel Kirzner. En suma,
la concepción de una economía subjetivista se relaciona
íntimamente con un proceso de conocimiento que tiene
su orden en el marco de una problemática específica,
generando un desarrollo constante del individualismo
metodológico. Ravier (2009) sostiene que la introducción
de estas nociones, en el marco analítico del subjetivismo
austríaco, implica la reconciliación del equilibrio y el
cambio impredecible que se encontraba poco explorado
en las obras de Mises y Hayek.
5.0. SUBJETIVISMO Y LÓGICA TRANSCURSIVA
La lógica transcursiva representa una herramienta útil
para evaluar la repercusión que tiene el comportamiento
y la conducta económica en la toma de decisiones, una
actividad netamente subjetiva. En economía, el enfoque
desde el sujeto pone en relieve que los fenómenos
económicos tienen origen en la psiquis de una persona.
Apoya esta última hipótesis un trabajo muy particular de
Hayek: The Sensory Order – An inquiry into the
Foundations of Theoretical Psychology (TSO), en donde
construyó las bases sólidas sobre las que sustentar sus
ideas acerca del conocimiento económico y qué debía
resolver la ciencia económica.
Desde esta perspectiva, la dinámica de las relaciones
entre los individuos; esto es, consigo mismo que le
permite preservar la vida, con el entorno que le aporta
conocimiento y experiencia, y con sus semejantes, que
le posibilita la comunicación de sus decisiones. Estas
relaciones tienen como único objetivo mantener la vida
biológica, la vida psíquica y la vida social, y en ese
sentido, son intencionales.
130
La dinámica con que se desenvuelven estas relaciones
es la siguiente: a) el entorno se le presenta con sus
avatares, b) el sujeto acusa recibo de este impacto (lo
percibe), y c) elabora una respuesta adaptativa (y readaptativa, indicando de esta manera, que le ha
encontrado ‘sentido’ a la realidad circundante y que ya
‘aprendió’ lo que hay que hacer al respecto para seguir
con vida en las tres instancias que le toca enfrentar. Este
‘aprender’ tiene como paso previo el ir ‘probando’
alternativas hasta acercarse lo más posible a una
respuesta adecuada. Si este paso no se cumple, esto
es, no se da una respuesta o se da pero no es
adecuada, el ser humano muere socialmente,
psíquicamente e inclusive, biológicamente, por no poder
adaptarse a las exigencias del entorno. (Salatino, 2016,
p. 19) Este último caso, en teoría de juegos sería
equivalente a perder el juego.
La situación en la que se encuentra un sujeto al
interactuar con las tres instancias de su realidad, se
ajusta bastante bien a una variante presentada en este
trabajo del planteo que John F. Nash hizo sobre los
juegos no colaborativos (Nash, 1950). Esta manera de
enfocar la toma de decisiones en economía se ve
reflejada en la Figura 1, la que se analiza a continuación:
Figura 1 ECONOMÍA
131
Referencias: CT: carácter – CO: cosas – RE: reglas
CR: creencias
Nash hizo un aporte vital a la economía cuando
demostró que la toma de decisiones es una cuestión
interactiva en donde prima el egoísmo (‘la intención de
sobrevivir’), y que los mejores resultados para un grupo
en el corto y mediano plazo, a pesar de que las
decisiones sean tomadas en forma individual, se logran
cuando se alcanza un tipo muy particular de equilibrio
entre pares de estrategias opuestas y simultáneas.
La figura anterior pretende reflejar un marco real para la
toma de decisiones algo distinto a lo planteado
previamente. La variante la constituye el hecho de
enfocar el problema desde el sujeto y no solo de lo que
resulte de su interacción con los demás. En otras
palabras, aquí la toma de una decisión es mucho más
egoísta que en el caso de los juegos no cooperativos, ya
que aquí lo que realmente está en juego es la propia
‘vida’.
Sin hacer de este planteo algo dramático, se afirma que
la toma de decisiones, por ejemplo, el dictado de normas
que se forja en el edificio teórico de la economía política,
surge de un sujeto que interactúa en un grupo, y no de
un grupo que contiene a un sujeto, porque están
sustentadas en su comportamiento. Por lo tanto, la
aplicación de esas normas en la práctica de la política
económica, que regulan su conducta, debería reflejar
parte de ese origen normativo; sin embargo no lo hace;
lejos de eso, antepone una supuesta ‘equidad científica’
(según la expresión nietzscheana - Nietzsche, 2004, p.
80) que oculta los verdaderos afectos que las
fundamentan, como la ambición de dominio o el ansia de
posesión.
132
El gráfico de la Figura 1 puede representar muy bien una
situación similar a la que se evidencia en un juego no
cooperativo entre dos jugadores: un sujeto con su
carácter y por tanto, con su ética, y el entorno con sus
cosas y sus otros sujetos. Hay allí dos niveles bien
definidos: el nivel superficial o aparente o aquel en
donde se dirime el futuro de los jugadores en función de
una estrategia elegida consciente e inconscientemente
por el sujeto de acuerdo a determinadas reglas
impuestas; y el nivel profundo, en donde se proponen las
reglas del juego (estructura) que dependen de las
creencias individuales y al cual no tiene acceso ni puede
modificar ninguno de los jugadores (lo estructural no es
consciente ni inconsciente, es biológico). Este doble
estado de nuestra psiquis, por llamarlo de alguna forma,
es señalado ya por Hayek en TSO:
“¿Cuáles son, entonces, los atributos especiales de la
conducta consciente por los cuales la distinguimos de la
conducta que también parece estar coordinada e
intencionada pero de la cual la persona que actúa no es
‘consciente’? Tal comportamiento inconsciente puede
ocurrir bien porque la atención de la persona está en el
momento particular de otra manera comprometido, o
porque es completamente inconsciente como es el caso
en algunos estados de sonambulismo y trances
hipnóticos.” (Hayek, 1952, p. 134)
Un sistema (pareja de jugadores: el sujeto y su entorno)
representa un estado de reposo dinámico que acusa una
cierta organización (determina un comportamiento
específico), un cierto desequilibrio estable que promueve
un intercambio que se proyecta como acción evidente
(una conducta ajustada a normas o reglas). La irrupción
de una propuesta o desafío por parte del entorno (el
equivalente al punto a) de la dinámica ya especificada)
133
provoca un desvío en aquel sujeto que la ‘percibe’ (punto
b)) (S) que lo conduce a someter esa ‘organización’
anterior a las reglas del juego, esas reglas generales
que definen la estructura generadora de su
comportamiento ante la situación, como algo
desorganizado que la estructura profunda reorganiza,
elaborando o bien una defensa que se hace llegar a
modo de respuesta adaptativa al entorno (O), o bien
como un cambio de nivel de complejidad que le permite,
estrategia mediante, responder con un ataque, lo cual
produce que el entorno se convierta ahora en el ‘sujeto’
que reciba un desafío y se repitan las alternativas del
juego hasta que alguno de los dos no se adapte y
‘muera’, o sea, pierda el juego o lleguen a un acuerdo y
se declare terminado el juego.
6.0. A MODO DE CONCLUSIÓN
En el documento se ha planteado un análisis de la teoría
subjetiva del valor” elaborada en el seno de la Escuela
Austriaca de Economía. Se ha visto, asimismo, el
desarrollo de algunas de sus principales líneas y
contribuciones desde el período fundacional hasta las
generaciones posteriores. Por último, se ha realizado
una interpretación integral desde el método propuesto
por la Lógica Transcursiva. La conducta esperada que
deben resguardar las normas es una consecuencia
directa de nuestro comportamiento. El método ha
permitido evaluar la repercusión que los deseos y las
creencias individuales (que se traducen en acciones o
comportamiento) deberían tener sobre el dictado de
normas que regulen la conducta económica; única forma
que la economía política se convierta en la base de
nuestra comprensión, no solo de la economía sino de los
hechos sociales.
134
REFERENCIAS
CALDWELL, B. (2004). Hayek’s Challenge: An
Intellectual Biography of F.A. Hayek, Chicago: University
of Chicago Press.
CUBEDDU, R. (1993). The Philosophy of The Austrian
School, London and New York, Routledge.
GLORIA-PALERMO, S. (1999). The evolution of Austrian
Economics: From Menger to Lachmann, Londres:
Routledge.
HAYEK, F. A. (1952). The Sensory Order. An Inquiry into
the Foundations of Theoretical Psychology. Chicago,
The University of Chicago Press.
HAYEK, F- A. (1978). “Competition as a Discovery
Procedure”, en New Studies in Philosophy, Politics,
Economics and the History of Ideas, Chicago: University
of Chicago Press.
MENGER, C. [1883] (2009). Investigations into the
Method of the Social Sciences with special reference to
Economics. New York, New York University Press.
MENGER, C. (1997). Principios de Economía Política
[1871] (2a ed.). Madrid, España, Unión Editorial.
KIRZNER, I.(1979), Perception, Opportunity and Profit,
Chicago: Unversity of Chicago Press.
MISES, L. von (2007). Human action: A treatise on
economics, Indianapolis: Liberty Fund.
MISES, L. von (2013). Epistemological problems of
economics, Indianapolis: Liberty Fund.
NASH, J. F. (1950). Non cooperative games, PhD
Thesis, Princeton.
135
O´DRISCOLL, G. and M. RIZZO (1986). The Economics
of Time and Ignorance, Londres y Nueva York:
Routledge.
RAVIER, A. (2009). El marco analítico subjetivista en la
economía del tiempo y la ignorancia, en Revista de
Instituciones, Ideas y Mercados 56.
RONCAGLIA, A. (2005). The Wealth of Ideas. Cam:
Cambridge University Press.
SALATINO, D. R. (2016). Procesos Cognitivos.
Fundamentos Neurofisiológicos. Una teoría del
funcionamiento psíquico – Mendoza – Argentina,
Autoedición
***
136
6. Lógica Transcursiva: un hilo de Ariadna para
explicar la actualización del mito de Medea en
su reelaboración euripídea20
Luciana Benítez Schaefer21
Resumen: El presente trabajo pretende explicar la
actualización del mito protohistórico de Medea en la tragedia
homónima de Eurípides (ca. 484 a.C. – 406 a.C), el último de
los tres grandes poetas trágicos griegos. Para ello, teniendo
en cuenta los hallazgos metodológicos de la Lógica
Transcursiva, se describe la relación entre el rol que el
dramaturgo otorga a las emociones y la presencia de rasgos
arquetípicos femeninos en la configuración de la protagonista.
La interacción entre estos factores con el mito y su propuesta
griega de escenificación explica la recepción exitosa de la
tragedia por parte de un público muy posterior al del mito
originario.
Palabras claves: Lógica Transcursiva – Emociones –
Arquetipo – Hipertextualidad – Medea.
1.0. INTRODUCCIÓN
Los mitos, transmitidos durante siglos de boca en boca y
luego registrados por escrito, han sido objeto de estudios
provenientes de diversas disciplinas, bajo múltiples
enfoques en contextos disímiles. No obstante, estas
creaciones colectivas no dejan de atraer hacia sí a
especialistas de diversas áreas, cuya atención renovada
revela la riqueza de estos relatos. Otro tanto ha ocurrido
20
21
Este escrito surge de la ponencia homónima leída durante el III Foro de
Lógica Transcursiva, llevado a cabo el 17/10/19, en la UTN. Agradezco
los aportes realizados por el Dr. Dante Salatino en materia de Lógica
Transcursiva, las observaciones y recomendaciones bibliográficas de
los psicólogos María Isabel Schaefer y Oscar Benítez en lo referente a
arquetipos junguianos y a la Dra. Elbia Haydée Difabio por la selección
de traducciones y estudios críticos sobre Medea consultados.
Facultad de Filosofía y Letras – UNCuyo.
137
en el ámbito artístico, donde antiguas historias y
personajes mitológicos se han visto homenajeados con
obras de arte musicales, pictóricas, escultóricas y
literarias. Estas recuperan, en un diálogo intertextual y/o
hipertextual, el valor clásico de las producciones iniciales
y sus protagonistas, a los que artistas de diversa índole
han dado cuerpo y voz.
¿Cómo es posible que una historia, arcaica incluso para
los habitantes de civilizaciones tan antiguas como la
griega, sobreviva tantos siglos a públicos diferentes?
¿Qué tratamiento sobre el relato inicial ha permitido su
pervivencia? ¿En qué medida la Lógica Transcursiva
(LT) pone de relieve el proceso que permite actualizar el
mito en otro tiempo y otro espacio?
El presente trabajo propone una aplicación del método
transcursivo –cuya validez ha sido probada en las
ciencias experimentales– en la esfera de lo literario.
Valiéndonos de él, ejemplificaremos cómo el mito
protohistórico de Medea se actualiza en la tragedia
homónima de Eurípides22 (ca.484 a.C. – 406 a.C), el
último de los tres grandes poetas trágicos griegos,
destinada a un público muy posterior al del relato
originario.
La aplicación del método escogido requiere la distinción
de cuatro constituyentes fundamentales interactuantes
en el sistema dinámico por explorar. En este trabajo,
dichos elementos son: el mito (en este caso el de
Medea), los arquetipos junguianos (aquí, rasgos de lo
arquetípico femenino), las producciones artísticas
posteriores al mito vinculadas con él (la tragedia Medea,
de Eurípides, con sus particularidades) y las emociones
(que permiten la interpretación subjetiva del objeto –
22
138
Dada la extensión del trabajo, nos centraremos en el personaje
protagonista.
mito– y facilitan el acceso al mundo universal de los
arquetipos). La relación entre dichos elementos puede
ser ejemplificada de la siguiente manera:
EMOCIONES
MITO
PIEZA TEATRAL (individual)
ARQUETIPO (universal)
ARQUETIPO
MITO
Figura 1: Elementos interrelacionados según la LT
En el esquema, el mito (objeto) logra, por medio de las
emociones (que manifiestan sus protagonistas y
conmueven al sujeto destinatario) acceder a la
dimensión humana universal donde habitan los
arquetipos psicológicos. Estos, recreados en una obra
teatral posterior (Medea, de Eurípides), sintetizan el caso
particular (el mito) y lo general (las emociones) en una
producción individual donde se actualiza no solo el
objeto, sino también la imagen arquetípica que sustenta
su pervivencia. A continuación, fundamentaremos estas
relaciones a partir de nociones provenientes del ámbito
de lo literario.
2.0. EL MITO Y SU REELABORACIÓN EURIPÍDEA
La versión en línea del Diccionario de la Lengua
Española brinda las siguientes acepciones de la palabra
“mito”:
1. m. Narración maravillosa situada fuera del
tiempo histórico y protagonizada por personajes
de carácter divino o heroico. || 2. m. Historia
ficticia o personaje literario o artístico que
139
encarna algún aspecto universal de la condición
humana. El mito de don Juan. || 3. m. Persona o
cosa rodeada de extraordinaria admiración y
estima. || 4. m. Persona o cosa a la que se le
atribuyen cualidades o excelencias que no tiene.
Su fortuna económica es un mito.
Partiendo de estas definiciones, puede deducirse, de
manera general, que el universo del mito implica la
entrada a un mundo hoy considerado ficcional, sin
pertenencia a un tiempo definido, en el que habitan
personajes con características divinas o heroicas,
admirados o estimados por el resto y en los que
sobresale algún aspecto universal de la condición
humana.
Lo anterior explica el
hecho
de
que
los
dramaturgos
de
la
antigüedad
griega
se
sirvieran de los mitos e
hicieran de ellos la raíz de
la tragedia. El caso de
Medea
no
es
la
excepción23.
A
continuación, relataremos
brevemente el mito, tal
como lo consigna Pierre
Medea, con los hijos muertos,
Grimal en su Diccionario
huye de Corinto en un carro tirado
mitológico, donde estos
por dragones – Germán
elementos
se
ven
Hernández Amores, ca.1887. Óleo
claramente:
23
No obstante, Eurípides establece una relación peculiar con los mitos
tradicionales, identificada con lo que K. Reinhardt denominó “la crisis de
sentido” heroico, producto de la crítica racionalista al “núcleo esencial de la
sabiduría griega como expresión […] de una concepción del mundo […]”
(García Gual, 2007:19).
140
Una tradición tardía, citada por Diodoro, nos dice
que Medea era en realidad una princesa de
sentimientos muy humanos / […] hizo prometer a
Jasón que sería su esposo si ella […] le facilitaba
el modo de apoderarse del vellocino de oro […].
Jasón se lo prometió, y Medea, valiéndose de su
conocimiento del país, hizo que le abriesen el
templo donde se guardaba la preciosa piel,
mientras los Argonautas atacaban a los soldados
y los ponían en fuga […] una vez logrado el
vellocino de oro, Medea huyó con Jasón y los
Argonautas. Todas las leyendas concuerdan en
este punto: él le había prometido casarse con
ella, y todos los crímenes ulteriores de Medea
quedan justifica-dos, o siquiera explicados, por el
perjurio de Jasón. Para seguirlo y darle la victoria,
la doncella no sólo había traicionado y
abandonado a su padre, sino también se había
llevado como rehén a su hermano Apsírto, al cual
no vaciló en matar y despedazar para retrasar la
persecución de Eetes [su padre] […] (1989:336337).
Para completar la historia, citamos también a Carlos
García Gual, quien refiere el argumento de la tragedia, la
cual enriquece el relato original sin diferir grandemente
en el desarrollo de las acciones planteadas por el mito
que tiene por base24:
Medea, hija del rey de la Cólquida, con cuya
poderosa ayuda pudieron los argonautas
conquistar el vellocino de oro, se había
desposado con Jasón, dando a luz dos hijos,
siguiéndole a Grecia, y estableciéndose con él en
Corinto. Jasón, sin embargo, en vez de
corresponder a los sacrificios que había hecho en
su obsequio, ya cediendo al amor que le inspirara
la hija de Creonte, rey de Corinto, ya por motivo
24
Consideraremos posteriormente las diferencias más relevantes.
141
de conveniencia personal, pretendió la mano de
ésta, y logró el asentimiento de su padre para
celebrar sus segundas nupcias; pero Creonte [rey
de Corinto] entonces, conociendo el carácter
vindicativo y vehemente de Medea, ya famosa
por su crueldad y sus mágicas artes, decretó su
destierro inmediato con sus hijos, y sólo a sus
ruegos consintió en aplazarlo, señalándole un
nuevo término. Medea aprovechó este descanso
para fingir su reconciliación con su esposo, y llevó
su aparente docilidad hasta el punto de regalar a
la nueva desposada [Creúsa o Glauce] una
corona de oro y un riquísimo peplo.
Desgraciadamente
ambos
dones
estaban
envueltos en eficacísimo veneno, que estalló en
el momento de ponérselos la hija del rey,
devorándolos juntamente con su padre. No
contenta con esto, se vengó también de Jasón
matando a sus hijos25, y huyó impune a la corte
de Egeo, rey de Atenas [a quien había prometido
solucionar
su
problema
de
infertilidad],
atravesando los aires en un carro tirado por
dragones26. (2007:85-86).
Eurípides se hace eco del argumento central, pero
también se aparta de las concepciones tradicionales de
“mito” hasta llegar a constituir, según Nietzsche, uno de
los dos grandes “críticos del mito y la convención”
(García Gual, 2007:11).
Su principal distinción con respecto a otros dramaturgos
radica en el desarrollo que realiza de la psicología de
sus personajes, más alejados de la condición heroica y
25
Según Grimal, “Se dice que Eurípides fue el primero en afirmar que los hijos
de Medea habían sido muertos por su madre. En otra versión eran lapidados
por los corintios, quienes los castigaban […] por haber llevado a Creúsa el
vestido y las joyas” (1989:338)
26
Grimal registra también una variante en la que este carro se halla “tirado por
caballos alados” (1989:338). La elección del dramaturgo de dragones
evidencia el aspecto “monstruoso” y “mágico” de la protagonista.
142
más cercanos al ser humano de carne y hueso. Estos
personajes “obedecen a sus pasiones, esas pasiones
que en el teatro euripideano [sic.] suscitan toda clase de
violencias” (Scaramella, 1974:9).
En esa progresiva humanización de los héroes, este
“inquieto e incansable escrutador de la condición
humana” (García Gual, 2007:14), los muestra:
Mucho menos seguros de sí mismos, mucho
menos equilibrados en su disposición heroica,
pero mucho mejor descritos psíquicamente, más
complejos […] que los protagonistas de Sófocles
o de Esquilo, los personajes de Eurípides
expresan […] la complejidad de ideas y la crisis
intelectual y moral de esa época (2007:16).
Sin embargo, la pasión presente en estos caracteres no
supone ausencia de razón, aunque lleva a la catástrofe y
–usualmente– a la muerte a quien la padece. En las
obras de Eurípides, “la lucidez en los razonamientos no
mitiga los sufrimientos, sino que los potencia” (García
Gual, 2007:17).
En la búsqueda por desentrañar los aspectos más
oscuros del alma humana, este dramaturgo otorga
especial interés a protagonistas femeninas, rasgo
distintivo que desconcertó a sus coetáneos, ya que estas
poseen “la grandeza de carácter de que carecen los
héroes masculinos”27 (García Gual, 2007:20).
El protagonismo dedicado al sexo femenino interesa
especialmente en este escrito, centrado en el personaje
de Medea, que lleva hasta las últimas consecuencias su
defensa de “una dignidad personal femenina, un derecho
a ser consideradas, ellas mujeres, tan humanas y
27
García Gual, reflexiona respecto de los personajes masculinos y poderosos,
como Jasón: “[…] se nos presentan a menudo como egoístas, apegados en
demasía a la vida, aun a costa de indignidad” (2007:20).
143
capaces de sufrir y actuar como los hombres” (García
Gual, 2007:23).
La exploración de lo femenino por parte del dramaturgo,
nos impele a considerar el segundo elemento de nuestro
sistema: la noción de “arquetipo” psicológico femenino,
concepto que considera la existencia de dos entidades
centrales: la Gran Madre y el Anima.
3.0. MEDEA COMO IMAGEN ARQUETÍPICA
FEMENINA28
El reconocido psicólogo Carl Gustav Jung –en su
búsqueda por demostrar la posibilidad de una historia de
la psique humana, configurada a partir de elementos
heredados universales e interrelacionados que articulan
su funcionamiento– establece el núcleo de su teoría en
las concepciones de “inconsciente colectivo” y
“arquetipo”, útiles para el presente estudio.
Con la primera de las nociones, el especialista asume la
existencia de una herencia psíquica ancestral en los
seres humanos y habilita la consideración de un aspecto
no consciente de la personalidad, presente en personas
provenientes de distinto tiempo y lugar. El denominado
“inconsciente colectivo” se constituye, así, en un
conjunto
articulado
de
arquetipos
heredados,
configurados como predisposiciones que permiten la
proyección externa de imágenes (cambiantes según la
cultura) a partir de la experimentación intensa de
emociones en una situación dada. Los personajes y sus
28
Como se ha afirmado, observaremos el aspecto ctónico (del griego:
‘perteneciente a la tierra’, ‘de tierra’) designa o hace referencia a los dioses o
espíritus del inframundo) del arquetipo de la Madre y rasgos del arquetipo del
Anima manifestados en un personaje literario. El tratamiento que daremos a
estos conceptos difiere del que podría aplicarse a una persona real, ya que la
imagen arquetípica cristalizada en personaje, muestra solo un aspecto del
arquetipo al que refiere, sin reflejar el comportamiento de una psique humana
particular.
144
comportamientos en sueños, mitos, leyendas y otros
casos de literatura popular tradicional constituyen
algunos modos de acceder a dicha configuración
psíquica.
El segundo concepto definido por Jung es el de
“arquetipo”. En el ámbito de lo inconsciente se halla la
“fantasía creadora”, cuyas producciones consienten la
visualización de las ‘imágenes primordiales’29. Estas son
proyecciones
de
"predisposiciones
psíquicas
inconscientes” (Jung, 1970:72), los arquetipos, que
permiten la generación de reacciones específicamente
humanas30. Dichas “formas funcionales” (Jung, 1970:72)
contienen tanto el modo de actuar como la situación
típica en la cual su actividad se desencadena.
La universalidad de estas entidades permite explicar la
pervivencia de ciertos personajes y situaciones en los
textos considerados “clásicos” de diversas épocas, y
comprender la atención renovada que han merecido los
mitos de la antigüedad –a un tiempo producto de
creaciones colectivas, expresión de la cosmovisión de
un pueblo y espejo de aspectos del inconsciente
colectivo propios de la especie humana–. Aunque se
encuentran ocultas en el inconsciente de cada ser
humano, estas resultan tan activas y vivas como las
propias de la consciencia y “preforman e influyen el
29
La teoría junguiana se refiere a estas imágenes como “primordiales” por ser
propias de la especie humana o haber sido producto de un proceso de
formación que coincide con el origen de la especie: “Es la humanidad del
hombre, la forma específicamente humana de sus actividades” (Jung,1970:73,
las cursivas pertenecen al original).
30
El verdadero aporte de esta perspectiva consiste, en palabras de Jung, en
haber demostrado que los arquetipos “no se difunden meramente por la
tradición, el lenguaje o la migración, sino que pueden volver a surgir
espontáneamente en toda época y lugar sin ser influidos por ninguna
transmisión exterior" (1970:73).
145
pensamiento, el sentir y el actuar de cada psique" (Jung,
1970:73).
El arquetipo, en tanto potencia, comporta forma y
energía, que promueven su manifestación a través de
cierta imagen en ocasiones lo suficientemente crítica
como para propiciar su aparición y la toma de control de
las acciones por parte del arquetipo implicado. Llegado
este punto, es plausible preguntarse por la energía
psíquica que mantiene vivas a producciones con más de
dos milenios de vigencia, como los mitos. La clave de su
pervivencia se halla, desde el punto de vista junguiano,
en la fuerza que manifiestan sus personajes, cuyo
comportamiento se liga a capacidades e intereses
puestos en juego durante circunstancias límite
determinadas.
Al analizar bajo esta luz al personaje de Medea, pueden
observarse rasgos de dos arquetipos femeninos: La
Madre y el Anima, que fortalecen la configuración de la
protagonista, justifican sus acciones y aseguran su
recuerdo a través del tiempo.
Los aspectos positivos y negativos subsumidos en la
figura de la Gran Madre, pueden resumirse en dos
imágenes: la de “una diosa benévola y luminosa y otra
peligrosa y sombría" (Jung, 1970:95). Dada la tensión
entre ambas “caras” de la Madre, estas suelen
manifestarse
como
dos
aspectos
antagónicos
separados, constituyendo dos “tipos” de madre: la
“uránica” y la “ctónica” (la “madre-tierra”).
En el caso de Medea, el aspecto que predomina e
inmortaliza al personaje puede vincularse con el tipo
146
ctónico31. Esta figura tiende a relacionarse con "las
tinieblas y con el carácter abismal del cuerpo humano
[...] [con] su naturaleza animal impulsiva y pasional y, en
fin, con la materia en general" (Jung, 1970:100).
En consonancia con esta
afirmación,
puede
recordarse no solamente el
acto de asesinar a sus hijos
(destacado por Eurípides),
sino también el carácter
vehemente del personaje,
quien descuartiza a su
hermano durante para huir
exitosamente
de
la
Cólquide.
A estas características se
suman su vínculo con las
Medea Furiosa – Eugène F.
artes mágicas, no solo en
V. Delacroix, 1838. Óleo en
su práctica (puesto que era
lienzo, Musée des Beaux,envenenadora y hechicera),
Arts, Lille, Francia.
sino
también
en
su
parentesco con Hécate (patrona de las magas) y con
Circe. Medea se resume, además, en una figura “que
provoca miedo y no permite evasión"32 (Jung, 1970:75).
En cuanto al arquetipo del Anima, Jung se refiere a esta
noción como “lo vivo y causante de vida por sí mismo”
(1970:32); el “arquetipo de la vida” (1970:39), generador
31
En la obra de Eurípides esto se encuentra matizado y se evidencia en
algunos pasajes el amor que Medea siente por sus hijos, aunque finalmente
se decide a matarlos.
32
Esta imagen es matizada por Eurípides. Los actos de Medea generan, junto
con el horror, compasión, sentimiento expresado por el Coro.
147
del movimiento vital suficiente para evitar la inercia en el
ser humano33:
[…] es el a priori de los estados de ánimo,
reacciones, impulsos y de todo aquello que es
espontáneo en la vida psíquica. Es algo viviente
de por sí, que nos hace vivir; una vida detrás de
la conciencia, que no puede ser totalmente
integrada en ésta y de la cual, antes bien,
procede la conciencia (Jung, 1970:33).
Jung relaciona este aspecto del inconsciente con todo lo
numinoso, lo “incondicionado, peligroso, tabú, mágico"
(1970:34) que es proyectado, siempre, sobre mujeres.
Estas suelen estar hermanadas con el mundo antiguo
(por el carácter conservador de este arquetipo) y su
aparición –prolífica en la literatura– desata fuerzas y
destruye inhibiciones.
Medea – William W. Story,
1865/1868. Escultura,
Metropolitan Museum of Art,
New York, EEUU.
En el universo del Anima
no existen las categorías de
“lo bueno” y “lo malo”; este
impulso vital se manifiesta
más allá de cualquier regla
moral. Al hallarse excluida
de estos parámetros, puede
“prescindir también de la
injuria y la alabanza" (Jung,
1970:37). Por ello, sus
características principales
implican lo inesperado, lo
caótico, lo inquietante y, a la
vez, un sentido profundo, un
“saber secreto o sabiduría
33
El psicólogo suizo advierte: “la expresión ‘Anima’ no debe ser confundida
con los conceptos de alma cristiano-dogmáticos ni tampoco con ninguno de
los que ha creado hasta ahora la filosofía” (Jung, 1970:54).
148
oculta, en notable oposición con su naturaleza élfica
irracional” (Jung, 1970:37). El Anima oficia como síntesis
de sabiduría y desatino.
El carácter de Medea evidencia este vínculo con lo
espontáneo. Basta observar su decisión de traicionar a
su padre y su patria a causa del amor que siente por
Jasón –lo que incluye el descuartizamiento de su propio
hermano– y la decisión de venganza a causa de la
afrenta marital de este. Asimismo, se relaciona, como se
ha mencionado anteriormente, con lo incondicionado, lo
peligroso, lo mágico. Su aparición en escena resulta
siempre movilizadora, nadie puede permanecer
impasible ante su presencia.
Definidos los dos primeros elementos del sistema,
procuraremos evidenciar brevemente el rol decisivo de
las emociones en tanto puente entre lo particular (cierta
versión del mito) y lo universal (el mundo de los
arquetipos).
4.0. EMOCIÓN COMO CLAVE DE GENERALIZACIÓN
En su libro El rizoma de la racionalidad. El sustrato
emocional del lenguaje. Pedro Reygadas y Stuart
Shanker evidencian la importancia insoslayable de las
emociones a la hora de definir nuestra especie: “Decir
humano es remitirse a ese entramado de lengua,
emoción, cultura y racionalidad” (2007:338).
Si bien la perspectiva de estos autores no acepta la
condición de “universal” de las emociones, observa la
existencia de “imágenes genéricas” de cada emoción,
“que constituyen el centro atractor de la categoría” y
“arquetipos históricos” (Reygadas y Shanker, 2007:339)
de las emociones. Así, estas se configuran como un
elemento humano genérico, con constituyentes
fisiológicos, pero esencialmente modelados por la
149
experiencia y la cultura que, a su vez, toma por
fundamento lo emotivo, base “del lenguaje [y] de todo el
sistema social” (2007:337).
Dos milenios antes de la publicación de El rizoma de la
racionalidad, Eurípides parecía haber comprendido la
importancia capital de las emociones en la configuración
de personajes memorables, como puente transformador
(“subjetivizador”) o puerta de acceso a lo universal,
donde habita lo arquetípico (como puede observarse en
el esquema propuesto por el método transcursivo
comentado).
En el caso escogido, la ira que experimenta Medea ante
la traición de su consorte la transforma en la Madre
terrible, vengativa, impulsiva y conocedora de los
secretos de la tierra, capaz de envenenar a sus rivales y
de matar a sus propios hijos para humillar a su traidor
esposo.
Esta ira34 es destacada por el dramaturgo en su
propuesta de escenificación en numerosas ocasiones,
desde el principio de la obra. Inicialmente Eurípides la
presenta por boca de otros personajes y, posteriormente
refuerza estas afirmaciones con cada aparición de la
protagonista, cuyo carácter vehemente y apasionado se
ve herido “ignominiosamente en la fibra más sensible de
su corazón” (García Gual, 2007:90). He aquí una
muestra de ello, en la versión de García Gual:
[Nodriza:] Y temo que maquine algo funesto, que es
de carácter vehemente y no puede sufrir injurias.
34
Resulta interesante considerar la ira como hybris en el personaje de Medea
y como recurso performativo para destacar el poder destructor de esta
emoción descontrolada. Teniendo en cuenta la función didáctica de la tragedia
en la Grecia antigua, la ira desmedida podría considerarse como un
sentimiento que merece el castigo de los dioses. Esta desmesura es la que
“despierta” el monstruo en la protagonista y resulta su debilidad.
150
[…] Repito que es de carácter vehemente y que
ningún adversario triunfará de ella con facilidad
(2007:90).
[Pedagogo:] Aléjalos tú [a los hijos] cuanto puedas
de su madre, y que no los vea airada. He observado
el furor que expresaban sus ojos al mirarlos, como si
algo tramara, y no se aplacará su ira, lo sé bien,
como no la descargue en alguno (2007:92).
[Nodriza:] ¿Qué hará en su rabiosa arrogancia, qué
hará en su ánimo implacable, aguijoneado por el
infortunio? (2007:93).
[Medea:] […] ¡Hijos malditos, de funesta madre: que
perezcáis con vuestro padre; que todo su linaje sea
exterminado! (2007:93).
[Coro:] […] las lágrimas corren aquí con furia”
(2007:95).
[Nodriza:] […] se lanza contra sus servidores como
leona recién parida (2007:95).
El aspecto oscuro de “lo femenino” encarna en el
personaje particular propuesto por Eurípides en su
reelaboración teatral, para un público muy posterior a los
primeros receptores del mito o, incluso, en tiempos
ulteriores a su propia época35. Eurípides logra así la
síntesis entre lo particular (el mito) y lo universal (el
arquetipo) al crear una pieza teatral individual (un nuevo
objeto), puerta de acceso para nuevos públicos hacia lo
intangible y esencialmente humano.
Según García Gual, “Eurípides fue el autor trágico más leído en el período
helenístico –romano en Alejandría–” (2007:15), si bien en vida sus éxitos
como dramaturgo no fueron tantos como los de su contemporáneo (aunque
mayor) Sófocles (2007:12 y 13).
35
151
5.0. CONCLUSIONES
A partir de lo desarrollado a lo largo de estas páginas,
pretendimos explicar la actualización del mito
protohistórico de Medea en la tragedia homónima de
Eurípides, compuesta en un tiempo muy posterior al mito
que le dio origen. Luego de reparar en los detalles
ofrecidos por el mito de Medea y en las características
que elabora Eurípides de la heroína, observamos el
papel decisivo de la ira en la configuración psicológica
del personaje y las acciones que realiza. La
actualización de la obra se concreta gracias al puente
oficiado por las emociones, de carácter general, que
permiten la manifestación de arquetipos universales en
la obra, una de las claves de su actualización en la
propuesta escénica realizada por el último de los tres
grandes trágicos griegos.
El método de la Lógica Transcursiva queda, así,
modestamente ejemplificado a partir de esta
aproximación realizada en el ámbito de las
humanidades, en especial en el de la Literatura, sin que
este primer paso implique un agotamiento de las
posibilidades que el método escogido brinda.
152
REFERENCIAS
Fuentes
Eurípides (1974). Medea. Mendoza: Facultad de
Filosofía y Letras – UNCuyo (Trad. Ignacio Granero).
Eurípides (2007). “Medea” en Tragedias. Madrid: EDAF.
(Trad. José Alemany y Bolufer). pp.83-184.
Diccionarios
Diccionario de la Lengua española en línea. Disponible
en https://dle.rae.es/
Grimal, P. (1989). Diccionario de mitología griega y
romana. Barcelona-Buenos Aires-México: Paidós.
Ilustraciones
Delacroix, E. (Artista). (1838). Médée furieuse [Medea
furiosa] [Óleo en lienzo], Musée des Beaux-Arts, Lille,
Francia.
Extraído
de
http://www.pbalille.fr/Collections/Chefs-d-OEuvre/Peintures-XVI-supe-sup-XXI-sup-e-sup-siecles/Medee/(plus).
Hernández Amores, G. (Artista). (ca. 1887) Medea, con
los hijos muertos, huye de Corinto en un carro tirado
por dragones [Óleo en lienzo], Museo del Prado,
Madrid,
España.
Extraído
de
https://www.museodelprado.es/coleccion/obra-dearte/medea-con-los-hijos-muertos-huye-de-corinto-enun/861ddfe9-cef3-4428-832b-cafe0196ec17.
Story, W. (Artista). (1865/1868). Medea [Escultura],
Metropolitan Museum of Art, New York, EEUU.
Extraído
de
https://www.
metmuseum.org/art/collection/search/12651.
Libros y artículos
García Gual, C. (2007) “Prólogo”
Tragedias. pp.9-27. Madrid: EDAF.
en
Eurípides.
153
Jacobi, J. (1976) La psicología de C. G. Jung. Madrid,
España: Espasa-Calpe.
Jung, C.G. (1970). Arquetipos e inconsciente colectivo.
Barcelona-Buenos Aires, España-Argentina: Paidós
Jung, C.G. (2009). “Glosario” en Recuerdos, sueños,
pensamientos. pp. 469-484. Santiago de Chile, Chile:
Seix Barral.
Reygadas, P. y Shanker, S. (2007). El rizoma de la
racionalidad: El sustrato emocional del lenguaje.
México: Cenzontle Grupo Editorial y Universidad
Autónoma de San Luis de Potosí.
Salatino, D. R. (2017). “Lógica transcursiva como
método”. En Creatividad, Investigación y Lógica
Transcursiva, pp. 21-39. Mendoza, Editorial FRM –
UTN. ISBN: 978-950-42-0179-3. Libro digital disponible
en: https://archive.org/search.php?query=dante%20salatino
Salatino, D. R. (2017). Tratado de lógica transcursiva:
origen evolutivo del sentido en la realidad subjetiva.
Mendoza, Autoedición. ISBN: 978-987-42-5099-5,
disponible: https://archive.org/search.php?query=dante%20salatino
Scaramella, D. (1974). “Introducción” en Medea. pp. 716. Mendoza: Facultad de Filosofía y Letras – UNCuyo
(Trad. Ignacio Granero).
“Young-Eisendrath, P. y Dawson, T. (1999). “Glosario”
en Introducción a Jung. pp. 443-449. Madrid, España:
Cambridge University Press.
154
7. DESDE LA POLICONTEXTURA
TRANSCLÁSICA A LA TRANSCURSIVA
Luciano Paolo Russo36
Resumen: El presente trabajo indaga el paso evolutivo de la
lógica transclásica de Günther que cuenta con una explicación
del sujeto desde lo volitivo, a la lógica transcursiva de Salatino
que explica el proceso cognitivo en el sujeto. Se utilizó el
concepto metateórico de evolución (progreso revolucionario)
con inconmensurabilidad parcial para caracterizar la relación
entre ambos métodos lógicos de explicar la realidad subjetiva.
Se trata con dos intentos por modelizar el aspecto subjetivo de
la existencia mediante el lenguaje: (i) por un lado, el
transclásico policontextural implica abandonar los principios de
la lógica clásica y aceptar la simultaneidad de contexturas
opuestas y complementarias (heterarquía); (ii) por otro lado, el
transcursivo que adapta “evolutivamente” la subjetividad a lo
cognitivo; (iii) mediante una cuarta contextura que niega al
sujeto emotivo para que surja el sujeto cognitivo, portador de
un lenguaje universal. Concluimos que la modelización
transcursiva de la experiencia subjetiva es una evolución
teórica que implica inconmensurabilidad parcial con respecto a
la transclásica, i.e. implica un cambio teórico al interior de la
lógica que pretende explicar la existencia subjetiva en su
aspecto cognitivo además de volitivo.
Palabras claves: lógica, policontextura, lógica-transclásica,
lógica-transcursiva, evolución, inconmensurabilidad.
36
Departamento de Filosofía – Facultad de Filosofía y Letras – Universidad Nacional
de Cuyo. INCIHUSA – CCT-Mendoza – CONICET.
155
1.0. INTRODUCCIÓN
Usualmente se entiende una revolución científica como
el cambio drástico al interior de una teoría que consiste
en el reemplazo de una teoría anterior por otra de mayor
poder explicativo. Esta noción implica que para que un
cambio teórico sea revolucionario es necesario que éste
cumpla ciertos requisitos: i. la teoría reemplazante debe
tener un mayor poder explicativo que la teoría
reemplazada; ii. el lenguaje teórico de la teoría
reemplazante no debe ser homologable con el lenguaje
teórico de la teoría reemplazada.
Por otro lado, una evolución científica es entendida
usualmente como un largo período de cambio científico
al interior de una teoría sin que exista un reemplazo de
teoría, e.e. la astronomía de Ptolomeo hasta Copérnico
(durante trece siglos aproximadamente). Aquí nos
interesa introducir el marco filosófico de la filosofía
evolucionaria de la ciencia (Marcum, 2013, 2015a,
2015b, 2017; Martínez y Olivé, L. (1997); Popper, et al.
(1987)) para explicar la noción de inconmensurabilidad
en términos de cambio teórico que implica la aceptación
de una nueva teoría en base a una evolución de la
anterior.
El concepto intuitivo de evolución que utilizamos es el
darwiniano clásico, i.e. los organismos se adaptan
especialmente a ambientes que antes (de la evolución)
les eran hostiles. La inconmensurabilidad (según
Marcum) dentro de la filosofía evolutiva de Kuhn permite
el aislamiento del léxico de una nueva especialidad
respecto de una anterior para que pueda evolucionar en
una especialidad distinta.
156
Marcum afirma que hay un vínculo evolutivo entre la
estructura óntica profunda y nuestras facultades
cognitivas
evolucionadas
para
entenderla
científicamente. En otras palabras (Marcum, 2017: 10)
estamos epistémicamente adaptados al mundo en
términos senso-perceptivos y cognitivos para entenderlo.
La LT pretende explicar (no sólo describir) la lógica
universal por la cual la subjetividad accede a la
cognición del mundo por el lenguaje.
2.0. DESDE LA LPC A LA LT
Con estas nociones en mente abordamos ahora el paso
de la lógica policontextural de Günther (LPC) a la lógica
transcursiva (LT) de Salatino, postulando que esta última
representa una evolución (extensión) respecto de la
anterior, en el sentido de que explica los aspectos
cognitivos de la subjetividad cuando la LPC sólo da
cuenta satisfactoriamente de los aspectos volitivos. El
concepto de cambio teórico que se baraja en esta
filosofía evolutiva de la ciencia responde más a una
especiación a partir de un stock parental (especialización
teórica en forma de árbol teórico a partir de un tronco
común) que a un reemplazo total de una teoría por otra.
Este es el caso, por ejemplo, de la revolución
copernicana a mediados del siglo XVI y antes de Galileo.
La lógica transcursiva se las ve con el sujeto en su
existencialidad vital, no sólo en su realidad objetiva
como sujeto sino en su realidad subjetiva incluida en su
entorno, esto constituye la policontextura heterárquica
desde la cual el sujeto volitivo-cognitivo explora el
mundo en búsqueda de su supervivencia. En la LT
sujeto y objeto son opuestos, complementarios y
concurrentes.
157
La teoría de Günther se limita a caracterizar la cognición
por medio de una jerarquía “…como una relación
ordenada de materia y forma…” (Tratado de Lógica
Transcursiva: 130) y la LT propone ver la contextura de
la cognición heterárquicamente (simétricamente) con la
de la volición. Salatino cambia el “someterse” de la razón
de Günther al entorno, por un “adaptarse” que implica
un cambio profundo en la relación de la subjetividad con
el entorno objetivo.
El error de Günther consistió en utilizar sólo tres
contexturas heterárquicas en lugar de cuatro,
caracterizando solamente el aspecto subjetivo de la
volición pero no completamente el de la cognición. La LT
propone una cuarta contextura (cuarta negación) que
permite ir de las relaciones superficiales a las profundas
(reorganización) por un nuevo ciclado.
Otra de las limitaciones de la LPC de Günther es que en
el fondo nunca se separó de la lógica bivaluada en su
propuesta, en cambio la LT deduce la realidad subjetiva
como posible dentro de una distribución heterárquica de
sistemas jerárquicos. Salatino considera a la “nada”
como una contextura, aquella de la relación profunda y
reorganizadora de la realidad subjetiva. El error de
Günther fue buscar con el método científico para
demostrar su intuición, lo cual subsana el método de la
LT.
Un objetivo de la LT es unir la razón y la voluntad como
dos aspectos opuestos de una misma entidad: la psiquis.
Frente a la LPC que sigue en la lógica binaria
(aristotélica) que divide estas realidades subjetivas y que
sólo encuentran primera unidad en el pensamiento de
Hegel. Sin embargo Günther lo pone en términos de
manifestaciones recíprocas de una y la misma
configuración ontológica (esto es lo que la LT de algún
158
modo divide, al tiempo que une heterárquicamente con
su teoría del mecanismo del pensamiento, la psiquis)
Un aporte de la LPC de Günther a la LT es que la
causalidad, por su pasaje a través de un sistema vivo,
sufre un cambio radical de carácter. En otras palabras, la
causalidad de la “contextura objetiva” del universo hace
un bucle (cicla) a través de la subjetividad y hacia el
entorno. Este último es el principio guía de toda la lógica
de Günther y lo que inspiró el surgimiento de LT.
Frente al equilibrio estático que persigue la ciencia
tradicional, propio del mundo inerte, la LT descubre el
equilibrio dinámico, un desequilibrio estable que permite
mantener la vida. Los PAUs muestran cómo es la
dinámica de este desequilibrio estable de manera
estructural y funcional. Cada sujeto en LT es un centro
volitivo y cognitivo independiente y relativamente
objetivo respecto de su actividad propia, e.e. en relación
de intercambio con los aspectos objetivos de la realidad.
3.0. FUNDAMENTOS DE LA LT
Según la LT el mundo que nos rodea está compuesto de
hechos, i.e. de las relaciones entre un sujeto y un objeto
genéricos a través del cambio (aparente) Esta
descripción del ente es simplemente brillante y
constituye un giro en la lógica policontextural
transclásica hacia una ontología completa de la
subjetividad. Pero la evolución no se produce sino hasta
la introducción de la cuarta contextura, el nicho
ontológico de la nada, la cuarta negación que
desorganiza y reorganiza al mismo tiempo.
Los límites de eso que llamamos hecho son aquello que
objetualiza al ente y lo pone frente a la subjetividad
plausible de ser conocido. En primera instancia el sujeto
subjetivo se pone a sí mismo como sujeto cognoscente
159
(y volente) frente a un sujeto objetivo que se muestra
como objeto cognoscible para una subjetividad. En
segunda instancia el objeto es transformado en el sujeto
mediante una función de cognición que lo reordena y lo
pone en relación con la subjetividad. El ciclo ahora pasa
por la nada como contextura para reorganizar al sujeto y
así cumplir con la existencia cognoscente de la
subjetividad.
Lo antedicho en términos de Günther sería explicar la
realidad en términos de una primera negación que
genera un mundo objetivo y en donde está el objeto; una
segunda negación, en donde está el sujeto y su aspecto
volitivo; y una tercera negación que genera el mundo de
la doble reflexión, en donde está lo subjetivo con su
aspecto cognitivo. El ciclo entre estas identidades de
reflexión es una heterarquía .
Hay que rescatar algunos aspectos del enfoque de
Günther: a. Los conceptos de jerarquía y heterarquía
nos plantean una realidad estructurada en niveles; b. El
aspecto jerárquico no alcanza para una determinación
completa de la realidad; c. El aspecto heterárquico
muestra la interrelación entre sistemas cerrados y
abiertos y su nivel de acoplamiento.
Günther también propuso el lenguaje negativo (de varias
negaciones) que justifica la distribución heterárquica de
varios sistemas binarios en múltiples contexturas. Tratar
con lo subjetivo (viviente) es un problema puesto que
existen fenómenos que están distribuidos sobre una
pluralidad de dominios lógicos.
La LPC hace algunos aportes: i. remueve la ambigüedad
que se produce en la representación de la relación S/O.
ii. Introduce un nuevo concepto de identidad. iii. las
formas de expresión identitarias pueden manifestarse
160
simultáneamente. iv. un nuevo proceso inductivo que se
configura al saltar fuera del sistema (del límite). v.
Nuevas identidades: sujeto (S), objeto (O), sujeto
objetivo (SO) y sujeto subjetivo (SS) como valores
lógicos. vi. plantea una heterarquía o una circularidad
distribuida de valores lógicos.
4.0. APORTES DE LA LT
La LT muestra y resuelve algunas limitaciones de la
LPC: a. los operadores lógicos transclásicos
(transjuntores) son reemplazados por operadores del
álgebra de Boole; b. la necesidad de una máquina
transclásica teórica es cubierta por el patrón autónomo
universal (PAU); c. LT maneja el tiempo interno o
psíquico; d. la falta de un lenguaje en el cual especificar
la interacción simultánea entre las contexturas genera la
propuesta transcursiva de un lenguaje universal; e. la no
caracterización integral de la subjetividad frente a la cual
la LT agrega una cuarta contextura para dar cuenta de la
cognición como su fundamento primordial.
La LT propone mediante su lenguaje universal (en lugar
del lenguaje negativo solamente) cuatro nichos o
contexturas: i. el sujeto que es identificado con el
desorden (01); ii. el objeto que es identificado con el
orden (10); iii. el factor organizador donde se da una copresencia disyuntiva de designaciones, representa el
cambio evidente o transformación que afecta al S y al O
al relacionarse (11); iv. un cambio oculto o profundo que
actúa como desorganizador de su sistema de relaciones
donde se da la co-ausencia conjuntiva de designaciones
(00)
La ontología de la LT queda definida por el patrón
autónomo universal compuesto por dos tríadas: una
superficial, representando lo aparente de la realidad, y
161
otra profunda que habla del constituyente oculto de
cualquier hecho real. Dados dos atributos se generan
binariamente los nichos mediante una combinación de
los mismos en dos elementos que son a la vez opuestos
y complementarios.
Los aspectos estáticos (S y O) están en relación con los
aspectos dinámicos del sistema (relación evidente y
relación profunda): la co-presencia de los atributos
básicos liga transformando (organiza) en forma evidente
ambos elementos estáticos; y la co-ausencia de los
atributos básicos que destruye la ligadura entre los
elementos estáticos.
Como corolario LT no sigue ninguno de los principios de
la lógica clásica: en LT la identidad es compuesta; es
posible que una cosa sea y no sea al mismo tiempo y
bajo el mismo respecto porque S y O tienen contexturas
distintas; y hay cosas que tienen al mismo tiempo una
propiedad y otra como las transformaciones. Establece
así una causalidad cíclica frente a la causalidad lineal de
la lógica tradicional bivaluada.
El interjuego lógico entre volición y cognición se hace
evidente en la realidad cotidiana mediante la vida, el
conocimiento y el lenguaje que son las únicas
manifestaciones subjetivas genuinas.
5.0. CONCLUSIÓN
El contraste entre las propuestas de Günther y de
Salatino cumple al menos con el requisito i. la teoría
reemplazante debe tener un mayor poder explicativo que
la teoría reemplazada, para ser un cambio revolucionario
dentro de la lógica ya que aporta a la explicación de la
subjetividad la relación entre volición y cognición
mediante la cuarta negación.
162
Además cumple con el requisito ii. el lenguaje teórico de
la teoría reemplazante no debe ser homologable con el
lenguaje teórico de la teoría reemplazada, ya que el
lenguaje teórico de LT agrega la cuarta contextura, el
nabla, la relación profunda, que es un concepto que no
está en LPC güntheriana.
De manera que podemos hablar en este sentido de una
revolución dentro de la lógica. Pero nuestra concepción
de revolución está asociada a la filosofía evolucionista
de la ciencia como Marcum la plantea. De manera que
tal revolución es vista aquí como una evolución, una
adaptación de la LT a la resolución de un problema que
la LPC no podía solucionar, a saber el de explicar
satisfactoriamente los aspectos cognitivos de la
subjetividad.
No queremos dejar cerrado el camino a futuras
investigaciones que arrojen luz sobre el impacto del
aporte de la lógica policontextural y especialmente de la
transcursiva en la comunidad científica internacional.
Simplemente sentar alguna base para dimensionar los
aportes de Günther y Salatino a la lógica de la vida y del
sentido, tan relevante para la filosofía hoy como lo fue en
tiempos de Aristóteles.
El recorrido histórico que hace Salatino (2017) en la obra
que citamos en este trabajo del concepto de lógica
desde Aristóteles, pasando por Hegel y Peirce, hasta
Günther y su propia propuesta transcursiva, constituye
en sí mismo un aporte esclarecedor sobre los problemas
filosóficos que involucra la reflexión sobre el rol del
sujeto en la lógica y el rol de la lógica en la explicación
de la realidad subjetiva.
Esperamos haber mostrado al menos inicialmente la
evolución acaecida al interior de la lógica transclásica
163
policontextural desde la propuesta de Günther aún
incompleta y la propuesta de Salatino que permitió
completar el valioso aporte de Günther a la lógica.
164
REFERENCIAS
Marcum, J. A., (2013). Wither Kuhn's historical
philosophy of science? An evolutionary turn. En: P.
Hanna, ed. An anthology of philosophical studies.
Athens: Athens Institute for Education and Research, pp.
99-109.
Marcum, J. (2015a). Thomas Kuhn's Revolutions. A
Historical and an Evolutionary Philosophy of Science?.
London: Bloomsbury.
Marcum, J. (2015b). The Evolving Notion and Role of
Kunh's Incommensurability Thesis. En: W. J. &. B. A.
Devlin, ed. Kuhn's Structure of Scientific Revolutions - 50
Years On. Dordrecht: Springer, pp. 115-134.
Marcum, J., (2017). Evolutionary Philosophy of Science:
A New Image of Science and Stance towards General
Philosophy of Science. Philosophies, 2(25), pp. 1-11.
Martinez, S. F. y Olivé, L. (comp), (1997). Epistemología
evolucionista. México - Buenos Aires - Barcelona:
Paidós.
Popper, K. R.; Campbell, D. T.; et. al., (1987).
Evolutionary Epistemology, Rationality and the Sociology
of Knowledge. Tercera ed. (1993) La Salle, Illinois: Open
Court.
Salatino, D., (2017). Tratado de Lógica Transcursiva.
Origen evolutivo del sentido en la realidad subjetiva.
Mendoza, Autoedición. ISBN: 978-987-42-5099-5,
disponible: https://archive.org/search.php?query=dante%20salatino
***
165
166
167
168
8. REFUNCIONALIZACIÓN DEL CONCEPTO
SISTEMA DE ECUACIONES LINEALES
Crecimiento de poblaciones y cadenas de Markov
Ana María Narvaez37; Juan Norberto Ferraro38
Resumen: En los contenidos mínimos de Álgebra Lineal y
Geometría Analítica aparecen aplicaciones de Sistemas de
Ecuaciones Lineales (SEL) al crecimiento de población y a
cadenas de Markov que por problemas de tiempo no se dan en
las clases. El propósito de este trabajo es rediseñar el contenido
clásico SEL como un modelo de estado lineal dinámico y
discreto que permita explicar la solución de una ecuación en
diferencia lineal. De este modo adquieren relevancia los
modelos mencionados para ser incorporados a los contenidos
curriculares. La metodología empleada ha consistido en trabajar
en el contexto de aplicación y retroalimentar el contexto de
educación, teniendo presente que el conocimiento científico
reconoce cuatro contextos: producción, justificación, educación y
aplicación. En el contexto de aplicación se discuten las
aplicaciones del conocimiento científico, su utilidad, su beneficio
o perjuicio para la comunidad o la especie humana; este
contexto es el más relacionado con la Ingeniería. En esta
contribución se han obtenido un conjunto de competencias que
pueden desarrollar los estudiantes dentro del marco de los
Estándares de Segunda Generación para la Acreditación de las
Carreras de Ingeniería, propuestos por el CONFEDI,
transformando las prácticas docentes y, en consecuencia poder
migrar a una planificación de SEL que muestre un modelo de
aprendizaje centrado en competencias en lugar de uno centrado
en contenidos.
Palabras claves: sistema de ecuaciones lineales (SEL),
modelo de estado discreto lineal, competencias
37
Grupo IEMI, F. R. Mendoza, UTN. Departamento de Ciencias Básicas de
Facultad de Ingeniería, UNCuyo
38
Departamento de Electrónica y Electromecánica de UTN, FRM.
Departamento de Ciencias Básicas de Facultad de Ingeniería, UNCuyo
169
1.0. INTRODUCCIÓN
En los contenidos mínimos de Álgebra y Geometría
Analítica vigentes en las carreras de Ingeniería de la
UTN aparecen aplicaciones de sistemas de ecuaciones
lineales (SEL) al crecimiento de poblaciones y a cadenas
de Markov, que por razones de tiempo, en la UTN,
Facultad Regional Mendoza, no se dan en las clases
que son presenciales, habiéndose utilizado un criterio de
utilidad para tomar esta decisión en los años
precedentes.
El objetivo propuesto en este trabajo es refuncionalizar
el concepto SEL como modelo matemático de sistemas
de estado dinámico lineales y discretos.
Por definición, el estado de un sistema dinámico es el
conjunto más pequeño de variables (llamadas variables
de estado) tal que, el conocimiento de esas variables en
un determinado tiempo t0 junto con el conocimiento de
los valores de la señal de entrada para los instantes t
t0, permite determinar el comportamiento y evolución del
sistema para cualquier instante t t0.
Las variables de estado se agrupan en el llamado vector
de estado y el espacio n-dimensional que determinan los
posibles valores de esas variables, se denomina espacio
de estado.
Se entiende a un sistema de estado discreto como un
operador matemático que transforma una señal de
entrada o de excitación (input), representada mediante
x(n) o xn que es un vector genérico del espacio ndimensional, en otra de salida (output), representada
mediante y(n) o yn que también es un vector n
dimensional, por medio de un grupo finito y fijo de leyes
y funciones; en símbolos,
yn = T xn , o bien yn = T(xn)
170
donde T es un operador algebraico o mapeo o
transformación lineal sobre el espacio n-dimensional,
conocido como procesamiento en las aplicaciones,
realizado por el sistema sobre xn para producir yn. Un
sistema de estado lineal es aquel que satisface el
principio de superposición; es decir, la respuesta del
sistema a una suma ponderada de señales es igual a la
correspondiente suma ponderada de las salidas a cada
una de las señales de entrada. O bien, un sistema es
lineal si para dos entradas cualesquiera xn y x’n y dos
constantes arbitrarias a y b, se cumple para la
transformación
lineal
matemática
T,
que
la
transformación (o transformada) de la combinación lineal
axn + bx’n es igual a la combinación lineal de las
transformaciones, es decir
T(a xn + b x’n) = a T(xn) + b T(x’n)
2.0. METODOLOGÍA PARA LA ENSEÑANZA
Según se indicó anteriormente, se deberían dar las
mencionadas aplicaciones utilizando como objeto
matemático SEL. En consecuencia, surgen las
siguientes preguntas: ¿cómo vincular SEL con estas
aplicaciones?; en otras palabras, ¿cómo explicar el uso
del modelo matemático SEL para obtener resultados en
las cadenas de Markov o en crecimiento de
poblaciones?
Una explicación posible es entender que los modelos
reales de cadenas de Markov y crecimiento poblacional
se pueden representar algebraicamente de la forma
xk+1 = A xk, con k = 1, 2, …,n, …;
(1)
donde xk+1 es un vector de estado correspondiente al
periodo k+1, xk es el vector del periodo anterior k y A es
la matriz de datos o de información del proceso que
transforma el vector del estado k en el vector del estado
171
k+1, A es la matriz de nxn que representa matricialmente
al operador matemático T. Es decir,
xk+1 = T(xk) es equivalente a escribir xk+1 = Axk
La matriz A de transición de estados o, simplemente
matriz de transición, contiene toda la información sobre
movimientos libres del sistema descrito por (1). Estos
movimientos libres se refieren a los cambios de estado o
evolución del estado del sistema en ausencia de
entrada.
La expresión (1), matemáticamente es una ecuación
vectorial en el espacio n-dimensional, en diferencias o
recursiva y, lineal.
Usando el álgebra matricial en (1), se escribe
I xk+1 - A xk = 0,
donde I es la matriz identidad de nxn.
Si y sólo si cuando k aumenta indefinidamente (k → ) y
se observa que xk+1 = xk = u, entonces se puede escribir
Iu – Au = 0
O bien
(I – A) u = 0
(2)
que es la expresión matricial de un SEL homogéneo,
siendo I-A la matriz de coeficientes del SEL, u el vector
de estado de variables o incógnitas del SEL y O el vector
cero de términos independientes del SEL.
3.0. CADENAS DE MARKOV
Consideremos un sistema que está, en cualquier
momento dado, en uno y sólo un estado entre una
cantidad finita de ellos. Por ejemplo, el clima en cierta
región puede ser lluvioso o despejado; vivimos en un
172
área urbana, suburbana o rural; compramos un celular
marca A, B o cualquier otra; etc. Al pasar el tiempo, el
sistema puede pasar de un estado a otro y,
supondremos que el estado del sistema es observado a
periodos fijos (cada día, cada semana, cada año, etc.).
En muchas aplicaciones se conoce el estado actual del
sistema y se desea predecir el que tendrá en el siguiente
periodo de observación o en cualquier otro.
Definición Una cadena de Markov o proceso de Markov
es aquel en el que la probabilidad de que el sistema esté
en un estado particular en un periodo de observación
dado, depende solamente de su estado en el periodo de
observación anterior.
Supongamos que el sistema tiene n estados posibles.
Para cada i = 1, 2,…, n y cada j = 1, 2,…, n, sea aij la
probabilidad de que si el sistema se encuentra en el
estado j en cierto periodo de observación, estará en el
estado i en el siguiente; aij recibe el nombre de
probabilidad de transición. Además, aij se aplica a cada
periodo; es decir, no cambia con el tiempo. Como aij es
una probabilidad, se cumple que
0 aij 1 para todo i,j
Además, si el sistema está en el estado j en cierto
periodo de observación, entonces debe estar en alguno
de los n estados (también puede permanecer en el
estado j) en el siguiente, o sea a1j + a2j + …+ anj = 1.
Es conveniente disponer las probabilidades de transición
como elementos de la matriz A = (aij) de nxn, llamada
matriz de transición, o matriz de Markov o estocástica (el
término estocástico quiere decir “conjetura respecto a”) o
de probabilidades.
173
Ejemplo Supongamos que una consultoría dedicada al
estudio de mercados está analizando la preferencia de
los consumidores respecto de dulces cada semana. Se
ha determinado que 50% de las personas que
actualmente utilizan la marca A, la comprarán de nuevo
la próxima semana, 25% cambiará a la marca B y 25%
preferirá alguna otra. De las personas que ahora
consuman la maca B, 30% la comprará otra vez la
próxima semana, 60% optará por la marca A y 10%
cambiará a otra. De los consumidores que actualmente
compran otra marca, 30% adquirirá de nuevo otra marca
la próxima semana, 40% escogerá la marca A y 30%
cambiará a la B. Los estados A, B y C representan las
marcas A, B y otra marca, respectivamente. Las
probabilidades de que una persona que consume la
marca A cambie a la marca B es 0,25; la probabilidad de
que una persona que consume la marca B la siga
comprando es 0,3, y así sucesivamente. Por lo tanto, la
matriz de transición de esta cadena de Markov es
0,50 0,60 0,40
A = 0,25 0,30 0,30
0,25 0,10 0,30
Ahora se utilizará esta matriz de transición para
determinar la probabilidad de que el sistema se
encuentre en cualquiera de los n estados en el futuro.
Sea xk = [x1k x2k x3k]T , k > 0 el vector de estado del
proceso de Markov en el periodo de observación k,
donde xjk es la probabilidad de que el sistema se
encuentre en el estado j en el periodo de observación k.
Al vector x0, que denota el vector de estado en el periodo
0, se le llama vector de estado inicial.
174
Se puede demostrar que si A es la matriz de transición
de un proceso de Markov, el vector de estado xk+1, en el
(k+1)-ésimo
periodo
de
observación,
puede
determinarse a partir del vector de estado xk en el késimo periodo de observación como xk+1 = A xk.
Utilizando la expresión (2), (I – A) u = 0, queda el
siguiente SEL homogéneo
0,50 − 0,60 − 0,40
− 0,25 0,70 − 0,30
− 0,25 − 0,10 0,70
u1
u =
2
u 3
0
0
0
Resolviendo por el método de eliminación gaussiana, se
obtiene el siguiente conjunto solución
2,3t
3
S = 1,25t IR
t
Es importante tener en cuenta que si bien el modelo
matemático tiene la solución trivial más infinitas
soluciones no triviales para cada valor real de t, el
modelo real de una cadena de Markov tiene solución
única que verifica la restricción que la suma de las
componentes del vector de probabilidad es igual a 1, es
decir
2,3t + 1,25t + t = 1, de donde t = 0,2198
Por lo tanto, u = [0,5055 0, 2747 0,2198]T
Interpretación: cuando n crece, los vectores de estado
tienden al vector fijo u = [0,5055 0, 2747 0,2198]T. Esto
quiere decir que, a largo plazo, la marca A tendrá el
control de cerca del 51% del mercado, la marca B
175
dominará aproximadamente el 27% del mercado y las
otras marcas tendrán la preferencia del 22% restante.
Observación Otra explicación consiste en ver la forma
recursiva de la ecuación en diferencia
xk+1 = A xk = A (A xk-1) = A2 xk-1 = A2(A xk)=A3xk =....= Ak+1 x0
xk+1 = Ak+1 x0
Es decir, el vector del estado k+1 sólo depende de la
potencia k+1 de la matriz de transición A y del vector de
estado inicial x0.
Si en el ejemplo, x0 = [0,2 0,2 0,6]T,
x1 = A x0 = [0,4600 0,2900 0,2500]T
x2 = A x1 = A2 x0 = [0,5040 0,2770 0,2190]T
x3 = A x2 = A3 x0 = [0,5058 0,2748 0,2194]T
x4 = A x3 = A4 x0 = [0,5055 0,2747 0,2198]T
x5 = A x4 = A5 x0 = [0,5055 0,2747 0,2198]T
En consecuencia, cuando n crece los vectores tienden al
vector fijo u = [0,5055 0,2747 0,2198]T, idéntico al
calculado mediante el SEL.
4.0. CRECIMIENTO DE POBLACIONES
Un modelo de crecimiento de población, se estudia a lo
largo del tiempo. En el caso que nos ocupa se cuenta la
población en ciertos puntos discretos del tiempo, tal
como cada año, o cada segundo, etc. Aquí no es
importante la naturaleza de estos individuos, personas,
bacterias, etc., sino su número. Un ejemplo clásico son
las poblaciones de competencia.
Ejemplo Sea el caso de dos poblaciones, de zorros y
gallinas, que compiten una contra otra. Los números de
estas poblaciones se denotan mediante zi y gi que
176
corresponden al conteo de zorros y gallinas,
respectivamente. Suponga que las gallinas, sin zorros
que las molesten, tienen una tasa de natalidad que
excede a la tasa de mortalidad, supongamos que gi+1 =
1,2 gi. Sin gallinas para alimentarse, sería de esperar
que los zorros comenzarán a extinguirse, sea por
ejemplo zi+1= 0,6 zi.
El modelo cuando los zorros tienen éxito devorando
cierto número de gallinas en cada periodo de tiempo,
suponiendo que esto permitiera un incremento en la
población de zorros proporcional al número de gallinas
devoradas, por ejemplo, sea zi+1= 0,6 zi+ 0,5 gi. La
población de gallinas comenzará a decrecer debido a los
zorros, de modo que se toma gi+1 = 1,2 gi - kzi , donde k
representa la tasa de gallinas devoradas por zorros; k
permanece como variable para estudiar el efecto de
diferentes tasas de mortalidad. Suponiendo que existe
un número inicial de 1.000 gallinas y de 100 zorros, se
obtiene el modelo zi+1 = 0,6 zi + 0,5 gi y gi+1 = -kzi + 1,2 gi
para i = 1,2,…. con zi = 100 y gi = 1.000.
Expresando matricialmente el comportamiento de estas
poblaciones conforme pasa el tiempo, se tiene
z i+1
=
gi+1
xi+1 =
0,6 0,5
0,6 0,5 z i
− k 1,2 g , donde A = − k 1,2 y
i
100
.
1000
x1 =
El modelo es
xi+1 = A xi para i = 1,2,…
y se resuelve mediante un SEL como en el caso de la
cadena de Markov. Cabe destacar que en esta situación
no se tienen las condiciones adicionales de la suma de
177
componentes del vector igual a 1. De modo que el
modelo puede dar dos tipos de comportamiento
totalmente diferentes, para diferentes valores de k.
Otra explicación posible es mediante el estudio de las
potencias de la matriz A como en las cadenas de
Markov, puesto que xi+1 = Ai x1 para i = 0,1,2,…
5.0. LOS CONTEXTOS
Actualmente se reconoce que el conocimiento científico
se despliega en cuatro contextos: descubrimiento,
justificación, educación y aplicación. Tradicionalmente
estos contextos aparecían desligados unos de otros. El
contexto de descubrimiento, lugar donde se gestan las
teorías e hipótesis científicas, estaba reservado al
ámbito de la psicología, pero sin mucha esperanzas de
lograr un tratamiento metódico del mismo, con lo cual
aparecía más cercano a lo que Kant denominaba
‘imaginación’. El contexto de justificación, en cambio, era
el propio de la ciencia. Las diferentes escuelas
epistemológicas y metodológicas nos proponían
métodos alternativos para lograr la validación del
conocimiento científico, al tiempo que se desvinculaba
de la cuestión del descubrimiento. Por ejemplo, el
influyente Círculo de Viena con sus métodos inductivos y
el falsacionismo popperiano con su método hipotético
hipotético-deductivo renegaban ambos de la pertinencia
del contexto de descubrimiento para la ciencia. El
contexto de educación, por su parte, estaba reservado a
los pedagogos y no tenía mayor importancia para los
científicos. Simplemente se trataba de la transmisión del
conocimiento en las instituciones.
En otras palabras, se consideraba que el contexto de
educación se ocupaba sólo de reproducir lo que los
178
científicos habían logrado, pero sin tener incumbencia en
los otros contextos.
Finalmente, el contexto de aplicación, que ocupaba un
lugar secundario para el pensamiento clásico y que se
transformara en una instancia importante de reflexión
para la ciencia a partir del advenimiento de la segunda
revolución industrial, también había sido descuidado en
sus relaciones con los otros contextos mencionados. Sin
embargo, varias reflexiones contemporáneas han
superado esa visión sesgada del conocimiento científico
y han puesto de relieve la interdependencia entre los
contextos señalados. Así se ha tematizado la influencia
del contexto de aplicación en el quehacer científico por
un proceso de feedback.
La tecnología lejos de actuar desligada de la ciencia o
de ser un corolario de ella, impone rumbos de trabajo al
científico, a la vez que modifica el conjunto de
instrumentos con los cuales aquél obtiene su visión del
mundo. Pero no sólo esto, el contexto de aplicación
también influye en la educación, a través de las nuevas
tecnologías y obliga a cambios radicales y permanentes
de todo el sistema educativo con los nuevos contenidos
que es necesario incluir. El contexto de educación ha
sido analizado y se ha descubierto la influencia que tiene
no sólo en la formación sino también en la práctica de la
ciencia. En este sentido, Thomas Kuhn fue uno de los
autores que ha puesto de manifiesto que la educación
que recibe el científico es trascendental para el análisis
de la ciencia, a través de la noción de paradigma o de
matriz disciplinar. Lejos de ser un elemento que el
científico olvida en su práctica, la educación es esencial
para entender la permanencia en el tiempo de las
matrices disciplinares. Junto con lo anterior, el contexto
de educación se ve fuertemente influido por los otros:
179
qué sea relevante para la educación de los futuros
científicos, determinará las líneas directrices del sistema
educativo en todos sus niveles. El contexto de
descubrimiento, por su parte, ya no es considerado
ajeno a la ciencia. Cómo se llega a las teorías científicas
ha sido estudiado por las corrientes epistemológicas
contemporáneas post kuhneanas, demostrando así que
los otros contextos de la ciencia son en gran medida
interdependientes y, además, que la ciencia está
íntimamente relacionada con otras expresiones
humanas, como son la cultura, la religión y la política.
6.0. FUNDAMENTACIÓN
Como se indicó anteriormente, el conocimiento científico
reconoce cuatro contextos, los cuales están
interrelacionados. Esta nueva forma de entender el
conocimiento científico nos señala la necesidad de
articular los contextos y de que la enseñanza no puede
ser considera escindida de los otros contextos. Dicha
situación impacta de lleno en la enseñanza de las
carreras de ingeniería a través de la idea de
‘competencias’, la cual plantea la necesidad de lograr
una formación donde el futuro ingeniero pueda tender
puentes con la práctica profesional. Las competencias
surgieron frente a la necesidad de lograr que el saber
enseñado en la currícula de las diferentes carreras sirva
efectivamente en la práctica profesional. Así entendida,
para obtener una competencia bastaba lograr una
adecuada integración entre universidad y sector
productivo. Sin embargo, actualmente se da dentro del
ámbito profesional y productivo una obsolescencia
acelerada de los saberes. Por ello, las competencias ya
no son un mero ‘saber hacer’. En este sentido, cobran
especial relevancia las competencias formativas también
en el ámbito profesional porque son estas las que
180
brindan esquemas conceptuales amplios que permiten la
adaptación y el auto- aprendizaje.
6.1. COMPETENCIAS
El concepto de competencias ligado a la profesión se
observa claramente en el trabajo de Zablaza Beraza,
titulado “El trabajo por competencias en la enseñanza
universitaria”, en donde se sostiene que el enfoque del
trabajo didáctico por competencias supone una forma
distinta de afrontar la enseñanza universitaria. Estamos
acostumbrados a pensar la formación universitaria en
términos de listas de materias, de modo que cualquier
cosa que altere esa lógica parece un «salto en el vacío»
muy difícil de visualizar. Sin embargo, las competencias
no son otra cosa que un planteamiento de la formación
que refuerza la orientación hacia la práctica, tomando
como punto de referencia el perfil profesional. Frente a
una orientación basada en el conocimiento (concebido
en abstracto, como un conjunto amplio e indeterminado
de saberes disciplinarios situados en un espacio
científico generalmente borroso), las competencias
constituyen una aproximación más pragmática al
ejercicio profesional (concebido como el conjunto de
acciones o funciones que desarrollan un buen
profesional en el ejercicio de su actuación profesional).
La formación basada en competencias ha llegado a
constituir un amplio y extenso movimiento (competencybased education and training) que se ha proyectado
sobre numerosos campos profesionales: educación,
medicina, enfermería, danza, ingeniería,
abogacía,
administración de empresas,
etc. Dado que la
formación, sobre todo cuando va ligada al ámbito
profesional, está muy relacionada a la acreditación, el
enfoque de las competencias ha acabado bifurcándose
181
en dos grandes ramas: la
mencionada formación
basada en competencias, y la evaluación de las
competencias poseídas. (Zablaza Beraza, 2016)
De acuerdo con Lay (Lay, 2017), las competencias
específicas que se pueden desarrollar en el alumno
trabajando de la manera mencionada son:
Modelar y resolver los problemas de aplicación de SEL
mencionados utilizando los métodos de eliminación
gaussiana y de Gauss-Jordan.
Modelar en forma de ecuación vectorial problemas de
crecimiento de población y cadenas de Markov y
resolver e interpretar sus soluciones en términos de los
vectores que las generan.
Relacionar el concepto de conjunto generador con los
SEL.
7.0. CONCLUSIONES
Es necesario trabajar en la formación docente en el
enfoque por competencias en carreras de Ingeniería
para potenciar el desarrollo de competencias en los
estudiantes, futuros ingenieros, al menos, porque como
docentes podemos plantear más hipótesis explicativas.
A tal efecto, primero se debería tener en claro qué
competencias
deseamos
desarrollar
para,
posteriormente, redactar documentos sobre el contenido
que se desarrollará con los estudiantes.
Los modelos científicos en general, y, los modelos
matemáticos para crecimiento de poblaciones y cadenas
de Markov, que permiten predecir, tienen una base que
facilita la construcción de recursos didácticos.
Y la doble condición empírico-matemática del modelo lo
habilita para establecer cómo se puede aprender de
ellos cuando se usan para representar la realidad.
182
Los contextos del conocimiento científico están
íntimamente relacionados; sin embargo, es útil
distinguirlos y analizarlos. El contexto de aplicación es
sumamente relevante para la Ingeniería, porque es en
este contexto donde trabaja principalmente.
Es importante reconocer el lenguaje compacto que
ofrecen las matrices en las ciencias en general y en las
ciencias ingenieriles en particular. Asimismo, las
distintas representaciones matriciales de operadores
enriquecen la enseñanza mediante los cambios de
registros de representación semiótica
7.1. FUTURAS LÍNEAS DE TRABAJO
Los temas de crecimiento de poblaciones y cadenas de
Markov se pueden retomar en el tema Eigensistemas, al
finalizar el programa de la asignatura pues, la
convergencia o estabilidad de los modelos a un valor de
estado de equilibrio, depende del radio espectral (el
valor absoluto del mayor eigenvalor de la matriz de
transición).
183
REFERENCIAS
Berman, C., Narvaez, A. (2015) El Lenguaje de la
Matemática. Modelos para la enseñanza. En
Conceptos y lenguajes en ciencia y tecnología. Vol.3,
Cuadrado et al. [ed], Univ. de Valparaíso, pp. 223234.
Calderón, J. (2014) Cómo evaluar el contexto de
aplicación. En Educación en ciencias empíricas en
Facultades de Ingeniería. Buenos Aires: UTN. FRM.
pp.84-92.
CONFEDI, Propuesta de estándares de segunda
generación para la acreditación de carreras de
ingeniería en la República Argentina: ‘Libro rojo del
CONFEDI’,
mayo
2018.Disponible
en:
https://www.ing.unlp.edu.ar/sitio/institucional/difusion/
archivos/LIBRO_ROJO_DE_CONFEDI_estandares_d
e_segunda_generacion.pdf
Duval, R. (1995) Semiosis y pensamiento humano.
Registros semióticos y aprendizajes intelectuales.
Universidad del Valle. Instituto de Educación y
Pedagogía, Grupo de Educación Matemática. Peter
Lang S. A. Editions scientifiques européennes.
Kolman, B.; Hill, D. (2006). Álgebra Lineal. Pearson
Prentice Hall, Mexico.
Lay, David (2017) Álgebra Lineal con enfoque por
competencias. Argentina: Pearson.
Zabalza Beraza, M.A, (2016) La formación por
competencias: entre la formación Integral y la
empleabilidad”,
Disponible
en:
http://tecnologiaedu.us.es/formaytrabajo/Documentos/
lin6zab.pdf
***
184
9. LA REVOLUCIÓN MULTIVARIANTE DE LA
INVESTIGACIÓN
Ricardo Césari39, Matilde César40
Resumen: La incorporación de la segunda generación
del análisis multivariante involucró variaciones
fundamentales en la metodología de la investigación
que desafiaron los enfoques estadísticos tradicionales
para la evaluación de validez. Como resultado de estos
cambios de enfoque las asociaciones empíricas al
análisis de sistemas de relaciones entre construcciones
teóricas; ahora se necesita hipótesis explícitas sobre la
medición experimental y la teoría. La aplicación de la
Lógica
Transcursiva
(LT);
clarifica
y
ayuda
conceptualizar la interrelación que existe entre la teoría
y la empiria en todo el proceso de investigación. El
método multivariado PLS-Path Modeling, proporciona un
excelente medio para la interacción Teoría - Datos.
Cuanto mejor especificada es la teoría, más dominante
es el papel que desempeña. Una teoría bien
especificada puede reflejarse en un gran sistema de
relaciones de variables.
Palabras claves: Lógica Transcursiva, modelos PLS, Path
Model
CeReCoN (Centro Regional de Investigación y Desarrollo en Computación y
Neuroingeniería) – ILICo (Área de Infometría, Lexicometría e Ingeniería del
Conocimiento).
UTN,
Facultad
Regional
Mendoza-Argentina.
[email protected]
40
CeReCoN (Centro Regional de Investigación y Desarrollo en Computación y
Neuroingeniería) – ILICo (Área de Infometría, Lexicometría e Ingeniería del
Conocimiento).
UTN,
Facultad
Regional
Mendoza-Argentina.
[email protected]
39
185
1.0. MODELO RELACIONAL TEORÍA – EMPIRIA
A principios de la década de los 80’, la aplicación de los
nuevos métodos, como un cambio de enfoque al análisis
simultáneo de multivarianza fueron considerados como
la época donde se desarrolló una "revolución
multivariante", sin embargo por estos días se han
convertido en un factor decisivo en la investigación
académica.[Ringle, Sarstedt, Mitchell & Gudergan, 2018;
Myers, Massy & Greyser, 1980, (del texto de Fornell].
Actualmente, son palpables las contribuciones en las
ciencias humanas como consecuencia de la aplicación
de estos métodos multivariados de segunda generación,
tales como las ecuaciones estructurales (SEM) y la
regresión polinómica (PLS). La rápida difusión de estos,
se debió al hecho de que los métodos estadísticos son
"en gran medida empíricos”; y en contraste a un enfoque
de "datos, luego conceptualización", la investigación
metodológica
sobre
modelos
de
ecuaciones
estructurales de mínimos cuadrados parciales (PLSSEM) y el PLS Path Modeling (PLS-PM), permiten un
enfoque más basado en la teoría que en la
experimentación, [Khan et al., 2019; Henseler, Hubona &
Ray, 2016; Elkaseh, Wong & Fung, 2016].
De acuerdo a Haenlein & Kaplan, (2004), en
metodología de investigación, una teoría puede contener
tres diferentes tipos de nociones: (a) conceptos teóricos
que "son propiedades o atributos abstractos e
inobservables"; (b) conceptos empíricos que "pueden ser
comprobados mediante observaciones directas"; y (c)
conceptos derivados, que son no observables, pero "a
diferencia de los conceptos teóricos, deben vincularse
directamente a los conceptos empíricos ",[Bagozzi &
Philipps, 1982, p.465; Belkhamza & Hubona, 2018]. En
este sentido y teniendo en cuenta los conceptos
186
precedentes, en una teoría la verdad es una cualidad de
las proposiciones que concuerdan con la realidad.
En segundo término, la verdad como coherencia,
sostiene que hay conjuntos de axiomas o enunciados
que son verdaderos simultáneamente. Asimismo, un
enunciado es verdadero cuando se deduce del conjunto
de axiomas o es compatible con un conjunto coherente
de enunciados. Tomando en cuenta como ejemplo, el
teorema de Pitágoras este es verdadero, ya que es una
deducción de los axiomas de geometría euclidiana
(completitud), y además no está en contradicción con
esos axiomas (consistencia). Empero, si el teorema de
Pitágoras estuviese referido a otro conjunto de axiomas
podría ser falso o carecer de significado. Sin embargo,
cuando este criterio de verdad se aplica en ámbitos no
formales, se considera que el conjunto de enunciados
son todos verdaderos.
En la teoría pragmática, la verdad de un enunciado se ve
en la práctica, porque funciona o tiene consecuencias
útiles [Cortés Morató et al.: 1996].
Estos autores definen también, tres posibles tipos de
relaciones que vinculan a estos conceptos: “las hipótesis
no observacionales”, “las definiciones teóricas” y “las
reglas de correspondencia”, representado en la figura N
º 1..
187
Fig. Nº 1. Relaciones entre conceptos contenidos en una
teoría (Elaboración propia).
En la expresión de Fornell, “la esencia de la metodología
de investigación” es avanzar en la comprensión de estas
relaciones, combinando el conocimiento teórico con el
conocimiento
empírico.
Sin
teoría,
cualquier
manipulación estadística de datos tiene un valor muy
limitado; y sin datos, la teoría sigue siendo imaginaria y
abstracta”, [Fornell C. 1981].
2.0. TEORÍA CIENTÍFICA DE HEMPEL
De acuerdo a Hempel, (1952) “La teoría científica podría
compararse con una red espacial compleja; sus
conceptos están representados por nudos, mientras que
los hilos que conectan estos últimos corresponden, en
parte, a las definiciones y en parte, a las hipótesis
fundamentales y derivadas incluidas en la teoría. Todo el
188
sistema flota, sobre el plano de observación y está
anclado a él por reglas de interpretación. En virtud de
esas conexiones interpretativas, la red puede funcionar
como una teoría científica; a partir de ciertos datos de
observación, podemos ascender, a través de una
cadena interpretativa, a algún punto de la red teórica, de
allí proceder, a través de definiciones e hipótesis, a otros
puntos, desde el cual otra cadena interpretativa permite
un descenso al plano de observación”. (fig. Nº 2)
Fig. Nº 2. Red espacial de Hempel representando la
teoría científica (Elaboración propia).
189
3.0. REPRESENTACIÓN DE LA TEORÍA CIENTÍFICA
DE HEMPEL CON EL CONSTRUCTO MULTIVARIADO
La característica fundamental de este tipo de análisis,
especialmente los modelos PLS - Path Modeling, radica
en una interacción flexible entre la teoría y los datos; ya
que al combinar conocimiento teórico y empírico,
mediante los errores de modelado en la observación
(errores de medición); incorporan variables teóricas (no
observables, abstractas) y empíricas (observables,
manifiestas), en el análisis, confrontando la teoría con
datos (prueba de hipótesis) y la combinación de teoría y
datos (desarrollo de teorías) [Hair, Risher, Sarstedt &
Ringle, 2019; Hair, Matthews, Matthews & Sarstedt,
2017; Hair, Hult, Ringle & Sarstedt, 2016; Henseler,
Hubona & Ray, 2016].
Aquí, los conceptos y las relaciones definidas sobre el
contenido de una teoría en el proceso de Investigación,
se ponen en evidencia con la aplicación de los métodos
descritos. Los conceptos teóricos son propiedades o
atributos abstractos, no observables que alcanzan su
significado a través de conexiones formales con los
conceptos empíricos, así como a través de su definición,
[Bagozzi, 1979; Bagozzi & Fornell 1982; Belkhamza &
Hubona, 2018]. Tanto los conceptos derivados, como los
teóricos, comparten una particular característica, son
inobservables. Pero éstos se diferencian, en que los
conceptos
derivados
deben
estar
vinculados
directamente con los conceptos empíricos, y
generalmente están en niveles de abstracción más
bajos. Algunos autores, enuncian que los conceptos
empíricos se refieren a "propiedades o relaciones cuya
presencia o ausencia en un caso dado puede ser
determinada
subjetivamente,
bajo
circunstancias
apropiadas, por observación directa" [Hempel, 1965: 22].
190
Para otros autores, estos mismos conceptos pueden
incluir datos experimentales o pueden medirse a través
de instrumentos objetivos. En cualquier caso, el
investigador registra los fenómenos observables y puede
asignar codificación numérica o simbólica [Belkhamza &
Hubona, 2018; Belkhamza & Hubona, 2018],
representado en la figura 3.
En cuanto a las relaciones entre conceptos, se puede
inferir las siguientes correlaciones: La primera, es la
hipótesis no observacional. Esta, vincula los conceptos
teóricos con otros conceptos teóricos (indicado con las
líneas continuas). En los que sinónimos comunes para
las hipótesis no observacionales, incluyen leyes teóricas,
leyes hipotéticas, proposiciones no observacionales,
axiomas, postulados, relaciones causales, o a veces,
simplemente,
hipótesis.
En
segundo
término,
corresponde a la definición teórica. En ella se conecta un
concepto teórico con un concepto derivado (indicado por
líneas continuas con rupturas de 2 puntos y raya entre
ellos). El tercer tipo de relación, las reglas de
correspondencia. Se encuentran en cualquier teoría y
están ilustradas por líneas discontinuas. Expresan una
relación entre conceptos no observables (teóricos o
derivados) y conceptos empíricos. La cuarta y última
relación, la definición empírica, indicada por las líneas
curvas en bucle. Da sentido a un concepto empírico al
equipararlo con eventos físicos reales en el mundo de
las experiencias, [Bagozzi & Fornell 1982].
191
Fig. Nº 3. Representación de la teoría científica de
Hempel con un constructo multivariado. [adaptado de
Bagozzi & Phillips. Fuente: Elaboración propia.]
Los constructos en el modelo multivariante, se visualizan
mediante un Path Diagram, que relaciona los conceptos
teóricos y empíricos, [Becker, et al 2012; Wong, 2016;
Hair, Hult, Ringle, Sarstedt & Thiele, 2017] representado,
en la Figura 4.
Fig. Nº 4. Esquema Simple del modelo PLS-Path
Modeling
192
En este modelo, la teoría en Investigación es una forma
de abstracción. Las variables teóricas en la estructura de
los modelos son por definición conceptos abstractos
(teóricos). No son directamente observables, se
denominan “latentes” y no son aplicables con
observaciones directas. Una variable teórica, representa
un fenómeno no observacional abstracto, que obtiene su
significado conceptual a través de su relación con otras
variables manifiestas (observables) en la red en que
forman parte. Fornell manifiesta que “el significado de
una variable teórica se deriva de sus vínculos con las
observaciones en el mundo empírico”. Por lo tanto, el
significado empírico es proporcionado por la observación
y los datos; y el significado conceptual está dado por un
sistema de hipótesis teóricas proporcionadas por el
investigador. Estas consideraciones empíricas y
conceptuales, se combinan prácticamente, dependiendo
del método multivariado particular. [Fornell C.,1981].
En cualquier proceso de Investigación, generalmente la
variable teórica, no puede expresarse en función de sus
indicadores empíricos sin incluir un error. De esta forma,
constituyen las llamadas variables indeterminadas y la
elección depende de la confianza del analista en los
datos frente a la confianza en la teoría. Si el analista
tiene una gran confianza en la teoría, pero considera que
los datos están llenos de “ruido aleatorio”, serían
preferibles las variables determinadas con corrección
posterior (debido a un error de medición aleatorio). Esto
movería el análisis "lejos" de los datos y "más cerca" de
la teoría. Si, por el contrario, se cree más fe en la
precisión de los datos, y el analista quisiera permanecer
"más cerca" del nivel empírico, entonces las variables
definidas serían más apropiadas, [Bagozzi & Fornell,
1982; Belkhamza & Hubona, 2018].
193
Por lo tanto, la elección entre los tipos de variables
teóricas tiene implicaciones para la ponderación del
conocimiento empírico vs. teórico. Este vínculo entre
variables teóricas y empíricas se denomina relaciones
epistémicas o reglas de correspondencia.
Hay tres tipos de relaciones epistémicas; los enfoques
con indicadores reflexivos, formativos y simétricos: (1)
Reflexivos no observables: sugieren que uno o más
latentes subyacentes (teóricos) "causan" los indicadores
observables. Los enfoques reflexivos asumen que la
variable latente es la “realidad teórica” y las variables
medidas observables, son una muestra de posibles
indicadores de esa realidad. (2) Formativos no
observables: son considerados como efectos, más que
como causas. En consecuencia, las puntas de flecha en
el Path Diagram del modelo, están dirigidas hacia la
variable teórica (latente). Los modelos formativos
asumen que los indicadores observados son la “realidad”
y que son todas dimensiones de la variable latente.
Estos son típicos de los diseños experimentales en los
que el investigador manipula una o más de las variables
empíricas y las no observables teóricas que son
dependientes de estas variables empíricas, [Bagozzi,
1977); Furrer, Tjemkes & Henseler, 2015; Pek & Wu,
2018]. (3) Simétricos, considerados como posibles
combinaciones de indicadores formativos y reflexivos.
Este tipo de relación epistémica es particularmente útil
cuando es difícil distinguir entre causa y efecto. Caso en
el cual, algunas construcciones pueden ser reflexivas y
otras formativas, dentro de una sola construcción, siendo
posible utilizar ambos tipos de indicadores. La adopción
de este tipo de análisis multivariante cambia el enfoque
de las asociaciones empíricas a un análisis de sistemas
de relaciones entre constructos teóricos; necesita
hipótesis explícitas sobre la medición y la teoría,
194
simultáneamente; y desafía los enfoques estadísticos
tradicionales para la evaluación de validez.
Por lo expresado, se puede decir que los datos siempre
se interpretan en el contexto de algún marco de
referencia teórico y dependiendo de éste; un solo
fenómeno puede tener varias interpretaciones. Este tipo
de análisis multivariante, ofrece una herramienta que
obliga al analista a lograr que el marco teórico de
referencia sea más explícito y proporciona una mejor
interacción entre la teoría y los datos [Bagozzi, 1984].
Se debe tener en cuenta que, para cualquier modelo, el
constructo en PLS- PM se debe especificar en el modo
de medición de los indicadores (es decir, Modo A,
asociada a construcciones reflexivas, Modo B, a
construcciones formativas, o Modo C, a construcciones
mixtas o simétricas (formativas-reflexivas); que
generalmente utilizan algunos de estos tipos de modelos
de variables latentes descritos, y que se puedan
encontrar en la investigación empírica. [Henseler et al.,
2009; Tenenhaus et al., 2005; Ringle et al. 2012; Hair,
Hult, Ringle & Sarstedt, 2016; Hair, Hult, Ringle, Sarstedt
& Thiele, 2017; Henseler, Hubona & Ray, 2016; Wong,
2016]..
4.0. PATRÓN RELACIONAL (PAU) DE LA LÓGICA
TRANSCURSIVA
Las aplicación de este método (LT), permite
interrelacionar los conocimientos teóricos (abstractos) y
el empírico (superficial), mediante el uso del modelo del
Patrón Relacional PAU Hemiciclo, precisado por Salatino
(2018). En el gráfico de Figura Nº 5, se pueden marcar
los “recorridos” en ambas regiones: Teórica (profunda) Empírica (superficial). Estos se justifican por las
circulaciones de acuerdo a la combinación entre
195
constructos reflexivos y formativos; así como a sus
relaciones, con los indicadores observables en cada
caso (explicativos y no explicativos) a saber.
Fig. Nº 5. Patrón Relacional Hemiciclo PAU Hemiciclo de
LT. [Fuente: Salatino D., 2018]
A continuación, se describe una síntesis de sus
aplicaciones, basada en diferentes autores:
a. Formativo-Reflexivo: en este modelo el
constructo exógeno formativo es un concepto medido de
varios indicadores observables exógenos (explicativos),
y de constructos específicos endógenos reflexivos.
Siendo su objetivo el de representar la parte común de
varios índices que pretenden medir causa y efecto,
utilizando diferentes indicadores explicativos formativos
y a explicar reflexivos. (ver Fig. Nº 6)
b. Reflexivo-Formativo: es un modelo cuya
variable latente de 1º orden (LV1) es exógena y tiene
indicadores reflexivos; mientras que la variable latente
196
de 2º orden (VL2) es endógena, con indicadores
formativos. Ambos están relacionados formando la
construcción reflexiva exógena y formativa endógena.
Cabe aclarar que el constructo exógeno tiene un efecto
directo en la construcción endógena. Por lo tanto, la
variable latente VL2 sirve tanto como antecedente y
consecuente, sobre estudios de causa-efecto.
c. Formativo-Formativo:
los
constructos
formativos constituyen un concepto general abstracto de
los
indicadores
observables,
considerándose
construcciones de orden inferior. Su aplicación, es útil
para estructurar una construcción compleja; que
contenga numerosos indicadores en varios subconstructos latentes de tipo formativos.[Jarvis et al.,
2003; Petter et al.,2007; Lu&Wu, 2018; Delcourt,
Gremler, van Riel & van Birgelen, 2016] (ver Fig. Nº 7).
Fig. Nº 6. Constructo Formativo – Reflexivo. [Fuente:
Elaboración propia]
197
d. Reflectivo-Reflexivo:
los
constructos
se
obtienen solamente de manera reflexiva; distinguiéndose
unos de otros, pero están correlacionados. Apropiado
cuando el objetivo del estudio es encontrar una conexión
de conceptos teóricos relacionados, pero de distintas
mediciones observables (indicadores explicativos y no
explicativos), [Lohmoller, 1989; Wong, 2016; Schuberth,
Henseler & Dijkstra, 2018].
Fig. Nº 7. Constructo Formativo – Formativo. [Fuente:
Elaboración propia]
La diferencia entre los indicadores formativos y
reflexivos está relacionada con la conceptualización de
dos métodos de análisis de datos: el análisis factorial
común AF, y el análisis de componentes principales
ACP. En el AF las variables latentes se llaman “factores”
y están asociados a las variables observadas en forma
reflexiva. Sin embargo, en el ACP, estas mismas
198
variables se llaman “componentes”, y se forman como
relaciones lineales de las variables observadas. En este
método este componente puede ser representado con
indicadores formativos. A su vez, ambos constructos
pueden ser: “independientes” (o explicativos) y
“dependientes” (o no explicativos). [Hulland, 1999; Ziyae
& Heydari, 2016; Hulland, Baumgartner & Smith, 2018
Por otro lado, si una variable latente o indicador no es
influenciado por otra variable o no depende de ninguna
otra en el modelo, se considera una “variable exógena”.
Actuando estas como variables independientes.
Asimismo si la variable es influida o depende de otras
variables o indicadores, se la conoce como “variable
endógena”. Éstas pueden afectar a otras variables
endógenas, en este caso, pueden actuar como variables
independientes o como dependientes. En estas
dependencias se debe incluir un término residual o error
de medición, dado que pocas veces tienen una validez y
confiabilidad ideales y esta variable contempla las
“variaciones inexplicables” [Salatino D., 2018].
5.0. CONCLUSIONES
La aplicación de PLS-PM requiere que la teoría
sustantiva se pueda explicar en un esquema de flechas
(Path Diagram) y en este contexto, identificar
simultáneamente segmentos abstractos (teóricos)
relacionando los mismos con variables manifiestas
(observables). En cuanto a los vínculos entre las
variables teóricas y empíricas, el analista es libre de
especificar relaciones formativas, reflexivas, o simétricas
de las diversas relaciones epistémicas en el modelo a
construir.
El PLS-PM, proporciona un medio poderoso para la
interacción teoría-datos. Cuanto mejor especificada está
199
la teoría, más dominante es el papel que desempeña.
Una teoría bien especificada puede reflejarse en un gran
sistema de relaciones de variables. La adopción de esta
segunda generación de análisis multivariante implica
cambios en el enfoque de asociaciones empíricas, al de
análisis de sistemas de relaciones entre constructos
teóricos; ahora se necesita conjuntamente, hipótesis
explícitas sobre la medición experimental y la teoría y
desafía los enfoques estadísticos tradicionales para la
evaluación de validez de los análisis. Los nuevos
métodos multivariados de segunda generación, como el
PLS-Path Modeling, permiten, a través de la elección del
modelo y la especificación del modo, determinar la
relación de un conocimiento previo relativo a los datos
en el análisis; es la especificación de cómo el modelo
teórico se relaciona con el modelo de medición.
Si consideramos la especificación del modelo con
indicadores formativos versus indicadores reflexivos,
muy común en los métodos multivariados; en estos
casos, se supone que la teoría implica ciertas
observaciones y las observaciones implican algo sobre
la teoría. Algunos modelos permiten tanto indicadores
formativos como reflexivos dentro de la misma estructura
y en consecuencia, la naturaleza de la interacción entre
la teoría y los datos puede darse concretamente y variar
dentro de un solo modelo.
La Lógica Transcursiva (LT), aplicada en los modelos
multivariados, nos hace ver esto de una manera
transparente y sencilla, ayudándonos a conceptualizar la
interrelación entre la teoría y la empiria en el proceso de
una investigación. Cuando el conocimiento teórico se
tiene bien desarrollado, es posible dejar que este
conocimiento tenga una mayor influencia en el análisis y
cuando alguien tiene menos explicación de la teoría, es
posible dejar que los datos (los conceptos empíricos)
200
jueguen el papel más importante en el análisis, pero
siempre interrelacionados; esto lo permiten los modelos
propuestos.
201
REFERENCIAS
Anderson, P. F. (1983). Marketing, scientific progress, and
scientific method. Journal of marketing, 47(4), 18-31..
Bagozzi, R. P. (1977). Structural equation models in
experimental research. Journal of Marketing
Research, 14(2), 209-226.
Bagozzi, R. P., & Fornell, C. (1982). Theoretical concepts,
measurements, and meaning. A second generation of
multivariate analysis, 2(2), 5-23.
Bagozzi, R. P., & Phillips, L. W. (1982). Representing and
testing organizational theories: A holistic
construal. Administrative science quarterly, 459-489.
Becker, J. M., Klein, K., & Wetzels, M. (2012). Hierarchical
latent variable models in PLS-SEM: guidelines for using
reflective-formative type models. Long Range
Planning, 45(5-6), 359-394.
Belkhamza, Z., & Hubona, G. S. (2018). Nomological
Networks , en IS Research.
Bollen, K. A., & Diamantopoulos, A. (2017). Notes on
measurement theory for causal-formative indicators: A
reply to Hardin.
Feyerabend, P. (1975). Against Method. Atlantic
Highlands.
Flake, J. K., Pek, J., & Hehman, E. (2017). Construct
validation in social and personality research: Current
practice and recommendations. Social Psychological
and Personality Science, 8(4), 370-378.
Fornell, C., & Larcker, D. F. (1981). Evaluating structural
equation models with unobservable variables and
measurement error. Journal of marketing
research, 18(1), 39-50.
Haenlein, M., & Kaplan, A. M. (2004). A beginner's guide
to partial least squares analysis. Understanding
statistics, 3(4), 283-297..
Hair, J. F., Hult, G. T. M., Ringle, C. M., Sarstedt, M., &
Thiele, K. O. (2017). Mirror, mirror on the wall: a
comparative evaluation of composite-based structural
202
equation modeling methods. Journal of the Academy of
Marketing Science, 45(5), 616-632.
Hanson, N. R. (1958). Patterns of discovery: An inquiry
into the conceptual foundations of science (Vol. 251).
CUP Archive.
Henseler, J., Hubona, G., & Ray, P. A. (2016). Using PLS
path modeling in new technology research: updated
guidelines. Industrial management & data
systems, 116(1), 2-20.
Henseler, J., Ringle, C. M., & Sinkovics, R. R. (2009). The
use of partial least squares path modeling in
international marketing. En New challenges to
international marketing (pp. 277-319). Emerald Group
Publishing Limited.
Jarvis, C. B., MacKenzie, S. B., & Podsakoff, P. M. (2003).
A critical review of construct indicators and
measurement model misspecification in marketing and
consumer research. Journal of consumer
research, 30(2), 199-218.
Kuhn, T. S. (1962). The structure of scientific
revolutions. Chicago, The University of Chicago Press.
Laudan, L. (1956). On the Impossibility of Crucial Falsifying
Experiment: Grunbaum on. The IXuhemian Argument',"
Philosophy of Science, 32, 295-299..
Law, K. S., & Wong, C. S. (1999). Multidimensional
constructs M structural equation analysis: An illustration
using the job perception and job satisfaction
constructs. Journal of Management, 25(2), 143-160..
Lohmöller, J. B. (1983). Path models with latent variables
and partial least squares (PLS) estimation (Doctoral
dissertation, Verlag nicht ermittelbar)..
Peter, J. P., & Olson, J. C. (1983). Is science
marketing?. Journal of Marketing, 47(4), 111-125..
Preckel, F., & Brunner, M. (2017). Nomological
Nets. Encyclopedia of Personality and Individual
Differences, 1-4.
203
Rindskopf, D., & Rose, T. (1988). Some theory and
applications of confirmatory second-order factor
analysis. Multivariate behavioral research, 23(1), 51-67.
Ringle, C. M., Sarstedt, M., & Straub, D. (2012). A critical
look at the use of PLS-SEM. En MIS Quarterly
(MISQ), 36(1).
Ringle, C. M., Wende, S., & Will, A. (2005). SmartPLS 2.0
(beta).
Salatino, D. R. (2018). patrón relacional PAU de Lógica
Transcursiva que caracterizan una teoría o sistema de
conceptos. Adenda de LT a un modelo de
investigación, UNC-UTN
Tenenhaus, M., Vinzi, V. E., Chatelin, Y. M., & Lauro, C.
(2005). PLS path modeling. Computational statistics &
data analysis, 48(1), 159-205.
VanMeter, D. S., & Asher, H. B. (1973). Causal analysis:
its promise for policy studies. Policy Studies
Journal, 2(2), 103.
Venkatraman, N. (1989). Strategic orientation of business
enterprises: The construct, dimensionality, and
measurement. Management science, 35(8), 942-962.
Venkatraman, N., & Ramanujam, V. (1986). Measurement
of business performance in strategy research: A
comparison of approaches. Academy of management
review, 11(4), 801-814.
Wong, K. K. K. (2016). Mediation analysis, categorical
moderation analysis, and higher-order constructs
modeling in Partial Least Squares Structural Equation
Modeling (PLS-SEM): A B2B Example using
SmartPLS. Marketing Bulletin, 26.
Zaltman, G., LeMasters, K., & Heffring, M. (1982). Theory
construction in marketing: Some thoughts on thinking.
John Wiley & Sons.
Ziyae, B., & Heydari, R. (2016). Investigating the Effect of
Self-Leadership on Entrepreneur’s Innovation in Small
and Medium-Sized Enterprises. International Journal of
204
Humanities and Cultural Studies (IJHCS) ISSN 23565926, 2(4), 1169-1182.
205
206
10. BASES NEUROBIOLÓGICAS DE UNA NUEVA
INTELIGENCIA ARTIFICIAL
Programa “Psiquis”: Primer proyecto
Dante Roberto Salatino41
RESUMEN
La finalidad de este trabajo fue desarrollar el primer proyecto
dentro de un programa integral, de un emulador de los
procesos cognitivos que, según una teoría elaborada
anteriormente (Salatino, 2013), se justifican en el
comportamiento oscilatorio autónomo de varias regiones del
SNC, como fundamento general del funcionamiento del
aparato psíquico. Siguiendo los lineamientos de la Lógica
Transcursiva se programó una plataforma Arduino
(microcontrolador), con lo que se logró emular los rudimentos
de un “sistema perceptivo”, acoplando las entradas según un
supuesto “nivel de consciencia” o grado de atención. Mediante
el reconocimiento de colores, a través del sensor TCS230,
logramos identificar los estímulos, clasificarlos y asignar las
conclusiones a un sistema real específico, según las pautas
fijadas de antemano para esta emulación del aparato psíquico.
De esta forma se espera sentar las bases de una Inteligencia
Artificial (IA) con firme sustento neurobiológico.
Palabras clave: Inteligencia Artificial, Estructura y función
psíquicas, Neurobiología, Lógica Transcursiva, Plataforma
Arduino.
1.0. INTRODUCCIÓN
El creciente avance tecnológico se plantea dar solución
a problemas de la vida diaria como lo hace el cerebro
humano. Con esto último hay un problema:
desconocemos casi todo respecto a su funcionamiento.
41
UNCuyo
207
Por lo tanto, siendo rigurosos, debemos decir que la IA
no existe, solo la natural, que dicho sea de paso,
tampoco sabemos qué es.
Cuando hablamos de IA, lo hacemos de manera
ambigua ya que nos estamos refiriendo, al mismo
tiempo, a varios instrumentos informáticos. Así, se
incluyen aquí las Redes Neuronales, la Computación
Evolutiva, los Sistemas Difusos, por solo mencionar
algunos. Por otro lado, la mayoría de sus virtudes se
sustentan
en
varias
teorías
que
transitan
frecuentemente, en ámbitos marginales de la ciencia,
como son la teoría del caos, la teoría de los fractales, la
teoría del autómata celular, entre otras.
En la actualidad, como para agregar una pequeña cuota
a la confusión general, la IA está ligada estrechamente a
lo que se conoce como “Neurocomputación”, cuyo
sustento lo dan las redes neuronales artificiales.
De acuerdo a lo que nos dicen las fichas técnicas de los
computadores actuales, son capaces de realizar
centenares de millones de operaciones en coma flotante
por segundo, y esto se supone, les permite por ejemplo:
“entender” el significado de las formas visuales o de
distinguir entre distintas clases de objetos.
Algo debe quedar claro desde el principio, las
computadoras actuales, por más rápidas y minúsculas
que sean, siguen siendo tan “bobas” como la que
pergeñara Turing en 1936. En definitiva son autómatas
finitos que sirven para tomar decisiones binarias, y nada
más.
La “Neurocomputación” trajo aparejado otro término
conflictivo, por ambiguo: “Neurociencia”. Esta rama del
conocimiento, proclama dedicarse al estudio del sistema
nervioso. Aunque, debemos tener en cuenta algo que es
208
importante. Están las Neurociencias no Conductuales,
que son las que verdaderamente estudian al sistema
nervioso, entre las que se encuentran: la Neurobiología,
la Neurología, la Neurofisiología, la Neuroanatomía, y la
Neurofarmacología; todas del ámbito de la medicina.
Pero, por otro lado, están las Neurociencias
Conductuales (que son a las que se refieren el 99% de
los “trabajos científicos” que se publican hoy en día), y
se jactan de su dedicación a analizar la relación del
sistema nervioso (que casi nunca tienen en cuenta) con
la conducta, los procesos cognitivos y el aprendizaje.
Entre ellas podemos encontrar: la Psicobiología, la
Psicofisiología, la Psicofarmacología, la Neurociencia
Cognitiva, y la Neuropsicología; ninguna del ámbito
médico, sino del de las Ciencias Cognitivas que tienen
como metáfora fundante (y ahora verdad objetiva), que
el cerebro funciona como una computadora (algo
absolutamente falso), y de esta manera pretenden
“descifrar” las “funciones cognitivas”, estudiando los
“sistemas de procesamiento de información” (algo que
existe en un computador, pero no en el cerebro), como
también, decir algo sobre la atención, la memoria, la
percepción, la praxis, el lenguaje y el pensamiento.
Forma parte de sus objetivos, el estudio de la emoción
(aquellas sensaciones subjetivas relacionadas con la
experiencia humana), que por supuesto, nada tienen que
ver con un “chip” electrónico. Mucho menos aún, sus
aportes pueden ser significativos (en cuanto a su
fundamentos), en el vasto campo de la conducta
humana.
Para hacernos una idea somera de qué estamos
hablando, veamos en el esquema de la izquierda de la
Figura 1, la propuesta teórica que hace Levelt
(destacado Psicolingüista holandés) en las postrimerías
del S.XX sobre cómo sería el modelo de producción del
209
lenguaje humano (que se asume funciona en el cerebro)
siguiendo estrictamente la teoría de Noam Chomsky,
uno de los fundadores de las ciencias cognitivas.
Figura 1 MODELOS PSICOLINGÜÍSTICOS
Lo que Levelt describe en el esquema no es otra cosa
que lo que se conoce, desde los primeros tiempos de la
computación, como “parser” (o analizador, en español).
Es decir, un analizador sintáctico, idéntico al que tiene
nuestra computadora o nuestro teléfono celular y que les
permite a estos adminículos, descifrar (deletrear) qué es
lo que estamos ingresando por el teclado.
En cambio, en el esquema de la derecha, de la misma
figura, ofrecido como modelo de producción del lenguaje
humano por la Lógica Transcursiva, se encuentra una
posible fundamentación del mecanismo natural.
En resumen, en la actualidad neurocientífica se asiste a
una franca dicotomía. Por un lado, los impresionantes
210
logros científicos y tecnológicos que arrojan una
apabullante cantidad de información; y por otro lado, la
escasez de teorías que puedan integrar toda esa
información y conducir a conocimientos que expliquen
adecuadamente los nuevos hallazgos.
Desde una visión personal de lo anterior, creo que la
explicación de tal disparidad se basa en un problema
metodológico. Toda disciplina dentro de la ciencia está
definida por su objeto de estudio, y por disponer de un
método idóneo que posibilite su análisis.
La Neurociencia, hoy, hecha mano al método científico
tradicional con base experimental (el aplicado, por
ejemplo, en las ciencias naturales), pero desde una
perspectiva cognitivista, lo cual puede ser causa de
inconvenientes. Veamos el porqué.
La ciencia tradicional es muy estricta a la hora de
considerar la ‘objetividad’ de los datos registrados, y
mucho más aún, cuando se trata del análisis de los
resultados. Los métodos hipotético-deductivo y empírico,
aquellos aplicados tanto a las ciencias formales como a
las naturales, son los que cuentan con el beneplácito de
la comunidad científica; y en todo responden, en cada
una de las áreas investigadas, a una sola teoría que está
en absoluta vigencia, por lo menos, hasta que no
aparezca otra teoría que la refute.
Las Ciencias Cognitivas, en cambio, se manejan de una
manera muy distinta. Por solo dar un ejemplo que está
muy ligado a la Neurociencia: en Psicolingüística están
en vigencia, no menos de 25 teorías distintas (Salatino,
2012) para tratar de explicar, cómo se origina, se
adquiere, se comprende y se produce el lenguaje
humano.
211
Como es simple de apreciar, difícilmente se pueda lograr
una compatibilización entre lo teórico y lo práctico,
cuando existe una relación entre ellos de 25:1. Por lo
tanto, siguiendo en esta línea, podemos identificar, al
menos, dos inconvenientes como para que la
Neurociencia pueda ser considerada una ciencia por
derecho propio, a saber: 1) no hay un objeto de estudio
claramente definido, y 2) el método no se condice con
una única teoría, ergo, no cuenta con un método válido.
La cuestión, entonces, está en cambiar de paradigma.
Para que lo anterior sea posible, necesariamente y en
primer lugar, se debe abandonar definitivamente la vieja
metáfora computacional de la mente (en todas sus
variantes: duras y blandas), base lógico-filosófica de las
Ciencias Cognitivas.
Esta metáfora, transformada en la actualidad en una
verdad objetiva férreamente establecida, fue la que
posibilitó una aplicación ad hoc del método científico
tradicional a estas ciencias, que surgieron desde una
nueva y particular versión de los aspectos psicológicos
del ser humano, al equiparar el funcionamiento de la
mente del hombre a una computadora, con lo cual, esa
‘caja negra’ que es el cerebro, supuestamente, deja de
serlo, ya que se acepta que la mente funciona allí.
Surge, de esta manera, la posibilidad de abordar,
fácilmente, el sistema nervioso central y por tanto la
mente desde rutinas lógico-matemáticas, e inclusive,
poder simular, mediante simples circuitos electrónicos,
alguna
que
otra
manifestación
evidente
del
comportamiento o de la conducta, propiciados por este
órgano noble.
Así planteadas las cosas, surgieron una gran cantidad
de técnicas que permitían, en teoría, explorar la fuente
212
misma de las manifestaciones cognitivas, aquellas que
radican, supuestamente, en el cerebro, y que nos
distinguen del resto de los animales no humanos.
La desventaja que presenta el planteo anterior radica en
la disociación cada vez más notoria, en la Neurociencia
así concebida, entre los mecanismos descritos y su base
biológica, o más precisamente, neurobiológica y
neurofisiológica. Lo anterior no fue óbice para que se
utilizara, a veces de manera no adecuada, toda la
parafernalia de exámenes cerebrales, en su mayoría
funcionales (con la imprecisión que ello implica), con el
fin de fundamentar la explicación de los ‘fenómenos
cognitivos’, en ‘datos’ surgidos desde el funcionamiento
cerebral normal o patológico.
Muchos de los avances logrados en el campo de la
Neurobiología y de la Neurología, permiten plantear una
relación concreta y analizable entre los fenómenos
psíquicos y su base anatómica y fisiológica.
Pero, para que los hallazgos anteriores tengan validez
es imprescindible cambiar el concepto de “mente”, por el
de “psiquis”. En esto consiste, fundamentalmente, el
cambio de paradigma sugerido, y es lo que trataremos
de bosquejar, en sus comienzos, en este trabajo.
El Programa “PSIQUIS” es un emprendimiento teóricopráctico para ser desarrollado en el mediano-largo plazo.
Su propósito es diseñar un emulador de los procesos
cognitivos
que,
según
una
teoría
elaborada
anteriormente (Salatino, 2013), se justifican en el
comportamiento oscilatorio autónomo de varias regiones
del SNC, como fundamento general del funcionamiento
del “aparato psíquico”. Estos procesos serían los
responsables de nuestro comportamiento y nuestra
conducta; y, en definitiva, de nuestra subjetividad. De
213
esta forma se espera sentar las bases de una
Inteligencia Artificial con firmes bases neurobiológicas.
El Programa consta de cuatro Proyectos:
1er Proyecto: dedicado al desarrollo del Sistema
Perceptivo, encargado de ordenar los patrones
percibidos y seleccionar respuestas, mediante el
marcapasos neurológico formado por los
Ganglios Basales, el Tálamo y la Corteza
Cerebral Asociativa.
• 2do Proyecto: Generación de la Estructura
Psíquica (Memoria Estructural) y de la unificación
perceptiva, a cargo del marcapasos neurológico
Tálamocortical.
• 3er Proyecto: Elaboración de la Memoria
Operativa, coordinación de las respuestas
motoras, aprendizaje de nuevas rutinas, y
formación de hábitos. Controlada por el
marcapasos neurológico olivo-cerebeloso.
• 4to Proyecto: Creación de la Cuña Temporal
dedicada a la administración del tiempo interno,
actualización de la Memoria Transitoria y del
“Control Predictivo” de nuestro cerebro. Su
regulación y modulación las opera el
“Marcapasos Psíquico”, formado por el
acoplamiento de los tres marcapasos anteriores.
Este Proyecto es el verdadero artífice de nuestra
actividad cognitiva, al funcionalizar la estructura
psíquica; esto es, transformar las ideas en
pensamientos.
En este trabajo desarrollaremos el primer Proyecto.
•
214
2.0. MATERIAL Y MÉTODO
La plataforma del microcontrolador Arduino® UNO R3
ATMEGA328p da fundamento a la emulación de los
distintos “procesos cognitivos básicos” que lleva a cabo,
en su funcionamiento normal, nuestra psiquis. Este
microcontrolador de bajo costo es una elección estándar
para desarrollar muchos proyectos científicos. Dispone
de una capacidad de almacenaje de 32 KB para
programas, lo cual es suficiente, ya que su programación
es muy escueta. El procesador corre a 16 MHz, y su set
estándar de entradas/salidas, cuenta con: 14 pins
digitales, 6 entradas analógicas, y un puerto serie de
comunicación, que se conecta mediante un cable USB a
la PC (Figura 2) (Grimmett, 2014, p. 9, Atmel, 2009).
Figura 2 Arduino® UNO R3 ATMEGA328p
En cuanto al método, se emularán las entradas y las
salidas del aparato psíquico siguiendo los principios
básicos de la Lógica Transcursiva (LT) (Salatino, 2017).
3.0. APARATO PSÍQUICO
La estructura propuesta del aparato psíquico se sustenta
en la anatomía, fisiología y neurobiología del sistema
nervioso central (SNC).
Como se puede apreciar en el esquema de la Figura 3,
son seis las estructuras grises del SNC, que están
215
involucradas en la constitución y manejo del aparato
psíquico. Estas estructuras son:
• 1) Tálamo
• 2) Ganglios basales
• 3) Sistema límbico
• 4) Corteza cerebral (asociativa y sensoriomotora)
• 5) Cerebelo
• 6) Oliva inferior
Los estímulos que llegan, tanto del medio social (sistema
sociocultural), como del entorno inmediato (sistema
psico-interno) e inclusive desde el propio organismo
(sistema bio-externo), ingresan por las vías sensitivas al
tálamo (conjunto de núcleos grises, ubicado en el centro
de la masa cerebral). Desde allí, son derivados a los
ganglios basales (grupo de núcleos grises que se hallan
en la base del cerebro) que se encargan de la
“identificación” de las entradas.
Figura 3 FUNDAMENTOS NEUROBIOLÓGICOS DEL
APARATO PSÍQUICO
(Tomada de Salatino & Tersoglio, 2019)
216
Esta “identificación” no hace otra cosa que determinar de
qué sistema real proviene el estímulo, para que nuestra
psiquis pueda elaborar la respuesta adecuada. La
información de entrada queda momentáneamente,
retenida en la “memoria transitoria”, que se ubica en la
corteza cerebral. Si los estímulos vienen desde el
sistema bio-externo (de nuestro cuerpo) su solución
tiene prioridad absoluta, y son los mismos ganglios
basales quienes promueven la respuesta inmediata
mediante una serie de movimientos innatos, de carácter
inconsciente.
En cambio, si los estímulos provienen desde el entorno
inmediato (sistema psico-interno) o desde el entorno
social (sistema sociocultural), los ganglios basales, en
conjunto con el sistema límbico (dispuesto alrededor del
cuerpo calloso, la estructura que comunica ambos
hemisferios), le dan el marco motivacional a la entrada.
Aunque los ganglios basales son los que determinan si
los nuevos estímulos son “conocidos” o no. Cuando ya
“conocemos” la respuesta, es decir, cuando ya hemos
hecho un “habito” de responder de la misma forma ante
iguales requerimientos, los ganglios basales “consultan”
a la corteza cerebral asociativa (corteza prefrontal,
ubicada delante de la corteza sensoriomotora), para ver
si ya hay algún antecedente de dicha situación. Si existe
dicho antecedente, dan la orden que se ejecute la
respuesta motora conocida. Esta “respuesta anticipada”
está “registrada” en la corteza del cerebelo (parte
posterior del encéfalo), en la que conocemos como
“memoria operativa”.
Algo muy distinto ocurre, cuando el desafío que plantean
los estímulos entrantes no tiene antecedentes. Por
primera vez tiene participación la consciencia, puesto
que se trata de una situación nueva, de la que nos tiene
217
que quedar un aprendizaje, alguna experiencia. En esta
ocasión, los estímulos recibidos por el tálamo son
derivados a los ganglios basales para su “identificación”
y su “clasificación” (proceso que abordaremos en detalle,
más adelante), una vez que se comprueba que no hay
antecedentes de la situación presente, el sistema límbico
le asigna una importante carga emotiva, por ser
desconocida. Producida la “clasificación” de los
estímulos, que le indica al aparato psíquico la relevancia
que tienen los aspectos que determinan el hecho real
percibido, según su orden de precedencia, son enviados
al circuito tálamocortical (tálamo-corteza asociativa).
Este circuito se encarga, en primer lugar, de
“contextualizar” temporalmente el acto perceptivo. Este
minucioso proceso es llevado a cabo en el tálamo; por
los núcleos específicos que contemplan lo que llega
desde fuera de la psiquis, y los núcleos no específicos
que hacen lo propio con lo que surge desde el sujeto. En
segundo lugar, el circuito tálamocortical, deja constancia
de haber aprendido, y, por ende, de haber logrado un
determinado conocimiento y una comprensión de la
nueva realidad, la que pasará a formar parte de la
“estructura psíquica” del sujeto. Esta “estructura” será
alojada en la “memoria estructural”, aquella que,
residiendo en la corteza cerebral, es indeleble y de
carácter inconsciente.
Cuando se confirmó el registro de un hecho nuevo, los
ganglios basales, el sistema límbico, el cerebelo y la
oliva inferior (núcleo gris perteneciente al bulbo
raquídeo, que se ubica en el extremo superior de la
médula espinal), compaginan la respuesta adaptativa
correspondiente, con el debido tenor emotivo. Esta
respuesta o estos “movimientos aprendidos”, al menos
en las primeras veces que se producen, son de carácter
consciente. Luego, si se repiten a menudo y en forma
218
exitosa, pasarán
inconsciente.
a
formar
parte
de
un
hábito
4.0. SISTEMA PERCEPTIVO
La evidencia filogenética nos muestra un SNC con una
arquitectura neuroanatómica tripartita relacionada con la
organización del comportamiento (movimiento y otras
conductas) (Salatino, 2012) (Figura 4). Según la
antigüedad evolutiva, y solo con fines didácticos,
podemos identificar cada una de estas partes como: 1)
cerebro neuronal en donde la estructura psíquica
depende solo del funcionamiento de las neuronas y las
estructuras anatómicas que le dan soporte son el tallo
cerebral (formado por el cerebro medio, la protuberancia
y el bulbo raquídeo) y los ganglios basales; 2) cerebro
visceral que asienta en el sistema límbico que son las
redes neuronales de donde surgen los afectos que
estructuran la psiquis; y 3) cerebro cortical cuyo sustento
es la corteza cerebral en su grado de máximo desarrollo
lo cual permite al ser humano, y solo a él, lograr una
estructura psíquica (arreglos neuronales) que posibilitan
el manejo del fenómeno cognitivo como manifestación
suprema de su subjetividad.
219
Figura 4 SISTEMA DOPAMINÉRGICO
La dopamina es un neurotransmisor que está presente
en distintas áreas del SNC y es muy importante en la
regulación de la actividad motora del organismo, es
decir, en la proyección de la respuesta. Pero, además,
en la cognición, en la motivación, en la producción de
leche, en el sueño, en el humor, en la atención y en el
aprendizaje. En otras palabras, es la dopamina la que
pone en funciones los distintos estratos de la estructura
psíquica descritos de acuerdo con el sistema real
(Salatino, 2009) que se deba atender; o sea, el biológico
o bio-externo (cerebro neuronal), el psíquico o psicointerno (cerebro visceral), o el sociocultural (cerebro
cortical).
La dopamina es quien define, como acabamos de ver,
qué estructuras forman parte de cada uno de estos
‘cerebros evolutivos’, pero el mecanismo íntimo que
permite la selección de uno de ellos según al sistema
real al que haya que prestar atención es de naturaleza
temporal, ya que cada uno tiene como guía un
“marcapasos neurológico”. Los tres marcapasos tienen
una frecuencia de base que los identifica, así: el
marcapasos de los ganglios basales (percepción) oscila
aproximadamente a 80 Hz, el marcapasos tálamocortical
(estructura psíquica) a 40 Hz y el marcapasos
olivocerebeloso (movimiento) aproximadamente entre 10
y 20 Hz. El ion Ca++ es el principal determinante de estas
bandas de frecuencia (Figura 5).
220
Figura 5 FUNCIONAMIENTO DEL APARATO PSÍQUICO
Referencias: S: sujeto – O: objeto – V: transformación
aparente - : transformación no aparente – SBE: sistema bioexterno – SPI: sistema psico-interno – SSC: sistema
sociocultural
El PAU estructural (Salatino, 2017) de la Figura 5,
muestra la diferenciación del cambio original que
estructura, habitualmente, la psiquis. Se aprecia la
relación existente entre un cambio somático que genera
una urgencia vital (p.e. hambre en un bebe). Un cambio
externo que aporta para corregir el desequilibrio anterior
(aporte materno). Por último, un cambio representado
por una acción específica como respuesta al cambio
externo (succión). Esta secuencia se da a nivel evidente
o superficial. A nivel profundo, existe parte del cambio
original (cambio interno) que cumple la función de ligar y
funcionalizar a los demás cambios. Es ese cambio, el
que no se hace evidente salvo por sus inconfundibles
manifestaciones. Las que aparentemente, posibilitan la
alternancia entre los otros cambios o del predominio de
uno sobre otro, hasta lograr la motivación que promueve
la satisfacción del deseo original. La realidad subjetiva,
entonces, surge de la conjunción de un deseo y una
221
necesidad que deben ser satisfechos. En el esquema se
han superpuesto los distintos sistemas reales que
“administran” los cambios descritos, con sus respectivas
activaciones neurobiológicas (los distintos rangos de
frecuencia que ya hemos mencionado) y los distintos
procesos que los conectan. Algo similar ocurre cuando el
estímulo viene desde el entorno, como lo muestra la
secuencia siguiente (Figura 6).
Figura 6 COMPORTAMIENTO Y CONDUCTA
Como se puede apreciar en el esquema anterior, el
comportamiento es algo estrictamente individual e
inconsciente (profundo) y de fuerte arraigo biológico,
mientras que la conducta se pone de manifiesto,
exclusivamente, cuando nos relacionamos con los
demás en estado de plena consciencia.
5.0. NIVELES DE CONSCIENCIA
Antes de proponer un posible modelo de identificación y
clasificación de los estímulos por parte del sistema
perceptivo, debemos definir cómo se administran, en
nuestro emulador, los niveles de consciencia, que
representan el grado de atención que se le presta a lo
percibido. Como el único “lenguaje” que maneja este
emulador del aparato psíquico, como ya veremos, está
constituido por los colores de la luz, el nivel de
consciencia estará dado por el grado de “luminosidad”
del “color o hecho real” que se perciba (Figura 7).
222
Figura 7 NIVELES DE CONSCIENCIA SEGÚN LA LT
En el lado derecho de la Figura 6 vemos una “célula
psíquica” teórica (psicocito). El eje de los “ahora” que se
ubica en la diagonal mayor del hipercubo 4D, representa
el “estado de consciencia” con que está funcionando
este elemento funcional de la psiquis. En el extremo
superior (C) nos dice de su máxima expresión (100% de
atención), mientras que su extremo inferior (I), nos está
indicando un estado de total inconsciencia. Del lado
izquierdo de la figura está representado, con una escala
de grises que va desde el blanco (1 = 100%) al negro (0
= 0%), la luminosidad de un determinado color. En la
“célula psíquica”, entonces, el nivel de consciencia
estará dado por el grado de “aplanamiento” del
hipercubo. Es decir, tal como lo muestra la figura está en
el 100%, pero a medida que sus extremos se aproximan
al centro, el nivel de atención, y por lo tanto de
consciencia, disminuye.
Vamos a proponer dos versiones de un emulador de los
niveles de consciencia. En la primera de ellas, el nivel de
223
consciencia lo pondremos en evidencia a través de la
cantidad de luz que incida sobre un fotorresistor (o
fotorresistencia) cuya resistencia al paso de la corriente
disminuye con el aumento de intensidad de la luz
incidente (Figura 8).
Figura 8 CIRCUITO “NIVELES DE CONSCIENCIA”
Referencias: LDR: (light-dependent resistor) fotorresistencia
5.1. TEORÍA
Se hace incidir una luz blanca sobre la fotorresistencia
(LDR), como consecuencia de ello, el zumbador emite
un sonido con una frecuencia determinada.
El cálculo de la frecuencia de emisión del zumbador se
realiza en función del voltaje que deja pasar la
resistencia LDR, de acuerdo con la intensidad de la luz
que incida en ella. El valor digital que arroja la
resistencia LDR, luego de la entrada analógica, varía
entre 0 (total oscuridad) y 1023 (máxima iluminación), ya
que tiene una precisión de 10 bits (210). La frecuencia,
en este caso, representa el “nivel de consciencia”,
224
teniendo en cuenta que nuestro “aparato psíquico” solo
se maneja con colores (así representa los hechos reales
que percibe), la luminosidad de esos colores indica el
nivel de atención que la psiquis presta a esa
“percepción”. En otras palabras, el “nivel de consciencia”
con el que opera el aparato psíquico según la ocasión.
El grado de luminosidad lo pondremos en evidencia,
convirtiendo la variación de la resistencia de una
fotorresistencia cuando incide una luz en ella, en
frecuencia que enviamos a un zumbador. Además,
tendremos una señal luminosa que con su color nos
indicará el mismo nivel, de acuerdo con el siguiente
detalle:
20 Hz ---- LED ROJO ---- nivel de consciencia máximo
(despierto y aprendiendo) (Se activa el SSC)
40 Hz ---- LED AZUL ---- nivel de consciencia intermedio
(pensando o soñando mientras duerme) (Se activa el
SPI)
80 Hz ---- LED VERDE ---- nivel de consciencia mínimo
(durmiendo, sin soñar) (Se activa el SBE)
Cálculo de la frecuencia:
Frecuencia = 80 Hz - (valor analógico/17)
Oscuridad absoluta = 80 - (0/17) = 80 Hz
Luminosidad media = 80 - (680/17) = 40 Hz
Luminosidad máxima = 80 - (1023/17) = 20 Hz
En el Apéndice se encuentran la lista de materiales
empleados y el programa respectivo. En este caso se ha
utilizado un led RGB, en vez de un led para cada color
como en la figura.
5.2. ARDUINO® COMO MARCO DE REFERENCIA
Otra manera de emular los niveles de consciencia, con
el microprocesador Arduino®, es usando la técnica de
225
PWM (Pulse Width Modulation) o de Modulación por
Ancho de Pulso. De esta forma, se utiliza el mismo
microcontrolador para generar las frecuencias que
necesitamos, sin necesitar ningún otro agregado. Esto
se puede hacer mediante programación (por software) o
directamente a través de las interrupciones y eventos
cronometrados (por hardware). Las interrupciones
permiten a los microcontroladores responder a los
eventos sin tener que sondear continuamente para ver si
algo ha cambiado. Además de asociar interrupciones
con ciertos pines, también puede usar interrupciones
generadas por temporizador (Monk, 2019, p. 73). Esta
última alternativa es la que se usará en la etapa final de
este proyecto. Por ahora, y con un fin didáctico,
describiremos la opción por software (Cameron, 2019, p.
12).
El modelo de microprocesador que estamos utilizando,
no cuenta con salidas analógicas, que son aquellas que
pueden adquirir cualquier valor en cualquier momento.
Estas salidas son muy útiles cuando necesitamos, por
ejemplo, controlar un proceso en forma continua y no “a
saltos”. Se puede utilizar una salida PWM para emular
una señal analógica de tensión con Arduino®.
Los pines digitales que permiten generar salidas
analógicas son: 11, 10, 9, 6, 5 y 3 (Figura 9).
226
Figura 9 PINES PWM (⁓)
La emulación de una salida analógica se logra activando
una salida digital durante un tiempo, y mantenerla
apagada durante el resto (el mismo mecanismo sugerido
por la teoría del funcionamiento de la psiquis que
estamos considerando). En promedio, la tensión de
salida será igual al valor analógico que se está
buscando. Esta modulación permite mantener constante
la frecuencia (algo clave en nuestro aparato psíquico),
mientras varía el ancho de pulso.
Como vemos en la Figura 10, solo son posibles dos
únicos valores de tensión: 0 o 5V. A la relación entre el
tiempo que la señal está activa (a 5V) (t’) y el periodo T,
se lo conoce como “ciclo de trabajo” (duty cycle o D) de
la señal. Es posible, cambiando el ancho de pulso, variar
D en forma continua (como en una salida analógica).
Esto es, variar el voltaje que sale (de 0 a 5V) con solo
cambiar el ancho del pulso (tiempo de la señal activa),
227
pero manteniendo la frecuencia constante, ya que el
periodo T (separación entre los pulsos) permanece sin
cambios; algo que es clave para nuestro sistema.
Figura 10 MODULACIÓN POR ANCHO DE PULSO
Referencias: D: ciclo de trabajo – T: periodo – f: frecuencia
También podemos observar en la figura anterior, cómo se
calcula la frecuencia de la señal.
De acuerdo con todo lo dicho podemos concluir que una señal
pulsada es suficiente para emular una señal analógica, como
proponemos que sucede con la consciencia. Por ejemplo:
podemos variar la intensidad lumínica de un led mediante una
PWM. El led, realmente, se “enciende y apaga” varias veces
por segundo, pero ese parpadeo es tan rápido que nuestra
visión no lo aprecia. Esto mismo le sucede a nuestra
consciencia, se “enciende y se apaga” 40 veces por segundo,
por lo tanto, la sensación es que estamos “conscientes” todo
el tiempo, mientras permanecemos despiertos. El efecto
conseguido es que el led (la consciencia) brilla (está activa)
con menor intensidad. Lo que equivale a decir que el nivel de
228
consciencia, a frecuencia constante (40 Hz), es un porcentaje
menor.
Como hemos dicho, se puede generar una señal PWM por
software. El programa que se encuentra en el Apéndice pone
el pin PWM ⁓10 (Ver Figura 9) activo (HIGH) 40 veces
por segundo, durante 12,5 ms. Esto constituye un ciclo
de trabajo (D) del 50%. El periodo T es de 25 ms. La
equivalencia para nuestra psiquis sería estar 12,5 ms
consciente y 12,5 ms inconsciente, y con un nivel de
consciencia del 50%, apto para pensar, elaborar
respuestas y para soñar, si estuviéramos durmiendo.
Con la misma frecuencia (40 Hz) podemos variar
rápidamente el ciclo de trabajo, llevándolo cercano al
100%, cuando sea necesario prestar atención para
aprender algo nuevo o para corregir un error, en cuyo
caso, los valores del pin ⁓10 deberán variar (Ver
Apéndice). En resumen, el estado de vigilia lo maneja el
pin ⁓10.
Cuando es hora de dormir, o de operar los procesos
inconscientes (cuña temporal; Salatino, 2009) debemos
cambiar la frecuencia, por ende, cambiar al pin ⁓11. Allí
tenemos que lograr una frecuencia de 80 Hz, es decir,
trabajar con un periodo T de 12,5 ms (12.500 seg).
Cuando se debe proyectar una respuesta hacia el medio
social, la frecuencia debe cambiar a 20 Hz (T = 50 ms)
en el pin ⁓9.
6.0. IDENTIFICACIÓN Y CLASIFICACIÓN DE
ESTÍMULOS
La identificación de los estímulos significa saber desde
qué sistema real provienen. O sea, si su origen es
biológico (nuestro cuerpo) o viene de cualquier objeto
inerte de nuestro entorno; o es psíquico, o en su defecto,
229
proviene del medio sociocultural (originados en nuestra
vida de relación con nuestros semejantes y otros seres
vivos). Ya hemos descrito, en el punto anterior, el
mecanismo que puede emular este proceso.
En cambio, para la “clasificación” de los estímulos
proponemos una supuesta unidad perceptiva basada en
el mecanismo lógico de un “autómata finito” (Figura 11).
Desde la LT caracterizamos, de una manera muy
general, un hecho real como la concurrencia de un
sujeto (S = 01), un objeto (O = 10) y una transformación
(V = 11) que los liga. La composición de este detector es
muy sencilla. Consta de un “identificador” para cada uno
de los “elementos” que conforman un hecho real y de
una serie de conectores, que, al interpretar su código
binario, le permite al sistema cambiar de estado.
Figura 11 AUTÓMATA FINITO DETERMINISTA
APARATO PERCEPTIVO GENÉRICO
Referencias: NC: núcleo caudado – CO: interneurona
colinérgica – GA: interneurona GABAérgica – GPE: globus
pallidus externo – GPI: globus pallidus interno
SNR: sustancia negra reticular – SNC: sustancia negra
compacta – 1: activación – 0: inhibición
La “máquina perceptiva” anterior está capacitada para
identificar cualesquiera de los seis patrones que se
forman con los tres elementos indicados. Es decir, SVO,
230
VOS, OSV, SOV, OVS y VSO. Para identificar a qué
sistema real pertenece el “hecho” que estamos
percibiendo, nos valemos del primer elemento de la
“cadena”. Por ejemplo, el patrón VOS propuesto en la
figura anterior, viene desde el sistema real sociocultural.
De manera equivalente, si el patrón comienza con “S”, el
fenómeno a analizar proviene desde el sistema psicointerno o de lo que tiene que ver con la subjetividad de
los seres vivos. Mientras que, si el primer elemento es
“O”, nos está diciendo que el hecho real tiene que ver
directamente con nuestro cuerpo, o con algo externo a
nosotros, pero que no tiene vida.
Una vez identificado el origen, o el sistema al que
pertenece el estímulo, debemos “clasificarlo”. Esto último
se logra, identificando, a su vez, los elementos que
siguen al primero. En el caso del ejemplo de la figura, el
hecho es identificado como proveniente del sistema
sociocultural (una transformación), que viene desde otro
ser vivo, pero no de un semejante. De la misma manera,
se procede con los cinco patrones restantes. En la
misma figura se puede apreciar el “centro de
operaciones” del sistema perceptivo, representado por
los ganglios basales, donde se le ha superpuesto el
autómata finito. En el esquema se han respetado,
básicamente, las conexiones activadoras (1) e
inhibidoras (0) que mantienen entre ellos y con el tálamo
y la corteza cerebral, según recientes investigaciones
neurobiológicas (Salatino, 2013, p. 49).
Como se desprende del esquema anterior, el único
“lenguaje” que este “aparato psíquico” maneja es el de
los colores de la luz, con todas sus implicancias físicas.
En otras palabras, solo uno de entre 4.294.967.296
colores será un “hecho real” que pueda tener sentido
para él. De la misma forma, sus respuestas ante tales
231
estímulos
serán
los
colores
complementarios
respectivos, para poder “comunicarse” con un
“semejante”. El patrón básico de colores primarios y
secundarios de la luz, representan “metafóricamente”,
cómo se estructura la psiquis, además de emular los
fenómenos neurobiológicos que le dan sustento a la
“actividad psíquica”, y de cómo adquiere, comprende y
produce su “lenguaje”, cuestiones todas que serán
dirimidas en las próximas etapas de este proyecto.
6.1. RECONOCIMIENTO DE LOS COLORES CON
ARDUINO (Cameron, 2019, p. 267)
Existen en el mercado varios sensores que pueden ser
utilizados para reconocer los colores, utilizando el
modelo RGB (rojo, verde, azul), que es como hemos
definido a nuestro “aparato perceptivo”. Describiremos,
someramente, algunos detalles del funcionamiento de
uno de los sensores más sencillos: el módulo TCS230.
Este módulo consiste en una matriz de 64 fotodiodos,
con filtros para los colores: rojo, verde, azul y blanco.
Hay 16 fotodiodos para filtro de color, y el sensor de
reconocimiento de color produce una onda cuadrada con
una frecuencia proporcional a la intensidad de la luz del
color relevante, igual que nuestro aparato perceptivo
natural (Figura 12).
El detector TCS230 puede medir los tres colores
primarios: rojo, verde y azul, y también puede separar el
detector de luz blanca (la suma de los anteriores). Dado
que se puede crear cualquier color mezclando diferentes
niveles de los colores primarios, un color determinado
(un hecho real para nuestro sistema) nos dice de la
composición de la fuente lumínica.
232
Podemos utilizar este detector cuando necesitemos
producir una acción basados en el color de un objeto (en
nuestro caso, de un hecho real).
Figura 12 SENSOR DE COLOR TCS230
Las tablas de la figura anterior fueron adecuadas según
nuestros propósitos, por lo que no responden
estrictamente, a las especificaciones de fábrica, aunque
pueden programarse. En el Apéndice hay un programa
de aplicación que sí se ajusta a las especificaciones
técnicas.
233
7. CONCLUSIONES
Hemos presentado el primer Proyecto del Programa
“Psiquis”, una emulación electrónica de nuestro aparato
psíquico, realizado sobre un microcontrolador Arduino
de bajo costo. En esta oportunidad se ha desarrollado un
“aparato perceptivo” que cumple con las pautas
establecidas para llevar adelante el proceso de
percepción, según una teoría sobre la estructura y
función psíquicas desarrollada previamente (Salatino,
2013).
De acuerdo con la teoría citada, este aparato psíquico a
ser emulado en cuatro etapas solo maneja el lenguaje
de los colores de la luz. Esto que podría considerarse
una franca limitación, en cambio, se transforma en una
manera posible de comprender cómo funciona nuestra
psiquis, por lo menos, en sus aspectos básicos.
Para cumplir con el cometido de percibir estímulos,
identificar de dónde vienen, clasificarlos y determinar el
nivel de atención (nivel de consciencia) que hay que
prestar a lo percibido, se han utilizado distintos sensores
que nos han ayudado a emular tales situaciones.
Para determinar los “niveles de consciencia” se han
utilizado dos métodos distintos. Por un lado, una
fotorresistencia (LDR) que nos dice sobre la luminosidad
ambiente, haciendo variar la tensión que pasa por ella,
de acuerdo con la intensidad de la luz incidente. Este
cambio de resistencia fue usado con dos propósitos. En
primer lugar, para cambiar la frecuencia de un zumbador
(señal audible) que nos indica el “sistema real”
(biológico, psíquico o sociocultural) desde donde viene el
estímulo, a través de su tono. En segundo lugar, para
variar el color de un led RGB (compuesto por un
234
microled para cada color primario de la luz), de acuerdo
con el sistema real involucrado (Figura 5).
Por otro lado, para lograr los mismos niveles de
consciencia, se utilizó la misma plataforma del
microcontrolador. En vez de usar sensores se aplicó la
técnica PWM o de Modulación de Ancho de Pulso. Esta
técnica emula una salida analógica de gran precisión a
partir de una señal digital. Así, obtenemos las
frecuencias que identifican a cada sistema real, y,
además, nos da el nivel de atención con que se
desarrolla el acto perceptivo.
Por último, mediante el reconocimiento de colores, a
través del sensor TCS230, logramos identificar los
estímulos, clasificarlos y asignar las conclusiones a un
sistema real específico, según las pautas fijadas de
antemano para esta emulación del aparato psíquico.
235
APÉNDICE
PROYECTO: NIVELES DE CONSCIENCIA
Materiales
ARDUINO UNO R3 ATMEGA328p
Protoboard
Cables para conexiones
1 fotorresistencia LDR
1 resistencia de 10 k
1 Buzzer o zumbador pasivo
3 resistencias de 220
1 led RGB (cátodo común) tipo Keyes, sin resistencias.
En realidad, el fotorresistor LDR no es apto para hacer
una medida adecuada de la cantidad de luz, dado que
su tiempo de respuesta es muy lenta (100 mseg), y
depende de la temperatura ambiente. Para medir el nivel
de iluminación con alta precisión (rango entre 1 y 65535
lux) se necesita emplear el módulo BH1750, que es un
sensor de luz digital (a diferencia del LDR que es
analógico), aunque tiene un costo diez veces mayor.
Programa
// Constantes de los componentes conectados a los pines
#define BUZZER 9
#define LDR 0
int valorLDR = 0;
// LEDs en los pines PWM
int redLED = 6;
int greenLED = 5;
int blueLED = 3;
void setup ()
{
236
// Activa monitor serie
Serial.begin(9600);
// Define los pines LED como salidas
pinMode(redLED, OUTPUT);
pinMode(greenLED, OUTPUT);
pinMode(blueLED, OUTPUT);
}
void loop()
{
// Colocamos las salidas RGB en off
digitalWrite(redLED, HIGH);
digitalWrite(greenLED, HIGH);
digitalWrite(blueLED, HIGH);
// Obtenemos el valor de la entrada analógica LDR (0-1023)
int valorLDR = analogRead( LDR);
// Mostramos el valor leído en el monitor serial del IDE
Serial.println( valorLDR);
// Enciende el LED correspondiente
if(valorLDR < 40)
{
digitalWrite(greenLED, LOW);
}
if(valorLDR < 700)
{
digitalWrite(blueLED, LOW);
}
if(valorLDR < 1023)
{
digitalWrite(redLED, LOW);
}
{
delay(200);
}
// Obtenemos la frecuencia (nivel de consciencia) en función
del voltaje
// Este voltaje depende de la resistencia LDR y de la luz que
incida en ella
int nivelConsc = 80 - (valorLDR)/17);
// Producimos el sonido a la frecuencia adecuada
237
tone(BUZZER, nivelConsc);
}
SEÑAL PWM POR SOFTWARE
Programa
int digPin = 10; // pin digital 10
void setup() {
pinMode(digPin, OUTPUT); // pin en modo de salida
}
void loop() {
digitalWrite(digPin, HIGH); //asigna valor HIGH al pin
delayMicroseconds(12500); // espera 12,5 ms
digitalWrite(digPin, LOW); //asigna valor LOW al pin
delayMicroseconds(12500); // espera 12,5 ms
}
PARA CAMBIAR FRECUENCIA (En el pin 10)
delayMicroseconds(2000); // espera 2 ms
DETECCIÓN DE COLORES
Programa
// Detección de colores usando TCS230.
// Pines de control del TCS230
#define TCS320_OE 7
#define TCS320_S0 10
#define TCS320_S1 11
#define TCS320_S2 2
#define TCS320_S3 3
#define TCS320_OUT 4
#define variance 50 // Detección de error aceptable: 2%.
#define SEL_RED
digitalWrite(TCS320_S2,LOW);
238
digitalWrite(TCS320_S3,LOW);
#define SEL_GREEN
digitalWrite(TCS320_S2,HIGH);
digitalWrite(TCS320_S3,HIGH);
#define SEL_BLUE
digitalWrite(TCS320_S2,LOW);
digitalWrite(TCS320_S3,HIGH);
#define SEL_CLEAR
digitalWrite(TCS320_S2,HIGH);
digitalWrite(TCS320_S3,LOW);
#define TWO_PER \
digitalWrite(TCS320_S0,LOW);
digitalWrite(TCS320_S1,HIGH);
#define debug(a)
Serial.println((a));
#define NUMCOL 5
// int RGB[NUMCOL][3]; // Cinco colores con 3 elementos
// Array of NUMCOL strings len 10. 11 for null.
// char colname[NUMCOL][11];
// Valores típicos para una división del 2% (establecer
variancia en 50).
int RGB[NUMCOL][3]={
{248,647,393},
{188,261,265},
{404,710,546},
{506,493,304},
{930,1199,837},
};
char colname[NUMCOL][11]={
"rojo",
239
"amarillo",
"marrón",
"azul",
"negro",
};
////////////////////////////////////////////////////////////////
void setup() {
pinMode(TCS320_OE,OUTPUT);
pinMode(TCS320_S0,OUTPUT);
pinMode(TCS320_S1,OUTPUT);
pinMode(TCS320_S2,OUTPUT);
pinMode(TCS320_S3,OUTPUT);
pinMode(TCS320_OUT,INPUT);
TWO_PER;
digitalWrite(TCS320_OE,LOW); // Siempre en ON
}
Serial.begin(115200);
Serial.println("TCS230 color detector");
////////////////////////////////////////////////////////////////
unsigned long get_TCS230_reading(void) {
unsigned long val;
noInterrupts();
val = pulseIn(TCS320_OUT,HIGH,20000); // 2000s=2ms
2Hz min.
interrupts();
return val;
}
static int clr,red,green,blue;
////////////////////////////////////////////////////////////////
uint16_t detect(void) {
unsigned long val;
240
SEL_RED;
red = val = get_TCS230_reading();
Serial.print("ROJO: "); Serial.print(val);
SEL_GREEN;
green = val = get_TCS230_reading();
Serial.print("VERDE: "); Serial.print(val);
SEL_BLUE;
blue = val = get_TCS230_reading();
Serial.print("AZUL: "); Serial.print(val);
}
Serial.print(" \n");
////////////////////////////////////////////////////////////////
int withinEQ(int c, int xl, int xh) {
if (c>=xl && c<=xh) return 1;
return 0;
}
////////////////////////////////////////////////////////////////
// Compara un valor con un valor y variancia.
int compare(int c, int v, int err) {
int xh=v+err, xl=v-err;
if (withinEQ(c,xl,xh)) return 1;
return 0;
}
////////////////////////////////////////////////////////////////
void loop() {
uint8_t chr,i,fnd;
if (Serial.available()>0) {
chr = Serial.read(); // Gasto.
// Busca coincidencia de color.
241
}
}
detect();
fnd=0;
for (i=0;i<NUMCOL;i++) {
if ( compare(red,RGB[i][0],variance) &&
compare(green,RGB[i][1],variance) &&
compare(blue,RGB[i][2],variance)
) { // Found
Serial.print("Col is :");
Serial.println(colname[i]);
fnd=1;
break;
}
}
if (!fnd) Serial.println("NOT Found");
242
REFERENCIAS
Atmel (2009). Datasheet ATMEGA328p. Rev. A.
Hong Kong, Atmel Corporation.
Cameron,
N.
(2019).
Arduino
Applied:
Comprehensive Projects for Everyday Electronics.
Edinburgh, UK, Apress.
Grimmett, R. (2014). Arduino Robotic Projects.
Birmingham, UK, Packt Publishing Ltd.
Monk, S. (2019). Programming Arduino. Next
Steps. Going Further with Sketches. New York, Mc
Graw Hill Education.
Salatino, D. R. (2009). Semiótica de los sistemas
reales – Tesis Doctoral en Letras especialidad
Psicolingüística por la Facultad de Filosofía y Letras
de la Universidad Nacional de Cuyo, Mendoza,
Argentina – Director: Dra. Liliana Cubo de Severino.
Salatino, D. R. (2012). Aspectos psico-biosocioculturales del lenguaje natural humano.
Introducción a la teoría psíquica del lenguaje Mendoza, Argentina - Desktop Publishing, Amazon,
ISBN: 978-987-33-2379-9.
Salatino, D. R. (2013). Psiquis – Estructura y
función – Mendoza, Argentina – Autoedición. ISBN:
978-987-33-3808-3.
Salatino, D. R. (2015). “Bases neurológicas y
psíquicas del lenguaje musical.” En: Actas de
ECCoM, La experiencia musical: cuerpo, tiempo y
243
sonido en el escenario de nuestra mente. Vol. 2, Nº
1, pp. 257-267.
Salatino, D. R. (2017c). Tratado de Lógica
Transcursiva. El origen evolutivo del sentido en la
realidad subjetiva. Mendoza, Argentina, Primera
autoedición. ISBN: 978-987-42-5099-5.
Salatino, D. R.; Tersoglio, A. E. (2019). “Risk of
Autism in the use of assisted reproduction
techniques. An analysis from the Transcurssive
Logic” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No.
1: pp. 1-16. (Jan. – Mar. 2019); ISSN: 2415-0371.
244
11. NUEVO MODELO NOSOLÓGICO DE LA
ENDOMETRITIS CRÓNICA
Dante Roberto Salatino42 - Alberto Eugenio Tersoglio43
Resumen: El propósito de este trabajo fue indagar sobre un
nuevo modelo nosológico de una enfermedad crónica, en este
caso, la Endometritis, con el fin de aportar otros elementos
para su diagnóstico y tratamiento. El método utilizado para
obtener la información consistió en el análisis de las relaciones
que guardan los elementos fundamentales que determinan la
entidad crónica, siguiendo los principios de la Lógica
Transcursiva. Los resultados obtenidos en investigaciones
previas, alertan sobre algunas cuestiones a dilucidar. La
supuesta “cura” de una infección (endometritis bacteriana)
sugiere que obtendremos un nacido vivo de todos los
embarazos, pero solo la mitad de las mujeres que padecieron
la infección quedarán embarazadas. Por otro lado, la
normalización solo del estado inmunitario que altera la
infección, arrojaría una alta tasa de abortos espontáneos. Aún,
cuando todo se normalice, la tasa de abortos no es
desdeñable, ni tampoco, la cantidad de otra patología que
acompaña a estos embarazos, como por ejemplo, partos
prematuros. Se encontró que si tomamos al endometrio, es
decir, el revestimiento interno de tejido epitelial del útero en
donde tiene lugar la implantación del embrión, como un
sistema en sí mismo, podemos aproximarnos mejor al logro de
nuestras pretensiones. Esto último implica tener en cuenta,
por un lado, su microbiota/microbioma, comunidad simbiótica
de microorganismos que alojada en la cavidad uterina,
constituye una primera barrera defensiva; y por otro, los
aspectos que definen su sistema inmunitario local. Una
“disbiosis”, esto es, una microbiota alterada, puede dar lugar a
un estado de inflamación crónica, aún en ausencia de
gérmenes patógenos, y que puede haberse originado, p.e., en
algún tratamiento antibiótico previo. Las investigaciones
realizadas permitieron concluir que la modelización permite
42
43
Instituto de Filosofía – FFL – UNCuyo.
Centro Internacional de Reproducción Asistida.
245
considerar a la endometritis crónica como la confluencia de las
reacciones estructural, funcional y sistémica que puede
provocar una infección. Por lo tanto, su diagnóstico es posible
aunque no existan las evidencias habituales de su presencia, y
el tratamiento puede extenderse más allá de lo tradicional
(antibióticos, corticoides, estimulantes de la médula ósea, etc.),
como lo es el uso de cultivos de células madre mesenquimales
para regenerar un endometrio sano.
Palabras clave: Inflamación crónica, modelos nosológicos,
microbiota/microbioma, células madre, lógica transcursiva.
1.0. INTRODUCCIÓN
La nosología consiste en una sistematización de las
enfermedades dados los conocimientos que se tiene de
ellas, basados en supuestos teóricos sobre la naturaleza
de los procesos patológicos que las caracterizan.
El propósito de este trabajo fue la elaboración de un
nuevo modelo nosológico de la Endometritis Crónica
(EC), con el fin de ajustar su diagnóstico y tratamiento,
abordando la enfermedad a través de los lineamientos
metodológicos que nos brinda la Lógica Transcursiva
(Salatino, 2019).
La Endometritis Crónica, como entidad nosológica, es
una inflamación sutil y continua del endometrio, es decir,
del revestimiento interno de tejido epitelial del útero en
donde tiene lugar la implantación del embrión (Kimura et
al., 2019).
Como consecuencia de lo anterior, su presencia cumple
un rol importante en la pérdida recurrente de embarazos
(Romero, Espinoza y Mazor, 2004; Johnston-Mac
Ananny et al., 2010; McQeen et al., 2015; Tersoglio y
Salatino, 2015; Cicinelli, 2017; Vitagliano et al., 2018;
Kimura et al., 2019; Hirata et al., 2020). La prevalencia
de EC, en mujeres afectadas de falla repetida de
246
implantación (FRI), está en el orden del 37% (Vitagliano
et al., 2017). Se han reportado altas tasas de
implantación, luego de haberse curado la EC, en
comparación con aquellas mujeres en donde la
enfermedad no se curó (76% vs 59%) (Tersoglio y
Salatino, 2015). El hecho de haberse curado la
enfermedad, es decir, de que los cultivos para distintos
gérmenes den negativos, que no haya elementos
histopatológicos que indiquen infección crónica, o que
otros
índices
certifiquen
esta
condición,
no
necesariamente significa que la influencia negativa sobre
el embarazo haya terminado.
2.0. ESTADO DE LA CUESTIÓN
Se pudo demostrar que tanto la normalización de la
histopatología endometrial como de las células NK
endometriales (un tipo de glóbulo blanco presente en el
endometrio, también en la sangre), se constituyen en
predictores individuales de embarazo clínico (Figura 1)
(Tersoglio y Salatino, 2019a).
Figura 1 RESULTADOS DEL EMBARAZO SEGÚN LOS
PREDICTORES
Referencias: EC: embarazo clínico – NV: nacido vivo
AE: aborto espontáneo – NE: no embarazo – 1: normal –
0: anormal
247
La figura anterior nos muestra que en el mejor de los
casos (grupo 11), o sea, en donde los dos predictores se
normalizaron, obtuvimos un 78% de nacidos vivos, pero
hubo un 5% de abortos espontáneos, y un 17% que no
quedó embarazada. En el peor de los casos (grupo 00),
ambos predictores anormales, no se obtuvieron
embarazos. Pero, en los grupos intermedios, los
resultados no fueron tan categóricos. Cuando solo se
normalizaron las NK (grupo 01) se obtuvo solo un 40%
de nacidos vivos, y un 30% de abortos espontáneos.
Mientras que, cuando se normalizó solo la histopatología
(grupo 10), hubo un 50% de nacidos vivos y ningún
aborto.
Los resultados anteriores nos alertan sobre algunas
cuestiones. La supuesta “cura” de una infección
(endometritis bacteriana) sugiere que obtendremos un
nacido vivo de todos los embarazos, pero que solo la
mitad de las mujeres que padecieron la infección
quedarán embarazadas. Por otro lado, la normalización
solo del estado inmunitario (normalización de las NK),
arrojaría como resultado una alta tasa de abortos
espontáneos, y en consecuencia, menos nacidos vivos
que el caso anterior. Aún, cuando todo se normalice, la
tasa de abortos espontáneos no es desdeñable, ni
tampoco, la cantidad de otra patología que acompaña a
estos embarazos, como por ejemplo, partos prematuros.
Queda claro entonces que, con la supuesta eliminación
de una infección, o una pretendida estabilización del
estado inmunitario del endometrio, no alcanza para
excluir definitivamente, las consecuencias sobre la
fertilización que produce una inflamación crónica. Tratar
de determinar cuáles son los factores que no estamos
teniendo en cuenta para solucionar este problema, es el
motivo principal de este trabajo.
248
3.0. EL ENDOMETRIO COMO SISTEMA
Desde el inicio del s.XX, y por más de 50 años, hubo
consenso sobre que una cavidad uterina sana era una
cavidad estéril. A finales de los ’80 del siglo pasado,
usando medios de cultivo apropiados, se comenzó a
reportar la presencia bacterias uterinas, incluso en
mujeres asintomáticas sanas (Baker et al., 2018). De
hecho, y a pesar de que el feto es estéril, ni bien nace,
sus cavidades abiertas al medio ambiente comienzan a
plagarse de gérmenes.
Estos microorganismos que acompañan durante toda su
vida al ser humano se conocen con el nombre genérico
de “microbiota”, y mantienen, en condiciones de salud,
una relación simbiótica equilibrada con su portador. Se
estima que la cantidad de microorganismos que habitan
el cuerpo de un ser humano es diez veces mayor que la
cantidad total de sus células corporales, aunque solo
pesan 200 gramos (Madigan et al., 2019).
Por otro lado, todos los integrantes de la microbiota
poseen su propio código genético. A este genoma se le
da el nombre de “microbioma”. Los genes humanos son
aproximadamente 23.000, mientras que los genes de la
microbiota alcanzan a los 3.000.000, es decir, 130 veces
más numerosos (Noce et al., 2014). Las cifras anteriores
hacen que la microbiota y sus genes, deban ser
considerados como un órgano más de nuestro cuerpo,
que además, es único e irrepetible, como una huella
digital.
Para poder considerar al endometrio como sistema y
objeto de nuestro estudio, debemos tener en cuenta por
un lado su microbiota/microbioma y por otro, los
aspectos que definen su sistema inmunitario local.
249
La Figura 2 muestra las relaciones, que a nuestro juicio,
presentan los elementos fundamentales que definen al
endometrio como un verdadero sistema.
Figura 2 PAU ENDOMETRIAL
Referencias: DP: defensa pasiva – DA: defensa activa
genus: especie de una bacteria – fenotipo: manifestación
externa del conjunto de caracteres hereditarios
genotipo: conjunto de genes característicos de cada especie
Durante mucho tiempo se le llamó "flora intestinal" al
conjunto de microorganismos que conviven de manera
simbiótica en nuestro tracto intestinal. Sin embargo, este
nombre es inexacto pues "flora" hace referencia a la vida
vegetal y sabemos que estos microorganismos son
bacterias, hongos y levaduras, cuyo funcionamiento no
tiene ninguna relación con el de las plantas. Es por ello
por lo que en la actualidad se ha adoptado el nombre
más preciso y científicamente aceptado de microbiota
para nombrar a este micro-ecosistema.
Ahora bien, ¿cuál es la diferencia entre microbiota y
microbioma? Como ya mencionamos, la microbiota es el
conjunto
de
microorganismos
que
conviven
simbióticamente con el nuestro. De hecho, las células de
nuestra microbiota sobrepasan al número de células
humanas en una proporción 10 a 1. Todas esas células
250
también poseen su propio código genético, que aunque
es distinto del nuestro, se encuentra estrechamente
relacionado con nuestra salud. Es al conjunto total de los
genes de nuestra microbiota a lo que los científicos han
denominado como microbioma.
El conjunto de genes contenidos en el microbioma
humano podría servir para identificarnos como
individuos, como si tratara de una huella dactilar. Según
los científicos, cada microbioma posee características
distintivas del organismo que lo hospeda, por lo tanto, es
posible la identificación de una persona a partir del
análisis de los genes que alberga su microbioma.
La Figura 3 da un detalle de cómo funciona el sistema
inmune de un animal. Vemos que, ante la agresión de
cualquier agente patógeno, el animal dispone de dos
subsistemas inmunes. Una inmunidad innata que está
presente en todos los animales, cuyas características
principales se centran en su rápida respuesta, y la
posibilidad de reconocer una amplia gama de agentes
agresores, usando un conjunto pequeño de receptores.
Existen en esta modalidad, dos tipos de defensas. Las
“defensas externas” constituidas por la piel, las
membranas mucosas y las secreciones. En cambio, las
“defensas internas”, están representadas por células
fagocíticas (se comen las células nocivas); las células
asesinas naturales (o NK, acrónimo de la expresión
inglesa natural killers) que ya hemos mencionado, y
luego analizaremos con más detalle; proteínas
antimicrobianas, y una respuesta inflamatoria generada
como defensa ante la invasión.
La otra modalidad inmunitaria es la inmunidad
adaptativa, que es patrimonio solo de los vertebrados, y
se caracteriza por responder lentamente, usando un
251
gran grupo de receptores para reconocer a un agente
patógeno particular.
Figura 3 SISTEMA INMUNITARIO EN ANIMALES
(Adaptado de Reece et al, 2018)
3.1. ALTERACIONES DEL EQUILIBRIO DINÁMICO DE
MICROBIOTA/MICROBIOMA/INMUNIDAD LOCAL
En los últimos años, se han incrementado las
investigaciones
enfocadas
a
mejorar
nuestro
conocimiento sobre el delicado balance existente entre
los agentes microbiales e inmunitarios que conviven a
nivel del endometrio (D’Ippolito et al., 2018). Si bien, este
complejo sistema constituye una protección ante el
riesgo de una infección, en determinadas circunstancias,
252
la pueden propiciar, y con ello, malograr la normal
implantación de un embrión.
El establecimiento de un cuadro inflamatorio crónico,
como la endometritis, por ejemplo, depende de varios
factores. Uno de ellos es la alteración del balance
dinámico microbiota/microbioma, o lo que se conoce con
el nombre de disbiosis (Hedayat y Lapraz, 2019, p. 77).
Este desequilibrio de la microbiota con respecto a las
necesidades del organismo, obedece a tres razones
básicas (Ibidem, p. 87): 1) insuficiencia de la microbiota,
2) pérdida de diversidad de los microorganismos
constituyentes, y 3) presencia de gérmenes patógenos
competidores (infección). El microorganismo normal
predominante en el aparato reproductivo, durante la
gestación, es el Lactobacilus, y se supone que
constituye una barrera natural que impide la entrada de
gérmenes patógenos.
Cuando la barrera natural se altera o desaparece, se
desencadenan una serie de eventos que conforman el
cuadro de disbiosis, como lo muestra la Figura 4
Figura 4 PAU DISBIÓTICO
Referencias: TLR: receptores tipo Toll (relacionan las
respuestas inmunes innatas con las adaptativas –
reconociendo gérmenes y virus, dando inicio al proceso
inflamatorio)
253
En primer lugar, ante la falta de reconocimiento de los
agresores se favorece el crecimiento bacterial (01);
luego, se produce una inestabilidad genómica de las
células epiteliales (11), disminuyendo las defensas
externas dado el despegamiento que afecta a las células
de la piel y mucosas (10); además, se altera el proceso
de autofagia, que es como una célula inmune destruye a
un germen, engulléndolo. Todo esto desemboca en una
ausencia del proceso inflamatorio (00) que acompaña a
toda agresión, y por lo tanto, el proceso pasa
desapercibido para el sistema inmunitario. Aunque en
ocasiones, esta inflamación se produce, pero no dispara
la respuesta inmunitaria adecuada, y entonces, aparece
un cuadro inflamatorio crónico, como el que nos ocupa.
Por otro lado, el endometrio desactiva la reacción
inmunitaria que se debería producir cuando el embrión,
producto de la unión de una célula propia de la madre,
con una heteróloga (el espermatozoide paterno), intenta
anidarse. Es decir, el ingreso de un tejido extraño no
genera un rechazo. De esta manera, el endometrio se
constituye en un verdadero sistema que cumple un papel
central en la vigilancia inmune uterina.
¿Cómo funciona el aparato inmunitario local?
La Figura 5 nos orienta al respecto.
Con un objetivo didáctico, vamos a suponer que el
sistema inmunitario funciona de la misma manera que lo
hace el Ministerio de Seguridad de un país cualquiera,
cuya razón de ser, por supuesto, es disminuir el número
de infracciones a la norma establecida, que en el caso
que nos ocupa, sería discernir lo propio de lo extraño y
atacar esto último.
Así, tenemos infractores (invasores), un cuerpo policial
que custodia las calles (la sangre) en busca de
254
infractores, un calabozo para alojar transitoriamente a
los detenidos hasta ser identificados, un fiscal quien
lleva el caso al juez, que es quien determina la
culpabilidad y sentencia la pena de muerte. Además, hay
un cuerpo especial (los natural killers o asesinos
naturales, pertenecientes a la inmunidad innata) cuya
misión es sentenciar y ejecutar al infractor sin juicio
previo, dada su peligrosidad.
Figura 5 PAU INMUNITARIO
(Modificado de Dranoff, 2004, p. 18)
La “policía” representa la inmunidad innata, ya que es la
primera línea de defensa contra la infección, y actúa de
255
dos maneras para detener al invasor, o bien a distancia,
mediante sustancias solubles (pistolas taser) llamadas
“complemento”, o cuerpo a cuerpo. Esta última
operatoria está a cargo de células específicas
(granulocitos, mastocito, macrófago, célula dendrítica, y,
célula NK – Ver Figura 5). Esta forma de defensa es
rápida y efectiva, ya que pueden reconocer (mediante su
“identikit”), en forma efectiva, una gran cantidad de
gérmenes, y orquestar una inmediata reacción
inflamatoria. En cambio, la inmunidad adaptativa está
representada por todo el aparato encargado de
administrar justicia, por lo que, como ocurre en la
actividad administrativa judicial, aquí todo es más lento,
ya que no hay acción directa, sino mediante anticuerpos,
generados en los “antecedentes delictivos” (el
equivalente al prontuario de un delincuente) de los
invasores, registro que llevan unos glóbulos blancos
especiales: las células T y las células B. Hay tres tipos
de células T: 1) TCD4 o linfocitos T colaboradores que
activan a otras células para que, o bien “presenten” el
antígeno a las células efectoras (el caso de las células
B, o el “fiscal” de la causa), o para que ejecuten al
agresor sin juicio previo (macrófagos, linfocitos asesinos
o TNK); 2) TCD8 o citotóxicos, encargados de la función
ejecutora de la inmunidad celular, neutralizando al
invasor y destruyéndolo; y 3) T y TNK que comparten
sus funciones entre la inmunidad innata y la adaptativa,
y son francamente ejecutoras, pero siempre con
activación previa (“orden de ejecución” librada por el
juez). Por último, como parte fundamental del sistema
inmunitario, tenemos al “Complejo Mayor de
Histocompatibilidad” (el juzgado y sus jueces). En este
complejo (en el juzgado) hay un “lugar” (celda o
calabozo) en donde se coloca al sospechoso, hasta que
se averigüen sus antecedentes. Las células B (fiscal)
256
presentan el caso (antígeno), al “juez”, quien evalúa,
haciendo un reconocimiento del agresor, el “dictar
sentencia”, dando la orden de activación a las células
que se encargan de la ejecución del reo. Todo este
minucioso mecanismo puede abordarse desde la Lógica
Transcursiva, porque las relaciones estructurales y
funcionales que mantienen todos sus integrantes,
constituyen un PAU, como se puede apreciar en la
Figura 5.
4.0. ENDOMETRITIS CRÓNICA
Con el objeto de detectar bacterias y virus el sistema
inmunitario dispone de una serie de receptores llamados
“reconocedores de patrones” (o RRP), y se expresan a
través de células presentadoras de antígenos, como las
células dendríticas y los macrófagos. Su modo básico de
acción se ve reflejada en la Figura 6.
Figura 6 PAU DE LOS RRP
Referencias: Transmembrana/endocelular: ubicación del
receptor con respecto a la membrana celular – NLR: detector
de ADN de virus y bacterias – TLR: reconoce componentes de
la membrana de las bacterias – CLR: reconoce distintas
especies de hongos – RLR: detecta ARN viral.
Los receptores NLR, también llamados “inflamasomas”,
son los encargados de desatar la cascada inflamatoria y
son claves en la regulación del microbioma (Suresh y
Mosser, 2013; D’Ippolito et al., 2018). Los receptores
257
TLR son los que dan la primera señal para que se
desencadene la cascada inflamatoria. Los receptores
CLR (Plato et al., 2015) reconocen todo tipo de hongo,
además de colaborar con los TLR, y esta colaboración
ha sido utilizada terapéuticamente en el tratamiento de
infecciones por hongos, tan comunes en pacientes
inmunodeprimidos
(tratamiento
del
cáncer,
trasplantados, víctimas del VIH), como también en las
provocadas por algunas bacterias y virus. Todo este
complejo mecanismo, en el endometrio, tiene un
comportamiento particular. Así, por ejemplo, en
presencia de una posible infección, los receptores TLR
atraen a las células NK (uNK o células NK uterinas) y a
macrófagos para que desarrollen la respuesta
inmunitaria requerida. Las uNK son una población
heterogénea que surge, o bien de progenitores locales, o
bien de células NK periféricas (residentes en la sangre).
El número absoluto de estas células aumenta durante la
ovulación, aunque se mantiene en una proporción
constante durante todo el ciclo menstrual (30%) con
respecto a otros glóbulos blancos. Pero, durante el
embarazo, esa proporción aumenta al 70%, de lo que se
infiere que las uNK están involucradas en el éxito de los
procesos de implantación y progreso del embarazo, pero
también en su fracaso cuando el mecanismo está
corrupto (D’Ippolito et al., 2018).
A veces, se altera la expresión de los genes que
codifican las proteínas involucradas en el proceso
inflamatorio (de los reconocedores de patrones), esto
desencadena una serie de trastornos en el
funcionamiento de los distintos grupos de glóbulos
blancos, alterando por consiguiente, la secreción de
anticuerpos que se vuelven en contra del propio
organismo (al que desconocen), incrementándose
también los inflamasomas y la liberación de sustancias
258
que agreden las células, ahora no invasoras, sino del
endometrio normal (Op. Cit.). Más allá de que haya
habido o no una infección previa, esta falla en el
reconocimiento, sobre todo, por parte de los receptores
TLR (asociados a los CLR), alteran el proceso de
implantación y producen una endometritis crónica que ya
no depende de un germen, de un hongo o de un virus,
sino de un desbalance en la respuesta inmunitaria.
La inmunidad local, también se puede ver alterada en
presencia de una disbiosis (Hedayat y Lapraz, 2019, p.
79).
Como consecuencia, cae la tasa de implantación, y por
lo tanto, de embarazos; en aquellos embarazos que
logran comenzar, el endometrio inflamado no los puede
mantener, descendiendo en todos los casos el número
total de nacidos vivos.
5.0. CONCLUSIONES
La definición de un nuevo modelo nosológico de la
endometritis crónica, según lo concebimos en este
trabajo, se sustenta en los aspectos básicos que facultan
un cuadro de endometritis, de acuerdo a como lo
muestra la Figura 7.
Figura 7 PAU DE LA ENDOMETRITIS
259
Según la Figura 7, cuando un agente patógeno alcanza
el endometrio, alojado dentro del útero, se producen una
serie de fenómenos encadenados. En primer lugar,
aparece una reacción estructural que se hace sentir en
el órgano uterino; luego, una reacción funcional que
altera el comportamiento del epitelio del endometrio,
trayendo consecuencias tanto en el régimen menstrual
como, en el caso de la posibilidad de un nuevo
embarazo. Por otro lado, la infección, produce una
reacción sistémica (es decir, que involucra a todo el
organismo), cuando se desencadena la respuesta
inmunitaria para tratar de defenderse de la agresión y
sus consecuencias. La reacción inmunitaria que se da
en el endometrio puede ser anómala y desembocar en
una inflamación crónica, como hemos visto.
Teniendo en cuenta lo precedente, es posible hacer el
diagnóstico de endometritis crónica, aunque no existan
las evidencias habituales, al descubrir, mediante un
minucioso análisis del aparato inmunitario local, algún
tipo de desviación de su funcionamiento normal.
Por otro lado, surge la posibilidad de no abandonar los
intentos de lograr un embarazo que concluya
exitosamente en aquellos casos de falla repetida de
implantación, en donde el tratamiento tradicional
(antibióticos, corticoides, estimulantes de la médula
ósea, etc.) no haya dado resultado. Investigaciones muy
recientes (Tersoglio, Tersoglio, Salatino et al., 2019b)
muestran que el uso de células madre mesenquimales
pueden regenerar un endometrio debilitado, como el que
queda, por ejemplo, cuando se ha desarrollado una
endometritis crónica.
260
REFERENCIAS
Baker, J.M.; Chase, D.M.; Herbst-Kralovetz, M.M.
(2018). Uterine Microbiota: Residents, Tourists, or
Invaders? Frontiers in Immunology, Volume 9, Article 208,
pp. 1-16.
Balada, F.N. et al. (2012). Farmacología y endocrinología
del comportamiento. Barcelona, Editorial UOC.
Bouet P.E. et al. (2016). Chronic endometritis in women
with recurrent pregnancy loss and recurrent implantation
failure: prevalence and role of office hysteroscopy and
immunohistochemistry in diagnosis. Fertil Steril. 105, pp.
106-110.
Cicinelli, E. (2017). Chronic endometritis in patients with
unexplained infertility: Prevalence and effects of antibiotic
treatment on spontaneous conception. Am J Reprod
Immunol. Vol. 79(1), e12782, pp. 1-6. doi:
10.1111/aji.12782.
D’Ippolito, S. et al. (2018). Endometrial microbes and
microbiome: Recent Insights on the inflamatory and
immune “players” of the human endometrium. Am. J
Reprod Immunol, 2018e13065. Doi 10.1111/aji.13065.
Dranoff, G. (2004). Cytokines in Cancer Pathogenesis
and Cancer Therapy. Nature Reviews/Cancer, Vol. 4, pp.
11-22.
García Segovia, A.; Sanchez-Ramón, S. (2015). Estado
actual del estudio de las células NK en pacientes
infértiles. Revista Iberoamericana de Fertilidad, Vol. 32,
Nº 2, pp. 3-11.
Hedayat, K.M.; Lapraz, J.C. (2019). The Theory of
Endobiogeny. Volume 2: Foundational Concepts for
Treatment of Common Clinical Conditions. Elseiver
Academic Press.
Hirata, K. et al. (2020). Histological diagnostic criterion for
chronic endometritis based on the clinical outcome. BMC
Women’s Health (en prensa).
261
Johnston-Mac Ananny, E.B. et al. (2010). Chronic
endometritis is a frequent finding in women with recurrent
implantation failure after in-vitro fertilization. Fertil Steril.,
93, pp. 437-441.
Kimura, F. et al. (2019). Review: Chronic endometritis
and its effect on reproduction. J. Obstet. Gynaecol. Res.,
pp. 1-10. doi:10.1111/jog.13937
Kitaya, K. et al. (2019). Characterization of Microbiota in
Endometrial Fluid and Vaginal Secretions in Infertile
Women with Repeated Implantation Failure. Mediators of
Inflammation. Volume 2019, Article ID 4893497. doi:
10.1155/2019/4893497.
Madigan, M.T. et al. (2019). Brock Biology of
Microorganisms. New York, Pearson.
McQueen, D.B. (2015). Pregnancy outcomes in women
with chronic endometritis and recurrent pregnancy loss.
Fertil. Steril., 104(4), pp. 927-931. doi: 10.1016/
j.fertnstert.2015.06.044.
Moreno, I.; Simon, C. (2019). Deciphering the effect of
reproductive tract microbiota on human reproduction.
Reprod Med Biol., 18, pp. 40-50
Noce, A. et al. (2014). Gut Microbioma Population: An
Indicator Really Sensible to Any Change in Age, Diet,
Metabolic Syndrome, and Lifestyle. Mediators of
Inflammation, Volume 2014. Article ID 9011308. doi:
10.1155/2014/901308
Plato, A.; Hardison, S.E.; Brown, G.D. (2015) Pattern
recognition receptors in antifungal immunity. Semin
Immunopathol., 37, pp. 97-106.
Reece, J.B. et al. (2018). Campbell Biology. Ontario,
Canada, Pearson.
Romero R, Espinoza J, Mazor M. (2004). Can
endometrial infection/inflammation explain implantation
failure, spontaneous abortion, and preterm birth after invitro fertilization? Fertil Steril., 82, pp. 799-804.
262
Salatino, D. R. (2019). “Fundamentals of a new research
method” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No. 1:
pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371.
Suresh, R.; Mosser, D.M. (2014). Pattern recognition
receptors in innate immunity, host defense, and
immunopathology. Adv Physiol Educ., 37, pp. 284-291.
Tersoglio, A.E.; Salatino, D.R.; et al. (2015) Repeated
implantation failure in oocyte donation. What to do to
improve the endometrial receptivity? JBRA Assisted
Reproduction, 19(2), pp. 44-52. doi: 10.5935/15180557.20150012
Tersoglio, A.E.; Salatino, D.R.; et al. (2019a). The
endometrium histopathology and its NK cells
concentration, results as predictors variables of clinical
pregnancy in repeated implantation failure. (En prensa).
Tersoglio, A.E.; Tersoglio, S.; Salatino, D.R. et al.
(2019b). Regerative therapy by endometrial mesenchymal
stem cells in thin endometrium with repeated implantation
failure. A novel strategy. JBRA Assisted Reproduction (En
prensa).
Vitagliano, A.; Saccardi, C.; Noventa, M. (2017). Chronic
endometritis: Really so relevant in repeated IVF failure?.
Am J Reprod Immunol;e12768, Letter to the Editor. doi:
10.1111/aji.12758.
Vitagliano, A. et al. (2018). Effects of Chronic
endometritis therapy on in vitro fertilization outcome in
women with repeated implantation failure: a systematic
review and meta-analysis. Fertility and Sterility, 110(1),
pp. 103-112.e1.
Zaru R. (2019). Pattern recognition receptor (PRRs)
ligands. Bitesized Immunology. Accedido el 6/10/2019.
https://www.immunology.org/public-information/bitesizedURL
immunology/receptores-y-mol%C3%A9culas/pattern-recognition-receptor-prrs
***
263
264
12. MODELACIÓN: LÓGICA Y ALCANCES
María Noelia Robles44; Raúl César Pérez 45;
[email protected];
[email protected]
Resumen: La utilización de la modelación para el estudio
científico y tecnológico en diferentes áreas es cada vez más
habitual. Sin embargo, deben analizarse los límites aceptables
de sus aplicaciones y las condiciones de su validez. Cuando se
recurre al modelado con estos fines conviene considerar
cuestiones importantes como: 1) El resultado de los modelos
es una aproximación a la realidad, que en ocasiones no es
descripta correctamente, por lo que es necesario validar sus
resultados, confrontando los fenómenos reales con las
simulaciones correspondientes, para ver si el ajuste es
aceptable. 2) Cuando se utilizan ecuaciones matemáticas para
formalizar los procesos de estudio se realizan simplificaciones
que, usualmente, eliminan términos responsables de describir
fenómenos importantes que el modelado no contempla o es
incapaz de reproducir. Por estas y otras razones, los resultados
de los modelos deben ser confrontados con los resultados de
los hechos reales, para ver el grado de validez de su utilización.
Es importante también, considerar los tipos de modelos
existentes que pueden clasificarse en: Teóricos: tratan de
describir los fenómenos por medio de las ecuaciones
matemáticas que los formalizan, Empíricos: utilizan como
materia prima los datos obtenidos a través de mediciones
experimentales implementadas y por medio de la estadística,
desarrollan modelaciones que ajusten a los resultados
obtenidos, y Computacionales: se toman las dos
44
Centro de Estudios para el Desarrollo Sustentable (CEDS). Facultad
Regional Mendoza. UTN – CONICET.
45
Centro de Estudios para el Desarrollo Sustentable (CEDS). Facultad
Regional Mendoza. UTN
265
metodologías mencionadas anteriormente, y se integran para
implementar y/o desarrollar software para modelar y simular
computacionalmente. Para mostrar con mayor claridad lo
expuesto, se desarrolla un estudio de caso completo como
ejemplo de lo afirmado.
Palabras claves: modelo, aproximación, simulación, validez.
1.0. INTRODUCCIÓN
En el desarrollo de los diferentes campos de la
investigación actual, se está generalizando cada vez
más la utilización de modelos para estudiar los procesos
y simular sus resultados.
A raíz de esta situación, se debe tener claridad en cuál
es el rol de la modelización en estas actividades, y hasta
dónde son válidas sus aplicaciones e implementaciones;
caso contrario se pueden generar y cometer graves
errores en los temas de estudio e investigación de
interés.
Por lo expuesto, se torna importante la comprensión
profunda de qué es un modelo, cuál es su lógica y
cuáles son las implicancias de su utilización.
Todo modelo surge del conocimiento de una persona
especializada en el tema, pero lo primero que se debe
observar al respecto, es que todo ser humano es
imperfecto; y en consecuencia, nada de lo que él pueda
realizar será perfecto; y los modelos no son la
excepción; motivo por el cual se debe realizar un
examen exhaustivo sobre la competencia o no de su
aplicación en la temática a estudiar.
Agravando esta situación, cuando se modeliza un hecho
o fenómeno generalmente se simplifican cuestiones que
idealizan los fenómenos, apartándose en mayor o menor
266
medida de la realidad concreta. Como consecuencia, se
debe analizar si esta diferencia es aceptable o no.
Los motivos por los cuales se recurre a esta idealización
de los fenómenos reales se pueden sintetizar en dos
razones:
1. Cuando se utilizan ecuaciones matemáticas, existen
términos que se desestiman por diversas razones:
presentan dificultades para resolverse y entonces se
simplifica la ecuación; o bien, se considera que los
valores que arrojan sus resultados son de menor orden
que el resto y se pueden despreciar. Sin embargo,
puede ocurrir que los términos de menor orden, bajo
ciertas condiciones, se tornen en resonantes; en cuyo
caso el modelo desestima la posibilidad de que tal hecho
ocurra.
2. En numerosas ocasiones, no se conocen las
ecuaciones que formalizan los fenómenos, y en
consecuencia se recurre al análisis estadístico,
obteniendo resultados que infieren conclusiones
idealizadas. En estos casos hay que ser muy estrictos al
elegir el método estadístico que se emplea para
procesar los datos obtenidos experimentalmente.
1.1 Tipos de modelo
Las diferentes investigaciones que demandan el uso de
modelos, han establecido tres grupos de modelos
distintos:
1.1.1 Modelos empíricos-estadísticos
Es común que para estudiar e investigar ciertos
fenómenos de interés, se implementen experiencias
científicas para obtener mediciones de datos de interés
sobre él. Éstas, posteriormente son procesadas para
producir información útil. Si estos procesos son tratados
267
por métodos estadísticos o formalización teórica, se
engloban dentro de este grupo. El resultado final es un
modelo estadístico que puede simular situaciones
diferentes.
1.1.2 Modelos teóricos
Este tipo de modelos son más comunes en ciencias
formales como la Física o la Matemática, donde se
formalizan los estudios e investigaciones a través de
ecuaciones matemáticas correspondientes a las leyes
que los rigen.
1.1.3 Modelos computacionales o numéricos
Afortunadamente, los avances tecnológicos de los
últimos años han puesto a disposición de los
investigadores un nuevo recurso para modelar: la
computación y el desarrollo de software específicos.
Este hecho ha potenciado enormemente las
posibilidades de modelación de fenómenos científicos,
reduciendo la complejidad y tiempo de
cálculo,
incurriendo en varios casos en el abuso y perdiendo la
noción conceptual de lo que se está procesando.
Sin embargo, es una herramienta muy potente,
especialmente en los casos que no pueden resolverse
mediante la formulación teórica o las metodologías
estadísticas, permitiendo incluso, facilitar el trabajo de
estos tipos de modelos mencionados.
No obstante, cualquiera sea el modelo que se utilice, se
debe ser muy cauto, y verificar su aplicación a la
temática que se estudia, verificando la validez de los
resultados calculados al contrastarlos con los datos
reales existentes, y comprobando si el error que se
comete es aceptable o no.
268
El propósito del presente trabajo fue ensayar y
cuantificar los procesos físico-químicos que tienen lugar
durante el confitado de cerezas en conserva elaboradas
con sacarosa mediante el método lento o Francés para
obtener un modelo matemático que se ajustara a las
mediciones halladas. Se caracterizó la evolución de
variables físico-químicas tales como: humedad, sólidos
solubles (ºBrix) de la pulpa y jarabe, pH y densidad de la
solución edulcorante. La modelación se realizó para
representar el comportamiento de las migraciones de
sólidos solubles en el interior de los frutos.
La reducción del contenido de agua en los alimentos es
uno de los métodos comúnmente empleados para
preservarlos y prolongar su vida útil. La deshidratación
osmótica (DO) es un método ampliamente utilizado para
eliminar parcialmente el agua de las frutas por inmersión
del tejido celular en soluciones hipertónicas acuosas de
azúcar (Nowacka et al. 2014). Su objetivo es producir
dos efectos principales: flujo de agua desde el producto
hacia la solución hipertónica y flujo de solutos hacia el
interior del alimento; de esta manera se produce una
reducción del contenido de agua mientras se incrementa
el contenido de sólidos solubles. En el caso que se
presenta se estudiará la difusión de los sólidos solubles
para la fase de modelado.
Para mostrar con mayor claridad lo expuesto, se
desarrollará un estudio de caso completo como ejemplo
de lo afirmado.
2.0. ESTUDIO DE CASO: MODELIZACIÓN DE LA
DIFUSIÓN DE SACAROSA EN CEREZAS EN
CONSERVA.
2.1. MATERIALES Y MÉTODOS
2.1.1. IMPREGNACIÓN DE FRUTOS
269
Se trabajó con cerezas sulfitadas de 3500-3800 ppm de
SO2, variedad Rainier sp, calibre 2,2 cm. Las cerezas se
desulfitaron mediante inmersión en agua corriente
durante 24 horas, el día previo al inicio del ensayo. Se
elaboraron cerezas en conserva con sacarosa al 100%
mediante el método lento o Francés, empleando una
relación sólido-líquido de 1:2,5. La temperatura del
ensayo se mantuvo constante a 50ºC. Se caracterizó la
evolución de variables físico-químicas tales como:
humedad y sólidos solubles (ºBrix) de la pulpa; y pH y
densidad de la solución edulcorante, a fin de verificar
que las condiciones de frontera se mantuvieran
constantes.
Cada
ensayo
constó
de
cinco
impregnaciones sucesivas en jarabes de concentración
creciente desde 25ºBrix, en el primer día, a 65ºBrix, en el
quinto, aumentando cada día la concentración de este
en 10ºBrix. El sexto día se procedió al envasado del
producto final.
2.1.2 MÉTODO DE MUESTREO
Se efectuó un ensayo destructivo tomando muestras de
cereza por triplicado en distintos tiempos, fijados con
una frecuencia determinada de muestreo. De cada
cereza se obtuvo la sección ecuatorial, (Figuras 1 y 2)
mediante dos cortes con bisturí, y sobre ella se
realizaron tres cortes concéntricos con un sacabocado
manual, que constaba de tres cuchillas (Figura 3). El
mismo, permitió medir las concentraciones en distintas
capas internas de los frutos situadas a las siguientes
distancias medidas desde el eje de simetría de la
cereza, ubicado en el centro del orificio de esta: radio 1=
0,27 cm (r1), radio 2= 0,73 cm (r2), radio 3= 1,16 cm
(r3). Cada sección circular obtenida, se dividió en dos
mitades aproximadamente de manera que, en una
sección semicircular se midió humedad, y en la otra
270
porción de muestra se midieron ºBrix, que fueron los
datos utilizados para la modelización.
Figuras 1 y 2: Corte de sección ecuatorial de la cereza;
Figura 3: Sacabocado manual.
2.1.3 MODELO EMPÍRICO
A partir de los datos obtenidos de las mediciones
realizadas, se halló un modelo estadístico del contenido
de sacarosa en las cerezas. La migración de sacarosa
en la matriz alimentaria pudo modelarse mediante la
ecuación logarítmica (1).
Cti + t = A ln(t i + t ) + b
(1)
Siendo:
t i : tiempo inicial, igual a 0
t : tiempo en horas a partir del cual se efectúa la medición
Ct i + t : valor de concentrac ión obtenido para el tiempo considerad o
Se establecieron condiciones iniciales y de borde y a
partir de dos mediciones realizadas se calcularon los
coeficientes A y b, mediante las siguientes ecuaciones
(2) y (3) respectivamente:
A=
(C p - Ca )
(ln( t p ) − ln( ta ))
(2)
271
b = Ca − A ln( ta )
(3)
Siendo: a y p, los instantes posterior y anterior considerados.
En las Figuras 4 a 7 se puede observar los valores de
salida del modelo comparados con los datos medidos
experimentalmente, desde la 1ª a la 4ª impregnación
respectivamente, para la fracción media r2.
1ª Impregnación: radio 2
Modelo
18,0
16,0
14,0
12,0
10,0
8,0
6,0
4,0
2,0
0,2
5
0,5
0
0,7
5
1,0
0
1,2
5
1,5
0
1,7
5
2,0
0
2,5
0
3,0
0
3,5
0
4,0
0
5,0
0
6,0
0
Concentración (ºBrix)
Datos empíricos
Tiempo (horas)
Figura 4: Concentración de sólidos solubles en función del
tiempo para la 1° impregnación
2ª Impregnación: radio 2
Modelo
29,0
27,0
25,0
23,0
21,0
19,0
17,0
15,0
23
,65
23
,90
24
,15
24
,40
24
,65
24
,90
25
,15
25
,40
25
,65
26
,15
26
,65
27
,15
27
,65
28
,65
Concentración (ºBrix)
Datos empíricos
Tiempo (horas)
272
Figura 5: Concentración de sólidos solubles en función del
tiempo para la 2° impregnación
3ª Impregnación: radio 2
Modelo
43,0
41,0
39,0
37,0
35,0
33,0
31,0
29,0
45
,45
45
,70
45
,95
46
,20
46
,45
46
,70
46
,95
47
,20
47
,45
47
,95
48
,45
48
,95
49
,45
50
,45
Concentración (ºBrix)
Datos empíricos
Tiempo (horas)
Figura 6: Concentración de sólidos solubles en función del
tiempo para la 3° impregnación
4ª Impregnación: radio 2
Modelo
54,0
52,0
50,0
48,0
46,0
44,0
42,0
70
,45
70
,70
70
,95
71
,20
71
,45
71
,70
71
,95
72
,20
72
,45
72
,95
73
,45
73
,95
74
,45
75
,45
Concentración (ºBrix)
Datos empíricos
Tiempo (horas)
Figura 7: Concentración de sólidos solubles en función del
tiempo para la 4° impregnación
273
2.1.4 MODELADO TEÓRICO
Este fenómeno de transferencia de sólidos puede
representarse matemáticamente, por la ecuación
diferencial que describe el proceso de movimiento de la
sacarosa en el interior del fruto, expresado por la
segunda ley de difusión de Fick, ecuación (4),
considerando la cereza con una geometría esférica
(Crank, 1975).
2C =
1 C
D t
(4)
Siendo:
C= la concentración [mol . L−1]
t= el tiempo [s]
r= la posición [m]
D=el coeficiente de difusión [m2. s−1]
Para el cálculo de este, se propone la variación del
coeficiente de difusión en función del tiempo mediante la
relación:
D(t ) =
D0
(1 + t )
(5)
Al trabajar con tres dimensiones se emplea el Laplaciano
que generaliza la segunda derivada, para resolver la
ecuación de Fick. Dado que la simetría del problema es
esférica, se trabajó con el laplacianos en coordenadas
polares
esféricas,
obteniéndose
la
ecuación
(6)
(6)
Además, para simplificar el modelo, se considera
isotropía de las propiedades de la pulpa de la cereza,
274
aceptando que existe variabilidad sólo a lo largo del
radio de esta, motivo por el cual solo se conserva el
término correspondiente a la variación radial.
2 f =
1 2 f
r
r 2 r r
(7)
Se observa que la función solución que describe el valor
de la concentración en un punto particular del fruto es
dependiente del radio r y del tiempo t.
Para obtener la función solución la ecuación, se propone
el método de variables separables de la forma:
(8)
Posteriormente se establecen condiciones iniciales y de
contorno, utilizando las mediciones realizadas y se
obtiene como parte de la función solución, la
dependiente del tiempo, la ecuación (9).
T(t) = T0 (1 + t) K
2
D 0
(9)
Como parte radial de la función solución, se propone:
R(r) = cos
(k r)
r
(10)
Esta ecuación es elegida entre las posibles funciones
soluciones, debido a que representa mejor la difusión
radial, puesto que puede explicar en forma más intuitiva
el proceso de transferencia de solutos, como una onda
esférica estacionaria, ayudando a la mejor comprensión
del concepto físico.
275
Finalmente, la función solución completa del modelo
propuesto, como resolución de la ecuación diferencial se
puede expresar como sigue:
C(r, t) = T(t) R(r) = T0 (1 + t) K
2
D 0
cos
(k r)
r
(11)
Utilizando como condiciones iniciales, para t=0 y 2
valores de radios medidos distintos, se obtuvo el valor
de K mediante la ecuación (12):
LN
Km =
(rm C( m, 0) )
(ra C( a ,0) )
(rm − ra )
(12)
Donde:
m: corresponde al radio medido donde se calcula K;
a: corresponde al radio medido en la posición anterior
que se considera para el cálculo.
Estableciendo las condiciones iniciales y de contorno
correspondientes se obtiene el valor para D0.
C ( m, p )
LN
C
( m,a )
D0 = 2
K LN (1 + t p )
(13)
Los subíndices a y p, son los instantes posterior y
anterior considerados.
A continuación se presentan, en los gráficos de las
Figuras 8 a 10 los datos de concentración obtenida para
los tres radios distintos medidos, desde la 1° y hasta la
3° impregnación, y su comparación con los valores
obtenidos por el modelo.
276
1ª a 3ª Impregnaci ón: radi o 1
Concentración (mol/L)
Da tos Empíri cos
Mode l o
0,0016
0,0014
0,0012
0,0010
0,0008
0,0006
0,0004
0,0002
0,0000
0 0 0 5 0 0 0 0 0 0 0 5 0 0 7 7 7 7 2 2 4
0,0 0,5 1,0 1,2 2,0 3,0 4,0 25,0 25,5 26,0 26,5 27,0 28,0 29,5 49,1 49,6 50,1 50,6 51,4 52,4 55,5
Tiempo (horas)
Figura 8: Concentración de sólidos solubles en función del
tiempo para la fracción central: radio 1 = 0,27 cm
1ª a 3ª Impregnaci ón: radi o 2
Mode l o
0,
00
0,
50
1,
00
1,
25
2,
00
3,
00
4,
0
25 0
,0
25 0
,5
26 0
,0
26 0
,5
27 0
,0
28 5
,0
29 0
,5
49 0
,1
49 7
,6
50 7
,1
50 7
,6
51 7
,4
52 2
,4
55 2
,5
4
Concentración (mol/L)
Da tos Empíri cos
0,0016
0,0014
0,0012
0,0010
0,0008
0,0006
0,0004
0,0002
0,0000
Tiempo (horas)
Figura 9: Concentración de sólidos solubles en función del
tiempo para la fracción media: radio 2 = 0,73 cm
1ª a 3ª Impregnaci ón: radi o 3
Mode l o
0,0015
0,0010
0,0005
0,0000
0,
00
0,
50
1,
00
1,
25
2,
00
3,
00
4,
0
25 0
,0
25 0
,5
26 0
,0
26 0
,5
27 0
,0
28 5
,0
29 0
,5
49 0
,1
49 7
,6
50 7
,1
50 7
,6
51 7
,4
52 2
,4
55 2
,5
4
Concentración (mol/L)
Da tos Empíri cos
0,0020
Tiempo (horas)
Figura 10: Concentración de sólidos solubles en función del
tiempo para la fracción externa: radio 3 = 1,16 cm
277
Posteriormente se verifica el ajuste al modelo hallado
contrastando con las mediciones por medio de software
computacional.
3.0. RESULTADOS Y DISCUSIÓN DEL MODELO
EMPÍRICO
Luego de calcular el error entre los valores reales y los
calculados por el modelo empírico, se encontró que los
errores en promedio fueron del 0,77%, 1,10% y 1,19%
para r1, r2, y r3 respectivamente. La dificultad mayor se
tuvo durante la primera impregnación, puesto que al
estar la matriz desprovista de sólidos, el potencial
difusivo fue mayor y por lo tanto el sistema tardó más en
estabilizarse. Una vez determinado esto, se calculó
nuevamente el error promedio sin considerar el primer
día de impregnación y los valores se redujeron a: 0,18%,
0,62% y 0,88% para r1, r2, y r3 respectivamente. La
fracción central r1 fue la que mejor ajustó al modelo
hallado estadísticamente, ya sea que se considerara o
no el primer día de impregnación.
3.1. RESULTADOS Y DISCUSIÓN DEL MODELO
TEÓRICO
En este caso se encontró que los errores en promedio
fueron del 2,94%, 0,72% y 3,63% para r1, r2, y r3
respectivamente. Al igual que en el caso anterior, la
dificultad mayor se tuvo durante la primera
impregnación. Sin embargo, la fracción intermedia r2 se
modeló mejor, aun considerando la oscilación del primer
día de impregnación. Se procedió al cálculo del error
promedio nuevamente, sin considerar el primer día de
impregnación y los valores obtenidos fueron: 0,72%,
1,57% y 1,51% para r1, r2, y r3 respectivamente. A partir
278
de los resultados obtenidos se determinaron los
coeficientes de difusión, parámetro clave que se
necesita en el análisis, diseño y optimización de la
transferencia de masa durante el proceso de
deshidratado de los alimentos.
3.2. RESULTADOS GENERALES
La fracción externa r3, fue en ambos casos la más difícil
de modelar puesto que, probablemente al suponer
isotropía, dejó de considerarse la resistencia a la
difusión que supone la piel de la cereza por su
estructura, al ingreso de la sacarosa. Se concluyó que el
mayor error en ambos casos se produjo el primer día,
cuando aún el sistema no había alcanzado el equilibrio y
la matriz se encontraba desprovista de sólidos. El
potencial de difusión fue máximo y las fluctuaciones
producidas mayores. Debido a los errores calculados, se
concluye que para ambos tipos de modelación el ajuste
es adecuado y los modelos pueden ser aplicados al caso
de estudio propuesto.
4.0. CONCLUSIONES
_ Para el caso en estudio, los tres modelos ajustaron
aceptablemente.
_ Fue muy importante el trabajo de mediciones
realizados para tener suficiente información a fin de
desarrollar un modelo válido.
_ Es imposible que no surjan diferencias relevantes
entre los resultados obtenidos por un modelo y las
279
mediciones realizadas a través de experiencias, esto se
debe a que en ambos procesos se cometen errores.
REFERENCIAS
Crank J. (1975). The Mathematics of Diffusion, 2nd Ed.,
Clarendon Press, Oxford, U.K.
Nowacka M., Tylewicz U, Laghi L, Dalla Rosa M,
Witrowa-Rajchert D. (2014). Effect of ultrasound
treatment on the water state in kiwifruit during osmotic
dehydration. Food Chemistry, 144, 18-25.
280
281
282
13. MODELADO HEURÍSTICO DE LA
DEMOSTRACIÓN POR EL ABSURDO
Luis Eduardo Gómez46
Resumen: Este artículo es la continuación de uno
anterior, titulado Heurística demostrativa (Gómez, 2017),
en el cual se introdujo un método de modelado heurístico
formal deductivo-abductivo para el aprendizaje de la
demostración formal directa de la validez mediata, de
formas argumentales en la Lógica Proposicional. Este
artículo presenta el modelo heurístico para el aprendizaje
de la demostración indirecta por el absurdo. La
demostración se continúa modelando por la combinación
de la deducción y de la abducción formal, pero el modelo
de búsqueda cambia. Esta modificación es necesaria ya
que el objetivo heurístico de toda demostración directa es
la conclusión, mientras que en la demostración indirecta
por el absurdo se proponen diversos objetivos que son
contradicciones. El modelado tiene los mismos
fundamentos metodológicos que el descripto para el
camino directo pero su operatoria es distinta. Este
artículo está estructurado en dos partes. En la primera se
dan algunas nociones básicas teóricas del modelo y en la
segunda se muestra su funcionamiento. El modelo es el
resultado de una convergencia de procesos de
deducción y de abducción formal. Para evidenciar su
flexibilidad y potencia, se desarrolla un ejemplo de
modelado heurístico de demostración indirecta por el
absurdo de una forma argumental típica. Se muestra
cómo se hace uso del modelo, construyendo varias
demostraciones. Se concluye que el modelo heurístico
propuesto es potencialmente útil para el aprendizaje de la
demostración por el absurdo en función de reglas en los
cursos de Lógica.
46
Facultad Regional Mendoza, Universidad Tecnológica Nacional.
Facultad de Filosofía y Letras, Universidad Nacional de Cuyo
283
Palabras claves: deducción, demostración indirecta,
contradicción, abducción formal, heurística deductivoabductiva.
1. INTRODUCCIÓN
Uno de los logros más importantes en el ámbito de la
educación en Lógica Proposicional clásica bivalente (LP)
es el aprendizaje de la justificación formal de la validez
de un esquema de razonamiento deductivo. Tal
justificación puede ser directa o indirecta.
Este artículo es la continuación de otro anterior, titulado
Heurística demostrativa (Gómez, 2017) en el cual se
introdujo un método de modelado heurístico formal
deductivo-abductivo para el aprendizaje de la
demostración directa de la validez mediata de formas
argumentales consistentes en la Lógica Proposicional.
Este artículo presenta el modelo heurístico para el
aprendizaje de la demostración indirecta por el absurdo.
En la demostración indirecta el modelo de búsqueda
cambia. Esta modificación es necesaria ya que el objetivo
heurístico de toda prueba directa es la conclusión,
mientras que en la demostración indirecta se proponen
diversos objetivos, que son contradicciones. El modelado
tiene los mismos fundamentos metodológicos que el
descripto para el camino directo pero su objetivo es
distinto.
El artículo está estructurado en dos partes. En la primera
se dan algunas nociones básicas de LP, y se ofrece una
visión novedosa de la Regla del Absurdo. Luego se
presenta el modelo y su funcionamiento. El modelo está
orientado hacia una convergencia de series demostrativas
en las cuales se emplean los métodos de deducción y de
abducción formal.
284
Para evidenciar su flexibilidad y potencia, se desarrolla un
ejemplo de modelado heurístico de demostración
indirecta por el absurdo de una forma argumental típica.
Se muestra cómo se usa el modelo, construyendo varias
demostraciones de una misma forma argumental.
1.1. FORMA PROPOSICIONAL
ARGUMENTAL (FA)
(FP)
Y
FORMA
Se llama forma argumental (FA) deductiva a un
esquema formal de argumento constituido por formas
proposicionales (FP) pi y por la inferencia, o relación de
consecuencia lógica deductiva de una conclusión o
consecuente (Φ) a partir de las premisas o antecedente
(Γ). Γ representa el conjunto de las premisas: {p1, …, pn}.
Cada FP es una ‘fórmula bien formada’ (fbf), esto es,
una fórmula que cumple las reglas de formación del
lenguaje LP. Una FP es un esquema o un nombre de
proposición.
|- es el deductor sintáctico, y simboliza la derivación
formal o consecuencia lógica de Φ a partir de Γ. Indica
que la conclusión se sigue necesariamente de las
premisas. Es decir, la FA Γ |- Φ es deducible en LP.
Una característica esencial de todo argumento y de toda
FA deductivos es su validez en un sistema lógico L. Una
FA en la lógica proposicional clásica bivalente (LP)
puede ser evaluada como válida o inválida en función de
que Φ se deduzca, o no, de Γ.
Se prueba la validez estableciendo una secuencia
deductiva entre las premisas y la conclusión en función
de reglas.
285
1.2. VERDAD Y VALIDEZ SEMÁNTICA
El conocimiento científico está orientado a la verdad de
sus afirmaciones, por lo cual debe tener en cuenta la
validez formal y material de sus formas argumentales.
Debe cuidar la consistencia, la relevancia, y la
suficiencia de sus premisas, de modo que sea imposible
derivar de ellas una conclusión falsa, o contradictoria.
Un argumento que carece de una premisa necesaria
para fundamentar la conclusión, o que contiene (al
menos) una premisa falsa, o que posee premisas
inconsistentes, es “vacuamente” válido pero débil e
inaceptable en ciencias fácticas.
Del mismo modo, un argumento cuya conclusión es
verdadera pero sus premisas no son importantes ni
relevantes ni suficientes para fundamentar dicha verdad
es “trivialmente” válido desde un punto de vista formal
pero totalmente inútil, inaceptable y dañino epistémica y
operativamente.
Un argumento es sólido, fuerte, si es válido y sus
premisas son verdaderas. En las ciencias fácticas se
busca la verdad semántica, por lo que es necesario darle
importancia no sólo a la validez sino a la fortaleza,
solidez, o firmeza de sus inferencias.
Una modelación que contenga una premisa falsa (o
ausente) o premisas inconsistentes, puede ser
formalmente válida pero materialmente débil, falsa e
incluso potencialmente perjudicial, aun cuando, por azar,
el resultado sea útil y verdadero dentro de las fórmulas y
los parámetros de error aceptados circunstancialmente.
“[C]ada razonamiento lógicamente correcto no es
mejor o peor que las premisas en las que se
apoya” (Suppes, 1988, p.132)
286
2 DEMOSTRACIÓN DE LA VALIDEZ ARGUMENTAL
La demostración de validez formal de una FA es la
secuencia deductiva, justificada mediante reglas, de que
la conclusión deriva de las premisas. Demostrar es
poner en evidencia la razón de dicha derivación. Si la FA
es válida, entonces las premisas son la razón suficiente
para la conclusión y la conclusión es la razón necesaria
para las premisas. Luego, si la FA es válida y la
conclusión es falsa, al menos una premisa es
necesariamente falsa. Y si la FA es válida y las premisas
son verdaderas, la conclusión es necesariamente
verdadera.
La demostración de validez inmediata de una FA se
hace manifestando la regla que justifica la deducción de
la conclusión a partir de las premisas, sin pasos
intermedios. La demostración mediata es la secuencia
deductiva de formas proposicionales (FP) justificadas
por reglas, que deriva la conclusión.
Los métodos de prueba formal de validez mediata son:
el directo, el indirecto, y el del condicional asociado. En
los métodos directo e indirecto se establece una
secuencia de inferencias que deduce la conclusión.
En el método del condicional asociado se “analogan” la
consecuencia lógica con la implicación material, y se
“convierte” la FA ( Γ |- Φ ) en su FP análoga ( Γ→ Φ ).
Finalmente, se “analogan” la valuación de verdad de la
FP y la valuación de validez de la FA: si la FP es
tautológica, la FA es válida (y si no, no).
“[E]l fundamento lógico del método del condicional
asociado es la analogía formal entre estructuras lógicas
diferentes (FAs y FPs). Esto brinda la ventaja pragmática
de poder utilizar todos los métodos de prueba de
tautologías, y luego “analogar” la verdad proposicional con
la validez argumental” (Gómez, 2017, pp. 65-6).
287
2.1. DEMOSTRAR Y APRENDER A DEMOSTRAR
La demostración mediata que se ofrece en los textos de
lógica proposicional es un desarrollo completo. Muestra
un resultado exitoso. Pero para los alumnos, en la
enseñanza y aprendizaje de la lógica, la demostración
es un proceso, a veces fallido, de búsqueda y encuentro
(euriskein) de dicho resultado.
La heurística demostrativa que se propone aquí es un
proceso de apertura de múltiples árboles deductivos y
abductivos cuyo fin es llegar a resultados comunes que
funcionan como ‘puentes’ que permiten reconstruir las
demostraciones deductivamente, y abductivamente (a
elección).
2.2. LA ABDUCCIÓN FORMAL
Se propone en LP, como el método inverso a la
deducción. La abducción parte de la conclusión y busca
las posibles premisas que le dieron origen, en función de
las reglas deductivas. Dada una conclusión, se proponen
dos clases de premisas: las que son lógicamente
equivalentes a la conclusión, y las que implican
lógicamente a la conclusión.
Por ejemplo: si en algún estado de avance del proceso
heurístico demostrativo aparece una conclusión
disyuntiva (p v q) a la cual es necesario llegar, la
pregunta abductiva es:
¿cuáles son las premisas posibles de donde deriva?
Debajo se dan algunas opciones, separadas según
surjan por equivalencia o por implicación lógicas.
Hay que leer las columnas de derecha a izquierda:
288
Γ -| Φ
Abducción por equivalencia lógica
-|
Regla
Premisa/s posible/s (Γ)
Def →
p → q
pvq
DeM
pvq
Conm
( p ∧ q )
Idempot
(p v q) v (p v q)
DN
( p v q ) (p v q) (p v q)
pvq
Absorción
p v ( p ∧ q )
pvq
Γ -| Φ
Conclusión
qvp
pvq
(p v q) ∧ (p v q)
pvq
Abducción por implicación lógica
Regla
Premisa/s posible/s
-|
Conclusión
vI
p
pvq
vI
q
pvq
DC
( r → p ), ( s → q ), ( r v s )
pvq
SD
(( p v q ) v r ), r
pvq
∧E
(p v q) ∧ r
pvq
3. DEMOSTRACIÓN DE VALIDEZ INDIRECTA
La demostración indirecta es de dos clases: 1) por
contraposición y 2) por contradicción o reducción al
absurdo (RAA).
289
1) La prueba por contraposición se usa cuando resulta
difícil llevar adelante la prueba directa de la FA: Γ |- Φ y
es más accesible demostrar Φ |- Γ. La relación entre
estas FA es análoga a la de sus condicionales
asociados, entre los cuales hay una equivalencia lógica
llamada ley de contraposición:
( Γ → Φ ) ( Φ → Γ )
La prueba por contraposición toma como premisa la
contradictoria de la conclusión dada, y deduce la
contradictoria de (al menos una de) las premisas dadas.
Demuestra indirectamente una FA, al probar una FA
análoga por contraposición. Luego, el fundamento lógico
de la prueba por contraposición es la analogía formal
entre la FA probada ( Φ |- Γ ) y la FA dada ( Γ |- Φ ),
cuyas FP (los condicionales asociados respectivos) son
equivalentes lógicamente por la ley de contraposición.
Φ |- Γ si y sólo si
Γ |- Φ
Algunos autores consideran que en este tipo de prueba
se utiliza (como analogado) la ley del modus tollendo
tollens (MTT, o MT), cuya forma es
((Γ→Φ)&Φ)Γ
La ley del MT es deducible de la ley de contraposición
(por la ley de importación):
Si (Γ → Φ) ↔ (Φ → Γ), (Γ → Φ) → (Φ → Γ).
Luego si (Γ→ Φ) → (Φ → Γ), ((Γ → Φ) & Φ) → Γ
Ya los estoicos hicieron la derivación inversa, tomando
al modus tollens como la segunda “forma básica” de FA
válida, y de ella derivaron la contraposición.
En la práctica, la prueba por contraposición puede
desarrollarse con un formato análogo, manteniendo en el
antecedente algunas de las premisas de la FA original, y
290
concluyendo la contradictoria de (al menos) una de las
premisas restantes (una es suficiente).
Sean Γ1 = y Γ2 = Γ = (pa ∧ … ∧ pn),
o bien Γ1 = (pa ∧ … ∧ pj) y Γ2 = (pk ∧ … ∧ pn),
o bien Γ1 = (pa ∧ … ∧ pn-1), y Γ2 = pn.
La prueba por contraposición, se funda en la analogía
formal entre las FA (Φ, Γ1 |- Γ2) y (Γ1, Γ2 |- Φ), por la
equivalencia lógica entre sus condicionales asociados:
( Γ1 ∧ Φ ) → Γ2 ( Γ1 ∧ Γ2 ) → Φ
Luego, Γ1 , Φ |- Γ2 si y sólo si Γ1, Γ2 |- Φ
2) La prueba indirecta por reducción al absurdo (RAA)
es una forma de Demostración Condicional.
Razonamos por reductio ad absurdum cuando asumimos
la negación de lo que estamos tratando de probar, y
luego, a partir de esta suposición, junto con otros
supuestos explícitos o de fondo, podemos deducir una
contradicción explícita.(Jacquette, p.243).
Se apoya en los principios lógicos de no-contradicción
(PNC) y de tercero excluido (PTE). El PTE sostiene que
toda proposición es o bien verdadera o bien falsa, y no
hay una tercera opción. En símbolos: |- Φ v Φ.
El PNC dice que toda contradicción es una falsedad
lógica (⊥) y es inaceptable, y lógicamente imposible.
Toda lógica consistente se sostiene en este principio. En
símbolos: |- ( Φ ∧ Φ ).
Dos proposiciones contradictorias no pueden ser ni
verdaderas ni falsas a la vez. En LP una contradicción es
una FP que es interpretada como lógicamente falsa en
todas sus instancias de sustitución (C. de Muro, 126).
Por ejemplo: las siguientes FP son contradictorias,
291
cualesquiera que sean sus interpretaciones: ( r ∧ r ),
( p → q ) ↔ ( p ∧ q ), (p → q) → (q → p).
Los estoicos usaban la RAA como Introducción del
Negador (I, IN).
“Cuando un seguidor de Zenón quería refutar el enunciado
comunmente aceptado de que_P, hacía un argumento de
la forma 'Si P entonces Q'; y si P entonces no_Q; por lo
tanto, es imposible que_P '” (Kneale, p.124).
O sea:
((Φ → Ψ) ∧ (Φ → Ψ)) |- Φ
Gentzen (p.293-4) da la Introducción del Negador (IN).
“I: (Reductio ad absurdum.) Si podemos derivar
cualquier proposición falsa (F) de un supuesto A,
entonces A no es verdadero, o sea, se sostiene A.”
[A], …, F |- A.
siendo F = “lo falso” = contradicción =(p.e.) A ∧ A.
La regla ECQ (ex contradictione [sequitur] quodlibet) es
F |- D, o Ψ ∧ Ψ |- Φ. En NK (cálculo de lógica natural
clásica) la RAA no es ECQ. Ni es EDN, la Eliminación de
la Doble Negación: Φ |- Φ.
Copi, Scherer, Lambros, Kulathungam, presentan
formatos en los que se utiliza Ad (vI), SD y DN, o PNC y
MT. A diferencia de la lógica intuicionista, la lógica
clásica sí acepta el PTE y la Doble Negación (DN).
3.1. LA TÉCNICA DE DEMOSTRACIÓN POR EL
ABSURDO
"[l]a demostración por el absurdo, ... consiste en partir de
la negación del enunciado que se quiere probar, deducir
de allí una contradicción, y concluir, entonces, con la
afirmación del enunciado originalmente negado. La regla
de reducción al absurdo es la que permite esta clase de
razonamiento: ¬ χ → (ψ & ¬ ψ) / χ". (Cassini, p.25).
292
“En una demostración indirecta, si introduciendo la
negación de la conclusión deseada se puede deducir
una contradicción de la forma P & -P, entonces se puede
afirmar la conclusión deseada por la regla de reducción
al absurdo” (Suppes p.156)
Operativamente, la demostración por el absurdo consta
de los siguientes pasos:
1. Dada una FA, Γ |- Φ, se supone que es inválida. Esto
es, que las premisas dadas (Γ) son verdaderas y la
conclusión es falsa. Es decir, se supone que la negación
de la conclusión es verdadera. Si la conclusión es Φ, el
supuesto absurdo será Φ. Y si la conclusión es Φ, el
supuesto condicional introducido será su negación
(Φ), que equivale a Φ por la ley de Doble Negación
(DN).
2. A partir de las premisas, de las deducciones
realizadas antes del supuesto (si las hubiere) y del
supuesto condicional absurdo, se deduce una
contradicción, la cual es el cierre del supuesto.
3. Ya que las premisas se suponen verdaderas, la
contradicción se dedujo debido al supuesto de que la
conclusión es falsa. Por lo tanto, se establece la verdad
de la conclusión dada y con ello la validez de la FA que
se quería demostrar.
3.2. LA REGLA DEL ABSURDO
Estos tres pasos son precisamente lo que expresa la
Regla del Absurdo (Abs): Si de las premisas dadas,
supuestas verdaderas ( Γ ), y del supuesto condicional
que niega la conclusión, se sigue una contradicción,
entonces se deduce válidamente la conclusión. Siendo
Φ y Ψ metavariables, y ⊥ el signo de falsedad lógica, la
Regla del Absurdo se puede simbolizar como EN:
293
(a)
Γ
Φ
⁞
Ψ ∧ Ψ
(b)
Γ
(Φ)
⁞
Ψ ∧ Ψ
(c)
Γ
[Φ]
⁞
⊥
Φ
Φ
Φ
El esquema (a) equivale a: Γ, [Φ],…,Ψ,…,Ψ |- Φ. Lo
que equivale a: Γ, [Φ],…,Ψ, [Φ],…,Ψ |- Φ y también
a Γ, (Φ → Ψ), (Φ → Ψ) |- Φ.
(c) es otra representación de (a). En (a) y en (c) el
supuesto absurdo es Φ, que es el contradictorio de la
conclusión (Φ).
(b) equivale a: [ (Φ)],…,Ψ,…,Ψ |- Φ, etc. En (b) la
conclusión es Φ y el supuesto es (Φ), que equivale
a Φ (por DN). Esta equivalencia puede llevar a tomar (b)
como IN (I): Γ, [ Φ ],…,Ψ,…,Ψ |- Φ.
En la Lógica Clásica valen la ley de la Doble Negación
(DN): Φ Φ, la regla de Sustitución (RS) o
Reemplazo de Equivalentes (RE), y la regla de
Eliminación de la Doble Negación (EDN): Φ |- Φ, la
que no se confunde con la regla de explosión, o ECQ.
EJEMPLO: A continuación se ofrece un simple ejemplo
con dos pruebas por el absurdo de una misma FA que
ilustran la regla … y que no requieren un esfuerzo
heurístico.
1
2
3
4
5
6
294
(p ∧ q)
p
q
p ∧ q
(p ∧q) ∧ (p ∧q)
q
/⸫ q
Sup.Abs
2,3 ∧ I
4,1 ∧ I
3-5 Abs.
1 (p ∧ q)
2p
/⸫ q
3 q
Sup.Abs
4p→q
1, Def→
5 p
3,4 MT
6 p ∧ p
2,5 ∧ I
7q
3-6 Abs
3.3. RAA Y REFUTACIÓN
La prueba por RAA tiene dos usos: para refutar la
validez de una FA, o para establecerla. 1) Cuando se
refuta una FA Γ |- Φ, se acepta que sus premisas Γ son
verdaderas y se demuestra que su conclusión Φ es falsa
o de ella se deriva una contradicción. Aquí la RAA
funciona como Introducción del Negador (I, IN)
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA = IN para Γ |- Φ)
2) La RAA se usa principalmente como prueba de la
validez de una FA Γ |- Φ por la refutación de la
refutación de la misma. Si se prueba que de premisas
verdaderas y del supuesto de que la conclusión es falsa
(lo cual sería una refutación), se deduce una
contradicción, entonces se establece que la conclusión
dada es verdadera (= no es falsa) y la FA es válida.
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA = EN para Γ |- Φ)
4. MODELO HEURÍSTICO DEDUCTIVO-ABDUCTIVO
DE DEMOSTRACIÓN POR EL ABSURDO
Se utilizará la metavariable H para designar un conjunto
de al menos una secuencia de fbfs justificadas por
reglas que constituyen las demostraciones encontradas
{H1, H2, …, Hk} de una FA. En la heurística clásica la
secuencia Hi es el resultado de procesos deductivos. En
el modelo propuesto de heurística abductivo-deductiva,
295
Hi se descubre a partir de la concurrencia de secuencias
de fórmulas construidas desde los dos extremos:
premisas y conclusión: si = aj (Gómez, 2017, pp. 70-5).
Heurística
deductiva
Heurística
deductivo- abductiva
Γ, Hi |- Φ
Γ, Hi |- Φ
Hi = D(s1,…,si)g
Hi = {D(s1,…,si)g U A(aj,…,a1)h / (si = aj)g,h }
El primer paso del modelo heurístico para la
demostración indirecta es la construcción de la tabla de
deducciones. Se toman en cuenta las premisas y el
supuesto absurdo (la negación de la conclusión). Se
hacen deducciones por equivalencia y por implicación
lógica, y se enumera cada una de ellas.
El segundo paso es proponer los objetivos de búsqueda.
Son las FP contradictorias de las premisas, o de las FP
que componen las mismas, o de las FP equivalentes a
ellas, o deducidas de ellas. Se hace una tabla de
objetivos y se enumera cada uno de ellos.
El tercer paso es incluir en dicha tabla un esquema de
cómo llegar a los objetivos. Se plantean deducciones y
abducciones encaminadas a los objetivos. Se elabora
una tabla de abducciones por equivalencia y por
implicación lógica, y se enumera cada una de ellas.
El cuarto y último paso es la construcción deductiva de
la demostración indirecta H a partir de la concurrencia de
las deducciones y abducciones orientadas por los
objetivos.
Estos pasos no forman una secuencia lineal, sino que se
entrelazan para armar las bases y hallar las
demostraciones.
296
5. EJEMPLO DE APLICACIÓN DEL MODELO HEURÍSTICO
EN LA DEMOSTRACIÓN POR EL ABSURDO
Se parte de una forma argumental (FA) cuya validez se
pretende demostrar por el absurdo mediante reglas de
inferencia deductiva, usando el cálculo NK de deducción
natural combinado con la abducción formal. Sea la FA
(p → q), (r v p), r |- q
Por su simplicidad y comodidad se representa el proceso
demostrativo en formato de tabla. Cada premisa se
numera en una fila separada. Su formalización a modo
de tabla es:
1 p→q
2 rvp
3 r
/⸫ q
El primer paso es la construcción de la tabla de
deducciones. Se parte de las premisas (1, 2, 3) y del
supuesto absurdo (4). Se establecen dos columnas: una
para las FP equivalentes lógicamente a las premisas y al
supuesto absurdo, y otra para las FP implicadas
lógicamente por las premisas y el supuesto absurdo de
forma independiente o combinada. Cada FP es
enumerada para guiar y simplificar el proceso.
Proceso Deductivo
(1) p → q (2) r v p (3) r
FP equivalentes a (1) y a (2)
a (1): (5) p v q
(6) (p ∧ q)
(7) q → p
a (2): (8) r → p
(9) p → r
(4) q
FP implicadas
Def→
(11) p (2)(3) SD
Def→
(12) p (1)(4) MT
Transp
Def→
Conm+Def→
(10) (r ∧ p) DeM
297
En este ejemplo la primer premisa (1) tiene tres FP
equivalentes, que son (5), (6), y (7). Y otro tanto pasa
con la segunda premisa (2), cuyas FP equivalentes son
(8), (9), y (10).
En cada caso se menciona la regla de equivalencia
lógica correspondiente. A su vez, (11) y (12) son FP
implicadas lógicamente por algunas de las proposiciones
anteriores.
El segundo paso es proponer los objetivos de búsqueda,
que son, en primer lugar, las FP contradictorias de las
proposiciones dadas en las premisas.
En el ejemplo, hay dos proposiciones simples o
atómicas: p y r. Como la contradictoria de r, que es r,
es la premisa (3), un objetivo de búsqueda [o1] será r.
Esto se representa por medio del número (3) debajo de
r y de [o1] debajo de r.
Si se encuentra r (el objetivo 1), entonces por la regla de
introducción del conjuntor ∧I (o regla del producto: Prod)
se podrá construir la contradicción r y r, la cual cerrará
la deducción a partir del supuesto absurdo.
También se toman en cuenta las proposiciones
compuestas (o moleculares) que constituyen la primera y
segunda premisas: (1) (p → q) y (2) (r v p). Esto
determina dos nuevos objetivos de búsqueda: [o2] que
es (p → q) y [o3] que es (r v p).
Si se alcanza el objetivo 2 [o2], se hará el producto con
(1) para formar una contradicción. Y si se alcanza el
objetivo 3 [o3], se hará el producto con (2), logrando otra
contradicción.
298
Objetivos
FP simples
p ∧ p
r ∧ r
(11) (12) [o1] (3)
FP compuestas
(p → q) ∧ ( p → q) (r v p) ∧ (r v p)
(1)
[o2]
(2)
[o3]
H1
H2
H3
H4
En este punto se ha encontrado una contradicción en p,
ya que en (11) se dedujo p y en (12) se dedujo p. Esto
significa que la primera demostración indirecta (H1) ha
sido hallada deductivamente.
Y cada objetivo que se alcance constituirá una nueva
demostración H. La construcción deductiva de H1 es:
1 p→q
2 rvp
3 r
/⸫ q
H1
q
4
Sup.Abs.
5 p
2,3 SD
6 p
1,4 MT
p
∧
p
7
5,6 ∧ I
8 q
4-7 Abs.
El tercer paso es desarrollar las abducciones orientadas
a encontrar los tres objetivos. El primer objetivo [o1] es r.
Si r es la conclusión, no se encuentra una equivalencia
que pueda darle origen, como r v r, o r ∧ r, por ejemplo.
Entonces se busca una abducción por implicación lógica.
r se encuentra en la premisa (2) (r v p), que es una
disyunción.
Las reglas que permiten la eliminación del disyuntor son:
Casos (Cas) y Silogismo Disyuntivo (SD). Para poder
utilizar SD en (2) hay que contar con p. Pero p ha
sido deducida en (12). Así se ha alcanzado el primer
299
objetivo [o1] y con él, la segunda demostración indirecta
(H2) con contradicción en r (1a) y r (3).
[o1]
r ∧
(1a)
H2
r v p, p ⊣ r SD (1a)
(2) (12) [o1]
(rvp) p
(2) (12)
r
(3)
Cuarto paso: La construcción deductiva de H2, que
cumple el primer objetivo [o1], es:
1 p→q
2 rvp
3 r
/⸫ q
H2
4 q
Sup.Abs.
5 p
1,4 MT
6 r
2,5 SD
7 r ∧ r
6,3 ∧ I
8 q
4-7 Abs.
Ahora se hacen las abducciones por equivalencia () y
por implicación ().
Proceso Abductivo
Abducción por
¿? ⊣ r
[o1]
(p ∧ q) ⊣ (p →q) Df→ (2a)
[o2]
(r ∧ p) ⊣ (r v p) DeM (4a)
[o3]
300
Abducción por
(r v p), p ⊣ r
(2)
SD (1a)
(12) [o1]
p, q ⊣ (p ∧ q) ∧I (3a)
(11) (4)
r, p ⊣ (r ∧ p) ∧I (5a)
(3) (12)
El segundo objetivo [o2] es (p → q), que es la
contradictoria de la primera premisa (1). La abducción
por equivalencia (2a) da el equivalente lógico (p ∧ q). Y
de la abducción (3a) por implicación lógica de (p∧q)
resultan dos líneas abductivas: p, y q. Pero p ya se
obtuvo en (11) y q es el supuesto absurdo (4).
De modo que se ha obtenido una tercera demostración
indirecta (H3) con contradicción en (p → q) y (p → q).
(p ∧ q) ⊣ (p → q) [o2]
p, q ⊣ (p ∧ q)
(11) (4)
En forma de tabla
o árbol:
H3
(2a)
(3a)
(p → q) ∧ (p → q)
(1)
(p ∧ q) (2a)
p
(11)
q (3a)
(4)
4°: Luego la construcción de H3 que cumple [o2] es:
1
2
3
4
5
6
7
8
9
p→q
rvp
r
q
p
p ∧ q
( p → q)
(p → q) ∧ (p → q)
q
/⸫ q
Sup.Abs.
2,3 SD
5,4 ∧ I
6 Def→
1,7 ∧ I
4-8 Abs.
H3
Una nueva abducción por equivalencia (4a) permite
alcanzar el tercer objetivo [o3] (r v p) abduciendo su
equivalente (r ∧ p) según la ley de De Morgan.
301
Y de (r ∧ p) se abducen r (3) y p (12). Esta es la
cuarta demostración indirecta (H4) con contradicción
entre (6) y (2a).
(r ∧ p) ⊣ (r v p) DeM (4a)
H4
r, p ⊣ (r ∧ p) (5a)
( r v p ) ∧ ( r v p )
(2)
r ∧ p (4a)
r
p (5a)
(3)
(12)
La construcción deductiva de H4, que cumple [o3], es:
1
2
3
4
5
6
7
8
9
p→q
rvp
r
q
p
r ∧ p
(r v p)
(r v p) ∧ (r v p)
q
/⸫ q
Sup.Abs.
1,4 MT
3,5 ∧ I
6 DeM
2,7 ∧ I
4-8 Abs.
H4
Nuevos objetivos: El proceso deductivo permite ampliar
los objetivos de este modelo heurístico a un segundo
nivel. Éste comprende las FP equivalentes a las
premisas (1) y (2). Así, (5), (6) y (7) son equivalentes a
(1), y además (8), (9) y (10) son equivalentes a (2).
Las FP contradictorias a cada una de las seis son
nuevos objetivos.
A continuación se detallan los objetivos a encontrar para
las FP equivalentes a la premisa (1) y las abducciones
correspondientes.
302
Objetivos y abducciones
FP equivalentes a la premisa (1)
(p v q) ∧ (p v q) (p∧q)∧(p∧q) (q→ p) ∧ (q→ p)
(5)
[o4]
p ∧ q (6a)
p
(2)(3) ⊣ (11)
q (3a)
(6)
[o5]
(7)
[o6]
p q
q ∧ p
p ∧ q
(11) (4)
(4)
(11) (4)
p ∧q ⊣ (p vq) (6a) p, q ⊣ (p ∧ q) (q∧p) ⊣ (q→ p)(7a)
p, q ⊣ (p ∧ q) (3a)
H5
(3a)
H6
p ∧ q ⊣ q ∧ p (8a)
H7
Dado que (5) (p v q) es equivalente a (1), el cuarto
objetivo [o4] es su contradictoria (p v q). Por
abducción formal:
(p ∧ q) ⊣ (p v q) DeM (6a)
[o4]
p, q ⊣ (p ∧ q) (3a)
(11) (4)
La construcción deductiva de (H5), que cumple [o4] es
1
2
3
4
5
6
7
8
9
10
p→q
rvp
r
q
p
p ∧ q
(p v q)
p v q
(p v q) ∧ (p v q)
q
/⸫ q
Sup.Abs.
2,3 SD
5,4 ∧ I
6 DeM
1 Def→
8,7 ∧ I
4-9 Abs.
H5
La fórmula (6) (p ∧ q) se dedujo de (1). La FP
contradictoria de (6) es (p ∧ q), que es [o5]. Por
303
abducción formal (3a) se accede al objetivo 5. Se
obtiene (H6) con contradicción entre (6) y (3a).
1
2
3
4
5
6
7
8
9
[o5] (p ∧ q) ∧ (p ∧ q)
(3a)
(6)
p→q
rvp
r
q
p
p ∧ q
( p ∧ q)
(p ∧ q) ∧ (p ∧ q)
q
/⸫ q
Sup.Abs.
2,3 SD
5,4 ∧ I
1 Def→
6,7 ∧ I
4-8 Abs.
H6
El sexto objetivo [o6] es (q→ p) que es la
contradictoria de (7). Y (7) equivale a (1). Por abducción
formal:
(q ∧ p) ⊣ (q → p) Df→ (7a) [o6]
(p ∧ q) ⊣ (q ∧ p)
Conm (8a)
p, q ⊣ (p∧q) (3a)
(11) (4)
Se construye deductivamente H7 que cumple [o6]:
1 p→q
2 rvp
/⸫ q
3 r
H7
4 q
Sup.Abs.
5 p
2,3 SD
6 p ∧ q
5,4 ∧ I
7 q ∧ p
6 Conm
8 (q → p)
7 Def→
9 q → p
1 Transpos
10 (q → p) ∧ (q → p) 9,8 ∧ I
11 q
4-10 Abs
Finalmente se arman los objetivos para las FP
equivalentes a la premisa (2) y las abducciones.
304
Objetivos y abducciones
FP equivalentes a la premisa (2)
(r → p) ∧ (r→p)
(p→r) ∧(p→r)
r ∧ p (9a)
p ∧ r (10a)
(8)
[o7]
(3) (12)
(9)
[o8]
(r ∧ p) ∧ (r ∧p)
(10)
[o9]
(5a)
p r (11a)
r∧p ⊣ (r→p)9a p∧r⊣(p→r)10a r,p ⊣ (r∧p) I∧ 5a
r, p ⊣ (r ∧ p)5a
H8
H9
H10
En la tabla de Objetivos y abducciones de las FP
equivalentes a la premisa (2) han quedado expuestas las
estrategias heurísticas para las próximas tres
demostraciones. El objetivo 7 [o7] es (r → p): la
contradictoria de (8). Se alcanza por las abducciones
(9a) y (5a). Así se puede construir deductivamente H8.
1 p→q
2 rvp
3 r
/⸫ q
H8
q
4
Sup.Abs.
5 p
1,4 MT
6 r ∧ p
3,5 ∧ I
7 r → p
2 Def→
8 (r → p)
6 Def→
(r
→
p)
∧
(r
→
p).
9
7,8 ∧ I
10 q
4-9 Abs.
El objetivo 8 es (p → r): la contradictoria de (9). Se
alcanza por las abducciones (10a) y (11a). Así se puede
construir deductivamente H9.
(p ∧ r) ⊣ (p → r)
(10a) Def→
305
1
2
3
4
5
6
7
8
9
10
11
p, r ⊣ (p∧ r)
p→q
rvp
r
q
p
p ∧ r
(p → r)
pvr
p → r
(p → r) ∧ (p → r).
q
(11a) ∧ I (Prod)
/⸫ q
Sup.Abs.
1,4 MT
5,3 ∧ I
6 Def→
2 Conm
8 Def→
9,7 ∧ I
4-10 Abs.
H9
El objetivo 9 es (r ∧ p), cuya contradictoria es (10). Se
alcanza por la abducción (5a). Así, surge H10:
1 p→q
2 rvp
3 r
/⸫ q
H10
Sup.Abs.
4 q
1,4 MT
5 p
3,5 ∧ I
6 r ∧ p
(r
∧
p)
2
DeM
7
8 (r ∧ p) ∧ (r ∧ p). 6,7 ∧ I
9 q
4-8 Abs.
Whitehead & Russell (p.160) entendieron el “principio de
la reductio ad absurdum" (Abs) como:
“si p implica su propia falsedad, entonces p es falsa”.
Y lo representaron así: |- ( p → p ) → p.
Y en la p.164 establecen “el complemento del principio
de la reductio ad absurdum":
“[…] una proposición que se sigue de la hipótesis de su
propia falsedad es verdadera”,
306
y lo presentan como |- ( p → p ) → p.
Para Rescher, el fundamento de la RAA (como
autocontradicción) es: Si p |- p, entonces |- p.
1 p→q
2 rvp
3 r
/⸫ q
H11
Sup.Abs.
4 q
2,3 SD
5 p
1,5 →E
6 q
q
∧
q
6,4 ∧I
7
8 q
4-7 Abs.
En H11 se da una autocontradicción lógica. En 6, q no
se sigue del supuesto q. Se prueba q directamente, en
las líneas 5 y 6 (sin usar el supuesto 4), para establecer
de modo indirecto que q es falsa.
La prueba por el absurdo, que es indirecta, también
puede formar parte de una prueba directa, o contener
otra prueba por el absurdo. Estos usos no se han
considerado aquí.
6. CONCLUSIONES
1) Se ha dejado en claro aquí una diferencia entre la
prueba por contraposición y la RAA para Γ |- Φ. La
estructura de la demostración por contraposición es:
si Φ |- Γ entonces Γ |- Φ
mientras que la estructura de la RAA es
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ.
2) La RAA tiene dos usos: a) como refutación o
contraargumentación. Se supone que la conclusión es
verdadera y se deriva una contradicción, lo cual es una
prueba de invalidez de una FA (Γ |- Φ),
307
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ
(RAA es IN)
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ
(RAA es IN)
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ
(RAA es EN)
Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ
(RAA es EN)
o una prueba de invalidez de una FA (Γ |- Φ)
y b) Se supone que la conclusión es falsa y se deriva
una contradicción, lo cual es una prueba de validez (o la
refutación de la invalidez) de una FA (Γ |- Φ).
o una prueba de validez de una FA (Γ |- Φ)
El uso en el aula suele ser como prueba de validez (b), y
es el que se ha desarrollado en este artículo.
3) La heurística que conduce a por lo menos una
demostración por el absurdo de validez sintáctica de una
forma argumental en LP es más fácil y productiva cuando
resulta de una convergencia de procesos de deducción y
de abducción formal.
A través del ejemplo ofrecido se aprecia la variedad de
demostraciones y la mayor facilidad para encontrarlas
con esta heurística. Y esto deja en evidencia que el
modelo heurístico propuesto es potencialmente útil para
el aprendizaje exitoso de la demostración por reducción
al absurdo en LP en los cursos de Lógica.
Como se ha visto, el primer paso se establece casi por
completo desde el comienzo, pero los otros tres pasos
se van entrecruzando hasta dar con las secuencias
completas de las demostraciones, si las hay.
308
REFERENCIAS
Cassini, A. (2013). El juego de los principios. Una
introducción al método axiomático. 2ed. Buenos Aires: AZ
Colacilli de Muro, M.A.; Colacilli de Muro, J.C. (1975).
Elementos de Lógica Moderna y Filosofía. Buenos Aires:
Estrada.
Copi, Irving. (2001). Lógica Simbólica. 2ed. México:
CECSA.
Garrido, Manuel. (2005). Lógica Simbólica. 4ed. Madrid:
Tecnos.
Gentzen, G. (1964). Investigations into Logical Deduction.
En: American Philosophical Quarterly, Vol. 1, No. 4 (Oct.,
1964), pp. 288-306.
Gómez, Luis. (2017). Heurística demostrativa. En:
Cuadrado, G.A. y Gómez, L.E. “Ciencias de la Ingeniería
en el siglo XXI. Nuevos enfoques en su lógica, enseñanza
y práctica”. Ciudad Autónoma de Buenos Aires:
Universidad Tecnológica Nacional. Facultad Regional
Mendoza.
Jacquette, Dale. (2008) Mathematical Proof & Discovery,
Reductio ad Absurdum. Informal Logic, Vol.28, No.3
(2008), pp. 242-261.
Kneale, William y Kneale, Martha. (1972). El desarrollo
de la Lógica. Madrid: Tecnos.
Kulathungam, L. (1975). "Reductio-ad-absurdum, a
family feud between Copi & Scherer". Notre Dame
Journal of Formal Logic. Vol. XVI, No. 2.
Lambros, Charles H. (1973). “Scherer on Reductio ad
Absurdum.” Mind, 82, pp. 581-585.
Scherer, Donald. (1971). “The Form of Reductio ad
Absurdum.” Mind, 80, pp. 247-252.
309
Rescher, N. "Reductio ad Absurdum," Internet
Encyclopedia of Philosophy. http://www.iep.utm.edu/
reductio/ (12-12-2017).
Suppes, P.; Hill, S. (1988). Primer Curso de Lógica
Matemática. Barcelona: Reverté.
Whitehead, Alfred N.; Russell, Bertrand. (1981).
Principia Mathematica (hasta el *56). Madrid: Paraninfo.
***
310
14. LA RESISTENCIA AL USO DE HERRAMIENTAS
ANALÍTICAS EN CONTEXTOS ORGANIZACIONALES
Estudio exploratorio
Esteban Anzoise47; Cristina Scaraffia48; Julio H. Cuenca49
Resumen: Los resultados preliminares muestran la ausencia de
una correlación estadísticamente significativa entre la Intención
de Uso y el Comportamiento Actual hacia el uso de
herramientas analíticas, así como el uso predominante de
planillas de cálculo como herramienta de apoyo a los procesos
de decisión. El análisis del peso de los factores demográficos y
de contexto muestra que no existe una correlación
estadísticamente significativa entre la Generación a la cual
pertenece el participante y la Intención de Uso de herramientas
analíticas. EL análisis de la Posición o Nivel de decisión en la
estructura organizacional muestra que a menores niveles de
decisión existe un mayor peso por parte de los referentes más
importantes para el ejecutivo para que utilize herramientas
analíticas. Finalmente, en las organizaciones del Sector
Metalmecánico existe una mejor Actitud que en las
organizaciones del Sector de Informática y en éstas respecto
del Sector de Obras Civiles. Como puntos de aprendizaje, se
puede destacar la alta resistencia al uso de herramientas
analíticas lo que muestra la situación de desventaja de las
PyMEs relevadas por la dificultad implícita para adaptarse al
actual contexto de alta complejidad y volatilidad. La existencia
de una mayor presión social para el uso de herramientas
analíticas a menores niveles de decisión que produce una
situación de desventaja para enfrentar un mayor número de
problemas no estructurados. Finalmente, surge una oportunidad
para mejorar el proceso de difusión de estas herramientas al
desarrollar acciones de formación ejecutiva en organizaciones
del sector de desarrollo de software y del sector metalmecánico
los cuales tienen un alto aporte tanto al desarrollo de las
47
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
49
Instituto de Gestión Universitaria - Grupo IEMI & Grupo LADEI, F. R.
Mendoza, UTN
48
311
exportaciones
Geográfico.
como
el
desarrollo
del
Producto
Bruto
Palabras claves: <proceso de decisión>, <comportamiento
planeado>, <herramientas de apoyo al proceso de decisión>.
1.0. INTRODUCCIÓN
Decidir es una actividad permanente en los diferentes
niveles de decisión organizacionales50. Desde la
perspectiva del Nuevo Darwinismo (Hodgson, 2013;
Nicholson & White, 2006), puede aseverarse que la
realización de decisiones correctas en un ambiente
complejo conduce al éxito y la supervivencia de la
organización en el largo plazo (Drucker, 2007; Grünig &
Kühn, 2013; Hannan & Freeman, 1984; Hatch, 2004;
Probst & Bassi, 2014; Shimabukuro, 2016).
Diversos estudios muestran el impacto de las decisiones
en la rentabilidad de las organizaciones. Como muestra,
puede mencionarse como el mejor conocimiento en
profundidad del comportamiento de los clientes lleva a
que las organizaciones aventajen a sus pares
competidores en un 85% en el crecimiento de las ventas,
22% en ingresos netos, 25% en ROI y más del 25% en
el margen bruto51 (Brown, Kanagasabai, Pant, & Pinto,
2017; Fleming & Harter, 2009; Perrey et al., 2014).
50
Nota del autor: La voz inglesa Decide tiene las acepciones de 1. Come or
bring to a resolution in the mind as a result of consideration / 1.1. Make a
choice from a number of (Decide, 1989). La voz inglesa Choose tiene las
acepciones de 1. Pick out (someone or something) as being the best or most
appropriate of two or more alternatives / 1.1. Decide on a course of action.
(Choose, 1989).
51
Nota del autor: The DataMatics 2013 benchmarking survey was conducted
from May to June 2103 with 418 senior executives of major companies from a
wide variety of industries and distributed equally across Europe, the Americas,
and Asia. The data obtained consisted of companies’ self-assessment of their
own position and capabilities. A subsample of these results showed a positive
312
En el período 2006 – 2019, numerosos estudios globales
muestran que la complejidad creciente del contexto
(Burton & Panetta, 2017), el cambio profundo del perfil
demográfico de los consumidores (Chandler, Hostmann,
Rayner, & Herschel, 2011; Deloitte Touche Tohmatsu
Limited, 2019), y la alta volatilidad de los mercados
(Halliday, McDaniel, Reitsma, Duan, & Hart, 2017),entre
otros factores de contexto, complejizan la tarea de
decisión y muestran la existencia de errores en los
procesos de decisión que conllevan un impacto
financiero negativo en la “última línea” del Estado de
Resultados de la compañía.
En el siglo XXI, los ejecutivos enfrentan una tarea mucho
más demandante ya que deben decidir en menor tiempo
y con una mayor complejidad de la información a
analizar. Estudios de diversas disciplinas, con foco en el
proceso de decisión, muestran que un alto porcentaje de
ejecutivos decide basados en su experiencia previa,
modelos mentales o un simple conjunto heurístico de
reglas de decisión (Ariely, Rao, & Yager, 2016; Grünig &
Kühn, 2013; Kepner & Tregoe, 1997; Probst & Bassi,
2014; Stern, 2003). En consecuencia, los procesos de
decisión pueden ocurrir sin una real comprensión del
complejo sistema en el cual se halla inmersa la
organización.
Como referencia el relevamiento realizado por
PricewaterhouseCoopers (PwC) titulado PwC’s Global
Data and Analytics Survey 2016: Big Decisions™,
mostró que los ejecutivos participantes identificaron una
brecha entre la capacidad de decisión organizacional al
año 2015 y la capacidad esperada para el año 2020.
Dicha brecha se expresó en términos del alcance y la
correlation with objective performance criteria. The validation phase evidenced
a significant correlation with the companies’ return on assets.
313
exactitud de la analítica utilizada para proveer los datos
requeridos para decidir y el tiempo que se requiere para
responder una pregunta, decidir, ejecutar y medir el valor
creado como resultado (Blase, Fiendt, Yager, Rao, &
Wixom, 2016). En relación al uso de herramientas
analíticas a nivel organizacional como apoyo al proceso
de decisión, solo el 39% de los participantes reportó que
la decisión es principalmente basada en datos analíticos
(Blase, DiFilippo, Feindt, & Yager, 2016) y un 33% basan
sus decisiones en su experiencia e intuición 52 (Ariely et
al., 2016).
Dos puntos de vista teóricos principales, identificados en
la literatura como Proceso de Decisión Clásico [Classical
Decision Making (CDM)] y como Proceso de Decisión
Naturalístico [Naturalistic Decision Making (NDM)]
ofrecen diferentes modelos explicativos de los procesos
de decisión intuitivo y decisión lógica basada en datos
de contexto y el uso de herramientas analíticas basadas
en modelos (D. Collins, Collins, & Carson, 2016; L.
Collins, Carson, & Collins, 2016; Mascarenhas & Smith,
2011). Sin embargo, existen estudios limitados que
tratan de identificar el peso de los factores demográficos
y de contexto en la elección de los procesos de decisión
y en el uso de herramientas analíticas.
El foco novedoso de esta investigación es el uso del
modelo subyacente en la Teoría del Comportamiento
Planeado desarrollado por Ajzen para poder determinar
la Intención de Uso de las Herramientas de Apoyo al
Proceso de Decisión basadas en modelos. Este modelo
ha sido aplicado en diferentes áreas sociales y ha
52
Nota del autor: Este estudio se basó en una muestra estratificada
conformada por 2.106 ejecutivos C-suite, directores de unidades de negocio y
vicepresidentes seniors (SVPs) distribuidos en 10 principales economías y 15
industrias. La encuesta se completó en mayo de 2016 y fue realizada en
forma conjunta por Forbes Insights y PwC.
314
demostrado su alta capacidad predictiva (Armitage &
Conner, 2001). El segundo aspecto novedoso es la
triangulación no solo aplicando un amplio espectro de
encuestas globales sino también El Modelo de Difusión
de Innovaciones de Rogers (Rogers, 2003) y el Modelo
de Análisis de Fuerzas de Kurt Lewin (Burnes, 2004;
Cummings & Worley, 2007; Lewin, 1947). Estos dos
modelos permiten identificar los factores que impactan
positivamente en la Actitud hacia el Uso de las HAPD,
así como los factores que afectan el Control de
Comportamiento Percibido identificado por Ajzen.
Llegado este punto, es adecuado reconocer la
importancia de esta investigación para el área de las
decisiones organizacionales de las pequeñas y
medianas empresas (PyMEs). Sin descartar la intuición y
experiencia como herramientas principales de decisión,
la incorporación de Herramientas de Apoyo al Proceso
de Decisión basadas en modelos permite generar
soluciones en tiempo mínimo a situaciones complejas y
problemas no estructurados. Por ello, poder identificar
los factores que promuevan el uso de dichas
herramientas permitiría mejorar sustancialmente el
rendimiento operativo de las PyMEs que, en Argentina al
año 2018, constituyen el 97% del total de empresas
registradas, generan el 70% del empleo, el 89% de las
empresas que exportan (aunque solo el 1,5% de ellas lo
hace) y generan el 44% del PBI del país (Cámara
Argentina de Comercio y Servicios, 2018; Espacio
CAME, 2017, 2018; Roset, 2019) .
En consecuencia, y reflejando estas diferentes
perspectivas este estudio se focaliza en responder las
siguientes preguntas de investigación: Cómo es el
proceso de adopción de las Herramientas de Apoyo a
los Procesos de Decisión (HAPD) basadas en modelos
315
en organizaciones de base tecnológica y financieras; y
cuáles son las variables principales que definen el
proceso de adopción de las Herramientas de Apoyo a
los Procesos de Decisión (HAPD) basadas en modelos
en organizaciones de base tecnológica y financieras.
2.0. METODOLOGÍA
El marco metodológico para esta investigación
corresponde a un paradigma positivista, con una
metodología de investigación cuantitativa que siguió una
lógica hipotético – deductiva. Se estableció un diseño
basado en una investigación exploratoria - descriptiva,
cros-seccional no longitudinal (Cooper & Schindler,
2014; Easterby-Smith, Thorpe, & Jackson, 2015). Se
decidió establecer en la primera etapa una investigación
exploratoria ya que no existen investigaciones previas
sobre el objeto de estudio lo que impide obtener
conclusiones sobre qué aspectos son relevantes y
cuáles no. Para ello se realizó una extensa revisión
bibliográfica especializada que permitió determinar qué
factores destacados o variables favorecen y/o presentan
resistencia al uso de HAPD basadas en modelos en
organizaciones privadas del área de ingeniería y
financieras, así como una relación tentativa entre dichas
variables. Los factores identificados se obtuvieron
aplicando el Modelo de Fuerzas de Kurt Lewis y el
Modelo de Comportamiento Planeado de Ajzen. A partir
del estudio exploratorio se generó una etapa de
investigación descriptiva básica, a partir del desarrollo de
un cuestionario para recolectar evidencia de campo para
su posterior análisis, cuyo objetivo fue proveer de una
representación válida y exacta de los factores o
variables que son relevantes a las preguntas que guían
esta investigación (Cooper & Schindler, 2014).
316
Para esta investigación se utilizó una versión ampliada
del modelo de la Teoría de Comportamiento Planeado
de Ajzen identificado como Modelo Integrativo que
incluye el efecto de las variables externas o de contexto
sobre las creencias de comportamiento, creencias
normativas y las creencias de control (Bleakley &
Hennessy, 2012; Menozzi, Fioravanzi, & Donati, 2015).
Las variables de contexto que se incluyen comprende el
Sector Productivo al cual pertenece la organización, la
Generación a la cual pertenece el participante de este
estudio, el nivel de decisión en la estructura
organizacional en la cual el participante pertenece y el
grado de intensidad de uso de las HAPD en los
diferentes niveles de decisión organizacionales (Robbins
& Coulter, 2005, 2012) como se muestra en la Figura 1.
317
Figura 9: Modelo de Teoría de Comportamiento Planeado
integrado con variables de contexto.
En este estudio se aplicó el muestreo de conveniencia
(también conocido como muestreo no sistemático o
muestreo accidental) (Etikan, Musa, & Alkassim, 2016).
Del listado total de organizaciones disponibles se obtuvo
una muestra estratificada de 114 individuos que ocupan
diferentes niveles de decisión en empresas de base
tecnológica y del sector financiero distribuidas en
diferentes provincias de la República Argentina. Se
utilizó el listado de empresas del sector metalmecánico
en la provincia de Mendoza; el listado de empresas del
Polo Tic de las provincias de Mendoza y Santa Fe; el
listado de empresas que pertenecen al Clúster Eólico
Argentino de la Cámara de Industriales de Proyectos e
Ingeniería de Bienes de Capital de la República
Argentina (CIPIBIC) y el listado Entidades Financieras
de la Superintendencia de Entidades Financieras y
Cambiarias (Superintendencia de Entidades Financieras
y Cambiarias (SEFyC), 2018).
3.0. RESULTADOS OBTENIDOS
Como resultado inicial, existe una correlación positiva
baja, rs (69) = 0,407, p < 0,001 (Rs2 = 16%), entre la
variable Actitud hacia el uso de HAPD basadas en
modelos y la Intención de Uso de HAPD basadas en
modelos lo que indica que existen otros factores que
limitan dicha Intención de Uso. Un segundo resultado
muestra que existe una correlación positiva baja, rs (69)
= 0,511, p<0,000 (Rs2 = 26%), entre la variable Control
de Comportamiento del uso de HAPD basadas en
modelos y la Intención de Uso de HAPD basadas en
318
modelos lo que muestra el bajo desarrollo de los factores
que soportan el uso de HAPD basadas en modelos. Un
tercer resultado muestra que existe una correlación
positiva baja, rs (69) = 0,464, p<0,000 (Rs2 = 22%), entre
la variable Control de Comportamiento del uso de HAPD
basadas en modelos y la Actitud hacia el uso de HAPD
basadas en modelos lo que muestra la existencia de una
valoración positiva de las consecuencias de utilizar las
HAPD. Finalmente, se halla la ausencia de una
correlación estadísticamente significativa entre la
variable Intención de Uso de HAPD basadas en modelos
y el Comportamiento Actual hacia el uso de HAPD
basadas en modelos. El relevamiento del uso actual de
herramientas analíticas muestra el bajo uso de estas con
un uso predominante de planillas de cálculo. En
consecuencia, esta ausencia de correlación es
consistente con el comportamiento observado y confirma
el poder predictivo de la Teoría de Comportamiento
Planeado de Ajzen como lo muestran numerosos
análisis y meta-análisis. En general, cuanto más
favorable es la actitud y las normas subjetivas, y cuanto
más elevado sea el control percibido sobre el
comportamiento bajo análisis, más fuerte debería ser la
intención de realizar un determinado comportamiento
(Ajzen, 1991, 2012). Estudios meta – analíticos
muestran una correlación promedio de 0,53 entre
intención y comportamiento (Ajzen, 2012; Armitage &
Conner, 2001; Menozzi et al., 2015).
Al analizar el peso de las variables de contexto en la
Intención de Uso de HAPD basadas en modelos (Figura
2), se observa que no existe una correlación
estadísticamente significativa entre la Generación a la
cual pertenece el participante de este estudio, y alguna
de las restantes variables del modelo considerado. En
relación con la segunda variable demográfica
319
considerada, la Posición o Nivel de decisión en la
estructura organizacional en la cual el participante
pertenece, el análisis estadístico inferencial asociativo
de la relación entre la variable Posición o Nivel de
decisión y la Presión Social Percibida hacia el uso de
HAPD basadas en modelos muestra que existe una
correlación positiva, rs (69) = 0,409, p<0,000 lo que
puede ser considerado un tamaño del efecto entre
mediano o típico y grande o más grande que el típico de
acuerdo a Cohen (1988). Siguiendo el Modelo de Ajzen,
se entiende por Normas Subjetivas [Subjective norms] o
Presión Social Percibida que comprenden las diferentes
componentes de presión social percibida por el individuo
por parte de sus referentes más importantes para que
realice o no un determinado comportamiento (valores
familiares e individuales, normas legales, reglas
institucionales, etc.). La correlación positiva significa que
a medida que la Posición o Nivel de decisión en la
estructura organizacional en la cual el participante
pertenece pasa del nivel de Dueño de la Empresa
(15,5% de los participantes codificados con el valor 1) a
Gerente Operativo o Supervisor (84,5% de los
participantes codificados con el valor 5) la Presión Social
Percibida hacia el uso de HAPD basadas en modelos
también crece. La baja correlación hallada (Rs2 = 16%)
refleja que existen otros factores que influyen en la
formación de la Presión Social Percibida. Interpretando
este resultado, en el caso de una organización privada,
la presión social la deberían ejercer los diferentes
integrantes del cuerpo directivo sobre el resto de la
estructura organizacional para mejorar la ratio de
decisiones correctas que impactarán en forma positiva
en el resultado financiero. El hecho que la Presión Social
Percibida sea mayor a menor nivel de decisión refleja la
320
ausencia de un contexto organizacional interno que no
promueve el uso de HAPD basadas en modelos.
En relación con la tercera variable demográfica
considerada, el Sector Productivo al cual pertenece la
organización en la cual el participante se desempeña, el
análisis estadístico inferencial asociativo de la relación
entre la variable Sector Productivo y la Actitud hacia el
uso de HAPD basadas en modelos muestra que existe
una correlación negativa, rs (69) = -0,680, p<0,000 lo que
puede ser considerado un tamaño del efecto mucho más
grande que el típico de acuerdo a Cohen (1988).
Considerando que la variable demográfica Sector
Productivo es una variable nominal codificada siguiendo
la siguiente asignación de rótulos: Sector Metalmecánico
(1); Software (2); Obras Civiles (3) y Sector Financiero
(4), la presencia de una correlación negativa significa
que en las organizaciones del Sector Metalmecánico
existe una mejor Actitud hacia el uso de HAPD basadas
en modelos que en las organizaciones del sector de
Obras Civiles53 – es decir, la valoración de las
consecuencias de utilizar las HAPD en base a la
información disponible se vuelca en contra de su uso. La
correlación media hallada (Rs2 = 46%) refleja el peso
singular de este factor en la definición de la Actitud hacia
el Uso de HAPD basadas en modelos.
De igual forma, el análisis estadístico inferencial
asociativo de la relación entre la variable Sector
Productivo y la Intención de uso de HAPD basadas en
modelos muestra que existe una correlación negativa, rs
(69) = -0,584, p<0,000 lo que puede ser considerado un
tamaño del efecto entre mediano o típico y grande o más
grande que el típico de acuerdo a Cohen (1988). En la
53
Nota del autor: En este estudio no se obtuvieron respuestas de individuos
de empresas del Sector Financiero
321
misma línea de análisis, la presencia de una correlación
negativa significa que en las organizaciones del Sector
Metalmecánico existe una mejor Intención de uso de
HAPD basadas en modelos que en las organizaciones
del sector de Obras Civiles. La correlación media hallada
(Rs2 = 34%) refleja que existen otros factores que
influyen en la formación de la Intención de Uso aparte de
la contribución de la Actitud hacia el Uso (16%) y el
Control de Comportamiento (26%).
4.0. CONCLUSIONES Y RECOMENDACIONES
Como primer punto de aprendizaje, se puede destacar la
alta resistencia al uso de herramientas analíticas lo que
muestra la situación de desventaja en la cual se hallan
las PyMEs relevadas por la dificultad implícita para
adaptarse al actual contexto de alta complejidad y
volatilidad. Como segundo punto de aprendizaje se
destaca la existencia de una mayor presión social para
el uso de herramientas analíticas a menores niveles de
decisión. Lo cual es un factor positivo para la
organización. La menor correlación con los niveles
superiores de decisión es consistente con el bajo uso de
herramientas analíticas reportado, pero esto también
muestra la situación de desventaja que enfrentan las
organizaciones ya que un contexto de mayor
complejidad produce un mayor número de problemas no
estructurados que requieren solución en menor tiempo y
que impactan en mayor grado en el resultado financiero
de las organizaciones. Finalmente, como tercer punto de
aprendizaje se halla el Control de Comportamiento del
uso de HAPD correlaciona (46%) con el tipo de sector
económico al cual pertenece la organización. Esto
muestra una oportunidad para mejorar el proceso de
difusión de estas herramientas en los procesos de
decisión al desarrollar acciones de formación ejecutiva
322
en organizaciones del sector de desarrollo de software y
del sector metalmecánico los cuales tienen un alto
aporte tanto al desarrollo de las exportaciones como el
desarrollo del Producto Bruto Geográfico.
Figura 10: Modelo Integrativo considerado y
correlaciones estadísticamente significativas halladas en
las variables demográficas Posición en la Organización y
Sector Productivo incluidas.
5.0. AGRADECIMIENTOS
Los autores de este trabajo desean agradecer a las
empresas pertenecientes al sector metalmecánico en la
provincia de Mendoza; del Polo Tic de las provincias de
Mendoza y Santa Fe; y al Clúster Eólico Argentino de la
323
Cámara de Industriales de Proyectos e Ingeniería de
Bienes de Capital de la República Argentina (CIPIBIC)
que aceptaron participar de este estudio. Finalmente,
nuestro agradecimiento al financiamiento provisto por la
Universidad Tecnológica Nacional a través del Proyecto
de Investigación TOUTNME0004092 sin el cual este
relevamiento no hubiera podido realizarse.
324
REFERENCIAS.
Ajzen, I. (1991). The Theory of Planned Behaviour.
Organizational
Behavior
and
Human
Decision
Processes, 50, 179-211.
Ajzen, I. (2012). The Theory of Planned Behavior. In P.
A. M. Lange, A. W. Kruglanski, & E. T. Higgins (Eds.),
Handbook of Theories of Social Psychology (Vol. 1, pp.
438-459). London, UK: Sage.
Ariely, D., Rao, A., & Yager, F. (2016). The human
factor: Working with machines to make big decisions.
Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/bigdecisionsurvey/assets/the_human_factor_working_with_machines
_to_make_big_decisions.pdf
Armitage, C. J., & Conner, M. (2001). Efficacy of the
Theory of Planned Behaviour: A Meta-Analytic Review.
British Journal of Social Psychology, 40, 471-499.
doi:https://doi.org/10.1348/014466601164939
Blase, P., DiFilippo, D., Feindt, M., & Yager, F. (2016).
Data-driven: Big decisions in the intelligence age.
Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/data_driven_big_decisions_in_the_intelligence_age.pdf
Blase, P., Fiendt, M., Yager, F., Rao, A., & Wixom, B.
(2016). Speed and sophistication: Building analytics into
your work flows. Recuperado de
https://www.pwc.com/us/en/advisory-services/assets/pwc-big-decisionsspeed-and-sophistication.pdf
Bleakley, A., & Hennessy, M. (2012). The Quantitative
Analysis of Reasoned Action Theory. The Annals of the
American Academy of Political and Social Science,
640(1 Advancing Reasoned Action Theory), 28-41.
doi:10.1177/0002716211424265
Brown, B., Kanagasabai, K., Pant, P., & Pinto, G. S.
(2017). Capturing value from your customer data.
Retrieved from
325
Burnes, B. (2004). Kurt Lewin and the Planned
Approach to Change: A Re-appraisal. Journal of
Management Studies, 41(6), 977-1002.
Burton, B., & Panetta, K. (2017). Eight Dimensions of
Business Ecosystems Enable the Digital Age.
Recuperado de Stamford, CT, USA:
https://www.gartner.com/smarterwithgartner/8-dimensions-of-businessecosystems/
Cámara Argentina de Comercio y Servicios. (2018).
Las Pymes: antídoto contra la pobreza. Recuperado de
Buenos Aires:
https://www.cac.com.ar/data/documentos/55_Documento%20CAC%20%20Pyme%202018.pdf
Collins, D., Collins, L., & Carson, H. J. (2016). “If It
Feels Right, Do It”: Intuitive Decision Making in a Sample
of High-Level Sport Coaches. Frontiers in Psychology,
7(Article 504), 10. doi:10.3389/fpsyg.2016.00504
Collins, L., Carson, H. J., & Collins, D. (2016).
Metacognition and Professional Judgment and Decision
Making in Coaching: Importance, Application and
Evaluation. International Sport Coaching Journal, 3, 355
-361. doi:10.1123/iscj.2016-0037
Cooper, D. R., & Schindler, P. S. (2014). Business
Research Methods (12 ed.). New York, NY: McGrawHill/Irwin.
Cummings, T. G., & Worley, C. G. (2007). Desarrollo
Organizacional y Cambio (8 ed.): Cengage Learning
Editores.
Chandler, N., Hostmann, B., Rayner, N., & Herschel,
G. (2011). Gartner's Business Analytics Framework.
Recuperado de Stamford, CT, USA:
https://www.gartner.com/imagesrv/summits/docs/na/businessintelligence/gartners_business_analytics__219420.pdf
Choose. (1989, June 2018). Oxford Living English
Dictionary. 2nd. Recuperado de
https://en.oxforddictionaries.com/definition/choose
326
Decide. (1989, June 2018). Oxford Living English
Dictionary. 2nd. Recuperado de
https://en.oxforddictionaries.com/definition/decide
Deloitte Touche Tohmatsu Limited. (2019). The
Deloitte Global Millennial Survey 2019. Recuperado de
New York, NY:
https://www2.deloitte.com/content/dam/Deloitte/global/Documents/AboutDeloitte/deloitte-2019-millennial-survey.pdf
Drucker, P. F. (2007). The Effective Executive (2nd
Revised ed.). New York: Elsevier.
Easterby-Smith, M., Thorpe, R., & Jackson, P. R.
(2015). Management and Business Research (5th ed.).
Los Ángeles, USA: Sage.
Espacio CAME. (2017, diciembre 2017). La economía
PyME en 2018. PYME, 50, 1-3.
Espacio CAME. (2018, enero 2018). PYMES que llegan
al mundo. PYME, 51, 1-3.
Etikan, I., Musa, S. A., & Alkassim, R. S. (2016).
Comparison of Convenience Sampling and Purposive
Sampling. American Journal of Theoretical and Applied
Statistics, 5(1), 1-4. doi:10.11648/j.ajtas.20160501.11
Fleming, J. H., & Harter, J. K. (2009). The Next
Discipline. Applying Behavioral Economics to Drive
Growth and Profitability. Recuperado de Washington,
DC:
Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex Problems
(M. Montani, A. Clark, & C. O'Dea, Trans. 3rd ed.). Berlin
Springer-Verlag.
Halliday, R., McDaniel, T., Reitsma, R., Duan, X., &
Hart, C. (2017). Forrester Data Global Business
Technographics® Priorities And Journey Survey, 2017:
Overview. Recuperado de Cambridge, MA:
https://www.forrester.com/report/Forrester+Data+Global+Business+Technogra
phics+Priorities+And+Journey+Survey+2017+Overview/-/E-RES138832
327
Hannan, M. T., & Freeman, J. (1984). Structural Inertia
and Organizational Change. American Sociological
Review, 49(2), 149-164.
Hatch, M. J. (2004). Dynamics in Organizational Culture.
In M. S. Poole & A. H. V. d. Ven (Eds.), Handbook of
Organizational Change and Innovation (Vol. 1, pp. 190 211). Oxford: Oxford University Press.
Hodgson, G. M. (2013). Understanding Organizational
Evolution: Toward a Research Agenda using
Generalized Darwinism. Organization Studies, 34(7),
973-992.
Kepner, C. H., & Tregoe, B. B. (1997). The New
Rational Manager (Updated edition ed.): Princeton
Research Press.
Lewin, K. (1947). Frontiers in Group Dynamics:
Concept, Method and Reality in Social Science; Social
Equilibria and Social Change. Human Relations, 1(5), 38.
Mascarenhas, D. R. D., & Smith, N. C. (2011).
Developing the performance brain: decision making
under pressure. In D. J. Collins, A. Abbott, & H. Richards
(Eds.), Performance Psychology E-Book: A Practitioner's
Guide (pp. 245-231). Edinburgh: Elsevier Health
Sciences, .
Menozzi, D., Fioravanzi, M., & Donati, M. (2015).
Farmer’s motivation to adopt sustainable agricultural
practices. Bio-based and Applied Economics, 4(2), 125147. doi:10.13128
Nicholson, N., & White, R. (2006). Darwinism-A new
paradigm for organizational behavior? Journal of
Organizational Behavior, 27(2 - Special Issue: Darwinian
Perspectives on Behavior in Organizations), 111-119.
doi: 10.1002/job.345
Perrey, J., Pickersgill, A., Fiedler, L., Bokmann, A.,
Roth, M., Hayes, J., & Kraus, M. (2014). Capturing
value from your customer data. Retrieved from
328
Probst, G., & Bassi, A. (2014). Tackling Complexity. A
Systemic Approach for Decision Makers. Sheffield, UK:
Greenleaf Publishing.
Robbins, S. P., & Coulter, M. (2005). Toma de
Decisiones: la esencia del trabajo del gerente (J. F. J. D.
Martínez, Trans.). In M. d. Anta (Ed.), Administración (8
ed., pp. 614). México: Pearson Educación de México,
S.A. de G.V.
Robbins, S. P., & Coulter, M. (2012). Managers as
Decision Makers In S. Yagan (Ed.), Management (11
ed., pp. 176-201). Boston: Prentice Hall.
Rogers, E. M. (2003). Diffusion of Innovation. New York,
NY: Simon and Schuster.
Roset, N. (2019, Martes, 04 de junio de 2019). ¿Se
están sustituyendo importaciones en Argentina? El
Cronista Comercial. Recuperado de
https://www.cronista.com/economiapolitica/Se-estan-sustituyendoimportaciones-en-Argentina-20190604-0026.html
Shimabukuro, K. (2016). Organizational Learning as a
Tool for Adaptation in the Oil and Gas Industry. (Master
in Science of Project Management), Norwegian
University of Science and Technology, Trondheim.
Recuperado de
https://daim.idi.ntnu.no/masteroppgaver/014/14581/masteroppgave.pdf
Stern, D. (2003). Increasing acceptance of managers for
the use of marketing decision support systems. Paper
presented at the Australian and New Zealand Marketing
Academy Conference, Adelaide, Australia.
Superintendencia de Entidades Financieras y
Cambiarias (SEFyC). (2018). Información de Entidades
Financieras. Enero 2018. Recuperado de Ciudad
Autónoma de Buenos Aires, República Argentina:
http://www.abappra.com.ar/informe_enfin/t30-201801e.pdf
329
330
15. FACTORES QUE IMPACTAN EN LA
INTENCIÓN DE USO DE HERRAMIENTAS
ANALÍTICAS EN PYMES
Estudio descriptivo inicial.
Esteban Anzoise54; Cristina Scaraffia55; Julio H. Cuenca56
Resumen: El presente trabajo muestra los resultados del
trabajo de investigación complementario establecido para
triangular los resultados preliminares de la primera etapa de
investigación de carácter exploratoria – descriptiva. Para ello se
realizó una extensa revisión bibliográfica especializada que
permitió determinar qué factores destacados o variables
favorecen y/o presentan resistencia al uso de HAPD basadas
en modelos en organizaciones privadas del área de ingeniería y
financieras, así como una relación tentativa entre dichas
variables. El análisis de dicho material se realizó desde la
perspectiva del Desarrollo Organizacional (DO) y la clasificación
de los factores destacados o variables favorecen y/o presentan
resistencia al uso de HAPD basadas en modelos se realizó
aplicando el Modelo de Análisis de Fuerzas de Kurt Lewis. Se
identificaron 16 factores que favorecen el uso de HAPD
basadas en modelos y 14 factores que generan resistencia al
uso de HAPD basadas en modelos. Como principal conclusión
se halla que es posible actuar sobre el proceso de difusión de
las Herramientas de Apoyo al Proceso de Decisión (HAPD)
basadas en modelos a nivel organizacional para acelerar el uso
de estas. El Modelo de Fuerzas de Lewin permite ordenar los
distintos factores y categorizarlos como que favorecen la
difusión o se oponen a la misma. Al conectar dichos factores
que favorecen o se oponen a la difusión de dichas
herramientas, con el Control Percibido por parte del sujeto,
siguiendo el Modelo Ajzen, es posible diseñar e implementar el
Modelo de Tres Etapas de Lewin para favorecer el desarrollo de
los factores que desarrollan un Control de Comportamiento
54
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN
56
Instituto de Gestión Universitaria - Grupo IEMI & Grupo LADEI, F. R.
Mendoza, UTN
55
331
Percibido favorable a la difusión y minimizar el efecto de
aquellos factores que se oponen a su difusión a nivel
organizacional.
Palabras claves: <proceso de decisión>, <comportamiento
planeado>, <herramientas de apoyo al proceso de decisión>,
<modelo de análisis de fuerzas>, <triangulación>.
1.0. INTRODUCCIÓN
El relevamiento realizado por KPMG International
titulado Growing pains— 2018 Global CEO Outlook,
mostró que los ejecutivos participantes necesitan
equilibrar el conocimiento basado en datos de las
necesidades y requisitos del cliente con su propia
experiencia e intuición. El análisis de la misma encuesta
realizada en el período 2015 – 2017 mostró
consistentemente que el 67% de los ejecutivos han
ignorado las ideas basadas en datos porque eran
contrarias a su propia experiencia o intuición. Los
ejecutivos también mostraron cierto escepticismo sobre
los datos. Más de la mitad (51%) dijo que tienen menos
confianza en la precisión de la analítica predictiva que en
la de los datos históricos. Los ejecutivos también
plantearon que quieren entender el origen de los datos
que alimentan los modelos predictivos y si dichos datos
son confiables (KPMG International, 2018). Cerca de dos
terceras partes de los ejecutivos participantes de
América Latina respondieron que no están invirtiendo en
la automatización de los procesos en comparación con
una tercera parte de los ejecutivos globales. Y solo un
6% de los ejecutivos de América Latina planean
incrementar el uso de modelos o análisis predictivos en
contraste con el 32% del total de ejecutivos participantes
que incrementarán el uso de los mismos (KPMG
Cárdenas Dosal, 2018).
332
El contraste entre decisiones intuitivas y decisiones
lógicas basadas en datos de contexto y el uso de
herramientas analíticas basadas en modelos es
analizado desde una perspectiva académica a través de
dos puntos de vista teóricos principales, identificados en
la literatura como Proceso de Decisión Clásico [Classical
Decision Making (CDM)] y como Proceso de Decisión
Naturalístico [Naturalistic Decision Making (NDM)]. Estos
dos puntos de vista hacen suposiciones totalmente
diferentes no solo sobre el proceso de decisión, sino
también sobre cómo se adquiere la experiencia en
decidir
(Mascarenhas
&
Smith,
2011).
Independientemente de la forma de decidir, desde la
perspectiva del Nuevo Darwinismo (Hodgson, 2013),
puede aseverarse que la realización de decisiones
correctas en un ambiente complejo conduce al éxito y la
supervivencia de la organización en el largo plazo
(Drucker, 2007; Grünig & Kühn, 2013).
En consecuencia, surge la necesidad de desarrollar “la
capacidad de comprender las interrelaciones de los
hechos presentados de tal forma que consiga orientar la
acción hacia una meta deseada (p. 314)" (Luhn, 1958) lo
que se denomina Inteligencia de Negocios [Business
Intelligence (BI)] (Dedić & Stanier, 2016). Este concepto
ha evolucionado desde su aparición en 1965 para
convertirse en los 90s en un sistema o “conjunto de
metodologías, procesos, arquitectura y tecnologías que
transforman datos en información útil y con significado
para permitir un mejor proceso de decisión y un análisis
en profundidad a nivel operacional, táctico y estratégico”
(Forrester Research Inc., 2019; Gartner Inc., 2019). La
madurez analítica de una organización, entendida como
el grado de inserción de las herramientas analíticas en
los procesos organizacionales, la inclusión de
proveedores, clientes y socios y la medida en que la
333
información es considerada de alta confiabilidad a través
de toda la organización, puede ser analizada a través de
diferentes modelos de madurez (Chuah & Wong, 2011).
Uno de los modelos más difundidos por su foco en los
aspectos técnicos de la organización, muy buena
documentación y fácil acceso a través de la web es el
Modelo de Madurez de la Inteligencia de Negocios
propuesto por Gartner Inc. (Duncan & Howson, 2015).
Estudios realizados por dicha consultora muestran que
el
mejor
conocimiento
en
profundidad
del
comportamiento de los clientes lleva a que las
organizaciones aventajen a sus pares competidores en
un 85% en el crecimiento de las ventas, 22% en
ingresos netos, 25% en ROI y más del 25% en el
margen bruto (Brown, Kanagasabai, Pant, & Pinto,
2017).
En línea con estos interrogantes a nivel global, se
estableció un proyecto de investigación desde la
Universidad Tecnológica Nacional para dar respuesta a
las siguientes preguntas de investigación: ¿Cómo es el
proceso de adopción de las Herramientas de Apoyo a
los Procesos de Decisión (HAPD) basadas en modelos
en organizaciones de base tecnológica y financieras?, y,
¿Cuáles son las variables principales que definen el
proceso de adopción de las Herramientas de Apoyo a
los Procesos de Decisión (HAPD) basadas en modelos
en organizaciones de base tecnológica y financieras?
Como un aspecto novedoso de esta investigación se
destaca el uso del modelo subyacente en la Teoría del
Comportamiento Planeado desarrollado por Ajzen para
poder determinar la Intención de Uso de las HAPD
basadas en modelos. Se utilizó una versión ampliada de
dicho modelo identificada como Modelo Integrativo que
incluye el efecto de las variables externas o de contexto
334
sobre las creencias de comportamiento, creencias
normativas y las creencias de control (Bleakley &
Hennessy, 2012). Las variables de contexto que se
incluyeron fueron el Sector Productivo al cual pertenece
la organización, la Generación a la cual pertenece el
participante de este estudio, el nivel de decisión en la
estructura organizacional en la cual el participante
pertenece y el grado de intensidad de uso de las HAPD
en los diferentes niveles de decisión organizacionales
(Robbins & Coulter, 2005, 2012).
Sobre una muestra estratificada de 114 individuos se
utilizó un cuestionario piloto basado en la Teoría de
Comportamiento Planeado de Ajzen para determinar la
relación entre el Control Percibido del Uso de HAPD
basadas en modelos y la Intención de Uso de estas. Se
entiende el Control Percibido del Comportamiento como
“la medida en la cual la gente cree que puede realizar un
determinado comportamiento si está inclinada a hacerlo”
(Ajzen, 2012, p. 446); es decir, el control que la persona
cree tener sobre la realización de un determinado
comportamiento. La correlación positiva significa que a
medida que el Control de Comportamiento del uso de
HAPD basadas en modelos de los integrantes de la
organización se incrementa – es decir, se incrementa la
creencia subjetiva de los integrantes de la organización
de que si deben utilizar una HAPD basadas en modelos
no fallarán y lo harán en forma exitosa– la Intención de
Uso de HAPD basadas en modelos también crece. El
análisis estadístico inferencial asociativo de la relación
entre la variable Intención de Uso de HAPD basadas en
modelos y el Comportamiento Actual hacia el uso de
HAPD basadas en modelos mostró la ausencia de una
correlación estadísticamente significativa.
335
Numerosos análisis y meta-análisis muestran el poder
predictivo de la Teoría de Comportamiento Planeado de
Ajzen. En general, cuanto más favorable es la actitud y
las normas subjetivas, y cuanto más elevado sea el
control percibido sobre el comportamiento bajo análisis,
más fuerte debería ser la intención de realizar un
determinado comportamiento (Ajzen, 1991, 2012).
Estudios meta – analíticos muestran una correlación
promedio de 0,53 entre intención y comportamiento
(Armitage & Conner, 2001).
Dado que diversos estudios sugieren que el
comportamiento pasado es un predictor importante de
comportamientos futuros (Ajzen, 2012; Armitage &
Conner, 2001; Menozzi, Fioravanzi, & Donati, 2015), se
pidió a los participantes que indiquen en el cuestionario
en qué medida hace uso de diversas herramientas de
apoyo a su proceso de decisión (comportamiento). El
resultado mostró un bajo nivel de madurez analítica
caracterizado por un uso preferente de planillas de
cálculo y un bajo uso de herramientas analíticas en los
procesos de decisión. Este resultado es consistente con
los resultados de la encuesta realizada por Gartner Inc.
(2018) a nivel global que muestra que más del 87% de
las organizaciones caen en la categoría de bajo nivel de
Inteligencia de Negocios y Madurez Analítica (No
consciente y oportunista) (Gartner, 2018).
El foco novedoso de esta etapa de investigación
complementaria es la triangulación de los resultados
iniciales no solo aplicando un amplio espectro de
encuestas globales sino también el Modelo de Análisis
de Fuerzas de Kurt Lewin (Burnes, 2004; Cummings &
Worley, 2007; Lewin, 1947) como herramienta
complementaria de análisis a los resultados que muestra
336
la aplicación del Modelo de Comportamiento Planeado
de Ajzen.
Llegado este punto, es adecuado reconocer la
importancia de esta investigación para el área de las
decisiones organizacionales de las pequeñas y
medianas empresas (PyMEs). Claramente, diversos
estudios recopilados muestran la existencia de errores
en los procesos de decisión que conllevan un impacto
financiero negativo en la “última línea” del Estado de
Resultados de la compañía. La complejidad creciente del
contexto (Burton & Panetta, 2017), el cambio profundo
del perfil demográfico de los consumidores (Chandler,
Hostmann, Rayner, & Herschel, 2011; Deloitte Touche
Tohmatsu Limited, 2019), y la alta volatilidad de los
mercados (Halliday, McDaniel, Reitsma, Duan, & Hart,
2017) genera una demanda de decisiones en cada vez
menor tiempo, con un número creciente de datos a
analizar que explica las limitaciones de los procesos de
decisión. Sin descartar la intuición y experiencia como
herramientas principales de decisión, la incorporación de
HAPD basadas en modelos permite generar soluciones
en tiempo mínimo a situaciones complejas y problemas
no estructurados. Por ello, poder identificar los factores
que promuevan el uso de dichas herramientas permitiría
mejorar sustancialmente el rendimiento operativo de las
PyMEs que en Argentina, al año 2018, constituyen el
97% del total de empresas registradas, generan el 70%
del empleo, el 89% de las empresas que exportan
(aunque solo el 1,5% de ellas lo hace) y generan el 44%
del PBI del país (Cámara Argentina de Comercio y
Servicios, 2018; Espacio CAME, 2017, 2018; Roset,
2019) . En consecuencia, y reflejando estas diferentes
perspectivas
esta
etapa
de
investigación
complementaria se focaliza en identificar los factores
337
que soportan y resisten el proceso de adopción y
difusión de las HAPD en las organizaciones.
2.0. METODOLOGÍA
El marco metodológico para esta investigación
corresponde a un paradigma positivista, con una
metodología de investigación cuantitativa que siguió una
lógica hipotético – deductiva. Se estableció un diseño
basado en una investigación exploratoria - descriptiva,
cros-seccional no longitudinal (Cooper & Schindler,
2014; Easterby-Smith, Thorpe, & Jackson, 2015). Se
decidió establecer en forma complementaria con la
primera etapa de investigación de carácter exploratoria –
descriptiva un proceso de triangulación. Para ello se
realizó una extensa revisión bibliográfica especializada
que permitió determinar qué factores destacados o
variables favorecen y/o presentan resistencia al uso de
HAPD basadas en modelos en organizaciones privadas
del área de ingeniería y financieras, así como una
relación tentativa entre dichas variables. El análisis de
dicho material se realizó desde la perspectiva del
Desarrollo Organizacional (DO). Existen diversas
definiciones de DO, pudiendo citarse "Desarrollo
Organizacional es la aplicación sistemática y amplia de
conocimientos de la ciencia del comportamiento al
desarrollo planeado y mejora de las estrategias,
estructuras y procesos organizacionales para mejorar la
efectividad de una organización” (Cummings & Worley,
2007, p. 2). El DO implica una convergencia e
integración de técnicas de intervención psicológicas con
las técnicas de intervención administrativa, bajo el
convencimiento de que ninguna de los dos funciona
aisladamente. Su área de aplicación incluye a) la
necesidad de cambiar la cultura organizacional (normas
culturales); b) la necesidad de cambiar los aspectos
338
formales de la organización (estructuras y posiciones); y
c) la necesidad de mejorar la colaboración intergrupal
(Cummings & Worley, 2007). La clasificación de los
factores destacados o variables favorecen y/o presentan
resistencia al uso de HAPD basadas en modelos se
realizó aplicando el Modelo de Análisis de Fuerzas de
Kurt Lewis.
3.0. RESULTADOS OBTENIDOS
Lewin considera el cambio en el comportamiento de un
individuo como el resultado equivalente de un conjunto
de fuerzas dentro de un sistema. Desde el campo de la
psicología social, Lewis define el concepto de “campo”
[field] o “espacio vital” [life space] como el ambiente
psicológico en un individuo (o su equivalente en un
grupo de individuos) el cual podía ser descripto
matemáticamente como un conjunto de constructos.
Dicho campo es dinámico al cambiar con las
experiencias por las que el individuo transita. La
identificación de sus partes o “construcción a través de
atributos” permite describir las motivaciones, valores,
necesidades, estados de ánimo, objetivos, ansiedades e
ideales del individuo o grupo. Lewis sostiene que los
cambios en “espacio vital” del individuo o grupo depende
no solo del cambio que produce un estímulo externo al
mismo sino principalmente de la medida en que el
individuo o grupo internaliza o lo acepta. Por lo que se
puede identificar desde este enfoque un conjunto de
factores (fuerzas) que influencian una determinada
situación social ya sea hacia el logro de un determinado
objetivo (fuerzas que soportan o promueven el cambio) o
bloqueando el logro de dicho objetivo (fuerzas que se
oponen a dicho cambio). Esta forma de ver una situación
de cambio social se denomina Modelo de Análisis de
339
Fuerzas [Force-field Analysis] (Burnes, 2004; Cummings
& Worley, 2007; Lewin, 1947)
Las fuerzas que apoyan el proceso de adopción y
difusión de las HAPD en las organizaciones están
presentes tanto dentro como fuera de ellas. Las fuerzas
externas identificadas que soportan el proceso de
adopción son: 1) cambios en los mercados
internacionales, 2) cambio en la estructura de negocios a
nivel nacional, 3) cambio en las condiciones
económicas, 4) nuevas leyes y regulaciones, 5) cambio
en tendencias demográficas, y 6) avances tecnológicos
(Wagner & Hollenbeck, 1992). Las fuerzas internas
identificadas que soportan el proceso de adopción son:
1) limitaciones en el suministro de materia prima, 2)
comprensión creciente de la necesidad de cambio, 3)
caída de la producción tanto en calidad como en
cantidad, 4) cambio en la perspectiva de negocio de la
organización, y 5) sensación de que el cambio es
necesario. Las fuerzas que resisten el cambio son
físicas, emocionales e intelectuales. La Teoría de
Desarrollo Organizacional identifica las siguientes
categorías inclusivas de dichas fuerzas: 1) resistencia
cultural, 2) limitaciones de recursos, 3) amenazas al
poder y la influencia, 4) barreras organizacionales y 5)
percepción defensiva (Northcraft & Neale, 1994; Wagner
& Hollenbeck, 1992). Aplicando la estructura de análisis
del Modelo de Análisis de Fuerzas de Kurt Lewin es
posible identificar, desde la perspectiva de cambio
organizacional, los factores presentes a nivel
organizacional que soportan y resisten el proceso de
adopción y difusión de las HAPD basadas en modelos
en las organizaciones. Las tablas 1 y 2 muestran los
factores identificados organizados según el Modelo de
Análisis de Fuerzas de Kurt Lewin.
340
4.0. CONCLUSIONES Y RECOMENDACIONES
Se identificaron 16 factores que favorecen el uso de
HAPD basadas en modelos y 14 factores que generan
resistencia al uso de HAPD basadas en modelos. Este
hallazgo es consistente con los resultados mostrados
por los 18 estudios globales considerados en el período
2006 – 2019 que muestran que el desafío que
representa la incorporación de herramientas analíticas
tiene escala global. Como principal conclusión se halla
que desde la perspectiva del Desarrollo Organizacional
es posible modificar la resistencia organizacional a la
incorporación de herramientas analíticas en los procesos
de decisión al identificar los factores que favorecen y los
que resisten dicho proceso.
Como principal recomendación surge la aplicación a
nivel organizacional del Modelo de Análisis de Fuerzas
de Lewin para ordenar los distintos factores y
categorizarlos como que favorecen la difusión o se
oponen a la misma. Al conectar dichos factores que
favorecen o se oponen a la difusión de dichas
herramientas, con el Control Percibido por parte del
sujeto, siguiendo el Modelo Ajzen, es posible diseñar e
implementar el Modelo de Tres Etapas de Lewin para
favorecer el desarrollo de los factores que desarrollan un
Control de Comportamiento Percibido favorable a la
difusión y minimizar el efecto de aquellos factores que se
oponen a su adopción.
341
Tabla 2
Factores que favorecen el proceso de cambio ordenados según el
Modelo de Lewin de Fuerzas para el cambio
¿Cuáles son las fuerzas que modelan el proceso de cambio?
Fuerzas para el cambio
✓ Limitaciones en
✓ menor tiempo para decidir (Halliday et
el suministro de
al., 2017)
materia prima
Presión
Interna
✓ Comprensión
creciente de la
necesidad de
cambio
✓ Caída de la
producción tanto
en calidad como
en cantidad
✓ Cambio en la
perspectiva de
negocio de la
organización
✓ Sensación de
que el cambio es
necesario
342
✓ identificación del nivel de madurez del
proceso de decisión (Ariely, Rao, &
Yager, 2016)
✓ identificación de decisiones no
satisfactorias y su impacto (Dye,
Sibony, & Truong, 2009; Lovallo &
Sibony, 2010)
✓ incremento de la complejidad de las
plataformas de comercio digitales al
crecer el número de opciones
disponibles para el cliente (Gillespie et
al., 2018)
✓ el ritmo de crecimiento de expertos en
análisis de datos triplicará el ritmo de
crecimiento de IT para el año 2020
(Howson, Richardson, Sallam, & Kronz,
2019)
✓
es necesario decidir con mayor
complejidad y en menor tiempo (Ariely
et al.,2016; Halliday et al., 2017)
Tabla 1 (continuación)
¿Cuáles son las fuerzas que modelan el proceso de cambio?
Fuerzas para el cambio
✓ el consumidor se vuelve prosumer al ser parte del
✓ Cambios en
proceso (Chandler et al., 2011)
los mercados
internacionales
✓ cambio en el ecosistema de negocios (Burton &
✓ Cambio en la
Presión
Panetta, 2017)
estructura de
✓ se incrementa el uso de herramientas analíticas
externa
negocios a
de datos (Blase, DiFilippo, Feindt, & Yager, 2016;
nivel nacional
Blase, Fiendt, Yager, Rao, & Wixom, 2016)
✓ Cambio en las
condiciones
económicas
✓ Nuevas leyes y
regulaciones
✓
✓ Cambio en
tendencias
demográficas
✓ Generación Millenials y Generación Z redefinen el
mercado (Deloitte Touche Tohmatsu Limited,
2019; Dimock, 2019; Goasduff, 2019)
✓ la habilidad integrativa del usuario del modelo (AlMamary, Alina Shamsuddin, & Aziati, 2013;
Aldhmour & Eleyan, 2012; Zoltners, 1981)
✓ comprensión creciente del conocimiento sobre los
aspectos técnicos de las HAPD (Halliday et al.,
2017)
✓ el menor costo que un modelo específico para
una determinada situación; más rápido de
implementar que sistemas basados en datos
reales; y la capacidad de realizar proyecciones
(Gualtieri & Curran, 2016)
✓ cambio en las tendencias tecnológicas
estratégicas (Gillespie et al., 2018)
✓ para el 2021, el uso de lenguaje natural en
herramientas analíticas incrementará su adopción
del 30% al 50% de los empleados (Howson et al.,
2019)
✓ mayor nivel de integración de las Herramientas
de Apoyo al Proceso de Decisión (HAPD)
basadas en modelos (Chandler et al., 2011;
Ransbotham & Kiron, 2017)
✓ potencia de cálculo creciente de computadoras
personales que permitirá el uso de HAPD
basadas en modelos de mayor complejidad
(Dedrick & Kraemer, 2008; Marr, 2017; Panetta,
2018)
✓ Avances
tecnológicos
✓
343
Tabla 3
Factores que resisten el proceso de cambio ordenados según el Modelo
de Lewin de Fuerzas para el cambio
¿Cuáles son las fuerzas que modelan el proceso de cambio?
Fuerzas que resisten el cambio
Resistencia
Cultural
Limitaciones en
los recursos
Amenazas al
poder y la
influencia
Barreras
organizacionales
Intereses
propios
✓
✓
nivel de satisfacción con el modelo de decisión
estilo cognitivo del usuario
Desconfianza
general
✓
la brecha entre las suposiciones del contexto sobre
las que se basa y el contexto organizacional actual lo
que reduce la exactitud de las predicciones
Conflictos de
personalidad
Presión de
los pares
✓ variables personales
Limitaciones
en los
recursos
Posible
pérdida de
estatus
Diferentes
percepciones
y objetivos
✓ variables institucionales
✓
✓
✓
dificultad de cuantificar los datos de contexto ya que
existen siempre variables cualitativas;
las limitaciones en recolectar todos los datos
requeridos por el proceso de decisión
el costo creciente de desarrollo de los DSS
✓
la dependencia de los DDS para decidir en
desmedro del uso del pensamiento crítico por parte
de los integrantes de la organización;
✓
la existencia de suposiciones de diseño que no
siempre coinciden con las suposiciones del que
decide
resistencia al uso de nuevas herramientas
tecnológicas
la perspectiva personal del usuario hacia el modelo
de decisión
la falta de conocimiento tecnológico por parte de los
usuarios de los DSS para entender el tipo de
proceso a realizar.
el requerimiento de capacidad de pensamiento
abstracto para entender los modelos subyacentes en
el diseño de los DSS
el miedo de aprender nuevos conceptos y/o
herramientas lo que aleja a los individuos de su zona
de confort
Disrupción
social
Falta de tacto
gerencial
Cambios no
introducidos
a tiempo
Inercia
burocrática
Percepción
defensiva
Temor a lo
desconocido
✓
✓
✓
✓
Miedo de
fracasar
344
✓
¿Cuáles son las fuerzas que modelan el proceso de cambio?
Fuerzas que resisten el cambio
✓
la dificultad para entender fácilmente los modelos
matemáticos formales embebidos en los mismos
345
REFERENCIAS.
Ajzen, I. (1991). The Theory of Planned Behaviour.
Organizational
Behavior
and
Human
Decision
Processes, 50, 179-211.
Ajzen, I. (2012). The Theory of Planned Behavior. In P.
A. M. Lange, A. W. Kruglanski, & E. T. Higgins (Eds.),
Handbook of Theories of Social Psychology (Vol. 1, pp.
438-459). London, UK: Sage.
Al-Mamary, Y. H., Alina Shamsuddin, & Aziati, N.
(2013). The Impact of Management Information Systems
Adoption in Managerial Decision Making: A Review
Management Information Systems, 8(4), 010-017.
Aldhmour, F. M., & Eleyan, M. B. (2012). Factors
Influencing the Successful Adoption of Decision Support
Systems: The Context of Aqaba Special Economic Zone
Authority. International Journal of Business and
Management, 7(2).
Ariely, D., Rao, A., & Yager, F. (2016). The human
factor: Working with machines to make big decisions.
Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/the_human_factor_working_with_machines_to_make_big_decis
ions.pdf
Armitage, C. J., & Conner, M. (2001). Efficacy of the
Theory of Planned Behaviour: A Meta-Analytic Review.
British Journal of Social Psychology, 40, 471-499.
doi:https://doi.org/10.1348/014466601164939
Blase, P., DiFilippo, D., Feindt, M., & Yager, F. (2016).
Data-driven: Big decisions in the intelligence age.
Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/data_driven_big_decisions_in_the_intelligence_age.pdf
Blase, P., Fiendt, M., Yager, F., Rao, A., & Wixom, B.
(2016). Speed and sophistication: Building analytics into
your work flows Retrieved from New York:
346
https://www.pwc.com/us/en/advisory-services/assets/pwc-big-decisionsspeed-and-sophistication.pdf
Bleakley, A., & Hennessy, M. (2012). The Quantitative
Analysis of Reasoned Action Theory. The Annals of the
American Academy of Political and Social Science,
640(1 Advancing Reasoned Action Theory), 28-41.
doi:10.1177/0002716211424265
Brown, B., Kanagasabai, K., Pant, P., & Pinto, G. S.
(2017). Capturing value from your customer data.
Recuperado de
Burnes, B. (2004). Kurt Lewin and the Planned
Approach to Change: A Re-appraisal. Journal of
Management Studies, 41(6), 977-1002.
Burton, B., & Panetta, K. (2017). Eight Dimensions of
Business Ecosystems Enable the Digital Age
Recuparado de Stamford, CT, USA:
https://www.gartner.com/smarterwithgartner/8-dimensions-of-businessecosystems/
Cámara Argentina de Comercio y Servicios. (2018).
Las Pymes: antídoto contra la pobreza. Recuperado de
Buenos Aires:
https://www.cac.com.ar/data/documentos/55_Documento%20CAC%20%20Pyme%202018.pdf
Cooper, D. R., & Schindler, P. S. (2014). Business
Research Methods (12 ed.). New York, NY: McGrawHill/Irwin.
Cummings, T. G., & Worley, C. G. (2007). Desarrollo
Organizacional y Cambio (8 ed.): Cengage Learning
Editores.
Chandler, N., Hostmann, B., Rayner, N., & Herschel,
G. (2011). Gartner's Business Analytics Framework.
Recuperado de Stamford, CT, USA:
https://www.gartner.com/imagesrv/summits/docs/na/businessintelligence/gartners_business_analytics__219420.pdf
Chuah, M.-H., & Wong, K.-L. (2011). A review of
business intelligence and its maturity models. African
Journal of Business Management, 5(9), 3424-3428.
doi:10.5897/AJBM10.1564
347
Dedić, N., & Stanier, C. (2016). Measuring the Success
of Changes to Existing Business Intelligence Solutions to
Improve Business Intelligence Reporting. Paper
presented at the 10th International Conference on
Research and Practical Issues of Enterprise Information
Systems (CONFENIS 2016), Vienna, Austria.
Dedrick, J., & Kraemer, K. L. (2008). Globalization of
Innovation: The Personal Computing Industry. Paper
presented at the Sloan Industry Studies Annual
Conference, Boston, MA.
http://web.mit.edu/is08/pdf/Globalization%20of%20Innovation%20PC.PDF
Deloitte Touche Tohmatsu Limited. (2019). The
Deloitte Global Millennial Survey 2019. Recuperado de
New York, NY:
https://www2.deloitte.com/content/dam/Deloitte/global/Documents/AboutDeloitte/deloitte-2019-millennial-survey.pdf
Dimock, M. (2019). Defining generations: Where
Millennials end and Generation Z begins. FACTANK.
Recuperado de https://www.pewresearch.org/facttank/2019/01/17/where-millennials-end-and-generation-z-begins/
Drucker, P. F. (2007). The Effective Executive (2nd
Revised ed.). New York: Elsevier.
Duncan, A. D., & Howson, C. (2015). ITScore Overview
for BI and Analytics. Recuperado de Stamford, CT 06902
USA: https://www.gartner.com/en/documents/3136418
Dye, R., Sibony, O., & Truong, V. (2009). Flaws in
strategic decision making. Recuperado de New York:
Easterby-Smith, M., Thorpe, R., & Jackson, P. R. (2015).
Management and Business Research (5th ed.). Los
Ángeles, USA: Sage.
Espacio CAME. (2017). La economía PyME en 2018.
PYME, 50, 1-3.
Espacio CAME. (2018). PYMES que llegan al mundo.
PYME, 51, 1-3.
Forrester Research Inc. (2019). Business Intelligence.
Recuperado de https://www.forrester.com/Business-Intelligence#
348
Gartner, I. (2018, December 6, 2018). Gartner Data
Shows 87 Percent of Organizations Have Low BI and
Analytics Maturity. Recuperado de
https://www.gartner.com/en/newsroom/press-releases/2018-12-06-gartnerdata-shows-87-percent-of-organizations-have-low-bi-and-analytics-maturity
Gartner Inc. (2019). Analytics and Business Intelligence
(ABI). Recuperado de https://www.gartner.com/en/informationtechnology/glossary/business-intelligence-bi
Gillespie, P., Daigler, J., Lowndes, M., Klock, C.,
Dharmasthira, Y., & Shen, S. (2018). Magic Quadrant
for Digital Commerce. Retrieved from Stamford, CT,
USA:
https://cdn2.hubspot.net/hubfs/4784080/Files/Website%20PDFs/EN/Other%20
Studies/Gartner_Magic_Quadrant_for_Digital_Commerce_2018%E2%84%A2(
EN).pdf
Goasduff, L. (2019). Chatbots Will Appeal to Modern
Workers. Recuperado de Stamford, CT, USA:
https://www.gartner.com/smarterwithgartner/chatbots-will-appeal-to-modernworkers/
Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex Problems
(M. Montani, A. Clark, & C. O'Dea, Trans. 3rd ed.). Berlin
Springer-Verlag.
Gualtieri, M., & Curran, R. (2016). Forrester Data
Global Business Technographics® Priorities And
Journey Survey, 2015: Overview. Retrieved from
Cambridge, MA: https://slideplayer.com/slide/13294942/
Halliday, R., McDaniel, T., Reitsma, R., Duan, X., &
Hart, C. (2017). Forrester Data Global Business
Technographics® Priorities And Journey Survey, 2017:
Overview. Recuperado de Cambridge, MA:
https://www.forrester.com/report/Forrester+Data+Global+Business+Technogra
phics+Priorities+And+Journey+Survey+2017+Overview/-/E-RES138832
Hodgson, G. M. (2013). Understanding Organizational
Evolution: Toward a Research Agenda using
Generalized Darwinism. Organization Studies, 34(7),
973-992.
349
Howson, C., Richardson, J., Sallam, R., & Kronz, A.
(2019). Magic Quadrant for Analytics and Business
Intelligence Platforms. Recuperado de Stamford, CT,
USA: https://cadran-analytics.nl/wp-content/uploads/2019/02/2019-GartnerMagic-Quadrant-for-Analytics-and-Business-Intelligence-Platforms.pdf
KPMG Cárdenas Dosal, S. C. (2018). Encaminados al
crecimiento. Los directores generales de América Latina
se preparan para un futuro más integrado — 2019
Global CEO Outlook. Capítulo América Latina.
Recuperado de Swiss:
https://assets.kpmg/content/dam/kpmg/xx/pdf/2018/05/encaminados-alcrecimiento-kpmg-latin-america-ceo-outlook-2018-espanol.pdf
KPMG International. (2018). Growing pains— 2018
Global CEO Outlook. Recuperado de Swiss:
https://assets.kpmg/content/dam/kpmg/xx/pdf/2018/05/growing-pains.pdf
Lewin, K. (1947). Frontiers in Group Dynamics:
Concept, Method and Reality in Social Science; Social
Equilibria and Social Change. Human Relations, 1(5), 38.
Lovallo, D., & Sibony, O. (2010). The case for
behavioral strategy. McKinsey Quarterly(1), 136.
Luhn, H. P. (1958). A Business Intelligence System. IBM
Journal of Research and Development, 2(4), 314 - 319.
doi:10.1147/rd.24.0314
Marr, B. (2017). 9 Technology Mega Trends That Will
Change The World In 2018. Rrecuperado de
https://www.forbes.com/sites/bernardmarr/2017/12/04/9-technology-megatrends-that-will-change-the-world-in-2018/#50b378e55eed
Mascarenhas, D. R. D., & Smith, N. C. (2011).
Developing the performance brain: decision making
under pressure. En D. J. Collins, A. Abbott, & H.
Richards (Eds.), Performance Psychology E-Book: A
Practitioner's Guide (pp. 245-231). Edinburgh: Elsevier
Health Sciences, .
Menozzi, D., Fioravanzi, M., & Donati, M. (2015).
Farmer’s motivation to adopt sustainable agricultural
practices. Bio-based and Applied Economics, 4(2), 125147. doi:10.13128
350
Northcraft, G. B., & Neale, M. A. (1994). Organizational
Behavior: A Management Challenge (2nd ed.). Forth
Worth, TX: The Dryden Press.
Panetta, K. (2018). Gartner Top 10 Strategic Technology
Trends for 2019. Recuperado de Stamford, CT, USA:
https://www.gartner.com/smarterwithgartner/gartner-top-10-strategictechnology-trends-for-2019/
Ransbotham, S., & Kiron, D. (2017). Analytics as A
Source of Business Innovation. Recuuperado de
https://sloanreview.mit.edu/projects/analytics-as-a-source-of-businessinnovation/
Robbins, S. P., & Coulter, M. (2005). Toma de
Decisiones: la esencia del trabajo del gerente (J. F. J. D.
Martínez, Trans.). In M. d. Anta (Ed.), Administración (8
ed., pp. 614). México: Pearson Educación de México,
S.A. de G.V.
Robbins, S. P., & Coulter, M. (2012). Managers as
Decision Makers. En S. Yagan (Ed.), Management (11
ed., pp. 176-201). Boston: Prentice Hall.
Roset, N. (04 de junio de 2019). ¿Se están sustituyendo
importaciones en Argentina? El Cronista Comercial.
Recuperado de https://www.cronista.com/economiapolitica/Se-estansustituyendo-importaciones-en-Argentina-20190604-0026.html
Wagner, J. A., III, & Hollenbeck, J. R. (1992).
Management of Organizational Behavior. Englewood
Cliffs, NJ: Prentice Hall, Inc.
Zoltners, A. A. (1981). Normative Marketing Models. En
R. L. Schultz & A. A. Zoltners (Eds.), Marketing Decision
Models. New York: Elsevier Science Publishing Co.
351
352
16. IMPORTANCIA DEL FACTOR
MOTIVACIONAL EN LA FORMACIÓN POR
COMPETENCIAS
Gabriela Tomazzeli57 ; Carolina Bernaldo de Quirós58
Resumen: La actualización de los conceptos de “ingeniería” y
de “las prácticas de la ingeniería” establecidos en el marco
conceptual del libro rojo de CONFEDI, proporciona una
resignificación del llamado “perfil del graduado” y más aún, un
replanteo del trabajo conjunto a realizar por la comunidad
universitaria, con el fin de formar a sus estudiantes. Esta
mirada sobre “enseñanza-aprendizaje” da una nueva
orientación y motivación a los objetivos docentes, lo cual debe
reflejarse en la práctica de estos. En razón de lo mencionado,
se presenta una propuesta sencilla de trabajo en las aulas,
con la intención de iniciar a los alumnos en la formación y
adquisición de competencias.
Palabras claves: enseñanza,
geometría, modelación
aprendizaje,
álgebra
y
1.0. INTRODUCCIÓN
Si bien es sabido que un profesional debe formarse de
manera continua para poder responder a las demandas
del medio, en la actualidad se presenta una nueva
realidad que lleva a la necesidad de un cambio de
paradigma en el planteo del proceso de enseñanzaaprendizaje. Surge así la necesidad de una transición de
la enseñanza basada en las expectativas de logro
requeridas para un estudiante (ya sea en una cátedra o
como perfil del egresado) a la “formación por
competencias”. Esto conlleva asimismo, un cambio del
concepto tradicional de motivación del alumno para la
57
58
FRM - UTN
FRM - UTN
353
obtención de una meta relacionada a su aprendizaje.
Este cambio donde la búsqueda de competencias
prevalece ante la consecución de un objetivo de eficacia
es de gran importancia, ya que involucra a otras
aptitudes perdurables en el tiempo. Más aún, el factor
motivacional es primordial para que un estudiante
oriente su aprendizaje hacia el desarrollo de
determinadas competencias. Parte del mismo proceso
es la motivación en los docentes para promover y
acompañar el crecimiento del alumno.
2.0. COMPETENCIAS Y MOTIVACIÓN
2.1. COMPETENCIAS
Existen múltiples y variadas definiciones de
“competencia” en lo referido a la formación de un
estudiante universitario. Según Philippe Perrernound,
una competencia es una “…síntesis combinatoria de
procesos cognitivos, saberes, habilidades, conductas y
actitudes, para resolver problemas que plantea la vida”
(2004).
Durante el transcurso del recorrido universitario de una
persona debe haber continuidad en su formación, de
modo que al momento de egreso, la persona esté
preparada para ser un profesional competente. El
especialista francés en gestión por competencias Guy
Le Boterf, afirma en relación a un profesional que
“Para resolver un problema no solo debe emplear
recursos (conocimientos, capacidades, actitudes)
también
debe
saber
organizarlos;
las
competencias se refieren a personas, la
respuesta competente debe ser un respuesta en
red, es decir ser competente implica interactuar
con otros. Una persona no podrá ser reconocida
competente más que si resulta capaz de sacar
adelante una cuestión sino también de
354
comprender por qué y cómo se ha preparado
para actuar” (2000).
Para lograr profesionales con este perfil, entendemos la
necesidad de trabajar en las aulas y desarrollar en los
alumnos la capacidad de resolver problemas, y con ello,
la posibilidad de realizar un aprendizaje autónomo, la
oportunidad de darse cuenta de sus propias fortalezas y
debilidades y la oportunidad de poder llevar a cabo una
autoevaluación, así como también, coevaluación de
pares. Es más, la competencia de resolución de
problemas, le permite al estudiante desarrollar confianza
en las propias posibilidades de aprendizaje, trabajar en
equipo y aprender a comunicar, entre otros.
2.2. MOTIVACIÓN
¿Por qué queremos alumnos motivados?
Es importante destacar que un estudiante motivado es
un estudiante comprometido con su propio aprendizaje,
y por consiguiente, tiene una meta clara en relación con
tema a estudiar, o con el trabajo a realizar. Por otra
parte, es conocido por el docente que muchas veces,
dada una propuesta de estudio o de trabajo, el alumno
orienta su motivación con el fin único de aprobar. Lo que
se busca es que el estudiante oriente la motivación hacia
la obtención de una meta más importante, más allá de la
certificación de una nota de aprobación. Es sabido que
la motivación provee al alumno de impulso y voluntad
para el trabajo, sin embargo, otro rasgo notable de la
motivación es que con ella aparece una componente
emocional, que influye en que el trabajo propuesto,
pueda resultar “querido”, o, hasta “temido” por el alumno.
Este último factor de la motivación lleva a repensar y ser
cuidadoso en la selección de la situación motivadora. El
docente debe elegir situaciones que impliquen un
desafío para el alumno, pero que al mismo tiempo esté
355
dentro de sus posibilidades hallar una solución. De aquí
se desprende la necesidad de un seguimiento y
evaluación continua del proceso de aprendizaje, que le
permita al docente conocer el grupo de alumnos con el
que trabaja y poder así regular sus tareas,
intervenciones y aportes. De lo descripto se concluye
que la formación estratégica debe estar centrada en un
estudiante motivado. ¿Pero cómo motivamos al
alumno?. Ante todo, es necesario que conozca el “qué,
cómo y para qué” pretendemos que aprenda lo
propuesto. De igual forma debe conocer el “qué, cómo y
para qué”, en las instancias de evaluación. De esta
manera, el alumno sabe de antemano cuál es la finalidad
del
proceso
que
está
comenzando,
puede
comprometerse con él, determinar a cada momento en
qué etapa está, cuánto dista aún de la meta a alcanzar y
en consecuencia establecer estrategias para poder
arribar a ella.
3.0. SITUACIÓN PROBLEMA. MODELADO
Teniendo en cuenta que un alumno “bien” motivado es
un alumno predispuesto a formarse en múltiples
capacidades, se considera abordar los contenidos, ya
sea de un tema, de una unidad, y en general los de una
cátedra, partiendo de una consideración más auténtica,
es decir, una tarea realista, plausible y estimulante para
el alumno. En cátedras de ciencias básicas y
especialmente aquellas en las que se enseñan lenguajes
(en este caso, el algebraico), entendemos que la
capacidad por excelencia para tal finalidad es la
resolución de problemas, dejando que el alumno busque
sus propias estrategias, consulte con sus pares, con
distintas bibliografías, e instándolo a que exponga y
justifique lo desarrollado. Asimismo, buscamos invitarlo a
participar en una retroalimentación con sus pares,
356
reconociendo cuáles fueron sus propias dificultades y
proponiendo nuevas alternativas de resolución.
Lo expuesto sustenta la propuesta de los autores, de
presentar uno de los temas que se abordan en la
cátedra de Álgebra y Geometría Analítica. Se trata en
particular, el tema de rectas y planos, mediante una
situación problema para analizar y modelar, la cual
resulta posible de aplicar en el aula. Mediante la misma,
el alumno modela ecuaciones de rectas en el plano para
encontrar una solución a problemas planteados en el
ámbito ingenieril. Como ejemplo de una situación
problema, se expone la siguiente: “De un sótano, se
tienen los siguientes datos: su volumen es de 3999 m3,
la altura de este es 5 m, y la longitud de uno de los lados
de su planta es de 38 m. Se desea construir un entrepiso
que cubra la cuarta parte de su superficie. La conexión
entre el piso del sótano y el entrepiso, será una escalera
con escalones de 0,18 m de alzada y 0,29 m de huella.
Realiza esquemas que ejemplifiquen la información
dada. A continuación, interpreta y resuelve:
a. ¿A qué altura del techo, lo más próximo a los 2,5 m irá
el entrepiso, para que la escalera tenga todos los
escalones de igual alzada?
b. Si ubicamos el esquema en ejes ortogonales x-y ¿a
qué distancia «d» del origen estará ubicado el primer
escalón?
c. Anota la ecuación de la recta que «soporta» el borde
inferior de los escalones.
d. ¿Qué otras preguntas podrían hacerse en relación a
esta situación, que involucre los conceptos de vectores,
rectas, planos y distancias?
Durante el proceso de modelación el estudiante
interactúa entre la secuencia de la situación problema y
357
la formación del concepto requerido. En otras palabras,
para la resolución del problema, debe recurrir a la
construcción de un modelo sencillo gracias a que
dispone previamente de un listado de conceptos
matemáticos adquiridos.
Por otra parte, la intención desde nuestro trabajo
docente consiste en llevar un seguimiento, de modo de
detectar las fortalezas y debilidades de esta nueva
orientación de la práctica en el aula. Además, la
evaluación, que puede ser en este caso, coevaluación,
es posible de realizar a través de rúbricas.
4.0. CONCLUSIONES Y PERSPECTIVAS
La competencia “resolución de problemas”, conlleva
muchas otras no menos importantes como lo son la
decodificación de datos y su codificación, la
planificación, la toma de decisiones, la organización del
tiempo, la comunicación verbal y la comunicación
escrita, la creatividad, la adaptación al entorno, el
sentido ético, la diversidad y multiculturalidad,
comunicación interpersonal, trabajo en equipo,
tratamiento de conflictos, negociación. Todo lo descripto
puede englobarse en el concepto de modelización de
situaciones auténticas. Hay que tener en cuenta que la
selección y secuenciación de trabajo en el aula con las
mismas, depende de la gestión de la clase a cargo del
docente, quien tendrá que evaluar, determinar y
redireccionar las tareas pertinentes, según las
características específicas de sus alumnos, situación,
tiempo, lugar, problemáticas, y otras. Por supuesto, que
es ambicioso lo descripto anteriormente, pero una
implementación paulatina y responsable, nos permitirá
mejorar de a poco la calidad educativa en nuestras
universidades.
358
REFERENCIAS
Confedi. (2018). Propuesta de Estándares de segunda
generación para la acreditación de carreras de ingeniería
en la República Argentina, “Libro Rojo de Confedi”.
(primera edición). Córdoba: Universidad FASTA
Ediciones.
Confedi. (2016). Segundo Taller de Diseño Curricular y
Prácticas Docentes basadas en Competencias.
Introducción al Diseño Curricular Basado en
Competencias.
Confedi, Acofi. (2018). Aseguramiento de la calidad y
mejora de la educación en ingeniería: experiencias en
América Latina. (primera edición). Colombia: Opciones
Gráficas Editoriales Ltda.
Lay, D.C. (2013). Álgebra Lineal para cursos con
enfoque por competencias. (Primera edición). México:
Pearson Educación.
Morelli, R. D.; del Valle Martella, D. (2018).Trabajo
práctico Integrador de la materia representación gráfica
enfocado en la educación basada en competencias.
Córdoba
Pozo, J.I.; del Puy Pérez Echeverría, M. (2009).
Psicología del aprendizaje universitario: La formación en
competencias. Madrid: Ediciones Morata.
Villa, A.; Poblete, M. (2007). Aprendizaje Basado en
Competencias. Una propuesta para la educación de las
competencias genéricas. Universidad de Deusto, Bilbao:
Ediciones Mensajero.
***
359
360
17. EPISTEMOLOGÍA DE LAS CIENCIAS DE LA
INGENIERÍA
Zoom sobre el experimento
Julio Ortigala59
Resumen: En este trabajo se explora a partir de una mirada
epistemológica, la importancia de las determinaciones
experimentales en el avance de la ciencia y la tecnología, y su
relación con las teorías y los modelos. No es aceptado por
todos los epistemólogos la importancia del experimento en el
desarrollo de la ciencia moderna, aunque la filosofía de la
ciencia tradicional, aceptó su valor, pero sin considerar
relevante su tematización filosófica. En nuestro caso, damos
por sentado el valor del experimento y la atención se centró
fundamentalmente en el estudio de las teorías científicas, el
cambio teórico y su relación con la epistemología de las
ciencias experimentales. Analizamos el experimento como un
proceso en el cual encontramos entradas, transformaciones y
salidas y hacemos hincapié en la necesidad de un diseño
adecuado, para lo cual es fundamental tener bajo control
estadístico el sistema de medición. Si en la realización del
experimento, se deben llevar a cabo mediciones, la calibración
de los instrumentos de medición es de suma importancia.
Finalmente, encontramos que el diseño debe contener un
correcto análisis estadístico de los datos aportados a través de
herramientas como la estadística descriptiva, el análisis
correlacional, la estadística inferencial, la estadística
bayesiana y el análisis ANOVA.
Palabras claves: filosofía, proceso, tecnología, calibración,
estadística.
1.0. INTRODUCCIÓN
59
Grupo IEMI.
361
Tenemos la impresión de que en el transcurrir histórico y
a partir de las líneas filosóficas de ciertos epistemólogos,
el experimento ha sido relegado en importancia en
comparación con la teoría.
Pero, analizando sistémicamente este aparente
enfrentamiento y considerando que la ciencia moderna
le debe tanto, en este trabajo defenderemos la hipótesis
de que el experimento goza de autonomía con respecto
a la teoría. La teoría y el experimento deberían ser
reconocidos como iguales entre los que no hay un
primero: la teoría no es más importante que el
experimento. Si tenemos en cuenta las dos actividades,
la científica y la experimental, defendemos que ambas
están en un mismo nivel en cuanto a importancia se
refiere, y que ambas gozan de la misma autonomía.
Nuestro objetivo no es quitarle importancia a las teorías
como herramienta de análisis para explicar el
funcionamiento de la naturaleza, sino poner de
manifiesto otro esquema, donde el experimento no esté
subordinado a la teoría. Siguiendo a M. Iglesias (2004),
el cual pone de manifiesto la importancia de las prácticas
experimentales, se puede ver y analizar el desarrollo
lógico en filosofía de la ciencia y el cambio de la
tradicional relación entre teoría y experimento. En
filosofía de la ciencia puede apreciarse un
redimensionamiento de la práctica, lo cual conlleva a
que temas como la verdad y la objetividad, la ciencia y la
técnica, no sean analizados solos desde la teoría, y a
partir de esta situación, se redefinan nuevos problemas
filosóficos, promoviendo una nueva imagen de la ciencia.
Hacking es especialmente interesante para la
enseñanza de las ciencias porque pone el experimento
al mismo nivel que la teoría. Hay un equilibrio entre ellos.
Reconoce que podemos encontrarnos con casos, tanto
362
en que el experimento prima sobre la teoría (tal sería el
caso de Faraday en física), como casos en los que la
teoría ha sido fuente de inspiración para ciertos
experimentos, como es el caso de la teoría de la “sopa
primordial” en el origen de la vida y que Miller comprobó
con su ya clásico experimento.
Históricamente, en filosofía de la ciencia ha primado la
tradición que privilegia los aspectos teóricos del
conocimiento sobre cualesquiera otro de sus rasgos, de
modo que toda la actividad científica es interpretada
desde el punto de vista de la elaboración conceptual y la
teorización. De esa tendencia se deriva la inclinación a
reformular cualquier cuestión o problema de la filosofía
de la ciencia en términos exclusivamente conceptuales o
teóricos.
De lo anterior, se deduce que la filosofía debía
replantearse la concepción que comenzó allá por el siglo
XVII. El proceso que comenzaba a instalarse entre
algunos epistemólogos le dio otra dimensión al
experimento y recibió el nombre de “Filosofía
Experimental”. Modernamente, la ciencia aparece como
una simbiosis entre la filosofía y el experimento,
aportando la filosofía lo racional, la conjetura, y el
razonamiento, y el experimento, la técnica, la
manipulación y la observación.
2.0. LA IMPORTANCIA
TECNOLÓGICOS
DE
LOS
APARATOS
Colocar a la teoría y la observación como los
componentes principales del análisis investigativo, es
cuando menos, un exceso de la filosofía de la ciencia.
Uno de los fundamentos de la ciencia han sido
proposiciones que manifiestan observaciones, como
observar la posición de una estrella o el movimiento de
363
la aguja de un aparato de medición. Las elaboraciones
teóricas que constituyen el núcleo de la ciencia se
juzgarían —ya sea inductiva o deductivamente— a la luz
de observaciones (alternativamente, proposiciones
básicas). También se ha señalado históricamente la
carga teórica de la observación; aunque hay que
recordar otro punto no menos importante: el que asigna
siempre una carga experimental a la teoría. Esto pone
de manifiesto, sobre todo en física, química y biología
que la empresa científica no está completa si se
prescinde
de
su
dimensión
experimental.
Evidentemente, todas las teorías físicas o químicas
estuvieron cargadas de experimentación. Desde Galileo
y siguiendo con Faraday y Watt, lo obvio es que las
bases empíricas de las ciencias fácticas están formadas
por resultados experimentales. En estos casos la
experimentación antecedió a la elaboración de teorías.
La filosofía de la ciencia, en ocasiones, no realiza una
diferencia taxativa entre observar y experimentar,
aunque está claro que existen grandes diferencias entre
una y otra actividad. Como consecuencia, al científico se
lo considera solo como un gran observador, y que la
teoría se basa en una buena observación realizada
desde una teoría. La diferencia indica la idea que se
tenga de lo que hay detrás de los fenómenos. En primer
lugar, se cree que los fenómenos nos ofrecen una
imagen primitiva o inmediata de algún aspecto de la
naturaleza. En segundo lugar, se tiene la idea que esa
imagen primitiva es simple y, por lo tanto, aprovechable
para la construcción de una “teoría científica”. Sin
embargo, la historia de la ciencia nos enseña que hay
muchos casos que contradicen estos postulados. En la
construcción de una explicación no siempre lo más
inmediato o primitivo que se percibe es el elemento más
simple. Un ejemplo muy interesante sería la dificultad
364
que tuvieron los filósofos experimentales para entender
algo tan inmediato como el calor. Originalmente al calor
se lo consideró como un fluido al observar un hecho
aparentemente tan sencillo como el proceso de
calentamiento de una barra de metal a la que se aplica
una fuente de calor por uno de sus extremos. En este
caso, lo más inmediato no era lo más simple. El
fenómeno calórico se entendió mucho mejor cuando se
lo estudió a partir de aplicaciones tecnológicas, como
taladrar un cañón o el uso de las máquinas térmicas.
Mientras se pretendió entender el calor desde un punto
de vista puramente descriptivo, pareció someterse con
facilidad a las diferentes especies de calórico que
inventaron los ilustrados para dar cuenta de sus
diferentes cualidades. Cuando se intentó entender el
calor como “causa” del movimiento, como ocurría en el
funcionamiento de las máquinas de vapor, los fluidos
calóricos no pudieron explicar el fenómeno. Los análisis
que realiza Sadi Carnot, en su obra de 1824, se basa en
su interés por los fenómenos de transformación del calor
en trabajo, poniendo su atención en el funcionamiento
de las máquinas de vapor, y no en los fenómenos de
transformación que se pueden encontrar en la
naturaleza, como los fenómenos meteorológicos. La
razón empírica consistía en un conjunto de situaciones
fabricadas, antes que naturales. Se ha puesto este
ejemplo porque es especialmente elocuente y tal vez
porque la máquina de vapor fue un icono de la
revolución industrial construido para obtener trabajo a
partir del fuego, y no para servir de banco de pruebas
experimentales. En este caso, lo simple era algo
tecnológico y no algo inmediato. La ciencia del siglo XIX
abunda en desarrollos a partir de la técnica, en casos
como el del electromagnetismo, el tratamiento de los
gases enrarecidos, la físico-química, y lo mismo sucede
365
en muchas otras disciplinas. Los “objetos” de la ciencia
no tuvieron que ver con aspectos inmediatos del mundo
natural, sino con sofisticadas construcciones técnicas.
3.0. INVESTIGACIÓN CIENTÍFICA
Se puede definir a la investigación científica como una
secuencia de pasos que conducen a la búsqueda de
conocimientos mediante la aplicación de métodos y
técnicas específicas.
Podemos encontrar distintos tipos de investigación en
función del propósito con el que se realizan. Si nos
centramos en el grado de manejo de las variables,
podemos encontrar la investigación experimental, la
investigación cuasi experimental y la investigación no
experimental
El método experimental pertenece a los métodos
empíricos, con la característica de ser más desarrollados
y tener una mayor precisión. La capacidad
transformadora del hombre y su necesidad de investigar,
da como resultados el desarrollo de la técnica y del
conocimiento humano, con la finalidad de explicar lo
desconocido y potenciar nuevos conocimientos.
El experimento es el método empírico de estudio de un
objeto, en el cual el investigador crea las condiciones
necesarias o adecua las existentes, para el
esclarecimiento de las propiedades y relaciones del
objeto, que son de utilidad en la investigación.
El experimento es una actividad que se caracteriza
porque el investigador:
• Define las variables que más influyen para la obtención
del fin deseado, y evita la influencia de otros factores no
esenciales que no desea estudiar.
366
• Replica más de dos veces el experimento u objeto de
estudio en condiciones controladas.
• Cambia, planificadamente los valores de las variables
de interés, bajo las cuales se desarrolla el proceso o
experimento.
El experimento siempre está unido a la teoría y a los
modelos, pero no es menos importante que ellos. El
experimento puede ser llevado adelante sin que exista
una teoría específica sobre el tema, aunque luego de
generar conocimiento y validarlo, surgirá una teoría y
modelos que den sustento al conocimiento generado por
el experimento. En la teoría el problema se formula
esencialmente como un problema teórico, un problema
que se refiere al objeto idealizado de la teoría y que se
experimenta para comprobar en un plano dialéctico, los
conceptos teóricos pertenecientes a la teoría.
Las condiciones que rodean al objeto son aquellas
condiciones naturales o artificiales creadas por el
investigador bajo las cuales se realiza el experimento
con los medios e instrumentos adecuados para el
mismo. El hecho de que en el experimento el
investigador provoca el proceso o fenómeno que desea
abordar, hace que el método experimental presente toda
una serie de ventajas sobre los restantes métodos
empíricos:
- Puede seleccionar las variables de entrada que más
influyen en la variable de salida.
- Conocidas las variables más influyentes, puede
obtener la combinación entre ellas que mejor respuesta
de salida otorgan.
- Posibilidad de estudio del fenómeno en condiciones
variadas.
367
- Realizar réplicas del experimento y analizar la
variabilidad.
La experimentación en el Proceso de la Investigación
Científica
crea
la
posibilidad
de
estudiar
exhaustivamente los nexos o relaciones entre
determinados aspectos del mismo, y poner de manifiesto
las causas condicionantes de la necesidad de dicho
fenómeno.
4.0. LA PREPARACIÓN DEL EXPERIMENTO
Para realizar un experimento científico, debemos
establecer condiciones para que todas las partes
involucradas estén bajo control. En el proceso de
medición intervienen la magnitud a medir, el aparato de
medición y el operario que realiza la medición. Además,
hay que garantizar que el método de medición sea un
método normalizado y las condiciones ambientales sean
adecuadas.
La observación fija la presencia de una determinada
propiedad del objeto observado o una relación entre
componentes, propiedades u otras cualidades de éste.
Para la expresión de sus resultados no son suficientes
los conceptos cualitativos y comparativos, sino que es
necesaria la atribución de valores numéricos a dichas
propiedades
y
relaciones
para
evaluarlas
y
representarlas adecuadamente.
Cuando se inicia el estudio de una parte de la realidad
en donde los procesos o fenómenos son totalmente
desconocidos, se comienza por la elaboración de
conceptos cualitativos, lo que permite una clasificación
de los objetos de la región estudiada. Posteriormente se
establecen determinadas relaciones entre los conjuntos
de objetos semejantes con el auxilio de conceptos
368
comparativos, lo que permite clasificarlos en conjuntos
que tengan cualidades semejantes.
El uso de conceptos comparativos puede servir de base
para la introducción de conceptos cuantitativos, es decir,
conceptos que designan la cualidad medida. El tránsito
de los conceptos cualitativos a los comparativos y de
estos a los cuantitativos se realiza solo mediante
proposiciones teóricas.
La medición es el método que se desarrolla con el
objetivo de obtener información numérica acerca de una
propiedad o cualidad del objeto, proceso o fenómeno,
donde se comparan magnitudes medibles y conocidas.
El valor numérico de una propiedad va a estar dado por
la diferencia de valores entre las magnitudes
comparadas. Se denominará medición al proceso de
comparación de una propiedad con una magnitud
homogénea tomada como unidad de comparación.
Se puede decir que la medición es la atribución de
valores numéricos a las propiedades de los objetos.
Aunque la medición constituye una de las formas del
conocimiento empírico, los procedimientos de medición
se determinan por consideraciones teóricas.
Los procedimientos de la estadística descriptiva
permiten organizar y clasificar los indicadores
cuantitativos obtenidos en la medición revelándose a
través de ellos las propiedades, relaciones y tendencias
del proceso, que en muchas ocasiones no se perciben a
simple vista de manera inmediata.
Las formas más frecuentes de organizar la información
en éste caso es en tablas de distribución de frecuencias,
gráficos y las medidas de tendencia central como, la
mediana, la media, la moda y otros.
369
Los procedimientos de la estadística inferencial se
emplean en la interpretación y valoración cuantitativa de
las magnitudes del proceso o fenómeno que se estudia,
donde se determinan las regularidades y relaciones
cuantitativas entre propiedades sobre la base del cálculo
de la probabilidad de ocurrencia.
5.0. DISEÑO DEL EXPERIMENTO
El experimento debe ser concebido como un proceso en
el cual encontramos entradas (datos, mediciones),
transformaciones y salidas (variables que explican el
fenómeno)
Para una realización correcta del mismo, primero
debemos analizar si el sistema de medición está bajo
control estadístico, considerando que el mismo está
formado por el mensurando (la variable que se mide), el
operario que mide, el aparato de medición, el método de
medición y las condiciones ambientales.
En el campo de la industria es frecuente hacer
experimentos o pruebas con la intención de resolver un
problema o comprobar una idea (hipótesis); por ejemplo,
hacer algunos cambios en los materiales, métodos o
condiciones de operación de un proceso, probar varias
temperaturas en un reactor químico hasta encontrar la
que dé mejor resultado, o crear un nuevo material con la
intención de lograr mejorar o eliminar algún problema.
Sin embargo, es común que estas pruebas o
experimentos se hagan sobre la marcha, con base en el
ensayo y error, apelando a la experiencia y a la intuición,
en lugar de seguir un plan experimental adecuado que
garantice una buena respuesta a los interrogantes
planteados.
El diseño estadístico de experimentos es precisamente
la forma más eficaz de hacer pruebas. El diseño de
370
experimento consiste en determinar cuáles pruebas se
deben realizar y de qué manera, para obtener datos que,
al ser analizados estadísticamente, proporcionen
evidencias objetivas que permitan responder los
interrogantes planteados, y de esa manera clarificar los
aspectos inciertos de un proceso, resolver un problema,
o lograr mejoras.
El experimento es un cambio en las condiciones de
operación de un sistema o proceso, que se hace con el
objetivo de medir el efecto del cambio sobre una o varias
propiedades del producto, proceso o resultado. Por
ejemplo, en un proceso químico se pueden probar
diferentes temperaturas y presiones y medir el cambio
observado en el rendimiento del proceso.
Las variables de respuesta se utilizan para conocer el
efecto o los resultados de cada prueba experimental, por
lo que pueden ser características de la calidad de un
producto y/o variables que miden el desempeño de un
proceso. El objetivo de muchos estudios experimentales
es encontrar la forma de mejorar las variables de
respuesta.
6.0. TEORÍA GENERAL
Supongamos que se tienen k poblaciones o
tratamientos,
independientes
y
con
medias
desconocidas 1, 2,... k ; así como varianzas también
desconocidas. Las poblaciones pueden ser k métodos
de producción, k tratamientos, k grupos, etc.
En el caso de que los tratamientos tengan efecto, las
observaciones Yij se podrán describir con el modelo
estadístico lineal dado por:
371
Yij = + i + ij
Donde es el parámetro de escala común a todos los
tratamientos, llamada media global, i es un parámetro
que mide el efecto del tratamiento i y ij es el error
atribuible a la medición Yij . Este modelo implica que en
el diseño completamente al azar, actuarían a lo sumo,
dos fuentes de variabilidad: los tratamientos y el error
aleatorio. La media global no se la considera una
fuente de variabilidad.
7.0. CONCLUSIÓN
La importancia del experimento como actividad
epistemológica está a la altura de la teoría y de los
modelos, sin que uno tenga preponderancia sobre el
otro.
Las estrategias epistemológicas utilizadas habitualmente
en la actividad experimental de las ciencias de la
ingeniería, permiten incrementar nuestra confianza en
los datos y posterior conocimiento aportados por el
experimento. No obstante, debemos poder asegurar que
la aplicación de estas es necesaria para que en el
desarrollo de un experimento se obtengan resultados
válidos, dado que en cada situación experimental hay un
conjunto de estrategias que pueden emplearse para
lograr resultados robustos, capaz de resistir el escrutinio
de los expertos en la materia. De todos modos, debemos
ser conscientes de las limitaciones que hacen que la
actividad experimental no esté exenta de errores: La
incertidumbre en la medición no puede eliminarse, solo
372
disminuirse, los instrumentos utilizados poseen precisión
limitada, o pueden ser empleados de manera
inadecuada o pueden estar fuera de calibración, el
mensurando puede estar mal definido y no considerar
todas las variables que inciden sobre él. Estas
limitaciones
inducirán
un
diseño
experimental
inapropiado. También, podemos cometer dos tipos de
errores: aceptar la hipótesis nula cuando es falsa o
rechazarla cuando es verdadera y estos dos tipos de
errores no pueden eliminarse, solo disminuirse. La
falibilidad es la nota distintiva de la ciencia, una
característica que comparten tanto las teorías como los
experimentos. Los enunciados experimentales son
revisables y esta revisión se efectúa siguiendo una
dinámica que involucra la relación entre el ámbito
teórico, el experimental y el tecnológico. Además,
debemos tener en cuenta que la mejor explicación para
la persistencia del resultado con la variación de métodos
de análisis estadístico, es que éste no es producido por
el manejo estadístico de los datos. También, he tratado
de sostener en este trabajo que las razones por las
cuales un resultado experimental se acepta o se rechaza
son internas, es decir, que existe un conjunto de criterios
epistemológicos en los que se fundamenta la validación.
373
REFERENCIAS
Agazzi, E. (1978). Temas y problemas de filosofía de la
Física. Barcelona: Herder.
Buchwald, J.Z. (1997) Ciencia, tecnología y sociedad, .
Mc Graw Hill. México
Galilei, G.(1638). Consideraciones y demostraciones
matemáticas sobre dos nuevas ciencias,Madrid: Editora
Nacional Editado en 1976.
Gonzalez, García, A. (1997). Relativismo, racionalismo y
sociología del conocimiento, Madrid:Editora Nacional
Guttierrez Pulido (2010) Análisis y diseño de
experimentos. Mc Graw Hill. México
Guttierrez Pulido (2012) Control estadístico de la calidad.
Mc Graw Hill. México
Hacking, I. (1996). Representar e intervenir, trad. Sergio
F.
Martínez, Instituto de Investigaciones FilosóficasUNAM/Paidós, México (1a. ed. en inglés: 1983).
Van Fraassen, B.C. (1996). La imagen científica, trad.
Sergio F. Martínez, México, Instituto de Investigaciones
Filosóficas-UNAM/Paidós
374
18. SOBRE LA APLICABILIDAD DE LA LÓGICA
EN LOS PROCESOS DE MODELIZACIÓN EN
CIENCIA
Juan Redmond60, Guillermo Cuadrado61, Rodrigo López Orellana62
Resumen: El objetivo de este artículo es defender la
aplicabilidad de la lógica como condición de adecuación que
debe cumplir todo enfoque sobre la modelización que
pretenda ser preciso y adecuado. Probaremos nuestro punto a
partir del caso de los modelos que no poseen sistema objetivo.
Palabras clave: lógica, modelos sin sistema objetivo,
razonamiento sustituto
1.0. INTRODUCCIÓN
En un reciente trabajo publicado por Frigg y Nguyen
(2018) se realiza un estudio muy completo sobre la
importancia de la noción de representación científica en
los enfoques teóricos sobre modelización en ciencia. En
efecto, en toda perspectiva teórica sobre modelización,
la noción de representación es central en el sentido que
ella captura la relación que se establece entre el modelo
y su sistema objetivo. Cada perspectiva, desde luego, la
define de acuerdo a sus bases teóricas y principios. Pero
en general, sea cual fuere el enfoque, señala Frigg y
Nguyen, debe cumplir con ciertos objetivos y ciertas
condiciones de adecuación. De los objetivos a los cuales
debe responder nos detendremos en primer lugar en el
llamado “problema de la representación”. En efecto, todo
enfoque sobre modelización, para estar bien definido,
60
Universidad de Valparaíso,
[email protected]
Grupo IEMI, F. R. Mendoza, UTN,
[email protected]
62
Conicyt, Chile / Universidad de Salamanca, España,
[email protected]
61
375
debe rellenar
formulación:
el
espacio
vacío
en
la
siguiente
“M es una representación científica/epistémica de S sii ___”
Esta fórmula es conocida como el Problema de la
Representación Científica/Epistémica (SR-Problem o
ER-Problem para abreviar). La diferencia entre Científico
y Epistémico se refiere a lo que Callender y Cohen
(2006, pp. 68-69) señalan como el "problema de
demarcación" (Popper), pero para representaciones:
"Representaciones científicas" para aquellos que
demarcan las representaciones científicas de las no
científicas; "representaciones epistémicas" para aquellos
que consideran irrelevante esa distinción - siguiendo una
sugerencia de Contessa (2007) para ampliar el alcance
de la investigación. Depende de esta definición si la
perspectiva es representacionalista o no.
Como señalamos más arriba, cada perspectiva sobre
modelización rellena esta fórmula de acuerdo a sus
compromisos teóricos. Por ejemplo, los enfoques
llamados representacionalistas la entienden como un
homomorfismo estructural (biyección entre ambas
partes).
Mientras
que
los
enfoques
norepresentacionalistas comprometen otras nociones como
las de uso o la manipulación que realiza un agente del
modelo. Por otro lado tenemos a los inferencialistas que
identifican representación con la función inferencial que
cumple el modelo respecto de sus sistemas objetivos.
Los otros objetivos en los cuales debe enfocarse toda
perspectiva sobre modelización para ser precisa y
confiable (accurate) son los siguientes:
1. El problema de demarcación representacional: el
problema de tener un criterio que permita establecer la
376
diferencia entre representaciones científicas y las que no
lo son. O un criterio que permita decir que todas las
representaciones son científicas.
2. El problema de estilo: existen distintos estilos de
representación, por ejemplo, un modelo de circuito
eléctrico representa la función cerebral de una manera
diferente a un modelo de red neuronal. Es decir, se debe
poder responder adecuadamente a la pregunta ¿qué
estilos existen y cómo se pueden caracterizar?
3. Formular estándares de precisión [Accuracy]:
sabemos que ciertas representaciones son acertadas,
precisas, otras no. Por ejemplo, tanto el modelo de doble
hélice como el de triple hélice (Watson y Crick en 1953)
constituyen representaciones del ADN, pero solo del
primero decimos que es acertado o adecuado. ¿Pero
sobre qué fundamentos teóricos afirmamos esto? Es
decir, ¿qué constituye una representación adecuada?
4. Los problemas ontológicos: qué tipo de objetos
son los modelos en tanto representaciones?
Además de estos objetivos, como señala Frigg y Nguyen
(2018), también tenemos "condiciones de adecuación"
que deben cumplir satisfactoriamente. Estas son:
- Razonamiento Sustituto [Surrogative Reasoning]: los
modelos, en tanto representaciones científicas, nos
permiten generar hipótesis sobre sus sistemas objetivos.
Es decir, el modelo cumple con la función de sustituto al
permitir la realización de razonamientos o inferencias.
Sustituto en el sentido de que las conclusiones que se
obtengan por esta vía serán consideradas como
hipótesis formuladas sobre su sistema objetivo. Lo que
infiero en M lo “traslado” al sistema objetivo.
- Posibilidad de representaciones distorsionadas
[Misrepresentation]: esta condición está ligada al
377
estándar de precisión. En efecto, si S no representa
adecuadamente o con precisión a T, entonces debería
ser una representación distorsionada (misrepresentation)
y no una no-representación).
Requerimiento
de
direccionalidad:
las
representaciones científicas se refieren o apuntan a sus
objetivos pero no al revés: los objetivos no apuntan a
sus representaciones.
- Aplicabilidad de las matemáticas: ¿cómo es que el
aparato matemático usado en algunas representaciones
científicas se acopla al mundo físico.
- Modelos sin sistema objetivo [Targetless Models]:
¿cómo considerar los modelos que no poseen sistema
objetivo? Nos detendremos especialmente en esta
última pues nos ayudará a defender el punto principal de
este artículo: la aplicabilidad de la lógica.
¿Cuándo un modelo no tiene sistema objetivo? En este
artículo defenderemos que un modelo “no tiene” sistema
objetivo cuando:
(i)
sabemos que hay algo pero no sabemos
realmente cómo es [si pensamos en la modelización del
átomo, por ejemplo, tenemos los casos de los modelos
del átomo que van de Dalton a Bohr];
(ii)
realmente no sabemos si hay algo o no [si
pensamos en el Modelo Planetario que propuso el
planeta Vulcano entre Mercurio y el Sol];
(iii)
sabemos que tal cosa no podría existir [modelos
de poblaciones de organismos de tres sexos para el
estudio del desarrollo evolutivo63].
“Hypothetical modelling” (Weisberg, 2013: 121) or “counterfactual models”
(Cassini, 2018: 194).
63
378
Entendemos que esto último puede identificarse como
un problema epistémico. Es decir, este problema
epistémico, a nuestro entender, produce también un
problema lógico: cómo es posible cumplir con la función
de razonar sustitutivamente en M generando hipótesis si
no hay sistema objetivo. Desde luego esta división no
pretende ser exhaustiva. Ni tampoco nuestra propuesta
pretende reemplazar los otros enfoques. Solo decimos
que en estos casos señalados parece ser más adecuado
usar una noción de inferencia que tenga en cuenta esta
situación.
Cabe señalar que los procesos de modelización en los
que se focaliza nuestro trabajo (y donde se presentan
los casos i, ii y iii), son aquellos que buscan escudriñar
en los aspectos desconocidos del universo. En este
contexto es donde creemos que surgen problemas
epistémicos de acceso al conocimiento como
epistemológicos de justificación de este. Esto significa,
por un lado, que entendemos por sistema objetivo una
porción desconocida y problemática de la realidad y, por
otro lado, que intentamos conocer esa porción de la
realidad por medio de la práctica de modelización.
Creemos que los casos i, ii y iii corresponden a los
límites mismos del ser humano a la hora de acceder a lo
que llama realidad o mundo fenoménico. En este
sentido, nuestra alegación es que difícilmente se puede
aceptar que un sistema objetivo sea el resultado de
"observar" los fenómenos. Por el contrario, lo que
llamamos realidad o mundo fenoménico se presenta
como un problema para el científico. Y la práctica de
modelación es un intento, entre otros, de resolver estos
problemas respondiendo a las preguntas que nos llevan
a conocer más sobre el sistema objetivo.
379
Por lo tanto, nuestro punto de partida es que existe un
modelo que apunta intencionalmente (a través de un
agente) a un sistema objetivo en la práctica misma de
generar hipótesis. Es decir, estamos interesados en
resaltar la importancia de las bases lógicas que justifican
el proceso heurístico-inferencial que los Modelos
cumplen (mediante el razonamiento sustituto) en su
tarea de ampliar el campo de conocimiento mediante la
producción de hipótesis sobre el sistema objetivo.
2.0. RAZONAMIENTO SUSTITUTO Y APLICABILIDAD
DE LA LÓGICA
En la precisa descripción que nos brinda Frigg/Nguyen,
en efecto, se destaca al mismo tiempo la función
primordial y por ello protagónica que cumple el
razonamiento sustituto en el proceso de modelización.
La función de sustituto que cumple el modelo es una
condición común a todas las perspectivas. Ciertamente
cada una de ellas lo define y le da su lugar de acuerdo
con sus bases teóricas. Por ejemplo en los enfoques
representacionalistas es un subproducto de la práctica
misma. Mientras que en una perspectiva inferencial
como la de Suárez (2004), el razonamiento sustituto es
lo que define la representación científica. Pero lo que
parece no poder faltar en común en todas las
perspectivas, que el modelo permita generar hipótesis
sobre su sistema objetivo.
Dadas así las cosas, es fácil llegar a la conclusión de
que la lógica ocupa un lugar relevante en ese proceso.
Un lugar que no parece estar recuperado en la
consideración del razonamiento sustituto como condición
de adecuación. En efecto, ella nos habla de la función
sustituta que cumple “inferencialmente” el modelo, pero
380
no de los enfoques inferenciales comprometidos en este
proceso. Es por ello por lo que creemos que el análisis
de la función de sustituto que cumple el modelo no es
completo si no consideramos lo que hemos llamado la
Aplicabilidad de la Lógica.
Nuestra premisa es que la aplicabilidad de la lógica es
relevante debido a las limitaciones y restricciones
impuestas por los diferentes marcos lógicos (y sus
semánticas) sobre las afirmaciones realizadas en un
campo científico dado. En particular con los modelos, de
hecho, basados en el papel relevante que juega el
razonamiento sustituto, creemos que es necesario incluir
entre las condiciones de adecuación la aplicabilidad de
la lógica.
Para mostrar nuestro punto analizaremos lo que sucede
en los casos más sencillos de targetless. Esto permitirá
probar que si no consideramos la aplicabilidad de la
lógica entre las condiciones de adecuación estaríamos
cayendo en un error.
2.1. MODELOS SIN SISTEMA OBJETIVO
Nos focalizaremos en el razonamiento sustituto pues allí
se encuentra el núcleo primordial de la práctica de
modelización. El razonamiento sustituto supone dos
pasos. Un primer paso donde el agente que se sirve del
modelo realiza sus inferencias. Y un segundo paso que
consiste en llevar las conclusiones del paso anterior,
como hipótesis, al sistema objetivo de ese modelo. El
primer paso es claramente lógico y requiere de una
lógica bien definida para dar cuenta de ello. El segundo
debería ser un paso lógico aunque todavía se discute
mucho sobre este punto y en particular en nuestro
artículo no hablaremos de ello. Es decir, presuponemos
381
que tenemos una formulación como ‘M ξ S’ donde “ξ”
define un tipo de relación inferencial entre el modelo M y
su sistema objetivo S. Pero no es el foco del estudio del
razonamiento sustituto. El razonamiento sustituto se
refiere a las inferencias que realizamos en M y que
luego, sus conclusiones, son “llevadas” al sistema
objetivo como hipótesis que, la mayor parte de las
veces, deben ser testeadas para saber si el sistema
objetivo las cumple o verifica.
Consideremos el siguiente caso como un ejemplo de las
dificultades que puede acarrear no considerar
propiamente la aplicabilidad de la lógica: consideremos
el caso de targetless iii mencionado más arriba para un
razonamiento sustituto que sigue los lineamientos de la
lógica clásica. Consideremos entonces que para nuestro
modelo M la propiedad más relevante sea A: “x posee
tres sexos”. Consideremos ahora un individuo k1 que
satisface esa propiedad a los efectos de poder simular
con él en nuestro modelo. Pero al mismo tiempo, a partir
de la afirmación de que ese individuo instancia tal
propiedad (Ak1), puedo inferir –de acuerdo con los
principios que rigen la lógica clásica- que debe existir al
menos un individuo con tres sexos: Ak1→∃xAx
(Especificación). Y si esto último lo trasladamos como
hipótesis al sistema objetivo nos llevará al fracaso. Pero
lo interesante es que el fracaso no se debe a un
problema del estándar de adecuación y la posibilidad de
representaciones distorsionadas. Se trata de un caso
donde aplicamos la lógica indebida. Pues si
confrontamos una situación como iii, no podemos usar
una lógica con compromisos ontológicos para sus
términos singulares (ki). En efecto, debe buscarse la
lógica adecuada para ello.
382
¿Por qué sucede esto? Bueno, porque la lógica clásica
posee una semántica referencialista. Y, ¿qué significa
esto? Significa que el significado de las expresiones del
lenguaje de la lógica clásica de primer orden son sus
referencias. El cuadro siguiente lo resume:
Semántica
Oración aseverativa
Predicado
Nombre propio
Su significado es
Su significado es
Su significado es
Lo Verdadero o lo
Falso
Un concepto
Un objeto
Por otro lado Especificación es un axioma que rige para
la lógica clásica y dice que, como indica la fórmula más
arriba, que si es verdad que un individuo cumple con una
propiedad cualquiera, es verdad también que debe
existir al menos un individuo que cumpla tal propiedad.
En este último caso es el cuantificado existencial el que
carga con la exigencia.
Sin embargo, y aquí reside el verdadero problema, esta
semántica adolece de un problema que Karel Lambert
(2003, p. 142) llamó esquizofrénico: mientras la lógica
clásica acepta la vacuidad de los términos generales
(predicados vacíos y sus respectivos conceptos), no es
posible tener términos singulares que no refieran. Es
decir, es una exigencia absoluta para la verdad o
falsedad de las expresiones donde aparecen que los
términos singulares refieran o denoten un objeto en la
realidad (en el alcance de los cuantificadores). Al menos
la misma realidad a la que nos referimos cuando
hablamos de sistemas objetivos. Para más detalles
sobre lógica y esquizofrenia ver Redmond/López (2018).
383
En definitiva, aplicar lógica clásica para razonamiento
sustituto nos pone la restricción de que el modelo, sus
partes y el sistema objetivo al que apunta, deben
necesariamente existir, lo cual es insostenible en los
casos de modelos sin sistema objetivo que hemos
analizado.
Otros casos que pueden tenerse en cuenta son las
prácticas de modelización en mecánica cuántica donde
no se puede usar una lógica que tenga activo el principio
de explosión. Como nos señaló Newton da Costa viva
voce en la conferencia de apertura del Congreso de
Lógica en Rio de Janeiro en 2013, esto abre las puertas
a las lógicas paraconsistentes. Lo mismo van
Bendeghem, para las lógicas adaptativas que deben
lidiar con modelos que suponen conjuntos de datos que
en parte se contradicen.
3.0. CONCLUSIÓN
El objetivo de este artículo fue mostrar la relevancia de
la lógica en los procesos inferenciales que caracterizan a
la práctica de modelización en ciencia. Para ello nos
servimos de un caso de modelización sin sistemas
objetivos que permitió hacer evidente que debe elegirse
un
enfoque
inferencial
no
comprometido
ontológicamente como es el caso de la lógica clásica. En
efecto, partimos de la función de razonamiento sustituto
que todo modelo, independientemente del enfoque sobre
representación científica, debe cumplir para ser
adecuado. Y mostramos como esta condición de
adecuación no es completa si uno no considera la
aplicabilidad de la lógica pertinente a tal función para
que no nos lleve a conclusiones absurdas sobre el
sistema objetivo.
384
REFERENCIAS
Callender, C.; Cohen, J. (2006) “There Is No Special
Problem About Scientific Representation”, Theoria,
21(1): 67–84.
Cassini, A. (2018). “Models without a target”.
ArtefaCToS, Vol. 7, No. 2 (2018), 2ª Época, p. 185-209.
Contessa, G. (2007). “Scientific Representation,
Interpretation, and Surrogative Reasoning”, Philosophy
of Science, 74(1), pp. 48–68. doi:10.1086/519478
Frigg,
R.;
Nguyen,
J.
(2018),
"Scientific
Representation", The Stanford Encyclopedia of
Philosophy (Winter 2018 Edition), Edward N. Zalta (ed.),
URL
=
https://plato.stanford.edu/archives/win2018/entries/scientificrepresentation/.
Lambert, K. (2003). Free Logic: Selected Essays,
Cambridge: Cambridge University Press.
Redmond, J.; López-Orellana, R. (2018). “Lógica
clásica
y
esquizofrenia:
por
una
semántica
lúdica”. Revista de Filosofía 74, pp. 197-223. DOI:
10.4067/S0718-43602018000100215.
Suárez, M. (2004). “An Inferential Conception of
Scientific Representation”, Philosophy of Science, 71(5),
pp. 767–779. doi:10.1086/421415
Weisberg, M. (2013). Simulations and Similarity: Using
Models to Understand the World. New York: Oxford
University Press.
385
386
19. MODELO CUALITATIVO DE INFRANÓMICA
Aplicación a la nueva generación de
infraestructuras
Gustavo A. Masera64; Ricardo R. Palma65
Resumen: En el documento se propone analizar los
fundamentos del modelo cualitativo basado en la Infranómica.
Ésta última es una rama interdisciplinaria emergente que
proporciona una base teórica y metodológica para tratar un
sinnúmero de cuestiones de la compleja sociedad moderna que
se derivan de la estructura y funcionamiento de las
infraestructuras. En este sentido, el propósito central se orienta,
a clarificar el debate en relación a los problemas que surgen de
la
interacción
entre
las
diferentes
infraestructuras,
especialmente en aquellas denominadas críticas. Se concluye
que la modelización de la Infranómica permite comprender la
interrelación entre los varios aspectos concurrentes en la nueva
generación de infraestructuras, caracterizadas, entre otras
dimensiones, por el cruce entre éstas con los sistemas de
electricidad y las tecnologías de la información y la
comunicación, los cuales son dimensiones clave para el logro
de los objetivos de desarrollo sostenible. .
Palabras claves: Infranómica - infraestructuras críticas –
horizonte 2030 – desarrollo sostenible
1.0. INTRODUCCIÓN
El propósito de este documento radica en la
comprensión de los desafíos que se presentan a las
infraestructuras de próxima generación, en particular de
aquellas que se denominan críticas y que se encuentran
basadas en tecnologías emergentes.
64
Facultad de Ingeniería-Universidad Nacional de Cuyo; Facultad de Ciencias
Económicas y Jurídicas-Universidad del Aconcagua (Mendoza, Argentina)
65
Facultad de Ingeniería-Universidad Nacional de Cuyo (Mendoza, Argentina)
387
El método de trabajo se enfoca en la perspectiva de la
Infranomica. Se considera que la misma representa
también un nuevo enfoque que permite pensar, entre
otros temas, las condiciones para el manejo del riesgo y
la criticidad en las infraestructuras innovativas o de
nueva generación.
A los fines de comprender su potencial para el análisis,
se realiza una síntesis de sus fundamentos teóricos y un
esquema sobre su desarrollo reciente en lo doctrinal.
Posteriormente, se procede a elaborar una modelización
de la Infranómica, buscando ilustrar con ello la relación
entre los elementos que participan del modelado:
campo, componentes, procesos y propiedades
emergentes. (Forbus, 2010).
El campo está representando por el territorio de la
Infranómica
como
disciplina
de
disciplinas
(metadisciplina)
y
un
sistema
de
sistemas
(metasistema). (Ghoerghe, et al., 2014).
Los componentes principales del sistema se ordenan a
la identificación de las infraestructuras y en la
consideración de aquellas que se denominan críticas,
por su rol central en el funcionamiento de las
sociedades.
Los procesos se refieren al cruce entre los sistemas
tecnológicos eléctricos, y las tecnologías de la
información y comunicación (paradigma E+I) en las
infraestructuras. En estos procesos surge, asimismo, las
propiedades emergentes, entre ellas, el problema de los
riesgos
asociados
al
funcionamiento
de
las
infraestructuras.
Por último, se plantean algunas discusiones en torno a la
Infranómica frente a la necesidad de conseguir
resultados de desarrollo sostenible en el marco del
388
horizonte 2030 planteado por Naciones Unidas. Para
finalizar se establecen algunas reflexiones a modo de
conclusión.
2.0. MODELO CUALITATIVO DE LA INFRANÓMICA
En el presente apartado se plantea la posibilidad de
representar los aspectos centrales del esquema, para lo
cual se realiza una representación del modelo cualitativo
e interdisciplinario de la Infranómica. De este modo se
hace visible que la misma es, en realidad, un sistema de
sistemas.
El modelado cualitativo se refiere a las representaciones
y razonamientos que las personas usan para
comprender aspectos complejos del mundo, para lo cual
formalizan las nociones cotidianas de causalidad y
proporcionan explicaciones sobre cómo fundamentar
representaciones simbólicas y relacionales en procesos
perceptivos (Forbus, 2010). Se aplica a la Infranómica
algunas ideas básicas del modelado cualitativo a partir
de un principio básico, según se ha señalado ut supra: la
identificación de cuatro marcos que permiten organizar
el conocimiento que se posee sobre las infraestructuras:
procesos, componentes, campo y propiedades
emergentes.
3.0. CAMPO: La Infranómica como disciplina de
disciplinas y sistema de sistemas
En los últimos años, un campo disciplinar en
construcción: la Infranómica (Gheorghe et al., 2014).
El término Infranómica (Infranomics) es un el neologismo
que surge de la necesidad de dotar de respuestas más
complejas desde un marco teórico no tradicional que
ayude al proceso de toma de decisión en sistemas
socio-tecnológicos de alta complejidad. El término
elegido hace referencia a “Infra” (por infraestructura) y
389
“Nómica” (por
conocimiento).
la
raíz
griega
de
gnosis,
ley
o
En la obra de referencia editada por Gheorghe
(Gheorghe et al, 2014), se forjó un concepto que al
mismo tiempo es una herramienta de análisis. El cuerpo
de esta disciplina se autodefine como un sistema de
sistemas. Esto además es intuitivo y recursivo, de modo
que si se entiende los nodos iniciales del árbol,
recursivamente aplicando esta idea se llega al grano
más fino necesario. La idea prosperó por el terreno de
los modelos de simulación, que derivaron luego hacia los
metamodelos. La Infranómica es, entonces, una
disciplina de disciplinas, ya que supone los análisis de
las normas y las reglas de juego, las instituciones, los
aspectos de actores y de mercado, el poder y los
aspectos científico-técnicos de la sociedad.
En un primer momento del análisis, se plantearon dos
planos en los que los beneficios de la infraestructura
deberían florecer para satisfacer su fin último, que es
cubrir las necesidades explícitas e implícitas de las
mismas. En los primeros años de la Infranómica en la
Unión Europea, dimensión tangible fue la más clara.
Durante este período la mayor parte de los autores que
produjeron trabajos de investigación y transferencias
tangibles provenían del campo de las tecnologías y en
menor grado de la economía. En una segunda etapa los
campos de las tecnologías comenzaron a ser
abrumados por la complejidad y las discusiones y
debates tenían resultados mucho más cercanos a las
verdaderas soluciones de los problemas reales. En
muchos casos fue posible construir modelos y
herramientas específicos para tomar decisión sobre ellos
pero faltaban aún aportes de la mirada de otras
disciplinas para darle completitud al concepto.
390
Los temas que aparecen en la agenda son, entre otros,
los siguientes: infraestructura y sostenibilidad; enfoques
integrados para la gestión estratégica de activos
estratégicos; riesgos y seguridad, energía renovable y
gestión; diseños óptimos de políticas para el área
afectada por desastres; riesgos frente al consumo de
energía de transporte y seguridad energética; los riesgos
frente a la falta equidad y problemas éticos por falta de
acceso a infraestructuras; el riesgo y la nueva tecnología
urbana alternativa para futuras ciudades con bajas
emisiones de carbono; problemas de modelado y
simulación, problemas de gobernabilidad y de
gobernanza en escenarios complejos con múltiples
actores de intereses divergentes; infraestructuras
capacitadas para enfrentar riesgos e incertidumbres
asociados con el cambio climático, etc.
Según lo expuesto, puede verse que la manera en que
se abordan problemas como los de las nuevas
estructuras, ya no tienen al artefacto o al diseño
tecnológico como fin último, sino que se recurre a lo
provisto por diversas disciplinas particulares, donde se
incluyen las dimensiones sociales, de gestión y hasta
culturales para un abordaje integral de los problemas
emergentes en esta nueva era.
4.0. COMPONENTES: Infraestructuras e
infraestructuras críticas
Las sociedades contemporáneas descansan sobre
numerosas y variadas infraestructuras a modo de
conjuntos tecnológicos relativamente estables que
articulan los diferentes sistemas vivos del sistema.
Desde la perspectiva de la Infranómica, la infraestructura
es un sistema socio-tecnológico de segundo orden
(sistema de sistemas), que cumple con un servicio vital,
391
como es transmitir o transferir un flujo de algo (bienes,
información, etc.) entre los nodos del sistema. Las
nuevas infraestructuras en particular, se caracterizan por
el cruce entre éstas con la electricidad y las tecnologías
de la información y la comunicación. Este rasgo es
denominado paradigma E+I - Electricity plus Information.
(Masera et al., 2005).
Al mismo tiempo, es preciso identificar los principales
sistema de infraestructuras críticas:1) energía (centrales
y redes de energía); 2) abastecimiento de agua
(embalses, almacenamiento, tratamiento de agua
potable y redes); 3) tratamiento de desechos; 4)
transporte
(aeropuertos,
puertos,
instalaciones
intermodales, ferrocarriles y redes de transporte público,
sistemas de control del tráfico); 5) infraestructura de la
información y comunicación, que incluye las tecnologías
de base digital e Internet, usadas para gestionar,
monitorear y controlar las otras infraestructuras.
Además, hay consenso en que las infraestructuras
criticas pueden incluir las siguientes áreas: instituciones
financieras; sector sanitario; alimentación; producción,
almacenamiento y transporte de mercancías peligrosas
(materiales químicos, biológicos, radiológicos y
nucleares);
administración
(servicios
básicos,
instalaciones, redes de información; etc.).
En las Infraestructuras críticas se pueden enumerar tres
rasgos principales que hacen a su rol específico en la
sociedad contemporánea. El primero de ellos es la
función de producción de flujos continuos y universales
de servicios básicos que resultan esenciales para el
desarrollo económico y social. En otras palabras, son
elementos que tienen que estar disponibles para todos,
en todo momento. El usuario no se preocupa de la
complejidad detrás de su acceso al servicio, puesto que
392
le interesa solamente conectarse y que el servicio esté
disponible.
En segundo lugar, las infraestructuras tienden a no ser
posesión de un único dueño (público o privado).
Además, puede pasar que cada operador, regulador y
usuario posean distintas lógicas de funcionamiento. La
regionalización de los mercados, por ejemplo en la
Unión Europea, ha conducido al “desacople” de su
sistema eléctrico (unbundling), donde ningún operador
controla la infraestructura de producción o distribución.
Entonces, cuando los sistemas se interconectan a través
de las fronteras, los mismos entes nacionales ven
recortados sus competencias.
Por último, las infraestructuras han sido diseñadas para
satisfacer necesidades sociales básicas, pero los
cambios tecnológicos y organizativos han elevado su
nivel de complejidad, quedando sujetas a riesgos
internos y externos debido a fallos accidentales o
intencionales. Y cuando se producen fallos, éstos
tienden a propagarse excediendo los límites
estructurales, funcionales y territoriales de cada sistema
singular.
Se plantea, en consecuencia, que los riesgos
emergentes en las infraestructuras, especialmente en
aquellas denominadas críticas (energía, transporte,
tecnologías de la información y comunicación, etc.),
serán en los próximos años cuestiones de máximo
interés para el conjunto de los países y que formarán
parte ineludible de las agendas.
5.0. PROCESOS: Las infraestructuras de nueva
generación
Todas las infraestructuras pueden llegar a ser
consideradas de nueva generación, en la medida en que
393
se encuentren cruzadas por las tecnologías de la
información y la comunicación (TICS) y los sistemas de
electricidad. Pero el rol lo ocupan principalmente estas
infraestructuras críticas que han sido definidas de
diversa
manera.
Más
específicamente,
las
“Infraestructuras Críticas” (IC) son una red de sistemas
interdependientes de gran escala, y que implican
complejas
distribuciones
físicas
transfronterizas
asociadas a tecnologías y redes cibernéticas, producto
de la interconexión con los sistemas de tecnologías de la
información y comunicación (Gheorghe et al., 2005).
La Oficina de Protección de la Infraestructura Crítica de
los Estados Unidos (EUA), por ejemplo, las concibe
como los sistemas que podrían ser debilitados o
destruidos en sus capacidades básicas. En este
esquema se pueden incluir, entonces, a los bancos, el
transporte, las redes de provisión de agua, servicios del
gobierno y otras áreas públicas. Sobre esa concepción
se han desarrollado, además, estrategias para asegurar
el ciberespacio y la protección física de las
infraestructuras criticas (NIPP, 2009) o la asociación
para la seguridad de estas y la “resiliencia” (Canadá,
2014).
La Organización de los Estados Americanos (OEA) las
define como “aquellas instalaciones, sistemas y redes,
así como servicios y equipos físicos y de tecnología de
la información, cuya inhabilitación o destrucción tendría
un impacto negativo sobre la población, la salud pública,
la seguridad, la actividad económica, el medio ambiente,
servicios de gobierno, o el eficaz funcionamiento de un
Estado” (OEA, 2007) y, en consecuencia, sus estados
miembros han convenido en una “Declaración sobre la
“Protección de Infraestructura Crítica ante las Amenazas
Emergentes” (OEA, 2015).
394
La Unión Europea, de su parte, coincide en
considerarlas como aquellas instalaciones, redes,
servicios y equipos físicos y de tecnología de la
información cuya interrupción o destrucción pueden
tener una repercusión importante en la salud, la
seguridad o el bienestar económico de los ciudadanos o
en el eficaz funcionamiento de los gobiernos de los
estados miembros (Comisión Europea, 2004). Por los
expuesto, se desarrolló desde 2006, el Programa
Europeo de protección de las IC (PEPIC).
Puede notarse, entonces, que las diversas definiciones
colocan el énfasis en los impactos sobre la defensa y la
seguridad económica de una sociedad en el nivel
regional o nacional.
6.0. PROPIEDADES: El riesgo sistémico emergente
Aunque no hay una definición aceptada universalmente,
sin embargo, se han clasificado dos posibles categorías
de riesgo: aquellas donde el riesgo se expresa mediante
probabilidades de un suceso aunado a valoraciones
sobre expectativas; y las otras, que sostienen que los
riesgos se expresan fundamentalmente por la ocurrencia
de eventos imprevistos y las consecuencias que pueden
emanar de los mismos, con un fuerte componente de
incertidumbre (IRGC, 2010; Renn, 2008).
De acuerdo a lo expuesto, puede afirmarse que la
noción de riesgo se refiere, a la inseguridad acerca de la
gravedad de las consecuencias (o resultados) de una
actividad, con respecto a algo que la sociedad percibe
como valioso, vital o crítico. Los riesgos pueden
derivarse de numerosos factores y en distintos ámbitos:
cracks financieros; crisis alimentaria; calentamiento
global; aumento de la desertificación; estancamiento de
las
negociaciones
comerciales;
problemas
de
395
suministros de gas y restricciones energéticas;
renovados conflictos geopolíticos; fallas en los sistemas,
como black-outs eléctricos de grandes dimensiones
(OECD, 2003).
Más recientemente, durante el desarrollo de la cumbre
anual del Foro Económico Mundial acerca del tema
“Creando un futuro compartido en un mundo fracturado,”
se presentó el informe anual “Riesgos Globales 2018”
(Davos, 2018). En el mismo se propicia el fomento de la
resiliencia en sistemas complejos y se advierte que
debido a la alta exigencia que se efectúa a los sistemas,
el ritmo acelerado de los cambios puede resultar en una
intensificación de 4 riesgos como: a)Las amenazas
cibernéticas y los ciberataques así como la proliferación
de armas de destrucción masiva; b) La pérdida de la
biodiversidad, clima extremo y colapso de ecosistemas,
grandes desastres naturales o ambientales causados
por el hombre y el fracaso en la mitigación del cambio
climático: c) el aumento de las tensiones geopolíticas; d)
el riesgo de que estalle otra crisis financiera.
Existe una relación directa entre infraestructuras críticas
(IC), nuevas tecnologías (TIC) y sociedad de la
información (SI). Por consiguiente, un conjunto de fallos
en el funcionamiento de las TIC, pueden hacer colapsar
por un cierto período la base técnica de la SI, y ello
resultará en la pérdida de transmisiones de datos y del
acceso a fuentes de información, afectando otras IC
(agua, transporte, electricidad, logística, aeropuertos), lo
que en pocos días derivará colapsando la sociedad
misma.
El riesgo implica la posibilidad de daño o avería en un
sector determinado, por ejemplo, la infraestructura de la
información y de la comunicación (ICC), conjuntamente
con la extensión de este daño a todas las otras
396
infraestructuras que en la sociedad de la información
dependen de ella (IRGC, 2006).
Los riesgos pueden incidir en las Infraestructuras críticas
de una sociedad, afectando la estabilidad política y la
prosperidad económica de los países. Además, son
procesos que pueden generar cambios en la distribución
del poder entre los países, así como efectos
catastróficos en regiones vulnerables.
7.0. DISCUSIÓN: La Infranómica frente a los
objetivos del horizonte 2030 de desarrollo sostenible
La infranómica es reciente, y como sucede con cualquier
disciplina emergente, necesita de mucha investigación a
nivel de aplicaciones, además de debates sobre el
alcance conceptual de la misma, como acerca de las
metodologías, y las relaciones entre las disciplinas
concurrentes.
De su parte, el nivel de las aplicaciones puede requerir
el desarrollo y la prueba de métodos, herramientas y
técnicas para permitir el análisis y la toma de decisiones
en contextos difíciles, mientras que el nivel conceptual
puede requerir la incorporación de diversos campos
teóricos y metodologías. Se ha planteado al respecto
que lograr el equilibrio adecuado entre las aplicaciones y
la base conceptual (teoría) requiere de un mayor número
de casos de estudios, realizados bajos investigaciones
rigurosas.
Téngase en cuenta que gran parte de las
infraestructuras (puertos, caminos, ciudades, sistemas
de interconexión eléctrico, gasoductos) se ha construido
durante el siglo pasado, con tecnologías de varias
décadas en algunos casos. Pero, tal como lo plantean
los especialistas de la nueva generación de
infraestructuras, debe garantizarse que éstas funcionen
397
correctamente ahora y en el futuro próximo. “Todos
enfrentamos el mismo desafío: ¿cómo hacemos que
nuestra infraestructura 'responda', para que pueda
responder a los continuos cambios y las principales
tendencias? ¿Cómo podemos hacer un mejor uso de las
redes existentes con los menores costos sociales
posibles y sin perder de vista al usuario final?”66.
Es que en el mundo contemporáneo se avizoran
escenarios turbulentos, interdependientes e inciertos, en
los cuales será cada vez más difícil formular políticas
adecuadas sin una preparación adecuada en relación a
la modelización de escenarios prospectivos. Es por ello
que la Infranómica como disciplina de disciplinas, es
funcional al análisis integral de las tendencias de la
sociedad. Al mismo tiempo, su comprensión como
sistema de sistemas, permite la aplicación de políticas
que permitan reaccionar adecuadamente a los nuevos
escenarios.
Ahora bien, si el objetivo de generar una política
fructífera para la competitividad de las economías y la
mejora de la calidad de vida es un objetivo compartido,
no es labor sencilla abordar la temática, por su
complejidad creciente y la interdependencia de las
distintas dimensiones socio-técnicas, más aún cuando
se está en una labor delicada frente al cumplimiento de
los objetivos del horizonte 2030. De allí que sea preciso
plantear primeramente un nuevo enfoque para el estudio
integral de las infraestructuras tal como sostiene la
Infranómica. Esto es, si previamente no realiza un
análisis de sus problemas desde nuevos marcos teóricos
y gestiona sus problemas de infraestructuras desde
nuevas perspectivas.
66
cfr. http://www.nextgenerationinfrastructures.eu/
398
En una perspectiva regional, se plantea que América
Latina y Argentina, en particular, tendrán que preocuparse
de invertir, no sólo en el acrecentamiento de las
capacidades en infraestructuras, sino también en su
protección, reconociendo su criticidad y su vulnerabilidad.
Más aún si se tiene en cuenta los objetivos de desarrollo
sostenible que exige el horizonte 2030 (CEPAL, 2019). En
particular, la Comisión Económica para América Latina
considera que la región deberá tener un especial cuidado
en el análisis de la infraestructura existente, teniendo en
cuenta los problemas financieros (y recursos en general)
para crear nuevas infraestructuras en los países en vías
de desarrollo.
En suma, es crucial plantear las bases para una reflexión
sobre las posibles respuestas estratégicas que pueden
imaginarse, frente a los desafíos que imponen a las
sociedades los objetivos de Naciones Unidas sobre
desarrollo sostenible y para ello nada mejor que la labor
contemple a la Infranómica.
8.0. REFLEXIÓN FINAL
En los últimos años se ha hecho imprescindible la
comprensión de las “Infraestructuras de Próxima
Generación” o nuevas infraestructuras. En tal sentido, es
representativo que se estén conformando en diversos
ámbitos nacionales e internacionales, grupos de
investigación que reúnen –en una estrategia asociativa
de carácter intersectorial- a representantes de puertos,
ciudades, empresas, organizaciones, think tanks y
centros académicos, a fin de plantear todas las
dimensiones interactuantes en estos procesos.
Para dar cuenta de esta complejidad se ha planteado
recientemente una nueva rama del conocimiento de
carácter interdisciplinario: la Infranómica. Luego,
399
teniendo en cuenta los factores arriba mencionados, en
el documento se ha realizado una aproximación a este
campo emergente y se ha elaborado un modelo del
mismo.
400
REFERENCIAS
CEPAL (2003). Los Caminos Hacia una Sociedad de la
Información en América Latina y el Caribe, Santiago de
Chile, UN-CEPAL.
CEPAL (2019). Agenda 2030 y los Objetivos de
Desarrollo Sostenible, Santiago de Chile, UN-CEPAL.
COMISIÓN EUROPEA (2004). Hacia la Europa basada
en el conocimiento. La Unión Europea y la sociedad de
la información. Luxemburgo: Oficina de Publicaciones
Oficiales de las Comunidades Europeas
DAVOS (2018). World Economic Forum. International
Conference. Geneva: Switzerland
Forbus, K. D. (2010). “Qualitative modeling”. Wiley
Interdisciplinary Reviews: Cognitive Science, 2(4), 374–
391. Advanced Review.
Gheorghe, A. et. al. (2005). Critical Infraestructures at
Risk, Dordretch, Springer.
Gheorghe, A., et al. (edit.) (2014). Infranomics.
Sustainability, Engineering Design and Governance,
Dordrech, Springer.
Gheorghe, A.; Masera, M. (2014). «Infranomics: A
Discipline-of-Disciplines for the XXIst Century», En:
Gheorghe, A., et al. (edit.) ib., pp. 1–7.
IRGC (2006), White Paper on Managing and Reducing
Social
Vulnerabilities
from
Coupled
Critical
Infrastructures, Geneva, International Risk Governance
Council
IRGC (2010). Emerging risks. Sources, drivers and
governance issues, Geneva, International Risk
Governance Council, Revised edition.
Masera, M. et al. (2005): “The Security of Information
and Communication Systems and the E+I Paradigm”, En:
Gheorghe, A. et al., op. cit., p. 35-56.
NETMUNDIAL (2014). “Multistakeholder Statement”
(April, 24th, 2014). Disponible Link permanente en:
401
http://netmundial.br/wp-content/uploads/2014/04/NETmundialMultistakeholder-Document.pdf
NIPP (2009). National Infraestructure Protection Plan.
US Department of Homeland Security. Washington D.C.,
U.S. Department of Home Security.
OEA (2007). Declaración de Panamá sobre la
Protección de la Infraestructura Crítica en el Hemisferio,
Washington D.C., Insight Report, 01 de marzo de 2007.
OEA (2015). Promoción de la Seguridad Hemisférica,
Comisión de Seguridad Hemisférica, Washington D.C.,
Insight Report, 17 de abril 2015.
OEA (2015). Trend Micro Reporte de Seguridad
Cibernética e Infraestructura Crítica de las Américas.
Washington DC; International Futures Project.
Palma, R.; Morel, L.; Forradellas, R. (2012). «Analytical
methodology to evolutionary steps for manufacturing
strategy in small and medium enterprises», Iberoam. J.
Ind. Eng., vol. 3, Nº 6, pp. 02-19.
Renn, O. (2008). Risk Governance. Coping with
Uncertainty in a Complex World. London, Esarthscan.
Rosemann, M.; Green, P. (2002), «Developing a meta
model for the Bunge–Wand–Weber ontological
constructs», Inf. Syst., vol. 27, Nº 2, pp. 75-91, abr.
2002.
***
402