Academia.eduAcademia.edu

Creatividad, Investigación y Lógica Transcursiva III

Es pertinente señalar que existen dos sentidos para el término ‘ciencia’, uno objetivo y otro subjetivo. El primero se refiere a que la ciencia está organizada para asegurar la objetividad de sus afirmaciones. En cambio, el otro propone que para hacer ciencia o practicarla se requieren ciertas aptitudes del sujeto, como entender y realizar correctamente las operaciones efectivas de cada actividad planteada. Resulta oportuno hacer notar que la lógica transcursiva permite tratar ambos puntos de vista, el objetivo y el subjetivo, ya que como método de investigación científica, se sustenta en la perspectiva del sujeto que investiga. El mismo fue desarrollado por Dante Salatino en Semiótica de los sistemas reales (2009) y sus fundamentos se remiten a la lógica transclásica de Gotthard Günther y a ciertas nociones presentes en las obras de Charles S. Peirce, Evariste Galois y otros autores.

La Lógica Transcursiva ha demostrado que las neuronas no hablan, pero que han descubierto cómo hacer para que quien las porta, lo haga por ellas. Dante R. Salatino, 2020 2 CREATIVIDAD INVESTIGACIÓN Y LÓGICA TRANSCURSIVA III Lenguajes, Lógica y Modelos en Ingeniería Organizó Facultad Regional Mendoza, Universidad Tecnológica Nacional Secretaría de Extensión Universitaria Departamento de Materias Básicas Grupo de Investigación en Matemática Aplicada a la Ingeniería y Gestión (IEMI ) Departamento de Ingeniería en Sistemas de Información 3 Universidad Tecnológica Nacional Rector: Ing. Héctor Aiassa Vicerrector: Ing. Haroldo Avetta Facultad Regional Mendoza Decano: Esp. Ing. José Balacco Vicedecano: Ing. Ricardo Antonio Fuentes Secretaria Académica: Prof. Liliana Ruth Repetto Secretario Administrativo: Ing. Ángel Oscar Pitton Secretario de Extensión Universitaria: Ing. Carlos Oscar Mallea Secretario de Ciencia Tecnología y Posgrado: Ing. Antonio Álvarez Abril Secretario de Asuntos Estudiantiles: Ing. Adrián Sierra Secretario de Tecnologías de la Información y las Comunicaciones: Ing. Jorge Abraham Comisión académica evaluadora de los trabajos Dr. Dante Roberto Salatino (UNCuyo) Dr. Ing. Guillermo Alberto Cuadrado (FRM-UTN, UNCuyo) Lic. Luis Gómez (FRM-UTN, UNCuyo) 4 Universidad Tecnológica Nacional Facultad Regional Mendoza CREATIVIDAD INVESTIGACIÓN Y LÓGICA TRANSCURSIVA III Lenguajes, Lógica y Modelos en Ingeniería Dante Salatino, Luis Gómez & Guillermo Cuadrado (Editores) Facultad Regional Mendoza Universidad Tecnológica Nacional 2020 5 CREATIVIDAD, INVESTIGACIÓN Y LÓGICA TRANSCURSIVA Editores: Dante Roberto Salatino Luis Eduardo Gómez Guillermo Alberto Cuadrado Diseño de cubierta Diego Andrés Salatino Primera edición. Mendoza, 2020. Salatino, Dante Roberto Creatividad, investigación y lógica transcursiva III : lenguajes, lógica y modelos en ingeniería / Dante Roberto Salatino ; Luis Eduardo Gómez ; Guillermo Alberto Cuadrado.- 1a edición para el profesor - Ciudad Autónoma de Buenos Aires : Universidad Tecnológica Nacional. Facultad Regional Mendoza, 2020. 402 p. ; 22 x 15 cm. ISBN 978-950-42-0199-1 1. Lógica. 2. Ciencias Tecnológicas. 3. Ingeniería. I. Gómez, Luis Eduardo. II. Cuadrado, Guillermo Alberto. III. Título. CDD 511.3 ISBN 978-950-42-0194-6 Queda hecho el depósito que marca la Ley 11.723 Grupo de Investigación en Matemática Aplicada a la Ingeniería y Gestión (IEMI) Facultad Regional Mendoza, Universidad Tecnológica Nacional Rodríguez 273, Ciudad M5502JMA Mendoza, República Argentina 6 Índice I 1. Prólogo Guillermo A. Cuadrado 11 Autores y Filiación 19 Fundamentación y Lógica Transcursiva 21 Teselados aperiódicos de Penrose. Una interpretación desde la Lógica Transcursiva 23 Dante R. Salatino; María G. Vázquez; Gustavo A. Masera 2. Elementos subjetivos en el fundamento del Cálculo Infinitesimal 51 Guillermo Alberto Cuadrado 3. Teoría del Destino en Borges; Enfoque Transcursivo 71 Dante Roberto Salatino 4. El Modelo Extendido de Aprendizaje Organizacional desde la perspectiva de la Lógica Transcursiva 87 Esteban Anzoise; Cristina Scaraffia 5. Subjetividad del Valor en la Escuela Austríaca de Economía. Una interpretación desde la Lógica Transcursiva 121 Facundo Corvalán; Dante Salatino; Gustavo Masera 6. Lógica Transcursiva: un hilo de Ariadna para explicar la actualización del mito de Medea 137 Luciana Benítez Schaefer 7 7. De la policontextura transclásica a la transcursiva 155 Luciano Paolo Russo II Investigación y Lógica Transcursiva 167 8. Refuncionalización del concepto Sistemas de Ecuaciones Lineales: crecimiento de poblaciones y cadenas de Markov 169 Ana M. Narvaez; Juan N. Ferraro 9. La revolución multivariante de la investigación 185 Ricardo Césari; Matilde Césari 10. Bases Neurobiológicas de una Nueva Inteligencia Artificial. Programa Psiquis 207 Dante Roberto Salatino 11. Nuevo Modelo Nosológico de la Endometritis Crónica 245 Dante R. Salatino; Alberto E. Tersoglio 12. La Modelización: Su Lógica y Alcances 265 Raúl César Pérez; M. Noelia Robles III Creatividad e Innovación 13. Modelado Heurístico de la Demostración por el Absurdo 281 283 Luis Gómez 14. La resistencia al uso de herramientas analíticas en contextos organizacionales. Estudio exploratorio piloto Esteban Anzoise; Cristina Scaraffia; Julio Cuenca 8 311 15. Factores que impactan en la Intención de Uso de 331 herramientas analíticas en PYMES. Estudio descriptivo inicial Esteban Anzoise; Cristina Scaraffia; Julio Cuenca 16. Importancia del factor motivacional en la formación por competencias 353 Gabriela Tomazzeli; Carolina Bernaldo 17. Epistemología de las ciencias de la Ingeniería: zoom sobre el experimento 361 Julio Ortigala 18. Sobre la aplicabilidad de la lógica en los procesos de modelización en ciencia 375 Juan Redmond; G. Cuadrado; R. López Orellana 19. Modelo cualitativo de Infranómica: aplicación a la nueva generación de infraestructuras 387 Gustavo A. Masera; Ricardo R. Palma 9 10 Prólogo Guillermo A. Cuadrado Es pertinente señalar que existen dos sentidos para el término ‘ciencia’, uno objetivo y otro subjetivo. El primero se refiere a que la ciencia está organizada para asegurar la objetividad de sus afirmaciones. En cambio, el otro propone que para hacer ciencia o practicarla se requieren ciertas aptitudes del sujeto, como entender y realizar correctamente las operaciones efectivas de cada actividad planteada. Resulta oportuno hacer notar que la lógica transcursiva permite tratar ambos puntos de vista, el objetivo y el subjetivo, ya que como método de investigación científica, se sustenta en la perspectiva del sujeto que investiga. El mismo fue desarrollado por Dante Salatino en Semiótica de los sistemas reales (2009) y sus fundamentos se remiten a la lógica transclásica de Gotthard Günther y a ciertas nociones presentes en las obras de Charles S. Peirce, Evariste Galois y otros autores. El propósito de la ciencia es producir nuevos conocimientos y estos se encuentran en la intuición y la imaginación del sujeto que indaga la realidad, buscando respuesta a las incógnitas que se plantean, sin importar si éstas son grandes o pequeñas. Cabe recordar, que en toda investigación hay un objeto de estudio y un método que posibilita su análisis. El primero es siempre la porción de realidad observada, mientras que el método, cuando se trata de la lógica transcursiva, considera las manifestaciones evidentes de la realidad y la perspectiva del investigador, en forma simultánea. En lo que atañe al conocimiento científico y el método para obtenerlo, cada uno de ellos tiene dos componentes. El primero tiene una componente 11 abstracta, fundada en teorías, y otra empírica, asentada en los hechos. En cambio, el método se compone del descubrimiento y la validación. Pero, dado que un descubrimiento no se equipara con los hechos ni su validación con una teoría, es necesario observar su producto lógico. Si se tiene en cuenta que la ciencia es una manera de observar la realidad, esta metodología lo hace prescindiendo de cualquier marco de referencia. Este hecho permite acoplar los aspectos subjetivos y objetivos de la realidad, ya sea en forma integral o restringida, de acuerdo con la delimitación del objeto estudiado. Una de las características distintivas de la lógica transcursiva es que frente a un tema nuevo, poco teorizado, ofrece la posibilidad de reducir la explosión combinatoria de los posibles factores intervinientes. Las razones presentadas sugieren que investigar también consiste en combinar procedimientos, en este caso: se integran los orientados a descubrir algo, con los aplicados a validar lo descubierto. Dicho brevemente, sería similar a descubrir algo usando una teoría, como sucedió con el descubrimiento del electromagnetismo, partiendo de la teoría de Maxwell. Cabe agregar, que de manera similar sigue ocurriendo en muchas áreas del conocimiento. En efecto, estudiar la realidad desde el punto de vista del observador significa prescindir de cualquier marco de referencia. En ese mismo sentido, el caso paradigmático es la teoría de la relatividad, donde la luz no se sustenta en ningún sistema de referencia, sin embargo, todos los sistemas de la física clásica se mueven con relación a ella. Además, de esa forma, se logra que todos los sistemas de referencia tengan un movimiento relativo nulo respecto a la luz, de acuerdo con el segundo principio de 12 la teoría de la relatividad. Significa entonces, que el método de la lógica transcursiva opera de la misma forma que lo hace la luz. Además, por el hecho de no tener un sistema de referencia permite acoplar la realidad subjetiva con la objetiva. Por otra parte, la Facultad Regional Mendoza, UTN realizó en octubre de 2019 el Foro sobre Lenguajes, Lógica y Modelos en Ingeniería (LLMI) y Tercer Foro de Lógica Transcursiva (LT) para alentar a los docentes investigadores a exponer sus producciones y facilitar la difusión de ideas novedosas como considerar el enfoque del investigador y emplear las transformadas relacionales de la Lógica Transcursiva, para analizar el objeto de investigación. Los trabajos presentados, después de incorporar las sugerencias y críticas realizadas durante el foro, son los que integran este volumen. En cuanto a los autores, estos son docentes de la Universidad de Valparaíso, Universidad Nacional de Cuyo y de la Facultad Regional Mendoza, UTN, muchos del Grupo de Investigación en Matemática Aplicada a la Ingeniería y Gestión (IEMI). Es pertinente señalar que fue este último grupo el que se ocupó de compilar, diagramar y gestionar esta publicación. Este libro está organizado en tres secciones, Fundamentación y Lógica Transcursiva, con siete capítulos, Investigación y Lógica Transcursiva, con cinco capítulos, y Creatividad e Innovación, con siete capítulos. Las contribuciones encaran diversas temáticas y todas son innovativas en sus enfoques. El primer trabajo de la sección de Fundamentación y Lógica Transcursiva presenta una interpretación de los teselados aperiódicos de Penrose, desde la Lógica Transcursiva (LT), donde plantea la existencia de una 13 “belleza intrínseca” que se circunscribe a un patrón universal, al igual que la LT. En la segunda contribución se reinterpreta el concepto de límite, usando la perspectiva del observador, que es la visión característica de la LT. Esa forma de entendimiento permite recuperar los aspectos dinámicos y subjetivos del concepto de límite, manteniéndolo en el dominio de la aritmética. Así lo hizo Cauchy cuando reorganizó y fundamentó el Cálculo con esa noción únicamente. El tercero busca un patrón que describa la ficción literaria que le da sustento al universo de Borges. El análisis de algunos de sus cuentos, plantea una supuesta “teoría del destino”, que en un tiempo subjetivo y cíclico presenta personajes antitéticos y un “eterno retorno”, que mantiene su relación con un referente “real”. El cuarto considera el modelo extendido de aprendizaje organizacional, analizando cómo integrar el proceso de decisión para enfrentar problemas no estructurados, en una organización que aprende. Concluye recomendando establecer etapas de institucionalización de las soluciones halladas a problemas no estructurados a través del uso de “herramientas de apoyo a procesos de decisión” basadas en modelos. Por su parte, el quinto examina la teoría subjetiva del valor de Escuela Austríaca de Economía y muestra que, más allá de las diferencias entre sus autores, existe cierta continuidad en la relevancia de la cuestión subjetiva, frente a la tradición clásica del valor. El sexto explica la actualización del mito de Medea en la tragedia del poeta griego Eurípides, considerando la metodología de la LT. Para ello se describe la relación entre las emociones y la presencia de rasgos arquetípicos femeninos en la configuración de la protagonista. La articulación de esos factores con el mito griego explica el éxito de la tragedia, en un público muy posterior al del 14 mito originario. El séptimo trabajo explora el paso de la lógica transclásica de Günther a la lógica transcursiva de Salatino, ya que la primera explica el sujeto desde lo volitivo, en tanto que la segunda introduce el proceso cognitivo del sujeto. El trabajo explica de qué manera la modelización transcursiva de la experiencia subjetiva es una evolución teórica que implica un cambio teórico al interior de la lógica, que pretende explicar la existencia subjetiva volitiva y cognitiva. La octava contribución corresponde a la sección de Investigación y Lógica Transcursiva. La misma presenta el rediseño del contenido clásico de los Sistemas de Ecuaciones Lineales (SEL) como un modelo de estado lineal dinámico y discreto que permita explicar la solución de una ecuación en diferencia lineal. Este rediseño permite migrar la planificación de SEL, para un modelo de aprendizaje centrado en contenidos a otro centrado en competencias, exigencia de los Estándares de Segunda Generación para la Acreditación de las Carreras de Ingeniería, propuestos por el Consejo Federal de Decanos de Ingeniería. Por su parte, el noveno trata sobre cambios en la metodología de la investigación que objetan la evaluación de la validez de los enfoques estadísticos tradicionales. El método multivariado PLS-Path Modeling (mínimos cuadrados parciales en modelos de pautas) proporciona un medio que permite la interacción entre la teoría y los datos. Si una teoría está bien especificada se refleja en un vasto sistema de relaciones entre variables. En ese sentido, la aplicación de la Lógica Transcursiva (LT) aclara la citada interrelación entre teoría y datos empíricos del proceso de investigación. Para continuar, el décimo trabajo presenta un emulador de procesos cognitivos basado en una teoría de Salatino 15 (2013), que justifica el comportamiento oscilatorio autónomo de varias regiones del sistema nervioso central y fundamenta el funcionamiento del aparato psíquico. El emulador presentado es un microcontrolador Arduino que se programó con las pautas de la Lógica Transcursiva. De ese modo, se simularon los rudimentos de un “sistema perceptivo”, acoplando las entradas según un supuesto grado de atención. De este modo, se busca fundamentar una Inteligencia Artificial (IA) con sustento neurobiológico. La décima primera contribución indaga sobre un nuevo modelo que ayude al diagnóstico de la endometritis crónica como una patología con entidad propia. El análisis de las relaciones entre los elementos fundamentales que determinan la patología crónica se realizó siguiendo los principios de la Lógica Transcursiva. Este hecho permitió brindar otros elementos de diagnóstico y tratamiento, como el uso de cultivos de células madre mesenquimales para regenerar un endometrio sano. La duodécima desarrolla un estudio de caso que analiza los límites aceptables de un modelo y las condiciones de su validez, confrontando los fenómenos reales con sus simulaciones. De este modo, se puede determinar si el ajuste es aceptable y evaluar el grado de validez de su utilización. El décimo tercer trabajo corresponde a la sección Creatividad e Innovación e introduce un modelo heurístico para el aprendizaje de la demostración por el absurdo en forma indirecta. Esta última resulta de combinar deducción formal y abducción, introduciendo cambios en el modelo de búsqueda. El modelo heurístico presentado tiene aplicación en los cursos de Lógica, cuando se enseña la demostración por el absurdo. La décimo cuarta contribución hace un análisis de la ‘intención de uso’ de las herramientas de apoyo a los procesos de decisión. El mismo revela que la 16 correlación estadística entre la generación del participante y la intención de uso de herramientas analíticas no es significativa. Además señala que existe una oportunidad para mejorar el proceso de difusión de estas herramientas en la formación de ejecutivos de los sectores metalmecánico y de desarrollo de software, que contribuyen mucho al desarrollo de las exportaciones y al Producto Bruto Geográfico. Por su parte, la décimo quinta contribución determina los factores que inciden en la intención de uso de herramientas de apoyo al proceso de decisión en pequeñas y medianas empresas, aplicando el modelo de análisis de fuerzas de Kurt Lewis. Con relación a estas herramientas se identificaron 16 factores que favorecen su uso y 14 que generan resistencia. Y concluye que es posible acelerar el uso de esas herramientas difundiéndolas convenientemente en la organización. Mientras que el décimo sexto trabajo se ocupa de los factores motivacionales en la formación por competencias, que establece el Consejo Federal de Facultades Ingeniería. Además, presenta una propuesta de trabajo en las aulas, para iniciar a los alumnos en la adquisición de esas competencias. El décimo séptimo analiza el experimento como un proceso de entradas, transformaciones y salidas y se centra en su diseño, controlando el sistema de medición estadísticamente, donde la calibración de los instrumentos tiene mucha significación. Se encontró que el diseño del experimento debe estar apoyado por herramientas de análisis estadístico descriptivas, correlacionales, inferenciales o de varianza de factores. En lo que atañe al décimo octavo trabajo defiende la aplicabilidad de la lógica como condición de adecuación que debe cumplir todo enfoque sobre la modelización, 17 que pretenda ser preciso y adecuado. La demostración de ese punto se realiza empleando el caso de los modelos que no poseen sistema objetivo. Y concluye que si no se considera la aplicabilidad de la lógica pertinente a tal función, esa condición de adecuación es incompleta y puede conducir a conclusiones absurdas sobre el sistema objetivo. Finalmente, la décimo novena analiza los fundamentos de los modelos cualitativos basados en la Infranómica, especialidad que teoriza sobre cuestiones complejas de la sociedad moderna, que provienen de las infraestructuras y su funcionamiento y además, proporciona la base metodológica para tratarlas. El propósito del trabajo se orienta a clarificar el debate sobre los problemas que surgen de la interacción entre diferentes infraestructuras, especialmente las denominadas ‘críticas’. Se concluye que la modelización de la Infranómica permite comprender las interrelaciones entre aspectos concurrentes de la nueva generación de infraestructuras, caracterizadas por su interacción con los sistemas electromecánicos y las tecnologías de información y comunicación, aspectos claves para lograr el objetivo del desarrollo sostenible. Para finalizar, hay que poner de relieve que el tanto el Foro sobre Lenguajes, Lógica y Modelos en Ingeniería (LLMI) y Tercer Foro de Lógica Transcursiva como esta publicación fueron posibles gracias a los esfuerzos de la Facultad Regional Mendoza, UTN, que apoyó su realización con su infraestructura y recursos materiales. *** 18 Autores y Filiación Anzoise, Esteban; Universidad Tecnológica Nacional Bernaldo, Carolina; Universidad Tecnológica Nacional Césari, Matilde; Universidad Tecnológica Nacional Césari, Ricardo; Universidad Tecnológica Nacional Corvalán, Facundo; Universidad Nacional de Cuyo Cuadrado, Guillermo; FRM - UTN - UNCuyo Cuenca, Julio; Universidad Tecnológica Nacional Ferraro, Juan N.; Universidad Tecnológica Nacional Gómez, Luis; FRM, UTN - UNCuyo López, Rodrigo; Universidad de Valparaíso, Chile Masera, Gustavo A.; Universidad Nacional de Cuyo Narvaez, Ana M.; Universidad Tecnológica Nacional Ortigala, Julio; Universidad Tecnológica Nacional Palma, Ricardo; Universidad Nacional de Cuyo Pérez, Raúl César; Universidad Tecnológica Nacional Redmond, Juan; Universidad de Valparaíso, Chile Robles, M. Noelia; Universidad Tecnológica Nacional Russo, Paolo; Universidad Nacional de Cuyo 19 Salatino, Dante R.; Universidad Nacional de Cuyo Scaraffia, Cristina; Universidad Tecnológica Nacional Tersoglio, Alberto E.; Centro Internacional de Reproducción Asistida Tomazzeli, Gabriela; Universidad Tecnológica Nacional Vásquez, María G.; Universidad Nacional de Cuyo *** 20 21 22 1. TESELADOS APERIÓDICOS DE PENROSE Una interpretación desde la Lógica Transcursiva Dante R. Salatino1; María G. Vázquez2; Gustavo A. Masera3 Resumen: El propósito de este trabajo es realizar una interpretación de la obra de Roger Penrose, en particular sobre su descubrimiento de los teselados aperiódicos, desde el método propuesto por la Lógica Transcursiva (LT). Se ha señalado en numerosas ocasiones la alta valoración que posee la obra de Penrose en el campo científico y de divulgación. En lo que respecta específicamente a su aporte al campo de los desarrollos geométricos señalados, el interrogante que nos surge se refiere a: ¿por qué esas teselaciones parecen atractivas, ¿por qué llaman la atención del observador, el cual queda fascinado frente a sus patrones constructivos? En este sentido, la contribución del trabajo se ubica en comprensión del significado de sus teselados aperiódicos y los efectos "estéticos", e incluso artístico-decorativos de los mismos. Se plantea, en el trabajo de Penrose, la existencia de una “belleza intrínseca” producto de ceñirse a un patrón universal, tal como lo hace la LT. Palabras clave: Roger Penrose, geometría, historia cultural, lógica transcursiva. 1Instituto de Filosofía – FFL - UNCuyo Facultad de Filosofía y Letras. Universidad Nacional de Cuyo. 3 Facultad de Filosofía y Letras. Universidad Nacional de Cuyo. Facultad de Ciencias Económicas y Jurídicas. Universidad del Aconcagua. 2 23 “En un cierto sentido, el análisis matemático es una Sinfonía del infinito.” David Hilbert “On the infinite”, en Hilary Putnam, 1998, Philosophy of Mathematics, p. 277. 1.0. FUNDAMENTOS Roger Penrose es un académico de relevancia mundial por su contribución al campo de la física gravitacional (twistor theory)4 , la mecánica cuántica y la cosmología, además de sus aportes en áreas diversas, tales como la relación mente-cerebro, las percepciones de la cuarta dimensión, el estatuto de las matemáticas, la relación entre computación y conciencia, etc. Paralelamente a la extensión de una vasta popularidad como autor de textos de divulgación científica (¿p.e. What is Life?, con Schrödinger; The Road to Reality), el scholar británico generó toda una serie de investigaciones plasmadas en obras ‘cuasiartisticas’ que tienen su fuente en los estudios sobre las posibilidades conceptuales de la geometría y en el desarrollo de matemáticas lúdicas. No son obras artísticas de suyo, sino que, de sus construcciones, puede decirse, emanan efectos estéticos. De esta manera, teselados, triángulos, formas tridimensionales de las baldosas, poliedros sobre un plano, cuasicristales y un sinnúmero de objetos imposibles5 forman parte del mundo-Penrose. Los estudios de historia cultural comparada hacen referencia al uso estético de repeticiones en diversas 4 Objetos geométricos abstractos que operan en un complejo multidimensional que subyace bajo el espacio-tiempo. 5 Según Martín Gardner, una estructura u objeto imposible es el dibujo de una figura sólida que no puede existir ya que incorpora elementos contradictorios. Cfr. Prólogo, en Roger Penrose, La mente nueva del emperador, p. 9 24 sociedades (los mandalas en India, con sus significados rituales; los patrones geométricos en el Islam; llegando tal vez al arte más banal del op-art, Vasarely e incluso, en un ámbito más local, hasta las obras de J. Le Parc). sugiriendo que entre otros atractivos, las teselaciones de Penrose son "difíciles" y no derivables de elementos de la naturaleza; hay que calcularlos, y nadie llegaría a ellos solamente con una intuición. También es interesante la relación entre la (no-) recursividad de las teselaciones con la "(no-) decibilidad" de problemas lógicomatemáticos relacionados. Y surgen, inevitablemente, preguntas sobre cuándo la geometría va más allá de la comprensión humana; sobre teselaciones que progresan hacia el infinito sin repetirse nunca. Una publicación reciente dedicada al científico británico manifiesta que detrás del amplio espectro de sus esfuerzos analíticos se encuentra la indagación por un proyecto filosófico (Hercé Fernández, 2014). Penrose aparece así obsesionado por el sentido de lo que se presenta ontológicamente a su reflexión. El interrogante que intenta responder sería, en esta línea: ¿qué es lo que hay? Y, yendo más lejos aún, ¿por qué hay lo que hay? Desde la perspectiva de este documento sostenemos, por el contrario, que, en Penrose, hay una concepción del mundo que no se encuentra al final, sino al principio de su búsqueda y que puede denominarse, en sus propios términos, la “geometría del universo”. La belleza está ahí, sólo hay que saber observar el orden matemático del cosmos y descubrir, por ejemplo, la complejidad de sus patrones invariantes o, de sus estructuras más complejas. A desentrañar el significado de alguna de sus desarrollos geométricos, orientamos el documento. 25 Realizamos para ello, una interpretación de teselados aperiódicos desde la lógica transcursiva. los 2.0. EL VÍNCULO ESCHER-PENROSE Tal como sostuvo el científico británico en una entrevista6, la principal influencia que tuvo en la génesis de su concepción geométrica fue el encuentro iluminador con la obra de Maurits C. Escher. Un evento académico se transformó en un episodio clave en la vida de Penrose. Por iniciativa del Museo Stedelijk de Amsterdam, se decidió anexar al Congreso Internacional de Matemáticas una muestra pictórica. En su inauguración, el 2 de septiembre de 1954, N.G. de Bruijn, presidente del comité organizador, defendió la idea de la conexión imprescindible entre el arte y las matemáticas7. Y puesto que en la exposición se había destinado un espacio especial para las obras de Escher, los juegos de perspectivas en las xilografías y las figuras geométricas del artista holandés se convirtieron, de allí en más, en una fuente de inspiración para Penrose. A Roger se le unió su padre (Lionel, genetista) en la relación de amistad intelectual con el creador de figuras imposibles, teselados e infinitos en un entorno de admiración mutua y de esfuerzos conjuntos. A la correspondencia que mantuvieron durante años, continuó una serie de investigaciones traducidas en papers y experimentos reales con poliedros y formas geométricas materializadas en diseños de caminos, puentes y otras estructuras, donde las más conocidas de éstas quizás sean el “tribar o triángulo” y las “escaleras” de Penrose, denominadas así en su honor. 6 https://www.youtube.com/watch?v=xkigMZ2DeDs https://www.escherinhetpaleis.nl/escher-today/international-congressmathematicians-1954/?lang=en http://www.epsilones.com/paginas/laboratorio/laboratorio-002-teseladopenrose.html 7 26 La contribución entre Escher y los Penrose fue más que fructífera. De modo similar al vínculo que mantuvo con el geómetra H. Coxeter (1999), la relación entre científicos y artista fue de doble vía, tal como indicamos en un artículo anterior sobre el tema (Masera, Vásquez y Salatino, 2017). Escher utilizó la escalera diseñada por Penrose en “Ascending y Descending”; el triánguloPenrose en su litografía “Waterfall” y el nonaedro del joven Roger en su última litografía denominada “Ghosts”. La muerte de Escher en 1972, poco tiempo anterior al descubrimiento de las primeras baldosas aperiódicas de Penrose de estructura pentagonal, imposibilitó su proyección al campo artístico. Sin embargo, podemos pensar que –al contrario de Escher- Penrose no tuvo explícitamente un interés artístico prioritario ya que enfatizó más el sistema conceptual y de representación teorética que las modalidades estéticas de expresión. Aunque, sin dudas, su visión de la geometría lo condujo luego a descubrir la belleza que emana de patrones, regularidades, simetrías, formas aperiódicas y aquellas que se vinculan a las estructuras de los cuasicristales. 3.0. DE KEPLER A LOS TESELADOS DE PENROSE Un teselado es una regularidad o patrón de figuras que cubre completamente una superficie plana sin solapamientos, es decir, sin que las piezas se superpongan sobre otras y sin que queden huecos entre ellas. Una taxonomía básica indica que estos teselados pueden ser clasificarse según su periodicidad: si el teselado se puede desplazar en dos direcciones independientes del plano y hacer que coincida consigo mismo, se dirá que es periódico. 27 Si no, se hablará de teselado no-periódico o aperiódico, esto es, son mosaicos cuya estructura no se repite, de modo que no existe una celda base que repetida genere el mosaico . Los desarrollos de Penrose no se hicieron en el vacío, por lo que puede resultar útil analizar la historia previa y el trabajo de Penrose. Los revestimientos, o "teselaciones" como también se les llama, han existido en la decoración y el diseño desde incluso antes de la antigüedad. Los sumerios, por ejemplo, usaron baldosas de arcilla para decorar sus paredes y fueron algunos de los primeros en hacerlo. Los romanos y otros grupos que florecieron en la antigüedad clásica también crearon decoraciones con azulejos. En síntesis, hacia la creación o descubrimiento desde los teselados periódicos a los aperiódicos puede identificarse una serie de etapas : 1las figuras de Johannes Kepler; 2- la fase que lleva de los teselados periódicos a los aperiódicos, con base en los aportes de Hao Wang, Berger y Robinson; 3- los desarrollos de Penrose. En un análisis histórico, hay que tener en cuenta a los descubrimientos de Johannes Kepler. Este astrónomo (y consecuentemente matemático) de los Países Bajos, fue el primer autor en publicar un estudio detallado de los mosaicos elaborados con base en los polígonos regulares en el Libro II de Harmonices Mundi ("La armonía del mundo"), publicado en 1619. En esta obra da cuenta de las tres leyes que rigen el movimiento de los planetas. Roger Penrose se inspiró en estos trabajos de Kepler, en particular, en el capítulo donde trata acerca de los polígonos estrellados (pentagonales en su mayoría). Basándose en el pentágono regular construyó un mosaico rómbico, cuyas piezas se basan en dos partes del pentágono (dos triángulos y Gnomon áureos), 28 a fin de desarrollar un método para crear sus flechas y cometas como base para las estructuras de teselado aperiódicas . De acuerdo con la enciclopedia sobre teselados que mantiene la Universidad de Bielefeld, hay disputas entre los expertos sobre cómo definir "aperiódico". Una posibilidad es usarlo como sinónimo de no periódico. Quizás, lo más correcto sea, en primer lugar, considerar que un mosaico periódico es aquel en el que puede delinearse en una región y que cubre todo el plano por traslación, es decir, cambiando la posición de la región sin rotarla ni reflejarla . Algunas de las figuras de Escher son típicas de estos teselados, por ejemplo, la de pájaros negros y blancos, donde los contornos encajan unos con otros con exactitud. (Gardner, 2008). Muchos de éstos se popularizaron cuando Martin Gardner publicó en su columna de Scientific American (enero de 1977), los avances realizados en la exploración de las teselaciones mosaico-aperiódicas. Además de Roger Penrose, otros matemáticos, como John Conway y Robert Ammann han realizado importantes contribuciones en esta línea de investigación. Un mosaico aperiódico es un mosaico no periódico con la propiedad adicional de que no contiene parches periódicos arbitrariamente grandes. Un conjunto de tipos de mosaico (o prototipos) es aperiódico si las copias de estos mosaicos solo pueden formar inclinaciones no periódicas. Los teselados de Penrose (Penrose’s tilings) son los ejemplos más conocidos de estos últimos. 4.0. LA CREATIVIDAD EN PENROSE SEGÚN LA LT Según sugerimos en otro trabajo (Masera, Vásquez y Salatino, 2017), cuando analizábamos la creatividad 29 humana desde la LT, que ésta surge del sustrato común que constituyen los aspectos fundamentales que sustentan la realidad subjetiva. Ese ‘lenguaje universal’ que indica cuáles son los aspectos del comportamiento que una vez integrados mediante lo cognitivo afloran en la superficie como una conducta determinada (Salatino, 2017, p. 278). La creatividad puede ser equiparada a un verdadero lenguaje, en donde el ‘lenguaje universal’ mencionado de franco arraigo biológico, se comportaría como su ‘aspecto sintáctico’. Un lenguaje natural (Salatino, 2012) caracterizador de los afectos que afianzan tanto lo volitivo como lo cognitivo en nuestra psiquis, haría las veces de ‘aspecto semántico’. Por último, un lenguaje convencional habilitado para la comunicación en el medio sociocultural respaldaría su ‘aspecto pragmático’. Debe destacarse que la ‘columna vertebral’ del lenguaje genérico que representa la creatividad está en la estrecha relación que existe entre los elementos profundos de sus tres componentes (Salatino, 2017, pp. 279-280). El vivenciar o la organización visceral del conocimiento mediante el ‘lenguaje universal’. El intuir o la integración afectiva de los tres elementos básicos a través del ‘lenguaje natural’; y el ‘crear’ o la proyección social de los sentimientos y motivaciones con la ayuda del ‘lenguaje convencional’. 30 Figura 1 PAU DE LA CREATIVIDAD EN ESCHER Referencias: S: sujeto – LC: lenguaje convencional LN: lenguaje natural – LU: lenguaje universal La Figura 1 deja constancia de este enfoque subjetivo y su aplicación a la producción geométrica de Escher. En el caso de Penrose, más allá de la influencia intuitiva que pudo ejercer en él el trabajo de Escher, coadyuvaron otros aspectos. Su gran dominio de las matemáticas y genial vocación creativa, lo llevaron a descubrir en 1974 un conjunto de mosaicos, que si se disponían de una manera particular, el relleno con ellos del espacio, no era periódico. Los mosaicos estaban compuestos por dos rombos, uno ancho y otro angosto que se podían repetir infinitamente. La no periodicidad de los mosaicos se sustentaba en que la proporción entre ambos rombos era un número irracional: la razón áurea () (Huggett, 1998, p. 216) (Figura 2). 31 Figura 2 PAU DE LA RAZÓN ÁUREA Este número irracional fue definido por primera vez por Euclides hace más de 2000 años (Elementos, VI, descripción 3, p. 228). El PAU bicíclico (Salatino, 2017) de la Figura 2, así lo manifiesta: “Lo pequeño es a lo grande, como lo grande es al todo.” Vemos también, en el esquema anterior, que el número “5” es la clave de la relación; algo que condice con el tipo de simetría que muestran estos mosaicos, y los cuasicristales que luego abordaremos. La proporción o razón áurea está presente cual “patrón universal”, en las matemáticas; en la geometría; en la naturaleza (en el caparazón de algunos moluscos, en las flores del girasol, en algunos cristales, en la forma del ADN, etc.); en el cosmos, en la pintura (Leonardo, Velázquez, Durero, Dalí); en la música (escala heptatónica, Béla Bartók, Claude Debussy); en la arquitectura; en la economía (comportamiento de los mercados financieros (Prechter, 1996, p. 194)). La “divina proporción” como la bautizara el fraile franciscano y matemático Luca Pacioli (1509), parece ser la clave de la belleza natural, ya que la podemos encontrar tanto en las flores o frutos (la distribución de las semillas de una manzana forma una estrella de cinco 32 picos o pentagrama (Livio, 2003, p. 8)) como en los animales, e inclusive, en el ser humano. Pero además, está relacionada con la “sucesión de Fibonacci” (Pisano (Fibonacci), 1857, p. 284) que representa una estructura matemática fundamental. Antes de que Fibonacci escribiera su trabajo en 1202, la secuencia ya había sido discutida por los eruditos hindúes, que durante mucho tiempo habían estado interesados en los patrones rítmicos que se forman a partir de la prosodia sánscrita (sílabas cortas y largas); por lo tanto, tanto Gopãla (antes de 1135) como Hemachandra (1150) mencionaron los números 1, 2, 3, 5, 8, 13, 21, ..., explícitamente (Knuth, 1997, p.80). No hay ninguna indicación de que Fibonacci se diera cuenta de que existía alguna conexión entre su serie numérica y la razón áurea (Herz-Fischler, 1998, p. 144). Fue Johannes Kepler, en 1611, quien descubrió que la razón consecutiva de los números de Fibonacci converge hacia la razón áurea (1) (Livio, 2003, p. 153). (1) La belleza aparente, objetiva o cuantitativa (si se quiere), que nos muestran los teselados o mosaicos de Penrose, parece sustentada en un fenómeno natural. Pero, no hay duda de que hay algo más. Ese aspecto “extra”, cualitativo o subjetivo que según nuestra perspectiva, es el que define la belleza universal que contagian estas formas, lo trataremos de desentrañar desde la visión transcursiva. 33 Figura 3 PAU DE LA BELLEZA UNIVERSAL Referencias: SP: nivel aparente – PR: nivel profundo Números: sucesión de Fibonacci - ⎯: espiral de Fibonacci S: sujeto – O: objeto – V: transformación evidente : transformación no evidente La Figura 3, presenta en un PAU (patrón autónomo universal, Salatino, 2017) estructural, el grupo algebraico que constituyen los determinantes de la “belleza extrínseca”, es decir, aquella que está a la vista y que es suficiente para movilizar nuestra sensibilidad, cuando contemplamos alguna de estas construcciones estéticas. El elemento que interrelaciona tanto a los mosaicos de Penrose como a la sucesión de Fibonacci, como ya hemos visto, es la razón áurea. Esta última, porque converge hacia ella, mientras que los primeros, la ponen en evidencia cuando crecen, esto es, cuando divergen. Además, intencionalmente se han superpuesto en el diagrama, una serie de cuadrados cuyas superficies siguen la progresión de Fibonacci, y una aproximación a la espiral áurea (espiral de Fibonacci) generada dibujando arcos circulares que conectan las esquinas opuestas de los cuadrados ajustados a los valores de la sucesión, adosando sucesivamente cuadrados de lado 34 1, 2, 3, 5 y 8; y que tiene un sentido de giro contrario a las agujas del reloj, igual que el nivel profundo del PAU. Aunque, el esquema que estamos analizando no se agota en los considerandos anteriores. Hay “algo más”. Ese elemento extra () intenta representar el condicionante principal de una “belleza intrínseca”, que en definitiva es quien determina la belleza que podemos apreciar, y motivo de este trabajo. Cabe destacar algún otro detalle en el diagrama precedente, por ejemplo, que el cuadrado de lado 5, sea el único que está incluido totalmente en el nivel profundo del PAU. Recordemos que el número “5” es el corazón de la razón áurea, pero además, un indicador de la simetría quíntuple de los teselados aperiódicos. ¿Qué representa  en este caso? Proponemos que los teselados de Penrose constituyen un sistema dinámico adaptativo; algo similar a un ser vivo (Salatino, 2009). Hablar de seres vivos es hablar, según la biología clásica, de sistemas abiertos, que intercambian sustancias y energía con su entorno. El concepto de apertura contribuyó de una manera formidable a la comprensión del funcionamiento de los seres biológicos que mostraban conductas que no encajaban del todo, con el comportamiento termodinámico regido por el segundo principio de los sistemas cerrados; algo parecido a lo que ocurre con los teselados aperiódicos. Tan trascendente fue esta nueva visión que dio origen, de la mano de Wiener en 1948 (1998), a la Cibernética como la ciencia que explica el funcionamiento de los sistemas físicos basada en los procesos de regulación y control biológicos (homeostasis). 35 La Cibernética, no obstante, solo contempla sistemas formales (ideales), que son capaces de mantener un estado estacionario, o sea, de corregir desviaciones que se producen en el cumplimiento de una norma o fin preestablecidos, al interactuar con su entorno. El análisis del sistema propuesto necesita una cibernética distinta que permita explicar y no solo describir el funcionamiento del aspecto real profundo () que hemos planteado como el determinante de los procesos subjetivos que fundamentan una “belleza intrínseca”. Para comprender mejor esta precisaremos algunos conceptos: dinámica real, 4.1. Frontera (Morin, 1986, p. 235): Separación de los niveles del sistema, aunque no se refiere a un límite neto sino a una unidad activa de doble identidad ya que significa a la vez distinción y pertenencia, siendo simultáneamente, apertura y cierre. Un filtro que deja pasar pero que a la vez frena. Es en ella en donde se dan la disyunción y la conjunción en forma simultánea. La que permite un estado estacionario, pero que esta vez lejos del equilibrio homogéneo y estático del homeostato cibernético. 4.2. Estado estacionario de no equilibrio (Prigogine y Nicolis, 1977, p. 4): Es el único mecanismo capaz de mantener activo un sistema. Es decir, mediante una particular tramitación de la dinámica, puede sostener una organización estable a pesar de las importantes perturbaciones que vienen desde el entorno. De esta forma, se genera una situación de “desequilibrio estable” que impide que el sistema se vea sometido a un estado de “aislamiento”. En los teselados equivaldría a la 36 aparición de rupturas, huecos o solapamientos que malogren su disposición. 4.3. Retroacción y Recursión (Morin, 1986. p. 215): Lo típico de una organización activa es el cambio; pero, ese cambio debe poseer algunos aspectos típicos, por ejemplo: debe ser cíclico. Hay dos tipos de comportamiento cíclico: 1) aquel que opera en la superficie, en la evidencia, y haciendo de la salida del sistema una nueva entrada, trata de corregir una desviación. Causalidad lineal hecha manifiesta mediante una retroacción. Este comportamiento sería propio de los mosaicos o teselados periódicos (belleza explícita). 2) aquel tipo que trabaja en la profundidad, en donde el final del proceso “nutre” el principio. “Los estados o efectos finales producen los estados o causas iniciales”. Causalidad circular que se cumple mediante una recursión. Según la hipótesis defendida en este trabajo, este comportamiento sería el de los teselados de Penrose. El PAU de la belleza universal que hemos propuesto es un ciclo doble. Por un lado, aquel que tiene el semblante fenoménico (superficial) de la retroacción (SVO), y el otro, el generativo (profundo) de la recursión (OS). Reúne en una misma dinámica la “morfostasis” o constancia evolutiva de la forma y la “morfogénesis” o creación de nuevas formas. Une en fin, nacimiento, existencia y autonomía. 4.4. Retroalimentación negativa (Wiener, 1998, p. 133) y Retroalimentación positiva (Morin, 1986, p. 252): La retroalimentación negativa es aquel mecanismo que se encarga de compensar las desviaciones de un estado determinado. Propende a la constancia, a la organización, al desequilibrio estable, a la conservación 37 de las formas (morfostasis) por un proceso repetitivo de rechazar las perturbaciones. Fundamento de la periodicidad. La retroalimentación positiva, en dirección opuesta a la anterior, produce acentuación y amplificación de una desviación y aceleración de un proceso por sí mismo, sobre sí mismo. Promueve la desorganización mediante una tendencia que tanto puede ser destructora (tal como la considera la cibernética clásica), como “creadora” de formas (morfogénesis) y sustento de una historia o evolución. La regulación de nuestro PAU lleva en sí larvados antagonismos complejos (opuestos, complementarios y concurrentes); un ensamble de retroalimentaciones negativas y positivas (Figura 4). Figura 4 REGULACIÓN COMPLEJA DEL PAU Referencias: −: retroalimentación negativa +: retroalimentación positiva La regulación y el control tradicionales tienen que ver con el concebir estas retroalimentaciones como excluyentes. La regulación de la organización dinámica de nuestro sistema las contempla como concurrentes (heterárquicas). 38 La retroalimentación negativa sola es propia de los sistemas que no evolucionan (teselados periódicos). La retroalimentación positiva sola es típica de aquellos sistemas que van directamente a su destrucción (teselados de Penrose no válidos, con interrupciones o solapamientos (Hill et al., 2005)) . Obligadamente, para evolucionar, se necesita de ambas al mismo tiempo. ¿Cómo es posible la coexistencia? ¿Cómo es posible que el mismo proceso que promueve el desorden, la desorganización y la destrucción, sea genésico? La coexistencia queda comprendida desde que explicamos la simultaneidad de lo superficial (lo aparente y cuantitativo) y lo profundo (lo profundo y cualitativo) en la realidad. La desorganización de la organización, no niega a esta, como tampoco el O niega el S en un universo policontextural (Salatino, 2009) sino que la transforma, reorganizándola. Esta reorganización favorece la complejización por dos vías distintas, pero partiendo de un mismo fenómeno: la catástrofe. El “tocar el límite”, el descontrol transitorio de la retroalimentación positiva en su tendencia creciente. Las dos vías, igual que en los seres vivos, son: a) el desarrollo y b) la evolución. a) Desarrollo: representa la complejización estructural autoorganizada mediante fluctuaciones (Wagensberg, 1989, p. 42). Una sinusoide amortiguada, típica de la retroalimentación negativa, marca una curva asintótica de infinita aproximación que representa en forma dinámica el cambio aparente que identifica a los teselados periódicos, que respetan la sucesión de Fibonacci. Este surgir “pulsado” y discreto de lo profundo es típico del fenómeno, de lo que se presenta y aparece pero que a la vez es amortiguado (se va extinguiendo ‘a 39 saltos’ en el tiempo) lo cual significa que las desviaciones respecto a un estado de desequilibrio estable cada vez son menores y esto al mismo tiempo nos dice, que se están “corrigiendo” errores por desvío, “restando” las diferencias encontradas, de allí lo negativo de la retroalimentación (Figura 5). Figura 5 RETROALIMENTACIÓN NEGATIVA DE LA SUCESIÓN DE FIBONACCI – MORFOSTASIS Referencias: : razón áurea En el PAU las “sustracciones” anteriores no se pierden sino que se transforman. Son “acumuladas” en el nivel profundo (transformación no evidente) y cuando se llega a un determinado límite o umbral, lo oculto se hace evidente. La retroalimentación negativa se hace positiva arrastrando a todo el sistema fuera del equilibrio (Wagensberg, 1989: 42). Al sobrepasar una “distancia crítica” desde el equilibrio, el sistema deja de ser lineal (perdiéndose la proporcionalidad causa/efecto) lo cual nos indica que hay más de una alternativa para aproximarse nuevamente a un estado estable. En su devenir o evolución, el sistema se ve enfrentado a una disyuntiva. 40 Puede reorganizarse en función de lo planteado en su ‘interior’ y en su dependencia con el entorno (adaptación). Esta tarea la lleva a cabo ‘robándole’ complejidad al entorno y mediante estructuras intermedias (semejantes a las estructuras disipativas (Prigogine, 1977, p. 4)) “tramita” esta inestabilidad que lo acosa, generando un cierto orden a partir del desorden (evoluciona y ‘sobrevive’). Pasando así a un nuevo nivel de desequilibrio estable de mayor complejidad, en donde vuelve a regir la retroalimentación negativa y comienza todo de nuevo después de transcurrido un cierto tiempo. Proceso al que se denomina morfostasis, y explica muy bien cómo se forman los mosaicos periódicos, que solo se desarrollan y crecen. b) Evolución: representa el mecanismo de la emergencia, de la creación de estructuras nuevas o morfogénesis; del surgir de los mosaicos aperiódicos. La triada superficial (SVO) que hemos propuesto en el PAU, no es la única que existe en este sistema policontextural (Salatino, 2017). Este arreglo tiene la posibilidad de disponerse de seis formas distintas. De hecho, la primera generación de teselados de Penrose se originó desde tres patrones básicos, que luego por combinación, dieron los seis que formaban esta serie (Figura 6). Figura 6 PRIMERA GENERACIÓN DE PENROSE 41 Referencias: SVO: germen (Modificado de Grünbaum y Shephard, 1987, p. 531) La LT explica la emergencia de nuevas formas a través del ‘apareamiento’ entre dos tripletes superficiales, dándose algo similar a una ‘fecundación’. La producción de una ‘discontinuidad’ en la estructura compleja del PAU, promueve la escisión funcional entre lo superficial (lo fenoménico) y lo profundo (lo genésico). El disparador del proceso de fecundación es el mismo que en el caso del desarrollo, con la diferencia de que aquí el proceso de retroalimentación positiva no se estabiliza sino que logra (dada su violencia desmedida) provocar una fisura en la estructura del PAU, ‘liberando’ el nivel profundo. Obviamente que en este caso, el “padre” deja de existir como estructura real (“muere”) pero a su vez sigue “viviendo” en el hijo, (el mosaico) haciéndose efectivas simultáneamente, las dos tendencias de la retroalimentación positiva: destrucción y creación (Figura 7). Figura 7 RETROALIMENTACIÓN POSITIVA DE LOS TESELADOS DE PENROSE – MORFOGÉNESIS Referencias: : razón áurea 42 Posteriormente, Penrose produjo una segunda generación aperiódica que solo tenía dos elementos (cometa y dardo), pero originados de un mismo patrón (Penrose, 1978) (Figura 8). Figura 8 SEGUNDA GENERACIÓN DE PENROSE Referencias: S: sujeto – O: objeto – V: transformación aparente - : transformación no aparente - : razón áurea (Modificado de Grünbaum y Shephard, 1987, p. 539) Como se puede apreciar en la figura anterior, Penrose partió de un cuadrado cuyos lados tienen una longitud 43 equivalente a la razón áurea (). Al inclinar el cuadrado hacia la derecha 18º, se genera un rombo cuyos ángulos internos son múltiplos de 36º. Dividió la diagonal mayor según  (1,618), y unió después el punto obtenido con los vértices obtusos. Entonces, cada uno de los segmentos rectilíneos mide 1 o . El ángulo mínimo es de 36º y los demás ángulos son múltiplos de él (Gardner, 2008, p. 6). Este PAU, al escindirse, da origen a los dos elementos complementarios que conformarán distintos mosaicos aperiódicos, como el mostrado en el ángulo superior derecho de la Figura 8. Allí se aprecian una serie de pequeñas esferas blancas que certifican la aperiodicidad del mosaico. Lo podemos asegurar porque hemos representado los elementos básicos con los colores de la luz, es decir, el dardo con los colores primarios, y el cometa con los secundarios. La única forma de obtener un mosaico correcto es adosando los vértices que tienen colores complementarios. Cuando los colores primarios y los secundarios se suman dan blanco, mientras que la existencia de esferas de cualquier otro color detectaría un mosaico mal formado. El encaje adecuado de los elementos básicos en una proporción igual a la razón áurea, corroborado por la formación de “parches” con simetría múltiplo de “5” (decágono rojo) da fundamento a la belleza intrínseca que poseen estas composiciones. 5.0. CUASICRISTALES El estado cuasicristalino es una tercera forma de la materia sólida junto a la cristalina y la amorfa (Trebin, 2003). Los cristales son estructuras ordenadas y periódicas. Las sustancias amorfas, en cambio, son desordenadas y no periódicas. Los cuasicristales, por su parte, son estructuras ordenadas que no son periódicas. 44 Un ordenamiento no periódico, como ya dijimos, se caracteriza por la falta en él de simetría traslacional. Experimentalmente la aperiodicidad se revela en el patrón de difracción de estos sólidos, que es diferente a la simetría de orden 2, 3, 4, o 6 que presentan los cristales. El primer cuasicristal lo descubrió Dan Shechtman del Instituto Tecnológico Israelí en 1984, quien por este descubrimiento, recibió el Premio Nobel de Química en 2011. El aporte de Penrose diez años antes, con sus teselados aperiódicos, dio la posibilidad de explicar algunas de las particulares propiedades físicas de estos sólidos (Figura 9). Figura 9 PATRONES DE DIFRACCIÓN DE ELECTRONES EN CUASICRISTALES DECAGONALES Referencias: (a) Cobalto básico – (b) Modificación Al70Ni15Co15 Flecha: decágono (Modificado de Trebin, 2003, p.18) La Figura 9 muestra los patrones de difracción de electrones en el eje decagonal del Cobalto (a), y de la 45 aleación AlNiCo (Acrónimo de Aluminio-Níquel-Cobalto, usada para fabricar potentes imanes permanentes) (b). En (a) se observa una baja dispersión y la formación de reflexiones fundamentales (el PAU superpuesto, formado por pentágonos). En cambio, en (b) se muestra la típica modificación en los patrones de reflexión que se producen cuando se genera la aleación (flecha). Aquí se ha superpuesto un “decágono de Penrose” formado con saetas y dardos. 9.0. CONCLUSIONES A modo de reflexión final creemos que puede ser enriquecedor plantear una comparación entre los teselados de Penrose y algunas de las obras de Escher. Una historia que se ha repetido muchas veces señala cómo la Alhambra influyó decisivamente en las creaciones del artista holandés. Pero tanto en el arte islámico, como en las obras de Escher, la repetición juega un papel importante. En este trabajo hemos resaltado que la innovación de Penrose se encuentra en el descubrimiento de unos mosaicos o baldosas en los que la no-repetición es fundamental. De aquí la idea central que hemos señalado, sobre derivaciones estéticas e incluso decorativas, basadas en funciones matemáticas y en figuras geométricas. Pero, este significado surge cuando hay una contemplación inteligente, esto es, no ingenua del observador. En cierto sentido, Penrose nos plantea un camino análogo, aunque de sentido contrario al de Maurits C. Escher, Esto es así porque su interés está básicamente orientado a las ciencias. Con el tiempo, los descubrimientos de ciertas propiedades de la geometría, lo conduce a “develar” ciertas formas que están, aunque a primera vista desprevenida, no matemática, no se “vean”. Si se pudiera realizar un paralelismo, teniendo en 46 cuenta su formación disciplinaria, Penrose se encuentra más cercano a H. Coxeter o a H. Poincaré, que a Escher . Sin embargo, las derivaciones de su obra, por los efectos estéticos que ésta genera, lo aproximan ciertamente al artista de los Países Bajos. Pero, sin dudas, Escher se encuentra en el cruce de caminos y es la referencia clave para estos geómetras. Hay dos dimensiones que revela la empatía entre Escher y Penrose. La primera se encuentra en el reconocimiento del orden armónico que subyace a la estructura de la realidad, la cual siempre y sobre todo, sostendrán al unísono, es matemática. La otra se refiere al “elemento platónico” presente en la generación de figuras geométricas, el cual implica, según Penrose: “Acceder o descubrir una verdad profunda, más que demostrar”. Tal como ha afirmó uno de los más profundos conocedores de su obra, Martín Gardner: “Los resultados de Penrose en matemáticas y física —y sólo he mencionado una pequeña parte— surgen de una permanente admiración por el misterio y por la belleza del ser!”. M. Gardner, p. 10. Se ha logrado un aporte en cuanto a la comprensión del significado de los efectos estéticos y artísticodecorativos de los teselados aperiódicos de Penrose, al abordarlos como un sistema dinámico adaptativo, similar a un ser vivo. En estos mosaicos se plantea y demuestra la existencia de una “belleza intrínseca” (oculta), que a modo de un “genotipo” como patrón universal cualitativo, determina la “belleza natural cuantitativa” o “fenotípica” (la que se ve) que le otorga otro patrón universal como es la razón áurea. Una disposición en total sintonía con la Lógica Transcursiva. 47 REFERENCIAS CONWAY, J. H. with Heidi Burgiel and Chaim GoodmanStrauss. (2008). The symmetries of things, Wellesley, MA. COXETER, H. S. M. (1999). The Beauty of Geometry. New York, Dover Books CUCKER, F. (2013). Manifold Mirrors. The Crossing Paths of the Arts and Mathematics, Cambridge, Cambridge University Press EUCLIDES (2007). Elementos. Introducción General: Luis Vega – Traducción: M. L. Puertas Castaños. Madrid, Editorial Gredos, S.A. GAMWELL, L. (2016) Mathematics and Art: A Cultural History. Princeton and Oxford, Princeton University Press. GARDNER M. (2008). Mosaicos de Penrose y escotillas cifradas. Barcelona, España, Biblioteca Desafíos Matemáticos, RBA Coleccionables, S. A. GRÜNBAUM, B.; SHEPHARD, G.C. (1987). Tilings and Patterns. New York, W. H. Freeman and Company. HERCE FERNÁNDEZ, R. (2014). De la física a la mente: El proyecto filosófico de Roger Penrose. Madrid : Biblioteca Nueva. HERZ-FISCHLER, R. (1998). A Mathematical History of the Golden Number. New York, Dover Publications, Inc. HILL, M.; STEPNEY, S.; WAN, F. (2005). Penrose Life: Ash and Oscillators. En Advances in Artificial Life. LNCS, volume 3630, pp. 471-480. HUGGETT, S.A. (Edit.).(1998). The Geometric Universe Science, Geometry, and the Work of Roger Penrose. Oxford, Oxford University Press. KNUTH, D.E. (1997). The Art of Computer Programming. Volume 1 Fundamental Algorithms. California, USA, Addison-Wesley. 48 LIVIO, M. (2003). The Golden Ratio. The story of phi, the world’s most astonishing number. New York, Broadway Books. LOEB, A. (1993). Concepts & Images: Visual Mathematics, Birkhäuser Basel, Design Science Collection. MASERA, G.A.; VÁSQUEZ, M.G.; SALATINO, D.R. (2017). “The Map and the Universe: The Work of Maurits Cornelis Escher from a Cultural-Historical Approach.” Inter. J. Res. Methodol. Soc. Sci., Vol., 3, No. 2: pp. 27– 35. (Jul. – Sep. 2017); ISSN: 2415-0371. MORIN, E. (1986). El método. La naturaleza de la naturaleza. Madrid, Cátedra. NOVAK, M. (edit.) (2006). Complexus Mundi: Emergent Patterns in Nature. New Jersey, World Scientific. PACIOLI, L. (1509). De divina proportione. Venezia, Paganino Paganini. PENROSE, R. (1978). Pentaplexity: A Class of Nonperiodic Tilings of the Plane. En Eureka, 39, pp. 1622. PENROSE, R. (1999). Lo grande, lo pequeño y la mente humana. Cambridge University Press, Madrid, 1999. PENROSE, R.; GARDNER, M. (2002).The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford University Press, USA PISANO, L. (FIBONACCI) (1202-1857). Il Liber Abbaci. Roma, Baldassarre Boncompagni. PRECHTER, R. R. (1996). R. N. Elliott’s Masterworks. The Definitive Collection. Georgia, USA, New Classics Library. PRIGOGINE, I.; NICOLIS, G. (1977). Self-Organization in Nonequilibrium Systems. From Dissipative Structures to Order through Fluctuations. N. Y., John Wiley & Sons. 49 ROTA, G-C. (1997). ‘The Phenomenology of Mathematical Beauty’. Synthese. Vol. 111, No. 2, pp. 171-182. SALATINO, D. R. (2009). Semiótica de los sistemas reales – Tesis Doctoral en Letras especialidad Psicolingüística por la Facultad de Filosofía y Letras de la Universidad Nacional de Cuyo, Mendoza, Argentina – Director: Dra. Liliana Cubo de Severino. SALATINO, D. R. (2012). Aspectos psico-biosocioculturales del lenguaje natural humano. Introducción a la teoría psíquica del lenguaje - Mendoza, Argentina - Desktop Publishing, Amazon. SALATINO, D. R. (2017). Tratado de Lógica Transcursiva. Origen evolutivo del sentido en la realidad subjetiva. Mendoza, Edición del autor. SHECHTMAN, D. et al. (1984). Metallic phase with longrange orientational order and no translational symmetry. Physical Review Letters, vol. 53, pp. 1951-1953. TEGMARK, M. (2014). Our Mathematical Universe: My Quest for the Ultimate Nature of Reality. New York, Knopf. TREBIN, H-R. (2003). Quasicrystals. Structure and Physical Properties. Germany, Wiley-VCH. WIENER, N. (1998). Cibernética o El control y comunicación en animales y máquinas. Barcelona, TusQuets. WAGENSBERG, J. (1989). Ideas sobre la complejidad del mundo. Barcelona: TusQuets. *** 50 2. ELEMENTOS SUBJETIVOS EN EL FUNDAMENTO DEL CÁLCULO INFINITESIMAL Guillermo Alberto Cuadrado8 RESUMEN : El propósito de esta contribución fue reinterpretar el concepto de límite usando la Lógica Transcursiva, que tiene en cuenta la perspectiva del observador. El método usado para obtener la información consistió en el análisis lógico y epistemológico de la bibliografía pertinente. Para ello se revisaron los sentidos de los términos ‘subjetivo’ y ‘objetivo’; se especificó la formalización del concepto de límite, desde Cauchy a su forma actual; se aplicó la lógica Transcursiva al límite. Se encontró que los gráficos de límite de los manuales universitarios soslayan la naturaleza de proceso de su definición, que sí recupera la lógica Transcursiva. Lo que permitió concluir que este instrumento permite recuperar los aspectos dinámicos y subjetivos de los conceptos de límite y de infinitésimo y los mantiene en dominio de la aritmética, siguiendo la idea de Cauchy. Palabras clave: transcursiva. límite, infinitésimo, proceso, lógica 1.0 INTRODUCCIÓN La ciencia, entre otras posibilidades, tiene un sentido objetivo y otro subjetivo. Si bien, la misma está organizada para asegurar la objetividad, ella demanda ciertas aptitudes del sujeto que hace ciencia, como entender y realizar correctamente las operaciones pertinentes de cada actividad planteada. Ese criterio también se aplica al Cálculo Infinitesimal, ya sea que se lo considere un lenguaje para describir porciones de realidad o como instrumento, que permite establecer conexiones entre los contenidos científicos y para 8 Grupo IEMI, F. R. Mendoza, UTN, UNCuyo. 51 resolver problemas. Por cierto, si bien la objetividad del Cálculo es manifiesta, su subjetividad es más recóndita, pero se encuentra incluso en su fundamento. Los sentidos objetivo y subjetivo de la ciencia han sido tratados con diferentes perspectivas y por algunos autores citados en este trabajo, como E. Agazzi (1934;-), F. Hayek (1899-1992), J. von Uexküll (1864-1944), J. Bochenski (1902-1995), K. Popper (1902-1994). Cabe añadir, que D. Salatino (1949;-) propone un particular punto de vista para tratar lo objetivo y lo subjetivo. Se trata de la Lógica Transcursiva, un método complementario de la ciencia, que tiene en cuenta la perspectiva del observador. Una rama de las ciencias formales es el Cálculo Infinitesimal, para el cual también se ajustan las consideraciones de objetividad y subjetividad. Ese hecho es manifiesto cuando con él se resuelven problemas, ya que hay un resolvente que usa el cálculo como instrumento, estableciendo substituciones y transformaciones para encontrar la solución. En cambio, cuando los objetos del Cálculo se determinan conceptualmente los aspectos subjetivos son menos palpables, ya que a veces quedan enmascarados por el formalismo de las definiciones, como es el caso del concepto de ‘límite’. Precisamente, Agustín L. Cauchy (1789-1857) definió el límite como un concepto aritmético, eliminando todo apoyo en la intuición geométrica, que era la modalidad usada antes de él. Conviene destacar, que al definir el límite de ese modo, este último se convirtió en el fundamento del Cálculo Infinitesimal, ya que permitió determinar de un modo mucho más riguroso la continuidad de una función, los infinitésimos, las derivadas, las integrales y las series. El cambio conceptual significó un avance de los aspectos 52 objetivos sobre los subjetivos, hecho que tiene una importancia decisiva en el aprendizaje de la disciplina. Cabe agregar, que el concepto aritmético del límite mejoró el rigor de la disciplina, pero fue en detrimento de la captación intuitiva que ofrecía la presentación geométrica del concepto de derivada. Esta última se ejemplifica con rectas secante que tienen un punto en común sobre la curva, mientras el segundo punto cambia acercándose al anterior. De ese modo, las pendientes de las rectas van asemejándose cada vez más. Cuando el segundo punto comienza a ubicarse muy próximo del primer punto, la transformación finaliza porque se ha llegado al límite. Es pertinente indicar, que a partir de la segunda mitad del siglo XIX y por razones que no se tratan aquí, la matemática se orientó hacia el análisis exacto de los conceptos y la búsqueda de la estructura axiomática de los sistemas, para justificarlos en forma lógica. Muchos de los desarrollos y descubrimientos en matemática conmovieron sus propios fundamentos (Bochenski: 1949, 32-39; Agazzi: 1978, 89). En ese proceso, el concepto aritmético de límite introducido por Cauchy se formalizó con las expresiones de la Lógica Simbólica, exigiendo un mayor esfuerzo de abstracción para comprenderlo. Naturalmente, este hecho significó un nuevo avance de la objetividad sobre la subjetividad. Esta última quedó tan arrinconada, que el aprendizaje del límite se redujo a prácticas mecánicas y repetitivas, por la imposibilidad de asociar el nuevo concepto con la información matemática que los alumnos ya conocían. De ese modo, todas las nociones que dependen del límite también terminan asimilándose de un modo mecánico similar. 53 El problema que plantea esta contribución consiste en recuperar el aspecto subjetivo del concepto de límite en el Cálculo y hacerlo más evidente usando Lógica Transcursiva. Como esta última considera el punto de vista del observador, incluye a quién está aprendiendo límite, concepto fundamental para la mayoría de los conocimientos de esa disciplina. Por esa razón, este trabajo se ubica en una línea de investigación que emplea la epistemología contemporánea, para mejorar la enseñanza de la matemática en carreras de ingeniería. El propósito de esta contribución es reinterpretar el concepto de límite usando la Lógica Transcursiva, que tiene en cuenta la perspectiva del observador. En tal sentido, fue necesario satisfacer ciertos objetivos específicos, como: revisar sucintamente los sentido y subjetivo y objetivo de la ciencia; especificar el proceso de formalización del concepto de límite, justificando la contribución de Cauchy, y el cambio a su forma lógica actual; examinar brevemente las bases de la lógica Transcursiva; y aplicar la misma al límite para explicitar su aspectos objetivos y subjetivos. Este trabajo está organizado del siguiente modo. En primer lugar, se caracterizan sentidos objetivo y subjetivo de la ciencia revisando brevemente los puntos de vista de Agazzi; Hayek, von Uexküll, Bochenski y Popper. En segundo lugar, se describe el concepto aritmético de límite, expresado por Cauchy y se indican los temas que son fundamentados por él, en el Cálculo Infinitesimal. En tercer lugar, se analiza la definición actual expresada en términos de la Lógica Simbólica. Y para finalizar, se describe sintéticamente la Lógica Transcursiva y se la aplica a la definición de límite. 54 2.0. ASPECTOS OBJETIVOS Y SUBJETIVOS EN LA CIENCIA En principio, la palabra ‘objetivo’ indica una referencia al objeto, pero su sentido se contrapone a ‘sujeto’, determinándose ambos como términos relacionales y mutuamente excluyentes, debido a que la afirmación de uno de ellos, atrae al otro en forma tácita. Así, en vez de decir que una característica es ‘objetiva’ por ser inherente al objeto, se afirma que la misma es objetiva por cuanto es independiente del sujeto que la afirma o la percibe. La diferencia entre ambos sentidos de ‘objetivo’ es clara. En un sentido, la objetividad es alguna característica inherente al objeto, con una existencia independiente del sujeto, que tiene nociones de ella. En consecuencia, ese conocimiento es universal y necesario, como requisito formal de la objetividad, sin procurar que refleje propiedades de los objetos o que implique alguna consecuencia de este tipo. En el otro sentido, la objetividad debe ser válida para todos los sujetos, para que sea universal y necesaria. La ciencia moderna, por un largo período adoptó la idea de conocimiento objetivo en el primer sentido. Sin embargo, por razones que exceden a este trabajo, después de la segunda mitad del siglo pasado, optó por el segundo tipo, que admite la existencia de objetos cuando hay un sujeto que los conoce (Agazzi: 1978, 405-406). Cabe señalar, que los términos ‘subjetivo’ y ‘objetivo’, aún con ciertas dificultades, han permitido señalar diferencias entre las ciencias naturales y las sociales, Además, el vocablo ‘subjetivo’ destaca que, si bien, todas las personas poseen una estructura común que 55 hace posible la comunicación, cada una de ellas tiene conocimientos y creencias distintas, incluso a veces, contradictorias en muchos aspectos. Sin embargo, si las todas las personas tuviesen idénticos conocimientos y creencias, no importaría si ese hecho se describe como un hecho objetivo o subjetivo (Hayek: 1955, 29). Ahora bien, en el sentido de Kant, el espacio sólo existe en la mente del sujeto, para estructurar sus experiencias. El material específico del espacio, esto es, los signos locales, los signos de dirección y la forma que asume este material son creaciones subjetivas. Esas cualidades espaciales unidas al acto de tomar consciencia del objeto percibido de manera reflexiva hacen posible el espacio. Si no fuese así, este último sería nada más que una serie de cualidades sensoriales, como colores, sonidos, olores, entre otros, y estos tendrían sus formas y leyes específicas, pero no habría un escenario común en el que todos pudieran desempeñar su papel. La distinción entre objetivo y subjetivo tiene un significado real, aun admitiendo que no existe la objetividad absoluta. Incluso, si el sujeto estuviera al tanto de las señales de dirección subjetivas que acompañan los movimientos de sus músculos, no sabría nada de un mundo objetivo, sino que estaría rodeado por un espacio subjetivo. Cada signo local es estrictamente subjetivo, pero si se asocia a una cualidad, se convierte en objetivo (Von Uexküll: 1926, 48-50). Por su parte, Bochenski (1976: 30-31) sostiene que la ciencia tiene dos significaciones, una subjetiva y otra objetiva. La primera es el atributo de un hombre en particular, que posee un saber sistemático para realizar correctamente las operaciones intelectuales y manuales de una ciencia, como consecuencia de haber penetrado 56 sistemáticamente en sus relaciones de contenido. Este aspecto subjetivo requiere del investigador capacidad, dedicación y predisposición, para hacer posibles los descubrimientos científicos. Pero, éstos se conocen, si el científico los comunica en algún lenguaje que exprese ese conocimiento en una descripción. Cuando eso ocurre, el conocimiento se vuelve objetivo y se formula en oraciones enunciativas, como ‘el Sol es una estrella’. Por ese motivo, en la significación objetiva, la ciencia es un conjunto de proposiciones objetivas y una construcción social, ya que esa realidad está en el pensamiento de muchos hombres, porque ninguno de ellos conoce todas las proposiciones de una disciplina. En efecto, este aspecto objetivo de la ciencia permite comunicar, fundamentar y verificar de manera intersubjetiva los resultados de una investigación. En relación con estos conceptos, la teoría de los tres mundos de Karl Popper (1974, 76-77, 107-108), clasifica el mundo en tres categorías: mundo 1, de los objetos físicos; mundo 2, de las disposiciones, expectativas y procesos mentales y mundo 3, de los contenidos objetivos de pensamiento científico, artístico o de otra índole, que se encuentra en el contenido de libros, bibliotecas, museos, computadoras y repositorios digitales. El mundo 3 es autónomo y en él existen relaciones lógicas implícitas. Cuando alguien las encuentra hace un descubrimientos teórico, de la misma manera que en el mundo 1 se hacen los descubrimientos geográficos o se encuentran nuevas especies de plantas o animales. Ahora bien, el mundo 3 comienza y se desarrolla en el lenguaje humano; y consiste en problemas, teorías y argumentos, que se vuelven independientes de los sujetos que los enunciaron, al ser presentados ante 57 otros de alguna forma. Por ese motivo, está potencialmente disponible para ser conocido por quién desee explorarlo. En cambio, la mayor parte del conocimiento subjetivo que tiene una determinada persona es inherente al mundo 2. Este último, depende del contenido de los repositorios que tiene el mundo 3, que influyen sobre las disposiciones para actuar o sobre el interés que tienen los sujetos por el conocimiento. Resulta evidente que las descripciones escritas en algún lenguaje contribuyen a la emergencia de ese mundo 3, donde se plantean problemas, se argumenta, se hacen críticas racionales, y esos argumentos sobre las descripciones consideran su contenido, su verdad o su verosimilitud. En cambio, el conocimiento subjetivo de la ciencia busca aplicar correctamente el método científico, esto es, el proceso destinado a explicar fenómenos, relacionar sucesos y enunciar leyes que expliquen hechos físicos o sociales, para lograr aplicaciones útiles al hombre. 3.0. CONCEPTO ARITMÉTICO DE límite DE CAUCHY El concepto de límite tiene antecedentes en el método de recubrimiento de los griegos, y más modernamente, en los trabajos de Newton, D’Alembert y Lacroix, que lo consideraban el fundamento del cálculo. Sin embargo, este último era concebido como un instrumento para tratar problemas geométricos. Sólo Euler y Lagrange intentaron establecer el cálculo sobre un formalismo, pero con escaso éxito. La mayoría de los autores presentaban en sus trabajos la idea de límite concebido geométricamente. Sin embargo, esas teorías quedaron eclipsadas cuando aparecieron los textos de Cauchy, donde el concepto de límite se convirtió en un concepto aritmético, sin apoyo geométrico (Collette: 2000, 312). 58 Esta transformación conceptual se puede constatar en la enunciación del límite que Cauchy (1821, 4) presenta en la parte Preliminar de su libro Curso de Análisis: “Cuando los valores sucesivamente atribuidos a una misma variable se aproximan indefinidamente a un valor fijo, de manera que llegan a diferir tan poco como se quiera de él, este último se llama el límite de todos los demás”. Esta definición, más verbal que numérica, informa la idea intuitiva de límite. Con respecto al concepto de ‘infinitésimo’, enunció que son aquellas cantidades de la variable dependiente, que tienden a valer cero: “Cuando los valores numéricos sucesivos de una misma variable decrecen indefinidamente de manera que disminuyen por debajo de todo número dado, esta variable resulta ser lo que se llama un infinitamente pequeño o cantidad infinitamente pequeña. Una variable de esta especie tiene cero como límite” (Ibid., 5, 27-28). También se ocupó de teorizar sobre la continuidad de las funciones. Él sostenía que “una función ‘f(x)’ permanecerá continua con respecto a ‘x’ entre los límites dados, si, entre estos límites, un aumento infinitamente pequeño en la variable siempre produce un aumento infinitamente pequeño en la función misma” (Ibid., 3435). Cauchy utilizó el límite para fundamentar la mayoría de los conceptos del Cálculo Infinitesimal. También reemplazó la práctica usual de definir la integral como la inversa del diferencial, ofreciendo definiciones independientes para cada uno de esos objetos. Además, por primera vez transformó esa relación inversa en un genuino teorema: el ‘teorema fundamental del cálculo integral’, exigiendo condiciones necesarias y suficientes sobre una función para que éste se cumpla. En ese 59 sentido, fue pionero en la práctica de determinar condiciones necesarias y suficientes para la verdad de un teorema. (Grattan-Guinness: 2004, 133-135). También se ocupó de la convergencia o divergencia de series numéricas infinitas, ofreciendo definiciones generales y exigiendo condiciones para que se cumplan los resultados. Además, hizo un tratamiento adecuado de las condiciones de convergencia de las series de potencias de Taylor y de Mc. Laurin (Cauchy: 1829, 9199). 3.1. DEFINICIÓN ACTUAL DE límite A fines del siglo XIX y principios del XX, por razones que no es el caso tratar aquí, se produjo una crisis de los fundamentos de la matemática y la física. Este hecho impulsó el desarrollo de la lógica simbólica, para estudiar los mismos, eliminando aspectos irrelevantes o engañosos de la matemática y del lenguaje corriente. En esa actividad destacaron Richard Dedekind (1831-1916), Giuseppe Peano (1858-1932), Georg Cantor (18451918) y Gottlob Frege (1848-1925), los cuáles articularon los principios básicos de la matemática, intentando reducir todo el cálculo infinitesimal a la aritmética, la teoría de conjuntos y la lógica pura (Agazzi: 1978, 89; Bochenski: 1949, 32-39). Frege sostenía que muchos errores de razonamiento matemático eran síntomas de confusiones conceptuales no reconocidas. Para evitar ese problema concibió un sistema que representara contenidos de pensamiento en forma simbólica y sólo desde el punto de vista lógico, lo que generó la actual lógica simbólica. Se trata de un sistema que extiende el concepto matemático de función (Stefanians: 2007, 19-20; Frege: 1972, 224-226). Posteriormente, el grupo Bourbaki reconstruiría todas las 60 disciplinas matemáticas en una única arquitectura estructural. Lo hizo usando la lógica de Cantor y Frege, enfatizando la forma antes que los contenidos (Piaget, 1993: 74-79). Esa metodología no tardó en difundirse en varios manuales universitarios de Cálculo. Las actuales aproximaciones intuitivas al concepto de límite no difieren demasiando de la presentada por Cauchy, en cambio la formalizada dice lo mismo de manera muy diferente. En ese sentido, una presentación intuitiva dice que ‘una función f(x) tiende hacia el límite ‘l’, si ‘f(x)’ queda tan cerca de ‘l’ como el usuario del Cálculo desee, sólo con hacer que ‘x’ esté lo suficientemente cerca de a, pero sin ubicarse en esa posición. Lím f(x) = l puede presentarse así: x→ a  f(x)→ l x→a En cambio la definición formal de límite expresada en términos de la lógica simbólica o de la teoría de conjuntos dice: Lím f(x) = l def. ()(())(x)(0<|x - a|<  |f(x)−l|< ) x→a__________________-_R+___R+ __domf Lím f(x) = l def. ()(())(x )(xE*(a; )  f(x)E(l; )) x→a_________________-__R+___R+ __domf Con referencia a la notación, se usa la propuesta por A. Tarski, que debajo de cada cuantificador coloca el dominio de este. El aspecto subjetivo del usuario de esta definición se encuentra en el término ‘()’, que dice: ‘para cualquier  que se elija’. Luego, a partir de ‘’ se obtienen los otros elementos de la definición. La expresión ‘|f(x)−l|<’ informa que el módulo de la diferencia es un infinitésimo, por ser menor que cualquier número dado, teniendo como límite a cero. Por una parte, la diferencia ‘f(x)−l’ puede ser positiva o negativa, en consecuencia ‘|f(x)−l|=|φ(x)|’. Por otra, la 61 elección del ‘’ determina la magnitud del infinitésimo, o dicho de otro modo, define la cantidad de decimales exactos que necesita el usuario de la definición. Además, si se considera que ‘f(x)’ es continua en ‘a’, se verifica que el límite coincide con el valor de la función en ‘a’, esto es ‘l = f(a)’. Por ejemplo, sea ‘f(x)=  (x); a=1; y =1/1000’. Tabla N° 1 x a a a a a b b d d d d d a a a 1,200000 1,100000 1,010000 1,002100 1,002001 1,002000 1,001999 1,001990 1,001900 1,000000 0,999999 0,999901 0,998009 0,998001 0,990000 0,900000 (x)−1=φ(x) −0,0954411 −0,0488088 −0,0009495 −0,0049875 −0,0010000 −0,0009994 −0,0009985 −0,0009945 −0,0009495 −0,0000000 −0,0000199 −0,0001979 −0,0009599 −0,0010000 −0,0050125 −0,0513167 En la tabla se puede observar a partir de que valores el módulo de φ(x) es un infinitésimo menor que '1/1000'. Eso significa que si sólo se leen tres decimales todas las diferencias se ven iguales a '0,000'. Dicho de otro modo, una vez que el usuario de la definición fija la precisión ‘’ surgen infinitos valores ‘f(x)’ similares a ‘f(a)’, cuya diferencia con éste no es detectable. El ‘’ de una milésima determina que los infinitésimos se encuentran después del tercer decimal, asegurando para la función una precisión de tres decimales. El valor de la función en ‘1’ determina el límite ‘l’, que en este caso es ‘l=(1)=1’. Luego la función cumple que ‘1−0,001<(X)<1+0,001’. Si se elevan al cuadrado todos los términos de la expresión, la desigualdad se conserva y se obtiene ‘(1−0,001)2<x<(1+0,001)2’ o ‘−0,001999<x−1<0,002001’. 62 Luego, si ‘=mín{1; 2}’ entonces ‘= 0,001999’. Si se toman valores ‘x’ del entorno ‘E*(1; 0,001999)’, la diferencia entre la función y su límite es un infinitésimo ‘(x)−1=φ(x)’. Obsérvese ‘φ(x)=f(x)−l’ puede verse como una traslación del eje de abscisas coordenados al valor ‘l’. En ese caso la función ‘φ(x)’ tendrá un cero en ‘a=1’. Naturalmente, la condición rectora es que las ‘x’ se saquen del entorno ‘E*(1;0,001999)[0,001999;_1,002001)’. 4.0 DESCRIPCIÓN TRANSCURSIVA SUCINTA DE LA LÓGICA La lógica transcursiva fue desarrollada por Dante Salatino en su tesis doctoral Semiótica de los sistemas reales (2009) para dar cuenta de la realidad subjetiva y el lenguaje natural. La misma tiene antecedentes en la lógica transclásica de Gotthard Günther y las influencias de autores como G. W. F. Hegel, L. Wittgenstein, C. S. Peirce, E. Galois entre otros. Es pertinente señalar, que la ciencia objetiva se sustenta en una lógica binaria que demarca dicotomías como objeto o sujeto, existencia o su ausencia, positivo o negativo, cantidad o cualidad, designado o nodesignado. Se trata de un universo objetivo que admite una sola negación, denominado ‘monocontextura’. En cambio, la lógica policontextural, que propuso Günther, es un lenguaje con más de una negación, que le permite justificar la distribución heterárquica de sistemas binarios en múltiples contexturas. Cada una de estas últimas surge de aplicar negaciones sucesivas, permitiendo así, las contexturas del objeto, el sujeto y lo subjetivo, que son valores lógicos. De esta manera, cada negación produce un desplazamiento a la contextura sucesiva, 63 siguiendo un ciclo. A pesar de su ingeniosa concepción, esa lógica tuvo dificultades en su aplicación (Salatino: 2009, 44-45). Por su parte, Salatino (2009, 46-47) propuso la lógica transcursiva que es una lógica policontextural modificada, con el propósito de transformar esa herramienta en operativa y útil. Las modificaciones consistieron en: 1) distribuir los valores lógicos utilizando operadores booleanos; 2) elaborar autómatas llamados patrones autónomos universales (paus), que son análogos de los autómatas finitos de la lógica clásica; 3) incluir un tiempo interno o psíquico, que suplir la falta de sincronización, dado que cada forma de expresión de la identidad requiere de un tiempo propio; 4) proponer un lenguaje universal, para especificar la interacción simultánea entre las contexturas; y 5) agregó una cuarta contextura para advertir de la cognición, fundamento esencial de la lógica transcursiva. En esta lógica se asigna ‘1’ al desorden y ‘0’ al orden, luego la contextura del sujeto será identificada con el código ‘01’, porque tiene desorden y ausencia de orden. Por razones equivalentes, la contextura del objeto será identificada con el código ‘10’, porque tiene orden y ausencia de desorden. En la lógica clásica, en la relación directa entre sujeto y objeto, cuando se designa el objeto, el sujeto desaparece, dado que su ‘lenguaje’ tiene una sola negación y prioriza la designación de objetos. Luego, para rescatar el sujeto que se pierde al hacer la designación del objeto, se crea una nueva contextura o nicho ontológico en donde alojar al sujeto negado. Para dar cuenta de la relación directa o evidente entre sujeto y objeto se genera otro nicho ontológico, destinado a contener lo denotado de los otros dos, asignándole el código ‘11’, que significa que 64 contiene la co-presencia de orden y desorden. A eso se agrega un cuarto nicho ontológico, que sugiere que entre sujeto y objeto también existe una relación indirecta o profunda, que no es evidente, cuyo código binario es ‘00’, por alojar lo no designado del objeto y del sujeto, dicho de otro modo, el nicho aloja la co-ausencia (Salatino: 2012, 202-204). La lógica transcursiva dispone de una biblioteca de patrones autónomos universales (paus), para analizar fenómenos diversos, considerándolos como si fueran sistemas. Estas estructuras relacionales están conformadas siempre por los mismos elementos genéricos y fundamentales, y en cada tipo sólo varía la secuencia de sus relaciones para realizar las transformaciones. 4.1. DEFINICIÓN TRANSCURSIVA DE límite CON LÓGICA Tal como se indicó, el aspecto que corresponde al sujeto (S) de esta definición se encuentra en el término ‘()’, que le ofrece al usuario la opción de elegir el ‘’, de acuerdo con sus propósitos. A él se le opone el ‘’ que es el objeto (O). Ambos, están vinculados por ‘f(x)’ (V) y a éste se le opone ‘l’ (). Luego, a partir de ‘a’ y ‘f(x)’ se obtiene ‘’, y éste determina los otros dos elementos de la definición: ‘’, y ‘l’. En el caso del límite, se aplica un PAU hemicíclico exógeno que comienza como “externo”, siguiendo la secuencia SVO en sentido horario, impulsada por ‘l’ desde el ‘’. Luego, cuando alcanza un cierto umbral, el ciclo dextrógiro se amplía siguiendo la secuencia OSV. Esto ocurre por ser una heterarquía explícita, donde el plano profundo de la lógica transcursiva se hace evidente cuando recorre los lados del rectángulo OSV. El PAU hemicíclico se usa cuando el objetivo es escindir 65 apariencia de realidad, permitiendo abordar sistemas que representan un ensamble de dos o más estructuras que se alternan en sus funciones. El mismo, se aborda desde la relación directa de los elementos fundamentales. Puede manejar dos o más variables a través de operaciones binarias híbridas XENIAs ‘↬(⊙⊕)/↫(⊕⊙)’ (Salatino: 2013, 198; 2019, 52-73 ). Para utilizar estos conceptos es conveniente aplicar la expansión de Boole de la regla que corresponde a la implicación material. Para agilizar las notaciones se establece la tabla de la izquierda. Luego, si la misma se aplica a la definición de límite, surgen dos expresiones una sólo formal y otra que contiene los significados. significado p : xE*(a; ) p : xE*(a; ) q : f(x)E(l; ) q : f(x)E(l; ) La tabla de verdad que corresponde a una implicación material es la siguiente: caso p q pq a F F V b F V V c V F F d V V V Para una función continua solamente existen los casos a, b y d, mientras que el caso c es imposible. La expansión de Boole consiste en hacer la conjunción de cada fila cambiando las variables de modo que conjunción sea verdadera, luego, se hace la disyunción de las filas verdaderas, entonces la expresión queda: ‘pq(pq)(pq)(pq)’. Si a continuación se explicitan los significados, la definición se transforma del siguiente modo: xE*(a; )f(x)E(l; ) equivale a [xE*(a; )f(x)E(l; )][xE*(a; )f(x)E(l; )][xE*(a; )f(x)E(l; )] −−−−−− a −−−−−→ −−−−− b −−−−−−−→ −−−−−− d −−−−−→ En el siguiente PAU hemicíclico exógeno ‘’ ocupa la 66 posición de S(01), ‘’ la de O(10) y ‘f(x)’ la de V(11), en tanto que ‘l’ ocupa la posición de (00). Si se analizan los valores de la Tabla N° 1. Puede ver claramente que ‘x→ a  f(x)→ l’ y que ‘l=f(a)’ en funciones continuas es un proceso de transformaciones sucesivas. Si en la función dada, el acercamiento de ‘x’ se produce desde la derecha comenzando por ‘x=1,2’, el PAU comienza a ciclar desde ‘f(1,2)’, siguiendo la secuencia SVO del triángulo superior, en donde ‘φ(x)> ’. En cuanto ‘x’ pasa el valor ‘1,002001’ ingresa a un umbral condicional ya que ‘φ(x) < ’ y comienza a ciclar siguiendo la secuencia OSV hasta que alcanza el umbral definitivo ubicado en ‘x = 1,001999)’, donde continúa ciclando hasta infinito en forma dextrógira, en un proceso de continuo acercamiento a ‘(a; l)’. 5.0. DISCUSIÓN El último proceso señalado tiene la misma estructura que la paradoja de Zenón de Elea, por la cual “la flecha no puede llegar al blanco”, porque tiene que recorrer primero la mitad de la distancia, y luego la mitad de la mitad que queda, y así sucesivamente, en un proceso que no termina nunca. Los gráficos de límite que traen los manuales universitarios inducen a pensar este concepto como un objeto únicamente, soslayando que también es un proceso. Este último, involucra objetos determinados 67 como ‘(a; l)’ y además, un conjunto infinito de objetos indiferenciados, porque los infinitésimo que los diferencian quedan por debajo del ‘’ que determina la cantidad de decimales que se consideran efectivamente. Conviene destacar que el ‘’, objeto regulador del proceso infinito del límite, siempre lo determina el usuario de la definición. Importa señalar también, que la Lógica Transcursiva aporta el criterio de ‘umbral’, a partir del cual las coordenadas ‘(x; f(x))’ quedan ciclando en ese proceso dinámico e infinito de acercamiento a las coordenadas ‘(a; l)’. Adicionalmente, el umbral condicional ‘[1; 2)’ ocurre cuando los acercamientos a ‘a’ se producen desde la derecha, en curvas creciente y cóncavas hacia abajo o en curvas decrecientes y cóncavas hacia arriba. En cambio, en aproximaciones a ‘a’ desde la izquierda, el umbral condicional ‘(1; 2]’ se presenta, en curvas en curvas crecientes y cóncavas hacia arriba o en aquellas decrecientes y cóncavas hacia abajo. Además, la existencia de umbrales condicional explica por qué la definición de límite es la implicación material ‘x(E*(a;)f(x)E(l;)’. Sólo cuando la función es simétrica con respecto a un eje vertical y ‘a’ se encuentra por donde este pasa no hay ningún umbral condicional. 6.0. CONCLUSIONES Una revisión sucinta de los sentidos de lo subjetivo y lo objetivo contribuye a reflexionar sobre los desempeños propios y ajenos de quienes estudian ciencia. Se evalúa de cierta importancia incorporar en los estudios universitarios, discusiones sobre la distinción ‘objetivo-subjetivo’, sobre todo en el marco de las relaciones entre mundo 2 y mundo 3, con el objeto de 68 impulsar la creatividad que se relaciona con efectuar descubrimientos en el mundo 3. La definición aritmética de límite presentada por Cauchy en su libro Curso de Análisis (1821), incorpora la idea de un proceso dinámico en este concepto, que se pierde en los manuales universitarios cuando se lo grafica. Las gráficas de límite de los manuales universitarios inducen a pensar que el límite es una coordenada y no un conjunto infinito de estas a partir de un umbral. La Lógica Transcursiva, permite recuperar los aspectos dinámicos y subjetivos de los conceptos de límite y de infinitésimo, manteniéndolos en el dominio de la aritmética, tal como lo ideara Cauchy. Esta investigación podría aplicarse a otros objetos del Cálculo que se fundamentan en el concepto de límite. La Lógica Transcursiva es un potente instrumento que permite encontrar nuevas razones de significación. *** REFERENCIAS Agazzi, Evandro (1978). Temas y problemas de filosofía de la física. Barcelona: Herder. Bochenski, Joseph. M. (1949). La filosofía actual. Fondo de Cultura Económica, México. Cauchy, Augustin-Louis (1821). "Analyse Algébrique". Cours d'Analyse de l'Ecole Royale Polytechnique. L'Imprimerie Royale, Debure frères, Libraires du Roi et de la Bibliothèque du Roi. Cauchy, Augustin-Louis (1829). Leçons sur le Calcul Différentiel. Paris: Chez de Bure Frères, Libraires du Roi et de la Bibliothèque du Roi. 69 Collete, Jean-Paul. (2000). Historia de las matematicas. vol. II. 4ª ed. México: Siglo XXI. Frege, Gottlob. (1972). Conceptografía. Los Fundamentos de la Aritmética. Otros Estudios Filosóficos. México: Universidad Autónoma de México Grattan-Guinness, Ivor. (2004). “Cálculo”. En Audi, Robert. Diccionario Akal de Filosofía. Madrid: Akal. Hayek, Friedrich. (1955). The Counter-Revolution of Science. Studies on the Abuse of Reason. London: The Free Press of Glencoe, Collier-Macmillan Limited. Piaget J. “El concepto de estructura” (72-105). En: BarHillel y otros. (1993). El pensamiento científico. Conceptos, avances, métodos. Madrid, Tecnos. Salatino, Dante R. (2009). Semiótica de los sistemas reales. Tesis Doctoral en Letras. Facultad de Filosofía y Letras, Universidad Nacional de Cuyo, Mendoza, Argentina. Salatino, Dante R. (2012). Aspectos psico-biosocioculturales del lenguaje natural humano. Introducción a la teoría psíquica del lenguaje - Mendoza, Argentina - Desktop Publishing, Amazon, ISBN 978-98733-2379-9. Salatino, D. R. (2019). “Fundamentals of a new research method”. En: Inter. J. Res. Methodol. Soc. Sci.,Vol. 5, No. 1: pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371. Stepanians, Markus. (2007). Gottlob Frege. Una introducción. Trad. Juan Redmond. En Cuadernos de lógica, epistemología y lenguaje. Vol.1. Londres: College Publications. Von Uexküll, Jakob (1926). Theoretical Biology. London: Kegan Paul, Trench, Trubner & Co., Ltd. *** 70 3. TEORÍA DEL DESTINO EN BORGES Enfoque transcursivo Dante Roberto Salatino9 Resumen: El propósito de este trabajo fue la búsqueda de un patrón que describiera la realidad fictiva que le da sustento al universo borgiano. Para ello se siguieron los preceptos metodológicos básicos de la Lógica Transcursiva. Identificados los elementos fundamentales que estructuran esa realidad netamente subjetiva, se planteó como hipótesis de trabajo abordar una supuesta “teoría del destino” que surge del análisis de algunos de sus cuentos, aplicando el patrón encontrado. Es importante resaltar además que, como se aprecia en todas las figuras utilizadas para este ejemplo, están dados los elementos de un PAU, lo cual confirma que en Borges, el presupuesto es la unidad, mientras que el problema, tal vez circunstancial, se limita a tratar de explicar las apariencias cambiantes de lo que en esencia se mantiene inalterable. Confirman esta hipótesis la conjunción de personajes antitéticos y el respaldo del “eterno retorno” en un tiempo subjetivo y cíclico, aunque, sin perder en ningún caso, la relación explícita con un referente “real”. Estas son las bases fundamentales de la Lógica Transcursiva. Palabras clave: Jorge Luis Borges, Estructura de un cuento, Modelos literarios, Lógica Transcursiva. 1.0 INTRODUCCIÓN De entre los muchos exponentes de habla hispana que hay en el género de ficción, tomaremos el que a nuestro juicio es el nombre cimero de la producción fantástica: Jorge Luis Borges. Un antirrealista que con la elegancia propia de los clásicos nos llevó por los caminos ‘intelectivos’ de una imaginación razonada que privilegia menos los argumentos psicológicos que las situaciones. No obstante, el brillante ejercicio estético con el que 9 UNCuyo 71 desacreditó el mundo real, poniéndonos al corriente del desorden y el sinsentido de un mundo alucinatorio, no fue óbice para que, a la vez, nos legara la ambigüedad de sus ficciones fantásticas y el oxímoron de una temporalidad infinita que define, y muy bien, la realidad subjetiva. Porque Borges, en el fondo, fue un realista que logró subvertir el idealismo imperante trocándolo por una visión subjetiva, a pesar de la aparente ‘racionalidad’ de sus elucubraciones, es que lo tomamos como uno de los mejores ejemplos prácticos de aplicación de los principios de la Lógica Transcursiva (LT) (Salatino, 2017). Trataremos de desentrañar su “teoría del destino”. 2.0. ANÁLISIS DE LA REALIDAD EN BORGES Desde tiempos ancestrales el ser humano es un incansable buscador de sentido. Lo que acontece y lo impacta, lo sume en la ignorancia; igual que lo conocido de primera mano, como la muerte, en la desesperación. El por qué las cosas son como son ha desvelado sus noches y acortado sus días. Nadie nunca ha sabido de dónde venimos y hacia dónde vamos. La psiquis humana tiene además, la habilidad de generar ideas y experiencias que no pueden ser explicadas racionalmente (Armstrong, 2008, p. 5). Borges, en sus relatos, solucionó ese hiato inconmensurable que existe entre la realidad y la razón. Haber supuesto que la realidad primera es la razón, fue una audacia griega que no comparte. Borges determinó que la realidad es un misterio; cuando se manifiesta es solo signo o aparición de lo que, por propia naturaleza, se oculta (Tamayo y Ruiz Díaz, 1955, p. 136). Borges, 72 entonces, aborda la realidad desde el sujeto, y para él, es lo único que hay, lo demás es mera ilusión. Los relatos discurren en esa realidad contrapuesta y matizada por un tiempo cíclico (Figura 1). Figura 1 PAU DE LA REALIDAD EN LOS RELATOS DE BORGES Vemos en el esquema anterior que los hechos reales están presentes, pero se contraponen a una ficción que también es “real”. Lo empírico y lo irreal se ensamblan en un movimiento oscilante, fundamentando una historia que aspira a ser eterna, o sea, atemporal. Este patrón autónomo universal (PAU) (Salatino, 2009) integra un universo mágico pero a la vez, tan humano que lleva a flor de piel un destino, fugaz tal vez, pero auténtico. El planteo anterior se dirime entrelazando en la dialéctica de las manifestaciones humanas, aquellas que, produciendo una especie de asombro mesiánico, aparecen como sobrenaturales o sagradas, pero fundantes de un mundo utópico tan favorable como posible (Figura 2). 73 Figura 2 PAU DE LAS MANIFESTACIONES REALES EN BORGES Referencias: SO: sujeto objetivo – OO: objeto objetivo VO: transformación aparente – SS: sujeto subjetivo OS: objeto subjetivo – VS: transformación oculta En perfecta armonía con lo propuesto por la LT, en el mundo de Borges, la identidad “escindida” del sujeto captura en sí todas las manifestaciones reales, aunque con algún matiz orientalista, que entreverando lo subjetivo y lo objetivo en un enigma sobrenatural, lo arropa en el relato sometiéndolo a un tiempo circular. En el “realista” Borges hay una marcada tendencia hacia lo legendario. “Lo legendario – dice – recrea la realidad de una manera que solo accidentalmente es falsa” (Formas de una leyenda, 1952, p. 180). Otro de los rasgos por demás real, que caracterizan la plasticidad estética en estos relatos, lo constituye el “eterno retorno”. Secundado por Marco Aurelio (El tiempo circular, 1936, p. 176), entre tantos otros, afirma al unísono: 74 “Ten siempre presente, por tanto, esas dos cosas: una, que todo, desde siempre, se presenta de forma igual y describe los mismos círculos, y nada importa que se contemple lo mismo durante cien años, doscientos o un tiempo indefinido; la otra, que el que ha vivido más tiempo y el que morirá más prematuramente, sufren idéntica pérdida. Porque solo se nos puede privar del presente, puesto que éste solo posees, y lo que uno no posee, no lo puede perder” (Meditaciones, Libro II, 14, p. 65). El fiel testigo del “eterno retorno” es, y lo expresa en las palabras de Marco Aurelio, el “eterno presente”, que precisa un mismo origen y un mismo aspecto. El pasado consiste en el presente de la memoria y el futuro en el presente de las esperanzas y los miedos (Williamson, 2013, p. 10). En estos arquetipos temporales, en todo equivalentes al PAU definido por la LT, por universales no obstante, representa los avatares del devenir que se despliegan en un tiempo ilusorio y trivial (Figura 3), aunque no por eso, menos subjetivo (Nueva refutación del tiempo, 1952). Figura 3 PAU DE LOS AVATARES DE LA VIDA 75 La Figura 3, mediante un PAU hemicíclico endógeno (Salatino, 2019) nos dice, con un aire oriental, que el sujeto al poco de nacer (tiempo = 0), antes es un anciano, para luego ser un objeto muerto; solo de forma eventual y enfermedad mediante esta fatalidad puede tardar un instante en manifestarse. Cuando el presente se ha perdido, solo queda lugar para la paz que otorga la eternidad. Entonces, el ciclo vuelve a empezar. Los textos orientales a los que Borges tan frecuentemente adhiere, sobre todo hindúes, dejan ver que el propósito del arte, tal como sucede con la subjetividad, no es una expresión de la realidad ceñida a nuestros sentidos, sino una sugerencia de lo que la trasciende mediante manifestaciones indirectas [el  de la LT]. La cuestión no es solo explicar sino sugerir. Los relatos borgianos administran magistralmente la sugerencia para caracterizar sus personajes reales (Figura 4). Figura 4 PAU DE LOS PERSONAJES Los personajes en los cuentos de Borges, transparentan una identidad difusa, ambigua y hasta etérea. El nombre del personaje “visible” casi nunca puede conocerse por deducción, o en su defecto, solo se consigue presentir su existencia. Estos sujetos indefinidos se pueden 76 reducir a “alguien” por mera conjetura, o estar representados en los procesos por los que pasan, que generalmente, no alcanzan a ser asignados a nadie. La circularidad circunstancial de personajes casi anónimos logra constituirse en un índice de la realidad que está más allá de las apariencias, igual que en la LT. Con este estilo de aire confuso, Borges logra afianzar la identidad del observador y de lo observado, para describir la realidad subjetiva (Figura 5). Figura 5 PAU DE LOS PARES HETERÁRQUICOS La heterarquía o la simultaneidad es usada como argumento filosófico y hasta religioso. La figura anterior sugiere que estos “pares contrapuestos”, que responden a la matriz observador/observado, tienen destinos encontrados, como veremos en el punto siguiente. 3.0. TEORÍA DEL DESTINO Habiendo caracterizado someramente lo que Borges entiende por “realidad”, intentaremos abordar desde la LT una supuesta teoría del destino, que surge del análisis de algunos de sus cuentos. Nos hemos basado en el mejor y primer análisis que se haya hecho de la obra y el estilo borgiano, me refiero a “Borges, enigma y 77 clave” (Tamayo y Ruiz Díaz, 1955)10. De este magnífico libro se ha tomado como referencia su Capítulo V: Teoría del Destino. Allí se nos muestra, al comparar algunos relatos, que es posible detectar una suerte de forma genérica que, cual principio estructural, ofrece un conjunto de características condicionadas mutuamente. La concepción que Borges nos ofrece sobre el destino de sus personajes y en definitiva del hombre en general, se basa, no en una fatalidad insoslayable, sino en el fugaz instante en que se define su historia. “Cualquier destino, por largo y complicado que sea, consta en realidad de un solo momento en que el hombre sabe para siempre quién es.”11 Según la visión borgiana, dos son los aspectos que podemos destacar, que atravesando heterárquicamente la vida, determinan una semblanza. Por un lado, los momentos estructurantes, y por otro, el conflicto funcional entre la realidad utópica y la verdad histórica. Los tres relatos comparados son: a) El acercamiento a Almotásim (Historia de la eternidad - 1936) b) Tema del traidor y del héroe (Ficciones – 1944) c) Biografía de Tadeo Isidoro Cruz (El Aleph – 1949) En los cuentos consignados, como casi en cualquier otro relato de Borges, pueden individualizarse en forma clara tres momentos (que en realidad son cuatro) (Figura 6). “Este ‘olvidado’ primer volumen escrito por Ruiz Díaz llevó a Borges a declarar en los Estados Unidos que él no existía, que era solo el invento de un profesor de Mendoza” (Correas, 2011, p. 34). 11 Biografía de Tadeo Isidoro Cruz (El Aleph). 10 78 Figura 6 PAU DE LOS MOMENTOS ESTRUCTURANTES DEL DESTINO Estos momentos pueden manifestarse o bien explícitamente mediante la evidencia, o bien en forma implícita a través de una sensación. También, lo pueden hacer por medio de la unión u organización de las situaciones anteriores, o en su defecto, sin su participación. Un primer momento ①(01) que afecta al sujeto (S) en donde surge el presentimiento de que algo va a ocurrir en un futuro cercano. Un segundo momento ②(10) que involucra a los objetos (O) y denota la resistencia que las cosas circundantes y los otros hombres parecen mostrar, anticipadamente, con el fin de que no se cumpla un presentimiento aún oscuro y eventual. Ruiz Díaz lo señala, acertadamente, en los tres relatos: “…el estudiante musulmán a partir de la noche en que apuñala a un desconocido (o piensa que lo ha matado); las traiciones de Kilpatrick antes de ser descubiertas; las peripecias de Tadeo Isidoro Cruz después de la noche que adivina que la ciudad y él serán siempre mutuamente hostiles.” 79 Un tercer momento ③(11) de transformaciones evidentes (V) que conspiran constituyéndose en una amenaza actual para la vida del sujeto, quien al considerarse superado por la oposición que el medio circundante inflige, sospecha el inminente cumplimiento de un presagio asaz sombrío. De nuevo, Ruiz Díaz nos ilustra cómo plantea Borges este tercer momento: “…el estudiante llega a la última etapa de su acercamiento; Kilpatrick reconoce su traición; Cruz, por fin, hombre que no sabe leer, descifra con cegadora fuerza intuitiva el símbolo instantáneo que la noche de pelea le depara.” Irrumpe en un cuarto momento ⓪(00), repentino, opuesto y complementario, una transformación oculta () que como una revelación instantánea dejará plasmado para siempre el destino (la historia) del sujeto. Ruiz Díaz, así lo expresa: “…el estudiante desaparece llamado por la luz remota que misteriosamente ha guiado su peregrinación; Kilpatrick ruega firmar su sentencia de muerte a condición de que el cumplimiento de ésta sirva a la liberación de Irlanda; Cruz, se ve a sí mismo plenariamente en el desertor Martín Fierro y, fiel a la premonición de su enemistad con la ciudad, acepta, con coraje feliz, su tempestuoso destino.” Todo el proceso anterior termina articulándose con el otro elemento propuesto por Borges como determinante de un destino; esto es, una situación conflictiva que se dirime mediante una función: el paso a una leyenda, pese a la memoria y el olvido que conspiran contra el simbolismo de una narración, tratando de imponer un existir concreto. Esta inserción en la leyenda significa, a fin de cuentas, el cumplimiento de un destino anticipado por la revelación. 80 Veamos por qué se plantea el conflicto entre una realidad utópica y la que es considerada, por evidente, la verdad histórica (Figura 7). Los momentos descritos anteriormente le dan sustento estructural a una función, a una proyección de esa estructura en otra estructura. Esta última, a diferencia de la anterior que es de índole temporal, presenta un eslabonamiento de relaciones que dejan al descubierto un destino que es el de un individuo, pero a la vez, es el de todos. El verdadero conflicto planteado por Borges se da entre el tiempo y el destino, pero él lo proyecta en forma alegórica, en sus relatos, en la leyenda y la historia, como también, en el mito y la religión, o en la filosofía y la ciencia. Lo peculiar de esta proyección está en representar una profunda conciliación de contrarios que termina manifestándose en una bifurcación temporal que cobra dimensiones de un fabuloso divorcio cronológico. Se trata en realidad, y Borges lo enfatiza notoriamente, de una diversificación del tiempo que se da en el mismo interior del sujeto, con lo cual confirmamos lo ya adelantado. Una visión subjetiva de la realidad que se dirime en la contraposición de un tiempo cronológico, o el instante en donde se define el destino, tal como lo plantea la LT. Figura 7 PAU DEL CONFLICTO ENTRE LA REALIDAD Y LA VERDAD 81 En la figura anterior podemos ver dispuestos en oposición al héroe (el traicionado) y al traidor, pero cohabitando en el mismo sujeto. Así, la memoria y el olvido son los artífices de estos ‘rostros antitéticos’. Lo equivalente se podría mostrar en el caso de “El Acercamiento a Almotásim”, entre el buscador y el buscado, o, en “Biografía de Tadeo Isidoro Cruz”, entre el perseguidor y el perseguido. El traidor es definido por la memoria que se guarda de los actos cometidos. Hechos justificados por la supuesta lucha contra las resistencias antepuestas a su eventual destino urdidas por los otros hombres mediante el avieso uso de las cosas. El héroe, en cambio, surge del olvido de aquellos actos comprometidos. Memoria y olvido se confabulan para erigir una historia, la historia aparente en donde hay pruebas fehacientes de la traición que condicionan su destino. Un instante es tiempo de sobra para revertir la situación. Acepta pagar por su traición, pero de una manera velada, para que caiga en el olvido y así dar cuerpo al héroe que pasa a formar parte de una leyenda, de una realidad ficticia que, sin transgredir la verdad histórica, permitió que un traidor se convirtiera en héroe reencontrándose con su propia historia. Ruiz Díaz, deja constancia en los tres relatos de la solución de este conflicto, como vimos en el cuarto momento ya consignado, pero, además, remarca que el destino es configurado en reciprocidad intrínseca con la leyenda en muchos de sus otros relatos. En correspondencia con el “Tema del traidor y del héroe”, aunque la tradición mostrara un perfil paradigmático y respetado; Borges pone en relieve al traidor (memoria) que la leyenda omite (olvido), en evidente oposición, complementariedad y concurrencia. 82 4.0. CONCLUSIONES En la rápida incursión que hemos realizado en este trabajo, de la monumental, por compleja, obra de Jorge Luis Borges, pudimos vislumbrar que, en realidad, no se sustenta en considerar a la naturaleza como mera ilusión, o tal vez, velando sus evidentes aspectos subjetivos, sino mediante el devenir o una historia, y el “aprendizaje” o dar cuerpo a un héroe. Borges rescata así, para elaborar sus escritos, parte del pensamiento hindú: “La creencia de que el universo es variado sin límites, simultáneo y en donde, todas las posibilidades pueden existir sin excluirse” (O’Flaherty, 2004, p. II). El respaldo buscado en un “símbolo” para aludir a la cultura hindú, le permite a Borges conjuntar el culto y el rito, o sugerir el paso de lo profano a lo sagrado, o de lo ilusorio a lo real, o del hombre a la divinidad, o de la ignorancia al conocimiento, o de la muerte a la vida, y, por lo tanto, a la captación de la verdad (Eliade, 1980, p. 14). Un detalle no menor es que, sí utiliza personajes reales en sus cuentos, o por lo menos, hace referencia a hechos que ocurrieron en el lugar en donde, supuestamente se desarrolla la historia. Así sucede, por ejemplo, en “El acercamiento a Almotásim”, en donde con el año de edición de la supuesta novela policial, hace alusión a la revuelta que por entonces afectaba a la India por la separación entre musulmanes e hindúes. En el “Tema del traidor y del héroe”, rescata al verdadero héroe de la batalla de Junín (Perú, 6 de marzo de 1824), que fue su bisabuelo, el Coronel Manuel Isidoro Suárez. Lo propio ocurre en “Biografía de Tadeo Isidoro Cruz”, donde menciona detalles y lugares que están 83 directamente relacionados con sus antepasados y sus desempeños en la gesta revolucionaria (Blaustein, 2012, p. 95). Es importante resaltar además que, como se aprecia en todas las figuras utilizadas para este ejemplo, están dados los elementos de un PAU, lo cual confirma que en Borges, el presupuesto es la unidad, mientras que el problema, tal vez circunstancial, se limita a tratar de explicar las apariencias cambiantes de lo que en esencia se mantiene inalterable. Confirman esta hipótesis la conjunción de personajes antitéticos y el respaldo del “eterno retorno” en un tiempo subjetivo y cíclico. Estas son las bases fundamentales de la Lógica Transcursiva. 84 REFERENCIAS Armstrong, K. (2008). A Short History of Myth. Edinburgh, Canongate Books. Aurelio, M. (2005). Meditaciones. Introducción: García Gual, C. Traducción: Bach Pellicer, R. Madrid, Editorial Gredos. Borges, J.L. (2011-1936). Historia de la Eternidad. En Borges, Obras Completas. Buenos Aires, Sudamericana. Borges, J.L. (1998-1944). Ficciones. Barcelona, Alianza Editorial. Borges, J.L. (2011-1949). El Aleph. En Borges, Obras Completas. Buenos Aires, Sudamericana. Borges, J.L. (2011-1952). Otras inquisiciones. En Borges, Obras Completas. Buenos Aires, Sudamericana. Correas, J. (2011). Los falsificadores de Borges. Buenos Aires, Alfaguara. Eliade, M. (1980). El Mito del Eterno Retorno. Madrid, Emecé. Fine, R.; Blaustein, D. (2012). La fe en el universo literario de Jorge Luis Borges. Tübingen, Georg Olms Verlag AG. O’Flaherty, W.D. (2004) Mitos hindúes. Madrid, Ediciones Siruela. Salatino, D. R. (2009). Semiótica de los sistemas reales Tesis Doctoral en Letras especialidad Psicolingüística por la Facultad de Filosofía y Letras de la Universidad Nacional de Cuyo, Mendoza, Argentina. Salatino, D. R. (2017). Tratado de Lógica Transcursiva. El origen evolutivo del sentido en la realidad subjetiva. Mendoza, Argentina, Primera autoedición. ISBN: 978987-42-5099-5. Salatino, D. R. (2019). “Fundamentals of a new research method” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No. 1: pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371. (Con mención de honor) 85 Tamayo, M.; Ruiz Díaz, A. (1955). Borges, enigma y clave. Buenos Aires, Editorial Nuestro Tiempo. Williamson, E. (2013). The Cambridge Companion to Jorge Luis Borges. Cambridge, UK, Cambridge University Press. 86 4. EL MODELO EXTENDIDO DE APRENDIZAJE ORGANIZACIONAL DESDE LA PERSPECTIVA DE LA LÓGICA TRANSCURSIVA Implicancias para la mejora de los procesos de decisión Esteban Anzoise12; Cristina Scaraffia13 Resumen: Este trabajo analiza la integración del proceso de decisión para enfrentar problemas no estructurados en una organización que aprende considerando el Modelo Extendido de Aprendizaje Organizacional. Para ello se utiliza el enfoque de la Lógica Transcursiva (LT) para analizar el proceso de institucionalización de la respuesta organizacional a un problema no estructurado a nivel de individuo, grupo y organización. La secuencia de operaciones incluidas en el Modelo Extendido de Aprendizaje Organizacional se analiza utilizando el patrón relacional sustentado por la Lógica Transcursiva denominado Patrón Autónomo Universal (PAU). Como primera conclusión se halla que el análisis del proceso para enfrentar problemas no estructurados desde la perspectiva de la Lógica Transcursiva permite visualizar y confirmar el sentido de propagación del cambio organizacional propuesto por el Modelo Extendido de Aprendizaje Organizacional. Los hallazgos identifican la necesidad de establecer etapas de institucionalización de soluciones a problemas no estructurados, a través del uso de Herramientas de Apoyo a Procesos de Decisión (HAPD) basadas en modelos, para lograr su efectiva adopción. Como segunda conclusión, se obtiene información sobre el sentido de propagación del cambio a nivel organizacional lo que respalda los postulados de Kurt Lewin sobre la posibilidad y existencia de mecanismos para realizar un cambio a nivel individual, grupal y 12 13 Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN 87 organizacional. Como tercera conclusión, se establece la conexión entre el individuo, el grupo y la organización en un contexto de Aprendizaje Organizacional a través de ciclos de aprendizaje. Esto permite superar las limitaciones del análisis clásico propuesto por la Teoría del Comportamiento Planeado que explica cómo las actitudes pueden predecir un comportamiento probable. Finalmente, se halla soporte al Modelo de Difusión de Tecnologías Innovadoras propuesto por Everett Rogers al confirmar el proceso de adopción de las (HAPD) basadas en modelos en la solución de problemas no estructurados. Surgen como principal recomendación la necesidad de establecer etapas de institucionalización de las soluciones halladas a problemas no estructurados a través del uso HAPD basadas en modelos para lograr su efectiva adopción. Palabras claves: <proceso de decisión>, <comportamiento planeado>, <herramientas de apoyo al proceso de decisión>, <Lógica Transcursiva>, <aprendizaje organizacional>. 1.0. INTRODUCCIÓN Desde sus inicios en los 60s, la aplicación de la perspectiva del Nuevo Darwinismo en el campo del desarrollo organizacional y la economía de las organizaciones (Nicholson & White, 2006), no solo ha permitido entender la naturaleza y el rol de las rutinas organizacionales, el impacto de las elecciones estratégicas, el crecimiento de la complejidad organizacional en la supervivencia y desarrollo de las organizaciones en un contexto de complejidad creciente (Hannan & Freeman, 1984), sino que también ha permitido construir un puente en la aparente divergencia de las perspectivas en estrategia de negocios y ecología organizacional (Hodgson, 2013). La adaptación a un 88 contexto cambiante y de complejidad creciente demanda la mejora del proceso de decisión a través de un proceso de sistematización de este, así como la transmisión de experiencias pasadas mediante bases de datos relacionales y la aplicación de Herramientas de Apoyo al Proceso de Decisión (HAPD) basadas en modelos. Sin embargo, la aplicación sistemática de dichas herramientas es todavía limitada. Diversos estudios a nivel global coinciden en que solo el 35% de los ejecutivos de alto rango basan sus decisiones principalmente en datos internos y la información resultante del análisis sistemático de datos o estadísticas, mientras que el 33% decide en base a experiencia e intuición, y el 25% en base a consultoría externa (Ariely, Rao, & Yager, 2016). Decidir no es la tarea más demandante en términos de horas del personal en cargos directivos de una organización, pero sin embargo es la más importante (Drucker, 2007), ya que la realización de decisiones correctas en un ambiente complejo conduce al éxito y la supervivencia de la organización en el largo plazo (Drucker, 2007; Grünig & Kühn, 2013; Probst & Bassi, 2014). La necesidad de decidir en un contexto de complejidad creciente donde los modelos mentales presentan altas limitaciones frente al resultado provisto por las HAPD basadas en modelos, lleva a formular como pregunta válida, aquella sobre los factores que ayuden a la incorporación de dichas herramientas analíticas en el proceso de decisión de los ejecutivos de organizaciones privadas. Diversos modelos de comportamiento organizacional compiten en el análisis de dicho problema y sus respuestas están limitadas a la extensión del modelo utilizado. Puede citarse el modelo de Fuerzas de Kurt Lewin que provee un enfoque que permite 89 identificar tanto los factores que promueven como los que se oponen al uso de Herramientas de Apoyo al Proceso de Decisión (HAPD) basadas en modelos de decisión de base estadística. Sin embargo, no brinda información sobre el sentido de propagación del cambio a nivel organizacional. El Modelo de Difusión de Tecnologías Innovadoras de Everett Rogers brinda un enfoque temporal del proceso de adopción de las nuevas tecnologías, conectando la etapa de conocimiento de dichas tecnologías con la decisión de adopción o rechazo de las mismas y su posterior implementación o no. Una limitación de este modelo es la ausencia de ponderación de la creencia del sujeto en la implementación exitosa o no de la decisión sobre la innovación bajo análisis. Desde la perspectiva de la Teoría del Comportamiento Planeado [Theory of Planned Behavior] (Ajzen, 1991, 2002, 2011; Harder, 2009) se halla un modelo que explica cómo las actitudes pueden predecir un comportamiento probable. Ajzen postula que las intenciones determinan el comportamiento de manera causal y que las intenciones son provocadas por dos factores: la influencia de las actitudes hacia el comportamiento y la influencia de las normas subjetivas (Ajzen y Fishbein, 1977). Este modelo postula una secuencia asíncrona de eventos a nivel individuo para llegar a definir la actitud del mismo respecto de un determinado comportamiento, pero el análisis organizacional clásico de este modelo no establece la conexión entre el individuo y la organización en un contexto de Aprendizaje Organizacional. Este estudio argumenta que el análisis del proceso de Aprendizaje Organizacional desde la perspectiva de la Lógica Transcursiva permite superar las limitaciones impuestas por el análisis organizacional clásico y establecer las etapas de institucionalización de las 90 HAPD basadas en modelos para lograr su efectiva adopción en la resolución de problemas no estructurados. 2.0. METODOLOGÍA DE ANÁLISIS El análisis de la resolución de un problema no estructurado a nivel organizacional se realiza desde la perspectiva de la Lógica Transcursiva (LT). Esta lógica propone la existencia de un modelo relacional, del género de Modelo Autómata Finito Determinista No Sincrónico, denominado Patrón Autónomo Universal (PAU) de validez universal. Este modelo relacional establece una correspondencia particular entre dos subgrupos: uno superficial formado por elementos estáticos perfectamente identificados por un código binario y la transformación aparente que los relaciona; y el otro de naturaleza profunda formado por los mismos elementos estáticos pero ahora con una transformación oculta que los desorganiza para reorganizarlos en un siguiente estado produciendo una evolución adaptativa frente a las demandas del marco de referencia planteado en un contexto de investigación definido. Este modelo así propuesto permitiría describir la relación entre los diferentes componentes de fenómenos sociales y naturales tales como biología, filosofía, psicología, economía, física y literatura (Salatino, 2017a, 2017b). Para el área social, la LT propone un modelo definido por cuatro elementos: dos de ellos de naturaleza estática identificados como sujeto (S) observador (01), unidad biológica con capacidad para introspección y para interactuar con el mundo en forma independiente; y el objeto (O) observado (10), que es aprehendido mediante el sistema bio-externo (la biología del sujeto, que pertenece a la misma categoría que todos los objetos 91 inertes (sin vida) que se encuentran en el entorno)14. El tercer elemento (V) es la transformación que interrelaciona el S observador con el O observado, lo que se proyecta, a modo de respuesta en el sistema sociocultural (SSC). Finalmente, como cuarto elemento identifica el Sistema Psico-Interno (SPI) que reside en el interior del Sujeto donde se procesa la percepción del mundo externo luego de cada interacción con el mismo y se genera una nueva visión del mundo que transforma al sujeto (Figura 1). La tabla 1 muestra las condiciones lógicas asignadas a cada estado del modelo planteado donde la transición entre los diferentes estados depende del resultado de la transición anterior. Figura 1: Esquema del Patrón Autónomo Universal para el área social. Adaptado de Salatino, D. R. (2017). Beyond the Decisions-Making II: Methodological Aspects. 14 Nota del autor: Desde la concepción subjetivista de la LT, el único "sujeto" que existe es el observador. Los "otros sujetos" que conviven con él, son vistos como "objetos" con capacidad para modificar el entorno, algo que un objeto inerte no puede hacer. 92 International Journal of Research & Methodology in Social Science, 3(2), 18. Tabla 1 Relación lógica entre los componentes del modelo social de la LT OBSERVADOR SUJETO DESCRIPTOR 0 1 El Sujeto surge como referencia y es independiente del Objeto Observado 1 0 El Objeto Observado existe en el Sistema Bio-Externo (SBE) y ve al Sujeto como un ente distinto 1 1 El Objeto Observado existe y ve al sujeto como parte de un Sistema Sociocultural (SSC) donde interactúa en una relación estímulo - respuesta 0 0 El Sujeto se aleja del mundo externo y reflexiona sobre sí mismo y su aprendizaje del mundo exterior. Dicha reflexión cambia la visión del observador 93 de la realidad (SSC) Fuente: Adaptado de Salatino, D. R. (2017). Beyond the Decisions-Making II: Methodological Aspects. International Journal of Research & Methodology in Social Science, 3(2), 18 3.0. EL MODELADO DEL PROCESO DE DECISIÓN A NIVEL ORGANIZACIONAL El proceso de decidir es siempre un proceso de creación y selección de alternativas frente a una determinada situación15. El primer modelo secuencial del proceso racional de decisión, adecuado para el contexto organizacional, fue propuesto por Herbert Simon (1960) como una secuencia lineal de tres etapas o fases en el contexto general de la solución de problemas: 1) actividad de inteligencia que comprende la búsqueda en el contexto de situaciones que requieran una decisión; 2) la actividad de diseño que comprende las acciones de invención, desarrollo y análisis de posibles cursos de acción; y 3) la actividad de elegir o selección de un curso de acción particular de los identificados como posibles cursos de acción (Simon, 1960). La resolución del problema continúa con la implementación de la decisión realizada y la evaluación de su eficacia. Con ligeras variaciones este modelo secuencial es el predominante en el contexto organizacional (Luthans, 2011; Robbins & Coulter, 2005) para la resolución de problemas. Sin embargo, diversos estudios muestran la existencia de modelos no secuenciales del proceso de decisión 15 Nota del Autor: La voz inglesa Decide tiene las acepciones de 1. Come or bring to a resolution in the mind as a result of consideration / 1.1. Make a choice from a number of (Decide, 1989). La voz inglesa Choose tiene las acepciones de 1. Pick out (someone or something) as being the best or most appropriate of two or more alternatives / 1.1. Decide on a course of action. (Choose, 1989). 94 basados en procesos paralelos en diferente orden según la situación (Witte 1972, p.180), pudiendo citarse el Modelo no Secuencial de Decisión (Mintzberg, Raisinghani, & Théorêt, 1976); el Modelo del Hombre Económico (Behling & Schriesheim, 1976; Simon, 1955, 1979); el Modelo del Hombre Administrativo (Behling & Schriesheim, 1976; Simon, 1955, 1979) y el Modelo del Favorito Implícito (Behling & Schriesheim, 1976). Independientemente del modelo considerado, todos comparten las tres fases identificadas por Herbert Simon (1960). Estos modelos de decisión son procesos válidos tanto para las decisiones programadas (de aplicación en problemas bien estructurados), como para las no programadas (de aplicación en problemas pobremente estructurados) (Mintzberg et al., 1976). Una decisión programada se aplica a problemas estructurados o rutinarios cuya resolución se alcanza aplicando criterios preestablecidos o procedimientos establecidos para lidiar con dicha situación16. Las decisiones no programadas se emplean en las situaciones no estructuradas, nuevas y no bien definidas de naturaleza no recurrente para las cuales no hay un procedimiento específico para su resolución. La realidad muestra que el universo de decisiones es un continuo entre ambos tipos de decisiones y a medida que se incrementa el nivel de responsabilidad el número de decisiones sin programar se incrementa en relación con el número de problemas 16 Nota del Autor: En relación con la resolución de problemas estructurados puede identificarse tres tipos de decisiones programadas: 1) procedimiento definido como el conjunto de pasos sucesivos que da el gerente para responder a un problema estructurado luego de identificarlo; 2) regla definida como una declaración explícita de lo que pueden y no pueden hacer los gerentes; y 3) políticas entendidas como normas que establecen parámetros generales para quien decide, en lugar de declarar explícitamente qué debe o no debe hacerse, y establecen un término ambiguo que deja la interpretación a quien decide (Robbins & Coulter, 2005). 95 no estructurados como se muestra en la Figura 2 (Simon, 1960). 4.0. LA INTEGRACIÓN DEL PROCESO DE DECISIÓN EN EL APRENDIZAJE ORGANIZACIONAL DESDE LA LT El aprendizaje organizacional (AO) es un campo de investigación académica y práctica profesional con un desarrollo relativamente reciente concentrado en el análisis de los procesos relacionados con el aprendizaje individual y colectivo en las organizaciones (Tsang, 1997). El concepto de aprendizaje organizacional es presentado por Cyart y March (1963) como parte del modelo desarrollado del proceso de decisión en las organizaciones, cuando afirman que las compañías aprenden de la experiencia con la intención de adaptarse a las condiciones del medio ambiente (Cyert & March, 1963). El desarrollo del área de aprendizaje organizacional abarca diversos aspectos tales como a) la estructura y tipos de aprendizaje organizacional (Argote, 2013; Castaneda & Rios, 2007; Hedberg, 1981); b) impacto en decisiones estratégicas (Shrivastava & Mitroff, 1982); c) decisiones en contextos inciertos y cambiantes (Duncan & Weiss, 1979; Fiol & Lyles, 1985; March & Olsen, 1975); y d) las curvas de aprendizaje en las organizaciones (Argote, 2013; Dutton & Thomas, 1984). Desde diversas perspectivas existe una convergencia en considerar que “el aprendizaje organizacional es el conjunto de actividades y procesos por los cuales una organización eventualmente alcanza el ideal de una organización que aprende” (Caldwell, 2012; Chatterjee, 2011; Finger & Brand, 1999, p. 136; 96 Senge et al., 2000). Los diversos modelos coinciden en identificar como etapas del aprendizaje organizacional (1) el aprendizaje de la experiencia pasada, (2) la adquisición de conocimiento, (3) el procesamiento en un nivel organizacional diferente, (4) identificar y corregir los problemas, y (5) el cambio a nivel organizacional. Una organización que aprende a actuar de manera eficiente, se adapta fácilmente al cambio, detecta y corrige los errores y mejora continuamente sus procesos de decisión y el logro de sus objetivos (Argyris & Schön, 1995; Silins, Zarins, & Mulford, 2002). Figura 2: Diagrama situacional que relaciona tipos de decisión – tipos de problemas y niveles organizacionales. Adaptado de Robbins, S. & Coulter, M. (2012). Administración (J. F. J. Dávila Martínez Trans. 8va ed.). Mexico, D.F.: Pearson Education – Capítulo 6 (decisión). Zietsma, et al. (2002) desarrollan el Modelo Extendido de Aprendizaje Organizacional (Zietsma, Winn, Branzei, 97 & Vertinsky, 2002) como una mejora al modelo basado en la Teoría de Aprendizaje Multinivel (Crossan, Lane, & White, 1999) como se muestra en la Figura 3. Este Modelo Extendido de Aprendizaje Organizacional se ha aplicado a diferentes tipos de organizaciones, incluso las de educación superior (Anzoise, Scaraffia, & Curadelli, 2016; Castaneda & Rios, 2007). Este modelo identifica tres niveles de aprendizaje: 1) individuo; 2) grupo; y 3) la organización, y sus diferentes rutas de integración, que van desde el individuo a la organización y de la organización al individuo, ya que el aprendizaje individual aislado, no garantiza el aprendizaje organizacional al ser necesario un proceso de transferencia entre todos los integrantes de la organización para institucionalizar el conocimiento generado (Senge, 1998; Senge et al., 2000). Dado que todos los integrantes de una organización deciden en cada una de las cuatro funciones gerenciales (planear, organizar, dirigir y controlar) es necesario considerar en los diferentes niveles de decisión, el resultado del proceso de decisión y encontrar el modo de incorporarlo al conocimiento organizacional. En el caso de decisiones programadas para enfrentar problemas estructurados, la aplicación de procedimientos estandarizados tales como reglas y procedimientos asegura la obtención de un resultado cierto. Dado que el contexto cambia es necesario almacenar los resultados obtenidos y utilizar herramientas que ayuden a determinar reglas de rendimiento y efectividad de las decisiones realizadas. A medida que la organización enfrenta problemas no estructurados, la relación individuo - grupo organización surge como elemento desencadenador del proceso de decisión. Si se considera la Fase 1 del 98 proceso de decisión (inteligencia) donde se debe identificar el problema, a nivel individual, el proceso de aprendizaje incluye intuir (capacidad de comprender en forma preconsciente algo nuevo de lo cual no tiene explicación previa); atender (proceso activo guiado por preconceptos y las habilidades cognitivas del observador de buscar información del contexto); retener (transformar la información de un evento para su representación en la memoria del observador como reglas o conceptos expresados en forma de imágenes o construcciones verbales); y producir (conversión de representaciones simbólicas en acciones). Figura 3: Modelo Extendido de Aprendizaje Organizacional. Adaptado de Zietsma, C., Winn, M., Branzei, O., & Vertinsky, I. (2002). The war of the woods: Facilitators and impediments of organizational learning processes. British Journal of Management, 13 (Special Issue 2), 61-74. 99 Desde la perspectiva de la Lógica Transcursiva, el Sujeto (Ejecutivo) interactúa con la Organización (Sistema Socio Cultural (SSC)) que requiere que los Ejecutivos enfrenten un problema no estructurado. El Observador, para este caso el Objeto Observado, queda definido por el Conocimiento Organizacional generado e integrado en la organización. El Sujeto no halla respuesta al problema bajo análisis en el Conocimiento Organizacional existente por lo que inicia un ciclo de evaluación interna como Ejecutivo (3). Como consecuencia, en su Espacio de Reflexión Interno (SPI) inicia un ciclo de aprendizaje individual Intuir-AtenderRetener – Producir (4). Al salir de este Espacio de Reflexión Interno inicia una etapa de integración a nivel grupal (5) que lo lleva a interactuar con el Grupo al cual pertenece (6) como se muestra en la Figura 4. Entre los individuos y los grupos surge el proceso de interpretación y el de experimentación. El proceso de interpretación es entendido como la explicación a través de palabras, imágenes y metáforas y/o acciones de una idea propia a otros, lo que se traduce en aprendizaje en un contexto social desde la perspectiva de la Teoría Cognitiva Social. El proceso de experimentación es el realizado por individuos y grupos cuyo resultado añade significado a sus interpretaciones cognitivas. Desde la perspectiva de la Teoría Cognitiva Social, en ambos niveles solo se produce aprendizaje cuando el individuo se da cuenta que el resultado es consecuencia de sus acciones. Por lo que el problema no estructurado detectado en el contexto es compartido y analizado en forma grupal para poder pasar a la Fase 2 e identificar criterios de decisión, ponderarlos y desarrollar alternativas de solución del problema identificado. En esta instancia del proceso de decisión se manifiestan los 100 procesos de aprendizaje de conversación (o diálogo) y modelado social (como facilitador de altos niveles de aprendizaje a través de la observación que permite modelar acciones, aprender reglas y decisiones al observar a otros, y extraer principios abstractos contenidos en los pensamientos y acciones exhibidas por otros; lo que permite aprender reglas generales para manejar diferentes situaciones antes que solo tener respuestas especificas o rutinas preestablecidas). Esto es requerido para poder hallar consenso rápidamente a través de la diversidad cultural de los individuos que componen la organización, al buscar los elementos culturales comunes. Figura 4: Esquema del ciclo de aprendizaje individual inicial de resolución de un problema no estructurado desde la perspectiva de la Lógica Transcursiva 101 Desde la perspectiva de la Lógica Transcursiva, el Sujeto (Grupo), ahora con un determinado nivel de Inteligencia y Alternativas de Solución del problema no estructura a enfrentar, inicia un ciclo de aprendizaje grupal a través de la Conversación (7). El Grupo ahora interactúa con el sistema organizacional (8) encontrando el mismo requerimiento de enfrentar un problema no estructurado (9). Como consecuencia, inicia un ciclo de evaluación interna grupal (10), que genera un Modelado Social del problema (11), surgiendo el consenso de utilizar HAPD basadas en modelos en su proceso de decisión (12), como se muestra en la Figura 5. Ahora, el Grupo interactúa con el Individuo (13), iniciando un proceso de Aprendizaje Organizacional Grupo – Individuo. Al salir del nivel grupal, ahora el Sujeto (Individuo) continúa su interacción con la organización (14), donde persiste el requerimiento de enfrentar un problema no estructurado (15), cuya solución no la halla en el Conocimiento Organizacional (Objeto Observado). Inicia nuevamente una evaluación interna como ejecutivo (16), que lo lleva a un estadio de Producir – Interpretar utilizando HAPD basadas en modelos (17). Al salir de este estadio con un nuevo nivel de respuesta al problema bajo análisis avanza hacia un nuevo nivel de integración a nivel grupal (18), en un nuevo ciclo de interacción con el Grupo (19). En esta etapa de Aprendizaje Organizacional Grupo – Individuo – Grupo, el Sujeto (Grupo) continúa el ciclo de aprendizaje grupal a través de las acciones de Conversación – Modelado Social (20). El Grupo continúa su interacción con la organización (21), donde persiste el requerimiento de enfrentar un problema no estructurado (22), cuya 102 solución no la halla en el Conocimiento Organizacional (Objeto Observado). Por ello continúa la evaluación interna grupal (23), y las acciones de Conversación – Modelado Social (24), que llevan al Grupo a iniciar una etapa de integración a nivel organizacional (25), y su consecuente interacción (26) (27) como se muestra en la Figura 6. Figura 5: Esquema del ciclo de aprendizaje grupal inicial de resolución de un problema no estructurado desde la perspectiva de la Lógica Transcursiva 103 Figura 6: Esquema del ciclo de aprendizaje grupal avanzado de resolución de un problema no estructurado desde la perspectiva de la Lógica Transcursiva Luego de identificados los criterios de decisión, ponderarlos y desarrollar alternativas de solución del problema bajo análisis, se pasa a la Fase 3 donde se evalúan las alternativas generadas y se elige la que presenta mejores resultados para la organización. Es ahora necesario elevar la propuesta de solución del problema a niveles superiores de decisión por lo que entre el grupo y la organización, surge el proceso de integración definido como “el proceso de desarrollar una comprensión compartida entre individuos y la realización de acciones coordinadas a través de ajustes mutuos”. Este proceso permite, a medida que se profundiza entre los integrantes, crear una visión y valores compartidos que alinean los procesos de decisión con los objetivos estratégicos a alcanzar. Cuando se autoriza la decisión, 104 sigue el paso de implementar la alternativa elegida y evaluar la eficacia de dicha decisión. El resultado de la evaluación de la decisión implementada se realimenta al grupo, surgiendo el proceso de experimentación el cual es realizado por individuos y grupos dando como consecuencia un aprendizaje cuando el individuo se da cuenta que el resultado es consecuencia de sus acciones. Es lo que en términos de aprendizaje organizacional Chris Argyris (1991) define como un doble lazo de aprendizaje (Argyris, 1991). A nivel de individuo es necesario promover dicho proceso de aprendizaje a través de la motivación (en la presencia de incentivos un aprendizaje todavía no evidenciado puede transformarse en acción). El establecimiento de un contexto altamente cambiante enfrenta a individuos y grupos a descubrir la complejidad de decidir y la necesidad de incorporar Herramientas de Apoyo al Proceso de Decisión, para poder mejorar el impacto de las decisiones en los resultados organizacionales. Finalmente, a nivel organizacional surge el proceso de aprendizaje identificado como institucionalizar definido como el proceso de asegurar que las acciones rutinarias ocurran, ya que el aprendizaje de los individuos y grupos es asimilado en la organización a través de procedimientos, estructuras, sistemas y estrategias (Crossan et al., 1999). Definido el modelo de aprendizaje organizacional a nivel de individuos y grupos, la búsqueda de la excelencia organizacional a través de la mejora del proceso de decisión lleva a un proceso de sistematización de dicho proceso, así como la transmisión de experiencias pasadas mediante bases de datos relacionales y la aplicación de Herramientas de Apoyo al Proceso de Decisión (HAPD). Esto es cierto si 105 el problema se ha vuelto rutinario. En la práctica, la volatilidad del contexto mueve las decisiones a áreas de incertidumbre específica o general por lo que es necesario registrar dichos procesos de aprendizaje en bases de datos relacionales y asociarlas a modelos orientados a análisis estadístico, geográfico, social, financiero, matemático, analítico, de simulación o de optimización para resolver el creciente número de problemas no estructurados que surgen. Desde la perspectiva de la Lógica Transcursiva, el Grupo interactúa con la Organización (27) iniciando un proceso de Integración (28) en el Espacio de Reflexión (SPI). Ahora el Sujeto (Organización) presenta la nueva normativa (29) al Sistema Organizacional (SSC) para poder dar respuesta consensuada al requerimiento de resolver un problema no estructurado (30), que todavía no forma parte del Conocimiento Organizacional (Objeto Observado). En consecuencia, se inicia una evaluación interna organizacional (31) que continúa el proceso de Integración (32) en el Espacio de Reflexión (SPI). Si existe consenso a nivel de la Alta Dirección, el resultado es el apoyo a una nueva forma de resolver un problema (33) por lo que la nueva normativa es aceptada (34). Esta nueva forma de resolver un problema no estructurado es integrada al sistema organizacional como parte del Conocimiento Organizacional (35) y se inicia la Institucionalización del aprendizaje (36). En este punto, la Organización define el Sistema de Entrenamiento, Comunicación, Motivación y Evaluación del cumplimiento de dicha normativa en todos los niveles organizacionales (37). Como consecuencia, se inicia un proceso TOP – DOWN de difusión del conocimiento (38) (39) a través de la interacción de la Organización con los 106 diferentes Grupos e Individuos (40), como se muestra en la figura 7 en términos del modelo de estados postulado por la LT para el campo social. Figura 7: Esquema del ciclo de institucionalización del aprendizaje organizacional de resolución de un problema no estructurado desde la perspectiva de la Lógica Transcursiva 5.0. CONCLUSIONES Y RECOMENDACIONES Como primera conclusión se halla que el análisis de la resolución de un problema no estructurado a nivel organizacional desde la perspectiva de la Lógica Transcursiva, permite visualizar el sentido de propagación del cambio organizacional propuesto por el Modelo Extendido de Aprendizaje Organizacional. Este modelo fue desarrollado (Zietsma et al., 2002) como una mejora al modelo basado en la Teoría de Aprendizaje Multinivel (Crossan et al., 1999) y tiene aplicación en un 107 amplio abanico de organizaciones, incluso las de educación superior (Anzoise et al., 2016; Castaneda & Rios, 2007). Este modelo identifica tres niveles de aprendizaje: 1) individuo; 2) grupo; y 3) la organización y sus diferentes rutas de integración que van desde el individuo a la organización y de la organización al individuo como se muestra en la Figura 8. De igual forma, este modelo postula que el aprendizaje individual aislado no garantiza el aprendizaje organizacional al ser necesario un proceso de transferencia entre todos los integrantes de la organización para institucionalizar el conocimiento generado (Senge, 1998; Senge et al., 2000). De igual forma, este análisis permite visualizar la ruta de integración y de realimentación entre el individuo y el grupo a través de acciones como el modelado social (valoración del nivel de aceptación de las HAPD para resolver un problema no estructurado antes de adoptarla); la conversación (obtener información concreta de resultados observables del uso de HAPD para resolver un problema no estructurado, y la búsqueda de información para identificar las competencias requeridas para poder utilizar las HAPD basadas en modelos antes de adoptarla); la interpretación (valoración del nivel de aceptación de las HAPD para resolver un problema no estructurado antes de adoptarla ) y la experimentación (determinar la posibilidad de probar la HAPD para resolver un problema no estructurado antes de adoptarla). De igual forma permite visualizar la ruta de integración y de realimentación entre el grupo y la organización a través de acciones como la integración del conocimiento a nivel de individuo y de grupo (procedimientos donde se aplican HAPD basadas en modelos para resolver un 108 problema no estructurado); y la institucionalización del conocimiento organizacional (normas que hacen mandatorio el uso de HAPD basadas en modelos para resolver un problema no estructurado). Como segunda conclusión, se halla que el análisis del proceso de cambio organizacional, asociado con la resolución de un problema no estructurado utilizando HAPD basadas en modelos, desde la perspectiva de la Lógica Transcursiva, permite ampliar el análisis que se realiza utilizando el Modelo de Análisis de Fuerzas de Kurt Lewin al obtener información sobre el sentido de propagación del cambio a nivel organizacional. Este análisis respalda los postulados de Kurt Lewin sobre la posibilidad y existencia de mecanismos para realizar un cambio organizacional (Burnes, 2004; Lewin, 1947). Como tercera conclusión, se halla que la aplicación de la Lógica Transcursiva (LT) permite superar las limitaciones del análisis clásico del modelo, propuesto por la Teoría del Comportamiento Planeado [Theory of Planned Behavior] (Ajzen, 1991, 2002, 2011; Harder, 2009), que explica cómo las actitudes pueden predecir un comportamiento probable. Ajzen postula que, en una secuencia asíncrona de eventos a nivel individuo, las intenciones de este determinan el comportamiento de manera causal y que las intenciones son provocadas por dos factores: la influencia de las actitudes hacia el comportamiento y la influencia de las normas subjetivas (Ajzen y Fishbein, 1977). El análisis desde la perspectiva de la Lógica Transcursiva permite establecer la conexión entre el individuo, el grupo y la organización en un contexto de Aprendizaje Organizacional. Como cuarta conclusión, se halla que la aplicación de la Lógica 109 Transcursiva (LT) permite dar soporte y ampliar el Modelo de Difusión de Tecnologías Innovadoras propuesto por Everett Rogers (Rogers, Singhal, & Quinlan, 1995). Este modelo brinda un enfoque temporal lineal del proceso de adopción de las nuevas tecnologías conectando la etapa de conocimiento de dichas tecnologías con la decisión de adopción o rechazo de las mismas, y su posterior implementación o no. Una limitación existente es la ausencia de ponderación de la creencia del sujeto en la implementación exitosa o no de la decisión sobre la innovación bajo análisis. El análisis desde la Lógica Transcursiva (LT) permite identificar el peso relativo de la etapa de Conocimiento (normas que hacen mandatorio el uso de HAPD basadas en modelos; entrenamiento en el uso de las HAPD, y la valoración del nivel de aceptación de las HAPD antes de adoptarlas) al conectarla con la etapa de Desarrollo de Creencias de Control (obtener información concreta de resultados observables del uso de HAPD; la búsqueda de información para identificar las competencias requeridas para poder utilizar las HAPD, y determinar la posibilidad de probar la HAPD antes de adoptarla) que define el Control Percibido de Comportamiento propuesto por la Teoría de Comportamiento Planeado de Ajzen. 110 Figura 8: Modelo Extendido de Aprendizaje Organizacional desde la perspectiva de la Lógica Transcursiva. Basado en Zietsma, C., Winn, M., Branzei, O., & Vertinsky, I. (2002). The war of the woods: Facilitators and impediments of organizational learning processes. British Journal of Management, 13 (Special Issue 2), 61-74. En consecuencia, surgen como principal recomendación la necesidad de establecer etapas de institucionalización de las HAPD basadas en modelos para lograr su efectiva adopción en la resolución de problemas no estructurados. Esto requeriría 1) el mostrar la existencia 111 de resultados observables a través de una implementación gradual y la generación de “islas de desarrollo” que permitan superar el miedo de aprender nuevos conceptos lo que aleja a los individuos de su zona de confort ; 2) dar la posibilidad de probar las HAPD basadas en modelos antes de adoptarla de modo de superar la resistencia al uso de nuevas herramientas tecnológicas (Juneja, 2018; Liu, Lee, & Chen, 2011; Sharda, Barr, & McDonnell, 1988; Singh, 1999); 3) medir y desarrollar las competencias requeridas para poder utilizar HAPD a nivel organizacional (Catalano, 2018); y 4) adecuar el tipo de HAPD al contexto cultural del individuo considerando no solo las brechas generacionales sino también los diferentes tipos de inteligencia que impactan en la habilidad integrativa del usuario del modelo, y la dificultad para entender fácilmente los modelos matemáticos formales embebidos en los mismos (Al-Mamary, Alina Shamsuddin, & Aziati, 2013; Lilien & Rangaswamy, 2004; Stern, 2003). 112 REFERENCIAS Ajzen, I. (1991). The Theory of Planned Behaviour. Organizational Behavior and Human Decision Processes, 50, 179-211. Ajzen, I. (2002). Perceived Behavioral Control, SelfEfficacy, Locus of Control, and the Theory of Planned Behavior. Journal of Applied Social Psychology, 32, 1-20. Ajzen, I. (2011). The theory of planned behaviour: reactions and reflections. Psychol Health, 9, 1113-1127. Al-Mamary, Y. H., Alina Shamsuddin, & Aziati, N. (2013). The Impact of Management Information Systems Adoption in Managerial Decision Making: A Review Management Information Systems, 8(4), 010-017. Anzoise, E., Scaraffia, C., & Curadelli, S. (2016, octubre 20 y 21, 2016). Modelos de decisión en el Aprendizaje Organizacional en la Educación Superior. Paper presented at the IV Congreso Internacional ECEFI 2016 - Cuarto Congreso Internacional de Educadores en Ciencias Empíricas en Facultades de Ingeniería: ECEFI 2016, Mendoza, Argentina. Argote, L. (2013). Organizational Learning. Creating, Retaining and Transferring Knowledge. New York: Springer US. Argyris, C. (1991). Teaching Smart People how to Learn. Harvard Business Review(Mayo - Junio 1991), 99 - 109. Argyris, C., & Schön, D. A. (1995). Organizational Learning II: Theory, Method, and Practice (1st ed.). Reading, MA: Addison-Wesley. Ariely, D., Rao, A., & Yager, F. (2016). The human factor: Working with machines to make big 113 decisions. Retrieved from New York: https://www.pwc.com/us/en/advisory-services/bigdecisionsurvey/assets/the_human_factor_working_with_ machines_to_make_big_decisions.pdf Behling, O., & Schriesheim, C. (1976). Organizational behavior : theory, research, and application (1st ed.). Boston: Allyn and Bacon. Burnes, B. (2004). Kurt Lewin and the Planned Approach to Change: A Re-appraisal. Journal of Management Studies, 41(6), 977-1002. Caldwell, R. (2012). Systems Thinking, Organizational Change and Agency: A Practice Theory. Critique of Senge’s Learning Organization. Journal of Change Management, 1-20. Castaneda, D. I., & Rios, M. F. (2007). From Individual Learning to Organizational Learning. The Electronic Journal of Knowledge Management, 5(4), 363 - 372. Catalano, A. (2018). Tecnología, innovación y competencias ocupacionales en la sociedad del conocimiento. Retrieved from Buenos Aires: https://www.ilo.org/wcmsp5/groups/public/--americas/---ro-lima/---ilobuenos_aires/documents/publication/wcms_6359 46.pdf Crossan, M. M., Lane, H. W., & White, R. E. (1999). An Organizational Learning Framework: From Intuition to Institution. The Academy of Management Review, 24(3), 522-537. doi:10.2307/259140 Cyert, R. M., & March, J. G. (1963). A behavioral theory of the firm (1st ed.). Englewood Cliffs: Prentice Hall. 114 Chatterjee, S. (2011). Organizational Learning and Learning Organization: A Critical Review – A Paradox. Asian Journal Of Computer Science And Information Technology, 1(3), 64 -70. Choose. (1989, June 2018). Oxford Living English Dictionary. 2nd. Retrieved from https://en.oxforddictionaries.com/definition/choos e Decide. (1989, June 2018). Oxford Living English Dictionary. 2nd. Retrieved from https://en.oxforddictionaries.com/definition/decide Drucker, P. F. (2007). The Effective Executive (2nd Revised ed.). New York: Elsevier. Duncan, R. B., & Weiss, A. (1979). Organizational learning: Implications for organizational design. In B. Staw (Ed.), Research in Organizational Behavior (pp. 75-123). Greenwich, CT: JAI Press. Dutton, J. M., & Thomas, A. (1984). Treating Progress Functions as a Managerial Opportunity. Academy of Management Review, 9(2). Finger, M., & Brand, S. B. (1999). The concept of the “learning organization” applied to the transformation of the public sector. In M. Easterby-Smith, L. Araujo, & J. Burgoyne (Eds.), Organizational Learning and the Learning Organization. London:: Sage. Fiol, C. M., & Lyles, M. A. (1985). Organizational Learning. The Academy of Management Review, 10(4), 803-813. Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex Problems (M. Montani, A. Clark, & C. O'Dea, Trans. 3rd ed.). Berlin Springer-Verlag. 115 Hannan, M. T., & Freeman, J. (1984). Structural Inertia and Organizational Change. American Sociological Review, 49(2), 149-164. Harder, A. (2009). Planned Behavior Change: An Overview of the Diffusion of Innovations. Florida: Florida Cooperative Extension Service, Institute of Food and Agricultural Sciences, University of Florida Retrieved from http://edis.ifas.ufl.edu/pdffiles/WC/WC08900.pdf. Hedberg, B. (1981). How organizations learn and unlearn? . In P. C. Nystrom & W. H. Starbuck (Eds.), Handbook of Organizational Design: Adapting Organizations to their Environments (Vol. 1, pp. 8-27). London: Oxford University Press. Hodgson, G. M. (2013). Understanding Organizational Evolution: Toward a Research Agenda using Generalized Darwinism. Organization Studies (OS), 34(7), 973-992. doi:10.1177/0170840613485855 Juneja, P. (2018). Limitations & Disadvantages of Decision Support Systems. Retrieved from https://www.managementstudyguide.com website: https://www.managementstudyguide.com/limitatio ns-and-disadvantages-of-decision-supportsystems.htm Lewin, K. (1947). Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change. Human Relations, 1(5), 38. Lilien, G. L., & Rangaswamy, A. (2004). Marketing Engineering: Computer-assisted Marketing Analysis and Planning. Victoria, B.C.: DecisionPro, Inc. 116 Liu, Y., Lee, Y., & Chen, A. N. K. (2011). Evaluating the effects of task-individual-technology fit in multiDSS models context: A two-phase view. Decision Support Systems, 51(3), 688-700. doi:10.1016/j.dss.2011.03.009 Luthans, F. (2011). Organizational Behavior. An Evidence-Based Approach (12th ed.). New York: McGraw-Hill/Irwin. March, J. G., & Olsen, J. P. (1975). The uncertainty of the past: Organizational learning under ambiguity. European Journal of Political Research, 3, 147171. Mintzberg, H., Raisinghani, D., & Théorêt, A. (1976). The Structure of "Unstructured" Decision Processes. Administrative Science Quarterly, 21(2), 246-275. Nicholson, N., & White, R. (2006). Darwinism-A new paradigm for organizational behavior? Journal of Organizational Behavior, 27(2 - Special Issue: Darwinian Perspectives on Behavior in Organizations), 111-119. doi: 10.1002/job.345 Probst, G., & Bassi, A. (2014). Tackling Complexity. A Systemic Approach for Decision Makers. Sheffield, UK: Greenleaf Publishing. Robbins, S. P., & Coulter, M. (2005). Toma de Decisiones: la esencia del trabajo del gerente (J. F. J. D. Martínez, Trans.). In M. d. Anta (Ed.), Administración (8 ed., pp. 614). México: Pearson Educación de México, S.A. de G.V. Rogers, E. M., Singhal, A., & Quinlan, M. M. (1995). Diffusion of Innovations. In D. Stacks & M. Salwen (Eds.), An integrated approach to communication theory and research. . New York: New York: Routledge. Salatino Cuccia, D. R. (2017a). Beyond the DecisionsMaking II: Methodological Aspects. International 117 Journal of Research & Methodology in Social Science, 3(2), 18. Salatino Cuccia, D. R. (2017b). Tratado de lógica transcursiva : origen evolutivo del sentido en la realidad subjetiva (1st ed.). Godoy Cruz, Mendoza. Senge, P. M. (1998). La quinta disciplina: el arte y la práctica de la organización abierta al aprendizaje (C. Gardini, Trans.). Buenos Aires: Ediciones Granica, S.A. Senge, P. M., Kleiner, A., Roberts, C., Ross, R., Roth, G., & Smith, B. (2000). La danza del cambio: Los retos de sostener el impulso en organizaciones abiertas al aprendizaje. Bogotá: Editorial Norma. Sharda, R., Barr, S. H., & McDonnell, J. C. (1988). Decision Support System Effectiveness: A Review and an Empirical Test. Management Science, 34(2), 139-159. doi:10.1287/mnsc.34.2.139 Shrivastava, P., & Mitroff, I. I. (1982). Frames of reference managers use: A study in applied sociology of knowledge. In R. Lamb (Ed.), Advances in strategic management (pp. 161182). Greenwich, CT: JAI Press. Silins, H., Zarins, S., & Mulford, B. (2002). What Characteristics and Processes Define a School as a Learning Organisation? Is This a Useful Concept To Apply to Schools? International Education Journal, 3(1), 11. Simon, H. A. (1955). A Behavioral Model of Rational Choice. The Quarterly Journal of Economics, 69(1), 99-118. Simon, H. A. (1960). The New Science of Management Decision (Vol. 3). New York: Harper & Row. 118 Simon, H. A. (1979). Rational Decision Making in Business Organizations. The American Economic Review, 69(4), 493-513. Singh, S. K. (1999). Toward an Understanding of EIS Implementation Success. In M. A. Mahmood & E. J. Szewczak (Eds.), Measuring Information Technology Investment Payoff: Contemporary Approaches (1st ed., Vol. 1, pp. 107-127). Hershey, PA: Idea Group Inc (IGI). Stern, D. (2003). Increasing acceptance of managers for the use of marketing decision support systems. Paper presented at the Australian and New Zealand Marketing Academy Conference, Adelaide, Australia. Tsang, E. (1997). Organizational learning and the learning organization: a dichotomy between descriptive and prescriptive research. Human Relations, 50(1), 57-70. Zietsma, C., Winn, M., Branzei, O., & Vertinsky, I. (2002). The war of the woods: Facilitators and impediments of organizational learning processes. British Journal of Management, 13(Special Issue 2), 61-74. 119 120 5. SUBJETIVIDAD DEL VALOR EN LA ESCUELA AUSTRÍACA DE ECONOMÍA Una interpretación desde la Lógica Transcursiva Facundo Gustavo Corvalán17; Dante Salatino18; Gustavo Masera19 RESUMEN En el documento se propone un análisis del surgimiento de la teoría subjetiva del valor en la Escuela Austríaca de Economía. Cualesquiera que fueran las diferencias observables entre las generaciones de autores, hay una línea de continuidad en el relieve de la cuestión subjetiva, frente a la tradición clásica del valor. Se concluye que para los representantes de la escuela austríaca, la importancia de la subjetividad en la economía, era para ellos parte de un sistema filosófico que se fundamentaba en el individualismo metodológico Por lo tanto, sería engañoso y reduccionista considerarlos simplemente como una perspectiva técnica de la dimensión económica, sino más bien, como miembros de una corriente de pensamiento con fuertes preocupaciones en la filosofía y la metodología de las ciencias sociales. PALABRAS CLAVE Subjetivismo, Valor, Escuela Austríaca, Lógica Transcursiva 1.0. INTRODUCCIÓN El impulso del subjetivismo en la Escuela Austríaca de Economía estuvo marcado, generalmente, por las 17 Facultad de Ciencias Económicas, Jurídicas y Sociales, Universidad Nacional de San Luis. 18 Instituto de Filosofía, Facultad de Filosofía y Letras, Universidad Nacional de Cuyo. 19 Facultad de Filosofía y Letras, Universidad Nacional de Cuyo; Facultad de Ciencias Económicas y Jurídicas, Universidad del Aconcagua. . 121 preocupaciones teórico-metodológicas en torno al tiempo, las expectativas y la incertidumbre. Así, la discusión fundamental consolidó una tendencia dentro de la escuela por explicar la dinámica de los fenómenos económicos a través de la investigación de los estados mentales subjetivos de los actores tomadores de decisiones. A lo largo del siglo XX el subjetivismo se ha transformado en la marca distintiva de la tradición de la Escuela Austríaca de Economía. Empero, los economistas de esta corriente persiguieron una postura subjetivista con diversos matices y grados de profundidad en sus análisis. Es por ello por lo que el objetivo del presente escrito es presentar una aproximación a la evolución del tratamiento del subjetivismo en las fases de la escuela. 2.0. EL SUBJETIVISMO EN LA ESCUELA AUSTRÍACA A principios de la década de 1870 la llamada revolución marginalista, exteriorizada de diversas formas por Carl Menger, León Walras y Stanley Jevons, consolidó un objetivo explícito: iniciar un debate teórico y metodológico en torno a la resolución de las dificultades presentadas por la teoría clásica y su concepción sobre el valor. Los economistas austríacos, forjaron una tendencia conceptual que comprende al subjetivismo del valor como un fenómeno que genera un proceso en donde el individuo interactúa en los mercados cargado de diversas valoraciones subjetivas. Se genera, en esta visión, una formación de precios guiada por decisiones individuales de producción y consumo. El subjetivismo no se relaciona necesariamente en un enfoque del valor relacionado con la identificación de apreciaciones individuales, sino que comienza, paulatinamente, a colocar el foco de atención en la búsqueda de un 122 equilibrio en dónde las interacciones se desarrollarían continuamente en tanto las circunstancias exógenas logren cierta permanencia. Los “Principios de Economía Política”, de Carl Menger, reflejaron una nueva síntesis de perspectivas de análisis de los fenómenos económicos y, consecuentemente, una reconceptualización de la incipiente ciencia económica. Estas nociones encontraron sus alcances en el subjetivismo, partiendo de la concepción de que el hombre es un ser que no está sujeto al devenir histórico, sino que es protagonista de este. La economía, entonces, no es una ciencia que trate sobre objetos materiales, sino sobre los hombres y sus consideraciones y todas las actividades que deriven de su acción. La crítica de Menger al enfoque teórico predominante se sustenta sobre la proposición acerca que la teoría económica no debía ocuparse de las actividades puramente comerciales, sino en cómo se desarrollan en cuanto a la actividad humana. El punto de partida son las necesidades humanas. Así, los individuos tienen diversas necesidades y tienden a alcanzar una necesidad de satisfacción y, razonablemente, evidencian causalidades determinadas para que se pueda llegar a ese estado. En el movimiento constante de causa y efecto entran en contacto nuestra personalidad y las diversas necesidades que conforman una gran “interconexión global” (Menger. 1997). Para ello, observó los comportamientos humanos para llegar a la conclusión de que gran mayoría de las conductas individuales son regulares en la actividad económica. Estas se suceden en todo tiempo y lugar generando leyes universales del comportamiento económico. En este sentido, se afirma que la obra fundacional de la 123 Escuela Austríaca busca no solo establecer las leyes del comportamiento económico del hombre, sino lograr reconocerlas. El campo teórico de la economía no es, empero, totalmente novedosa ya que, como sostiene Roncaglia (2005: 236), hubo una serie de precursores a la concepción subjetivista de la economía. A partir de esta redefinición, se consolida una tendencia que permanece en gran parte de los economistas de la Escuela Austríaca: el subjetivismo metodológico y el análisis de las decisiones de los individuos sustentadas en escalas de valores propias que solamente ese individuo conoce. Menger se distanció considerablemente del pensamiento económico predominante, porque si bien reconoce líneas de causalidad duales en la actividad económica vinculadas a la valoración subjetiva de los bienes de orden superior, estos se presentan como la causa objetiva de la aparición de bienes de orden inferior y, luego, de la satisfacción de necesidades humanas concretas. Así, en los “Principios…” se exhibió un individualismo caracterizado por la competencia de diversas categorías de necesidades concretas por la satisfacción de brindar las cantidades disponibles de bienes de cualquier índole. Es que el subjetivismo se restringía a una noción genética de las necesidades individuales y sociales (Cubeddu, 1993). El encargado de complejizar este cuerpo teórico es Böhm-Bawerk y su subjetivismo multicausal e interseccional. El discípulo de Menger identificó una serie de proposiciones que establecieron una base praxeológica de la interpretación de los fenómenos económicos. De esta manera, determinó que la calidad 124 de los bienes no es un atributo objetivo del mismo ya que, en primer lugar, redireccionó la atención a la relación existente entre el bien y el sujeto económico (Caldwell, 1990). El valor de los bienes se presenta sujeto a los cambios en las dimensiones de las relaciones subjetivas frente a la ausencia de algún tipo de valoración de las condiciones objetivas. En este sentido, el bien no contiene un valor per se ya que, en un segundo momento, entra en juego el rol de los criterios abstractos no marginales como la felicidad, satisfacción, etc. 3.0. ENTRE LA TRADICIÓN Y EL DISTANCIAMIENTO Mises continua con la tradición subjetivista. Sin embargo, puede observarse que ciertos elementos de ambigüedad contenidos en sus dos predecesores generaron cierta incomodidad que llevó a replantear los postulados de sus mentores. De cierta forma, la falla que encontró Mises en el subjetivismo exploratorio se encontraba en la afirmación acerca de que el valor era medible. Esta crítica generaba una imposibilidad de desarrollar una teoría consistente del mismo. Así, el autor sostuvo que “Sobre el tema de la medición del valor, como en una serie de temas adicionales que están estrechamente vinculados con él, los fundadores de la teoría subjetiva del valor se abstuvieron del desarrollo constante de sus propias doctrinas. Esto especialmente en Böhm-Bawerk.” (Mises, 2007: 40). La relación teórica que tienen Menger y Mises es, por lo menos, difusa ya que la conexión entre los “Principios…” y la “Acción Humana” visibilizan cierta distancia en cuanto Mises propone dotar a las ciencias de la acción humana con un carácter lógico de validez universal. Es por ello que resultaría infructuoso encontrar los fundamentos del subjetivismo y la praxeología en 125 Menger (Mises, 2007). El punto de partida de Mises se encuentra en su intento por establecer una reflexión sobre la esencia de la acción de los sujetos fundada en el carácter de la estructura lógica de la mente. A partir de esta noción se hace necesario un apriorismo metodológico que sea capaz de encontrar herramientas a priori a cualquier experiencia para comprender la realidad: la praxeología. En esta perspectiva, se genera un elemento dual en la decisión subjetiva del sujeto ya que la acción se muestra como la manifestación de la voluntad del individuo, pero a la vez como la esencia de su naturaleza y existencia. Es decir que mientras se hable de la satisfacción de algún tipo de deseo del individuo, la “acción humana es necesariamente siempre racional” (Mises, 2013). Las elecciones en el proceso económico, en Mises, se conciben en cuanto el resultado de la elección de un juicio de valor. Con ello, el distanciamiento con las nociones exploratorias de la escuela se consolidó en la concepción de Mises sobre la relación entre el interés individual y la naturalidad de los fenómenos y de la acción. Cubeddu (1993) sostiene que las conceptualizaciones debidas a Menger serán reemplazadas por un subjetivismo que cambia el foco de atención al dirigirse hacia el descubrimiento de leyes a priori que regulan las acciones mismas y permiten el logro de fines de tipo individual. Por lo tanto, la capacidad de conocimiento sobre el comportamiento basadas en la comprensión de las leyes naturales fue reemplazada, en Mises, por consideraciones lógicas de validez universal. La postura de Friedrich von Hayek difería de la del fundador de la escuela y de la Mises. Aunque reconoce los aportes a la investigación social y económica 126 realizado por Mises mediante su subjetivismo, la noción de Hayek no alcanzó el extremo de este: se buscó comprender una nueva organización del complejo relacional que incluye a la experiencia individual y al mundo externo. Esto se lograría a través de la reformulación de sensaciones subjetivas, junto a la abstracción y su calificación de los fenómenos en acuerdo a criterios teóricos. Es decir que el énfasis de Hayek se encuentra en un nivel de subjetivismo, en cierto sentido, más profundo y abarcador al buscar la compatibilidad de las intenciones de diversos individuos, su división del conocimiento y el proceso en el cual este es adquirido para llegar, de este modo, a la conformación de las expectativas subjetivas (Hayek, 1978). De esta forma, el aporte relevante de Hayek radica en su capacidad de destacar el dinamismo del proceso competitivo y relacionarlo con un subjetivismo sensible al rol del cambio de conocimiento y de las expectativas. 4.0. RECONCEPTUALIZACIONES INTRATEÓRICAS Cabe reflexionar, en este marco, acerca de los alcances de la teoría económica de los marginalistas y sus sucesores neoclásicos con respecto a la representación de una teoría económica subjetiva. En este sentido, las perspectivas, sobre el subjetivismo, exploradas por la primera y segunda generación de la Escuela Austríaca han sido criticadas y reconceptualizadas dentro de la corriente. La década de 1970 fue el reflejo de proyectos que buscaron alcanzar una explicación satisfactoria de la relación entre el subjetivismo, el individualismo metodológico y la ciencia económica. De esta manera, se inició un proceso exploratorio que encauzó contribuciones relevantes a la temática con las obras de Kirzner (1973) y Rizzo y O´Driscoll (1979). En términos 127 generales, se enfatizó en la idea de que el subjetivismo encauza espacios de creatividad y autonomía de la elección individual generando, en la visión de esta generación, una economía que trata de abordar los pensamientos que llevan a la toma de decisiones. En esta década Israel Kirzner se convirtió en el líder del denominado “renacimiento austríaco” (Gloria-Palermo, 1999). Para comprender las contribuciones del autor es necesario mencionar que se preocupó, enfáticamente, por revisar los principales postulados de Carl Menger y, muchas veces, fue contra sus predecesores inmediatos, Mises y Hayek. Rizzo y O´Driscoll (1979) señalaron que la autonomía relativa de la elección de los individuos encauza, necesariamente, a una previsibilidad imperfecta de las consecuencias de esas elecciones. Cuando el sujeto opta por tomar el curso de una acción particular, sus consecuencias estarán delimitadas en los cursos de acciones que otros individuos escojan. Por lo tanto, en un contexto en dónde impera el subjetivismo creativo y autónomo en los sujetos, el futuro se torna desconocido e incognoscible. Es por ello por lo que las preocupaciones sobre el análisis del subjetivismo se centraron en el contexto de conocimiento del individuo, la naturaleza del aprendizaje y la división del conocimiento en el elemento societal. Hay una distancia de los anteriores análisis del subjetivismo psicológico que, generalmente, apelaban a las nociones de irracionales y colocaban el foco en una investigación sobre las percepciones individuales del sujeto en el mundo real. Debido a la imposibilidad de una observación directa de la perspectiva del individuo sobre el mundo, la problematización debía ser hipotetizada en un contexto del resultado que el analista 128 deseara explicar. Cabe destacar que la propuesta acerca del carácter analítico situacional no implicaba, en perspectiva de estos autores, plantear el comportamiento individual como un problema matemático. La novedad, entonces, radica en la propuesta de examinar la toma de decisiones subjetivas desde un análisis dinámico y no determinista. La lógica de una resolución problemática radica en su racionalización y reconstrucción de una situación (Rizzo y O´Driscoll, 1986). Si al presentar estas situaciones hipotéticas se plantea que estos individuos se encuentran frente a los mismos problemas sería dificultoso sostener que todos ellos tienden a adquirir conocimiento para la toma de decisiones de formas similares. Es más, sigue existiendo una distribución del conocimiento, aunque el stock fuera utilitario para todos ellos. En este sentido, se genera un entramado complejo en donde la dinámica relacional subjetiva entre los bienes y los individuos produce la adquisición de conocimiento que, necesariamente, no es útil para todos. Es por ello por lo que el conocimiento derivado de las decisiones subjetivas debe comunicarse. La comunicación de esas decisiones se plantea en dos términos: a través de los precios y a través de las instituciones. En primer lugar, la abundancia y escasez de los bienes y la oferta y la demanda del mercado, y su consecuente impacto en la conformación del precio, encauzará los cursos de acción futuro de los sujetos. En un segundo lugar, las instituciones son capaces de lograr encauzar las subjetividades a través de la coordinación de las expectativas y la generación de confianza en el cumplimiento de determinadas funciones económicas. Aquí se retoma el concepto de Hayek (1973) acerca del rol de las instituciones en las adaptaciones eficientes al entorno. 129 Aquí, se introduce una confluencia del sentido popperiano de la visión austríaca del subjetivismo y de los conceptos introducidos por Israel Kirzner. En suma, la concepción de una economía subjetivista se relaciona íntimamente con un proceso de conocimiento que tiene su orden en el marco de una problemática específica, generando un desarrollo constante del individualismo metodológico. Ravier (2009) sostiene que la introducción de estas nociones, en el marco analítico del subjetivismo austríaco, implica la reconciliación del equilibrio y el cambio impredecible que se encontraba poco explorado en las obras de Mises y Hayek. 5.0. SUBJETIVISMO Y LÓGICA TRANSCURSIVA La lógica transcursiva representa una herramienta útil para evaluar la repercusión que tiene el comportamiento y la conducta económica en la toma de decisiones, una actividad netamente subjetiva. En economía, el enfoque desde el sujeto pone en relieve que los fenómenos económicos tienen origen en la psiquis de una persona. Apoya esta última hipótesis un trabajo muy particular de Hayek: The Sensory Order – An inquiry into the Foundations of Theoretical Psychology (TSO), en donde construyó las bases sólidas sobre las que sustentar sus ideas acerca del conocimiento económico y qué debía resolver la ciencia económica. Desde esta perspectiva, la dinámica de las relaciones entre los individuos; esto es, consigo mismo que le permite preservar la vida, con el entorno que le aporta conocimiento y experiencia, y con sus semejantes, que le posibilita la comunicación de sus decisiones. Estas relaciones tienen como único objetivo mantener la vida biológica, la vida psíquica y la vida social, y en ese sentido, son intencionales. 130 La dinámica con que se desenvuelven estas relaciones es la siguiente: a) el entorno se le presenta con sus avatares, b) el sujeto acusa recibo de este impacto (lo percibe), y c) elabora una respuesta adaptativa (y readaptativa, indicando de esta manera, que le ha encontrado ‘sentido’ a la realidad circundante y que ya ‘aprendió’ lo que hay que hacer al respecto para seguir con vida en las tres instancias que le toca enfrentar. Este ‘aprender’ tiene como paso previo el ir ‘probando’ alternativas hasta acercarse lo más posible a una respuesta adecuada. Si este paso no se cumple, esto es, no se da una respuesta o se da pero no es adecuada, el ser humano muere socialmente, psíquicamente e inclusive, biológicamente, por no poder adaptarse a las exigencias del entorno. (Salatino, 2016, p. 19) Este último caso, en teoría de juegos sería equivalente a perder el juego. La situación en la que se encuentra un sujeto al interactuar con las tres instancias de su realidad, se ajusta bastante bien a una variante presentada en este trabajo del planteo que John F. Nash hizo sobre los juegos no colaborativos (Nash, 1950). Esta manera de enfocar la toma de decisiones en economía se ve reflejada en la Figura 1, la que se analiza a continuación: Figura 1 ECONOMÍA 131 Referencias: CT: carácter – CO: cosas – RE: reglas CR: creencias Nash hizo un aporte vital a la economía cuando demostró que la toma de decisiones es una cuestión interactiva en donde prima el egoísmo (‘la intención de sobrevivir’), y que los mejores resultados para un grupo en el corto y mediano plazo, a pesar de que las decisiones sean tomadas en forma individual, se logran cuando se alcanza un tipo muy particular de equilibrio entre pares de estrategias opuestas y simultáneas. La figura anterior pretende reflejar un marco real para la toma de decisiones algo distinto a lo planteado previamente. La variante la constituye el hecho de enfocar el problema desde el sujeto y no solo de lo que resulte de su interacción con los demás. En otras palabras, aquí la toma de una decisión es mucho más egoísta que en el caso de los juegos no cooperativos, ya que aquí lo que realmente está en juego es la propia ‘vida’. Sin hacer de este planteo algo dramático, se afirma que la toma de decisiones, por ejemplo, el dictado de normas que se forja en el edificio teórico de la economía política, surge de un sujeto que interactúa en un grupo, y no de un grupo que contiene a un sujeto, porque están sustentadas en su comportamiento. Por lo tanto, la aplicación de esas normas en la práctica de la política económica, que regulan su conducta, debería reflejar parte de ese origen normativo; sin embargo no lo hace; lejos de eso, antepone una supuesta ‘equidad científica’ (según la expresión nietzscheana - Nietzsche, 2004, p. 80) que oculta los verdaderos afectos que las fundamentan, como la ambición de dominio o el ansia de posesión. 132 El gráfico de la Figura 1 puede representar muy bien una situación similar a la que se evidencia en un juego no cooperativo entre dos jugadores: un sujeto con su carácter y por tanto, con su ética, y el entorno con sus cosas y sus otros sujetos. Hay allí dos niveles bien definidos: el nivel superficial o aparente o aquel en donde se dirime el futuro de los jugadores en función de una estrategia elegida consciente e inconscientemente por el sujeto de acuerdo a determinadas reglas impuestas; y el nivel profundo, en donde se proponen las reglas del juego (estructura) que dependen de las creencias individuales y al cual no tiene acceso ni puede modificar ninguno de los jugadores (lo estructural no es consciente ni inconsciente, es biológico). Este doble estado de nuestra psiquis, por llamarlo de alguna forma, es señalado ya por Hayek en TSO: “¿Cuáles son, entonces, los atributos especiales de la conducta consciente por los cuales la distinguimos de la conducta que también parece estar coordinada e intencionada pero de la cual la persona que actúa no es ‘consciente’? Tal comportamiento inconsciente puede ocurrir bien porque la atención de la persona está en el momento particular de otra manera comprometido, o porque es completamente inconsciente como es el caso en algunos estados de sonambulismo y trances hipnóticos.” (Hayek, 1952, p. 134) Un sistema (pareja de jugadores: el sujeto y su entorno) representa un estado de reposo dinámico que acusa una cierta organización (determina un comportamiento específico), un cierto desequilibrio estable que promueve un intercambio que se proyecta como acción evidente (una conducta ajustada a normas o reglas). La irrupción de una propuesta o desafío por parte del entorno (el equivalente al punto a) de la dinámica ya especificada) 133 provoca un desvío en aquel sujeto que la ‘percibe’ (punto b)) (S) que lo conduce a someter esa ‘organización’ anterior a las reglas del juego, esas reglas generales que definen la estructura generadora de su comportamiento ante la situación, como algo desorganizado que la estructura profunda reorganiza, elaborando o bien una defensa que se hace llegar a modo de respuesta adaptativa al entorno (O), o bien como un cambio de nivel de complejidad que le permite, estrategia mediante, responder con un ataque, lo cual produce que el entorno se convierta ahora en el ‘sujeto’ que reciba un desafío y se repitan las alternativas del juego hasta que alguno de los dos no se adapte y ‘muera’, o sea, pierda el juego o lleguen a un acuerdo y se declare terminado el juego. 6.0. A MODO DE CONCLUSIÓN En el documento se ha planteado un análisis de la teoría subjetiva del valor” elaborada en el seno de la Escuela Austriaca de Economía. Se ha visto, asimismo, el desarrollo de algunas de sus principales líneas y contribuciones desde el período fundacional hasta las generaciones posteriores. Por último, se ha realizado una interpretación integral desde el método propuesto por la Lógica Transcursiva. La conducta esperada que deben resguardar las normas es una consecuencia directa de nuestro comportamiento. El método ha permitido evaluar la repercusión que los deseos y las creencias individuales (que se traducen en acciones o comportamiento) deberían tener sobre el dictado de normas que regulen la conducta económica; única forma que la economía política se convierta en la base de nuestra comprensión, no solo de la economía sino de los hechos sociales. 134 REFERENCIAS CALDWELL, B. (2004). Hayek’s Challenge: An Intellectual Biography of F.A. Hayek, Chicago: University of Chicago Press. CUBEDDU, R. (1993). The Philosophy of The Austrian School, London and New York, Routledge. GLORIA-PALERMO, S. (1999). The evolution of Austrian Economics: From Menger to Lachmann, Londres: Routledge. HAYEK, F. A. (1952). The Sensory Order. An Inquiry into the Foundations of Theoretical Psychology. Chicago, The University of Chicago Press. HAYEK, F- A. (1978). “Competition as a Discovery Procedure”, en New Studies in Philosophy, Politics, Economics and the History of Ideas, Chicago: University of Chicago Press. MENGER, C. [1883] (2009). Investigations into the Method of the Social Sciences with special reference to Economics. New York, New York University Press. MENGER, C. (1997). Principios de Economía Política [1871] (2a ed.). Madrid, España, Unión Editorial. KIRZNER, I.(1979), Perception, Opportunity and Profit, Chicago: Unversity of Chicago Press. MISES, L. von (2007). Human action: A treatise on economics, Indianapolis: Liberty Fund. MISES, L. von (2013). Epistemological problems of economics, Indianapolis: Liberty Fund. NASH, J. F. (1950). Non cooperative games, PhD Thesis, Princeton. 135 O´DRISCOLL, G. and M. RIZZO (1986). The Economics of Time and Ignorance, Londres y Nueva York: Routledge. RAVIER, A. (2009). El marco analítico subjetivista en la economía del tiempo y la ignorancia, en Revista de Instituciones, Ideas y Mercados 56. RONCAGLIA, A. (2005). The Wealth of Ideas. Cam: Cambridge University Press. SALATINO, D. R. (2016). Procesos Cognitivos. Fundamentos Neurofisiológicos. Una teoría del funcionamiento psíquico – Mendoza – Argentina, Autoedición *** 136 6. Lógica Transcursiva: un hilo de Ariadna para explicar la actualización del mito de Medea en su reelaboración euripídea20 Luciana Benítez Schaefer21 Resumen: El presente trabajo pretende explicar la actualización del mito protohistórico de Medea en la tragedia homónima de Eurípides (ca. 484 a.C. – 406 a.C), el último de los tres grandes poetas trágicos griegos. Para ello, teniendo en cuenta los hallazgos metodológicos de la Lógica Transcursiva, se describe la relación entre el rol que el dramaturgo otorga a las emociones y la presencia de rasgos arquetípicos femeninos en la configuración de la protagonista. La interacción entre estos factores con el mito y su propuesta griega de escenificación explica la recepción exitosa de la tragedia por parte de un público muy posterior al del mito originario. Palabras claves: Lógica Transcursiva – Emociones – Arquetipo – Hipertextualidad – Medea. 1.0. INTRODUCCIÓN Los mitos, transmitidos durante siglos de boca en boca y luego registrados por escrito, han sido objeto de estudios provenientes de diversas disciplinas, bajo múltiples enfoques en contextos disímiles. No obstante, estas creaciones colectivas no dejan de atraer hacia sí a especialistas de diversas áreas, cuya atención renovada revela la riqueza de estos relatos. Otro tanto ha ocurrido 20 21 Este escrito surge de la ponencia homónima leída durante el III Foro de Lógica Transcursiva, llevado a cabo el 17/10/19, en la UTN. Agradezco los aportes realizados por el Dr. Dante Salatino en materia de Lógica Transcursiva, las observaciones y recomendaciones bibliográficas de los psicólogos María Isabel Schaefer y Oscar Benítez en lo referente a arquetipos junguianos y a la Dra. Elbia Haydée Difabio por la selección de traducciones y estudios críticos sobre Medea consultados. Facultad de Filosofía y Letras – UNCuyo. 137 en el ámbito artístico, donde antiguas historias y personajes mitológicos se han visto homenajeados con obras de arte musicales, pictóricas, escultóricas y literarias. Estas recuperan, en un diálogo intertextual y/o hipertextual, el valor clásico de las producciones iniciales y sus protagonistas, a los que artistas de diversa índole han dado cuerpo y voz. ¿Cómo es posible que una historia, arcaica incluso para los habitantes de civilizaciones tan antiguas como la griega, sobreviva tantos siglos a públicos diferentes? ¿Qué tratamiento sobre el relato inicial ha permitido su pervivencia? ¿En qué medida la Lógica Transcursiva (LT) pone de relieve el proceso que permite actualizar el mito en otro tiempo y otro espacio? El presente trabajo propone una aplicación del método transcursivo –cuya validez ha sido probada en las ciencias experimentales– en la esfera de lo literario. Valiéndonos de él, ejemplificaremos cómo el mito protohistórico de Medea se actualiza en la tragedia homónima de Eurípides22 (ca.484 a.C. – 406 a.C), el último de los tres grandes poetas trágicos griegos, destinada a un público muy posterior al del relato originario. La aplicación del método escogido requiere la distinción de cuatro constituyentes fundamentales interactuantes en el sistema dinámico por explorar. En este trabajo, dichos elementos son: el mito (en este caso el de Medea), los arquetipos junguianos (aquí, rasgos de lo arquetípico femenino), las producciones artísticas posteriores al mito vinculadas con él (la tragedia Medea, de Eurípides, con sus particularidades) y las emociones (que permiten la interpretación subjetiva del objeto – 22 138 Dada la extensión del trabajo, nos centraremos en el personaje protagonista. mito– y facilitan el acceso al mundo universal de los arquetipos). La relación entre dichos elementos puede ser ejemplificada de la siguiente manera: EMOCIONES MITO PIEZA TEATRAL (individual) ARQUETIPO (universal) ARQUETIPO MITO Figura 1: Elementos interrelacionados según la LT En el esquema, el mito (objeto) logra, por medio de las emociones (que manifiestan sus protagonistas y conmueven al sujeto destinatario) acceder a la dimensión humana universal donde habitan los arquetipos psicológicos. Estos, recreados en una obra teatral posterior (Medea, de Eurípides), sintetizan el caso particular (el mito) y lo general (las emociones) en una producción individual donde se actualiza no solo el objeto, sino también la imagen arquetípica que sustenta su pervivencia. A continuación, fundamentaremos estas relaciones a partir de nociones provenientes del ámbito de lo literario. 2.0. EL MITO Y SU REELABORACIÓN EURIPÍDEA La versión en línea del Diccionario de la Lengua Española brinda las siguientes acepciones de la palabra “mito”: 1. m. Narración maravillosa situada fuera del tiempo histórico y protagonizada por personajes de carácter divino o heroico. || 2. m. Historia ficticia o personaje literario o artístico que 139 encarna algún aspecto universal de la condición humana. El mito de don Juan. || 3. m. Persona o cosa rodeada de extraordinaria admiración y estima. || 4. m. Persona o cosa a la que se le atribuyen cualidades o excelencias que no tiene. Su fortuna económica es un mito. Partiendo de estas definiciones, puede deducirse, de manera general, que el universo del mito implica la entrada a un mundo hoy considerado ficcional, sin pertenencia a un tiempo definido, en el que habitan personajes con características divinas o heroicas, admirados o estimados por el resto y en los que sobresale algún aspecto universal de la condición humana. Lo anterior explica el hecho de que los dramaturgos de la antigüedad griega se sirvieran de los mitos e hicieran de ellos la raíz de la tragedia. El caso de Medea no es la excepción23. A continuación, relataremos brevemente el mito, tal como lo consigna Pierre Medea, con los hijos muertos, Grimal en su Diccionario huye de Corinto en un carro tirado mitológico, donde estos por dragones – Germán elementos se ven Hernández Amores, ca.1887. Óleo claramente: 23 No obstante, Eurípides establece una relación peculiar con los mitos tradicionales, identificada con lo que K. Reinhardt denominó “la crisis de sentido” heroico, producto de la crítica racionalista al “núcleo esencial de la sabiduría griega como expresión […] de una concepción del mundo […]” (García Gual, 2007:19). 140 Una tradición tardía, citada por Diodoro, nos dice que Medea era en realidad una princesa de sentimientos muy humanos / […] hizo prometer a Jasón que sería su esposo si ella […] le facilitaba el modo de apoderarse del vellocino de oro […]. Jasón se lo prometió, y Medea, valiéndose de su conocimiento del país, hizo que le abriesen el templo donde se guardaba la preciosa piel, mientras los Argonautas atacaban a los soldados y los ponían en fuga […] una vez logrado el vellocino de oro, Medea huyó con Jasón y los Argonautas. Todas las leyendas concuerdan en este punto: él le había prometido casarse con ella, y todos los crímenes ulteriores de Medea quedan justifica-dos, o siquiera explicados, por el perjurio de Jasón. Para seguirlo y darle la victoria, la doncella no sólo había traicionado y abandonado a su padre, sino también se había llevado como rehén a su hermano Apsírto, al cual no vaciló en matar y despedazar para retrasar la persecución de Eetes [su padre] […] (1989:336337). Para completar la historia, citamos también a Carlos García Gual, quien refiere el argumento de la tragedia, la cual enriquece el relato original sin diferir grandemente en el desarrollo de las acciones planteadas por el mito que tiene por base24: Medea, hija del rey de la Cólquida, con cuya poderosa ayuda pudieron los argonautas conquistar el vellocino de oro, se había desposado con Jasón, dando a luz dos hijos, siguiéndole a Grecia, y estableciéndose con él en Corinto. Jasón, sin embargo, en vez de corresponder a los sacrificios que había hecho en su obsequio, ya cediendo al amor que le inspirara la hija de Creonte, rey de Corinto, ya por motivo 24 Consideraremos posteriormente las diferencias más relevantes. 141 de conveniencia personal, pretendió la mano de ésta, y logró el asentimiento de su padre para celebrar sus segundas nupcias; pero Creonte [rey de Corinto] entonces, conociendo el carácter vindicativo y vehemente de Medea, ya famosa por su crueldad y sus mágicas artes, decretó su destierro inmediato con sus hijos, y sólo a sus ruegos consintió en aplazarlo, señalándole un nuevo término. Medea aprovechó este descanso para fingir su reconciliación con su esposo, y llevó su aparente docilidad hasta el punto de regalar a la nueva desposada [Creúsa o Glauce] una corona de oro y un riquísimo peplo. Desgraciadamente ambos dones estaban envueltos en eficacísimo veneno, que estalló en el momento de ponérselos la hija del rey, devorándolos juntamente con su padre. No contenta con esto, se vengó también de Jasón matando a sus hijos25, y huyó impune a la corte de Egeo, rey de Atenas [a quien había prometido solucionar su problema de infertilidad], atravesando los aires en un carro tirado por dragones26. (2007:85-86). Eurípides se hace eco del argumento central, pero también se aparta de las concepciones tradicionales de “mito” hasta llegar a constituir, según Nietzsche, uno de los dos grandes “críticos del mito y la convención” (García Gual, 2007:11). Su principal distinción con respecto a otros dramaturgos radica en el desarrollo que realiza de la psicología de sus personajes, más alejados de la condición heroica y 25 Según Grimal, “Se dice que Eurípides fue el primero en afirmar que los hijos de Medea habían sido muertos por su madre. En otra versión eran lapidados por los corintios, quienes los castigaban […] por haber llevado a Creúsa el vestido y las joyas” (1989:338) 26 Grimal registra también una variante en la que este carro se halla “tirado por caballos alados” (1989:338). La elección del dramaturgo de dragones evidencia el aspecto “monstruoso” y “mágico” de la protagonista. 142 más cercanos al ser humano de carne y hueso. Estos personajes “obedecen a sus pasiones, esas pasiones que en el teatro euripideano [sic.] suscitan toda clase de violencias” (Scaramella, 1974:9). En esa progresiva humanización de los héroes, este “inquieto e incansable escrutador de la condición humana” (García Gual, 2007:14), los muestra: Mucho menos seguros de sí mismos, mucho menos equilibrados en su disposición heroica, pero mucho mejor descritos psíquicamente, más complejos […] que los protagonistas de Sófocles o de Esquilo, los personajes de Eurípides expresan […] la complejidad de ideas y la crisis intelectual y moral de esa época (2007:16). Sin embargo, la pasión presente en estos caracteres no supone ausencia de razón, aunque lleva a la catástrofe y –usualmente– a la muerte a quien la padece. En las obras de Eurípides, “la lucidez en los razonamientos no mitiga los sufrimientos, sino que los potencia” (García Gual, 2007:17). En la búsqueda por desentrañar los aspectos más oscuros del alma humana, este dramaturgo otorga especial interés a protagonistas femeninas, rasgo distintivo que desconcertó a sus coetáneos, ya que estas poseen “la grandeza de carácter de que carecen los héroes masculinos”27 (García Gual, 2007:20). El protagonismo dedicado al sexo femenino interesa especialmente en este escrito, centrado en el personaje de Medea, que lleva hasta las últimas consecuencias su defensa de “una dignidad personal femenina, un derecho a ser consideradas, ellas mujeres, tan humanas y 27 García Gual, reflexiona respecto de los personajes masculinos y poderosos, como Jasón: “[…] se nos presentan a menudo como egoístas, apegados en demasía a la vida, aun a costa de indignidad” (2007:20). 143 capaces de sufrir y actuar como los hombres” (García Gual, 2007:23). La exploración de lo femenino por parte del dramaturgo, nos impele a considerar el segundo elemento de nuestro sistema: la noción de “arquetipo” psicológico femenino, concepto que considera la existencia de dos entidades centrales: la Gran Madre y el Anima. 3.0. MEDEA COMO IMAGEN ARQUETÍPICA FEMENINA28 El reconocido psicólogo Carl Gustav Jung –en su búsqueda por demostrar la posibilidad de una historia de la psique humana, configurada a partir de elementos heredados universales e interrelacionados que articulan su funcionamiento– establece el núcleo de su teoría en las concepciones de “inconsciente colectivo” y “arquetipo”, útiles para el presente estudio. Con la primera de las nociones, el especialista asume la existencia de una herencia psíquica ancestral en los seres humanos y habilita la consideración de un aspecto no consciente de la personalidad, presente en personas provenientes de distinto tiempo y lugar. El denominado “inconsciente colectivo” se constituye, así, en un conjunto articulado de arquetipos heredados, configurados como predisposiciones que permiten la proyección externa de imágenes (cambiantes según la cultura) a partir de la experimentación intensa de emociones en una situación dada. Los personajes y sus 28 Como se ha afirmado, observaremos el aspecto ctónico (del griego: ‘perteneciente a la tierra’, ‘de tierra’) designa o hace referencia a los dioses o espíritus del inframundo) del arquetipo de la Madre y rasgos del arquetipo del Anima manifestados en un personaje literario. El tratamiento que daremos a estos conceptos difiere del que podría aplicarse a una persona real, ya que la imagen arquetípica cristalizada en personaje, muestra solo un aspecto del arquetipo al que refiere, sin reflejar el comportamiento de una psique humana particular. 144 comportamientos en sueños, mitos, leyendas y otros casos de literatura popular tradicional constituyen algunos modos de acceder a dicha configuración psíquica. El segundo concepto definido por Jung es el de “arquetipo”. En el ámbito de lo inconsciente se halla la “fantasía creadora”, cuyas producciones consienten la visualización de las ‘imágenes primordiales’29. Estas son proyecciones de "predisposiciones psíquicas inconscientes” (Jung, 1970:72), los arquetipos, que permiten la generación de reacciones específicamente humanas30. Dichas “formas funcionales” (Jung, 1970:72) contienen tanto el modo de actuar como la situación típica en la cual su actividad se desencadena. La universalidad de estas entidades permite explicar la pervivencia de ciertos personajes y situaciones en los textos considerados “clásicos” de diversas épocas, y comprender la atención renovada que han merecido los mitos de la antigüedad –a un tiempo producto de creaciones colectivas, expresión de la cosmovisión de un pueblo y espejo de aspectos del inconsciente colectivo propios de la especie humana–. Aunque se encuentran ocultas en el inconsciente de cada ser humano, estas resultan tan activas y vivas como las propias de la consciencia y “preforman e influyen el 29 La teoría junguiana se refiere a estas imágenes como “primordiales” por ser propias de la especie humana o haber sido producto de un proceso de formación que coincide con el origen de la especie: “Es la humanidad del hombre, la forma específicamente humana de sus actividades” (Jung,1970:73, las cursivas pertenecen al original). 30 El verdadero aporte de esta perspectiva consiste, en palabras de Jung, en haber demostrado que los arquetipos “no se difunden meramente por la tradición, el lenguaje o la migración, sino que pueden volver a surgir espontáneamente en toda época y lugar sin ser influidos por ninguna transmisión exterior" (1970:73). 145 pensamiento, el sentir y el actuar de cada psique" (Jung, 1970:73). El arquetipo, en tanto potencia, comporta forma y energía, que promueven su manifestación a través de cierta imagen en ocasiones lo suficientemente crítica como para propiciar su aparición y la toma de control de las acciones por parte del arquetipo implicado. Llegado este punto, es plausible preguntarse por la energía psíquica que mantiene vivas a producciones con más de dos milenios de vigencia, como los mitos. La clave de su pervivencia se halla, desde el punto de vista junguiano, en la fuerza que manifiestan sus personajes, cuyo comportamiento se liga a capacidades e intereses puestos en juego durante circunstancias límite determinadas. Al analizar bajo esta luz al personaje de Medea, pueden observarse rasgos de dos arquetipos femeninos: La Madre y el Anima, que fortalecen la configuración de la protagonista, justifican sus acciones y aseguran su recuerdo a través del tiempo. Los aspectos positivos y negativos subsumidos en la figura de la Gran Madre, pueden resumirse en dos imágenes: la de “una diosa benévola y luminosa y otra peligrosa y sombría" (Jung, 1970:95). Dada la tensión entre ambas “caras” de la Madre, estas suelen manifestarse como dos aspectos antagónicos separados, constituyendo dos “tipos” de madre: la “uránica” y la “ctónica” (la “madre-tierra”). En el caso de Medea, el aspecto que predomina e inmortaliza al personaje puede vincularse con el tipo 146 ctónico31. Esta figura tiende a relacionarse con "las tinieblas y con el carácter abismal del cuerpo humano [...] [con] su naturaleza animal impulsiva y pasional y, en fin, con la materia en general" (Jung, 1970:100). En consonancia con esta afirmación, puede recordarse no solamente el acto de asesinar a sus hijos (destacado por Eurípides), sino también el carácter vehemente del personaje, quien descuartiza a su hermano durante para huir exitosamente de la Cólquide. A estas características se suman su vínculo con las Medea Furiosa – Eugène F. artes mágicas, no solo en V. Delacroix, 1838. Óleo en su práctica (puesto que era lienzo, Musée des Beaux,envenenadora y hechicera), Arts, Lille, Francia. sino también en su parentesco con Hécate (patrona de las magas) y con Circe. Medea se resume, además, en una figura “que provoca miedo y no permite evasión"32 (Jung, 1970:75). En cuanto al arquetipo del Anima, Jung se refiere a esta noción como “lo vivo y causante de vida por sí mismo” (1970:32); el “arquetipo de la vida” (1970:39), generador 31 En la obra de Eurípides esto se encuentra matizado y se evidencia en algunos pasajes el amor que Medea siente por sus hijos, aunque finalmente se decide a matarlos. 32 Esta imagen es matizada por Eurípides. Los actos de Medea generan, junto con el horror, compasión, sentimiento expresado por el Coro. 147 del movimiento vital suficiente para evitar la inercia en el ser humano33: […] es el a priori de los estados de ánimo, reacciones, impulsos y de todo aquello que es espontáneo en la vida psíquica. Es algo viviente de por sí, que nos hace vivir; una vida detrás de la conciencia, que no puede ser totalmente integrada en ésta y de la cual, antes bien, procede la conciencia (Jung, 1970:33). Jung relaciona este aspecto del inconsciente con todo lo numinoso, lo “incondicionado, peligroso, tabú, mágico" (1970:34) que es proyectado, siempre, sobre mujeres. Estas suelen estar hermanadas con el mundo antiguo (por el carácter conservador de este arquetipo) y su aparición –prolífica en la literatura– desata fuerzas y destruye inhibiciones. Medea – William W. Story, 1865/1868. Escultura, Metropolitan Museum of Art, New York, EEUU. En el universo del Anima no existen las categorías de “lo bueno” y “lo malo”; este impulso vital se manifiesta más allá de cualquier regla moral. Al hallarse excluida de estos parámetros, puede “prescindir también de la injuria y la alabanza" (Jung, 1970:37). Por ello, sus características principales implican lo inesperado, lo caótico, lo inquietante y, a la vez, un sentido profundo, un “saber secreto o sabiduría 33 El psicólogo suizo advierte: “la expresión ‘Anima’ no debe ser confundida con los conceptos de alma cristiano-dogmáticos ni tampoco con ninguno de los que ha creado hasta ahora la filosofía” (Jung, 1970:54). 148 oculta, en notable oposición con su naturaleza élfica irracional” (Jung, 1970:37). El Anima oficia como síntesis de sabiduría y desatino. El carácter de Medea evidencia este vínculo con lo espontáneo. Basta observar su decisión de traicionar a su padre y su patria a causa del amor que siente por Jasón –lo que incluye el descuartizamiento de su propio hermano– y la decisión de venganza a causa de la afrenta marital de este. Asimismo, se relaciona, como se ha mencionado anteriormente, con lo incondicionado, lo peligroso, lo mágico. Su aparición en escena resulta siempre movilizadora, nadie puede permanecer impasible ante su presencia. Definidos los dos primeros elementos del sistema, procuraremos evidenciar brevemente el rol decisivo de las emociones en tanto puente entre lo particular (cierta versión del mito) y lo universal (el mundo de los arquetipos). 4.0. EMOCIÓN COMO CLAVE DE GENERALIZACIÓN En su libro El rizoma de la racionalidad. El sustrato emocional del lenguaje. Pedro Reygadas y Stuart Shanker evidencian la importancia insoslayable de las emociones a la hora de definir nuestra especie: “Decir humano es remitirse a ese entramado de lengua, emoción, cultura y racionalidad” (2007:338). Si bien la perspectiva de estos autores no acepta la condición de “universal” de las emociones, observa la existencia de “imágenes genéricas” de cada emoción, “que constituyen el centro atractor de la categoría” y “arquetipos históricos” (Reygadas y Shanker, 2007:339) de las emociones. Así, estas se configuran como un elemento humano genérico, con constituyentes fisiológicos, pero esencialmente modelados por la 149 experiencia y la cultura que, a su vez, toma por fundamento lo emotivo, base “del lenguaje [y] de todo el sistema social” (2007:337). Dos milenios antes de la publicación de El rizoma de la racionalidad, Eurípides parecía haber comprendido la importancia capital de las emociones en la configuración de personajes memorables, como puente transformador (“subjetivizador”) o puerta de acceso a lo universal, donde habita lo arquetípico (como puede observarse en el esquema propuesto por el método transcursivo comentado). En el caso escogido, la ira que experimenta Medea ante la traición de su consorte la transforma en la Madre terrible, vengativa, impulsiva y conocedora de los secretos de la tierra, capaz de envenenar a sus rivales y de matar a sus propios hijos para humillar a su traidor esposo. Esta ira34 es destacada por el dramaturgo en su propuesta de escenificación en numerosas ocasiones, desde el principio de la obra. Inicialmente Eurípides la presenta por boca de otros personajes y, posteriormente refuerza estas afirmaciones con cada aparición de la protagonista, cuyo carácter vehemente y apasionado se ve herido “ignominiosamente en la fibra más sensible de su corazón” (García Gual, 2007:90). He aquí una muestra de ello, en la versión de García Gual: [Nodriza:] Y temo que maquine algo funesto, que es de carácter vehemente y no puede sufrir injurias. 34 Resulta interesante considerar la ira como hybris en el personaje de Medea y como recurso performativo para destacar el poder destructor de esta emoción descontrolada. Teniendo en cuenta la función didáctica de la tragedia en la Grecia antigua, la ira desmedida podría considerarse como un sentimiento que merece el castigo de los dioses. Esta desmesura es la que “despierta” el monstruo en la protagonista y resulta su debilidad. 150 […] Repito que es de carácter vehemente y que ningún adversario triunfará de ella con facilidad (2007:90). [Pedagogo:] Aléjalos tú [a los hijos] cuanto puedas de su madre, y que no los vea airada. He observado el furor que expresaban sus ojos al mirarlos, como si algo tramara, y no se aplacará su ira, lo sé bien, como no la descargue en alguno (2007:92). [Nodriza:] ¿Qué hará en su rabiosa arrogancia, qué hará en su ánimo implacable, aguijoneado por el infortunio? (2007:93). [Medea:] […] ¡Hijos malditos, de funesta madre: que perezcáis con vuestro padre; que todo su linaje sea exterminado! (2007:93). [Coro:] […] las lágrimas corren aquí con furia” (2007:95). [Nodriza:] […] se lanza contra sus servidores como leona recién parida (2007:95). El aspecto oscuro de “lo femenino” encarna en el personaje particular propuesto por Eurípides en su reelaboración teatral, para un público muy posterior a los primeros receptores del mito o, incluso, en tiempos ulteriores a su propia época35. Eurípides logra así la síntesis entre lo particular (el mito) y lo universal (el arquetipo) al crear una pieza teatral individual (un nuevo objeto), puerta de acceso para nuevos públicos hacia lo intangible y esencialmente humano. Según García Gual, “Eurípides fue el autor trágico más leído en el período helenístico –romano en Alejandría–” (2007:15), si bien en vida sus éxitos como dramaturgo no fueron tantos como los de su contemporáneo (aunque mayor) Sófocles (2007:12 y 13). 35 151 5.0. CONCLUSIONES A partir de lo desarrollado a lo largo de estas páginas, pretendimos explicar la actualización del mito protohistórico de Medea en la tragedia homónima de Eurípides, compuesta en un tiempo muy posterior al mito que le dio origen. Luego de reparar en los detalles ofrecidos por el mito de Medea y en las características que elabora Eurípides de la heroína, observamos el papel decisivo de la ira en la configuración psicológica del personaje y las acciones que realiza. La actualización de la obra se concreta gracias al puente oficiado por las emociones, de carácter general, que permiten la manifestación de arquetipos universales en la obra, una de las claves de su actualización en la propuesta escénica realizada por el último de los tres grandes trágicos griegos. El método de la Lógica Transcursiva queda, así, modestamente ejemplificado a partir de esta aproximación realizada en el ámbito de las humanidades, en especial en el de la Literatura, sin que este primer paso implique un agotamiento de las posibilidades que el método escogido brinda. 152 REFERENCIAS Fuentes Eurípides (1974). Medea. Mendoza: Facultad de Filosofía y Letras – UNCuyo (Trad. Ignacio Granero). Eurípides (2007). “Medea” en Tragedias. Madrid: EDAF. (Trad. José Alemany y Bolufer). pp.83-184. Diccionarios Diccionario de la Lengua española en línea. Disponible en https://dle.rae.es/ Grimal, P. (1989). Diccionario de mitología griega y romana. Barcelona-Buenos Aires-México: Paidós. Ilustraciones Delacroix, E. (Artista). (1838). Médée furieuse [Medea furiosa] [Óleo en lienzo], Musée des Beaux-Arts, Lille, Francia. Extraído de http://www.pbalille.fr/Collections/Chefs-d-OEuvre/Peintures-XVI-supe-sup-XXI-sup-e-sup-siecles/Medee/(plus). Hernández Amores, G. (Artista). (ca. 1887) Medea, con los hijos muertos, huye de Corinto en un carro tirado por dragones [Óleo en lienzo], Museo del Prado, Madrid, España. Extraído de https://www.museodelprado.es/coleccion/obra-dearte/medea-con-los-hijos-muertos-huye-de-corinto-enun/861ddfe9-cef3-4428-832b-cafe0196ec17. Story, W. (Artista). (1865/1868). Medea [Escultura], Metropolitan Museum of Art, New York, EEUU. Extraído de https://www. metmuseum.org/art/collection/search/12651. Libros y artículos García Gual, C. (2007) “Prólogo” Tragedias. pp.9-27. Madrid: EDAF. en Eurípides. 153 Jacobi, J. (1976) La psicología de C. G. Jung. Madrid, España: Espasa-Calpe. Jung, C.G. (1970). Arquetipos e inconsciente colectivo. Barcelona-Buenos Aires, España-Argentina: Paidós Jung, C.G. (2009). “Glosario” en Recuerdos, sueños, pensamientos. pp. 469-484. Santiago de Chile, Chile: Seix Barral. Reygadas, P. y Shanker, S. (2007). El rizoma de la racionalidad: El sustrato emocional del lenguaje. México: Cenzontle Grupo Editorial y Universidad Autónoma de San Luis de Potosí. Salatino, D. R. (2017). “Lógica transcursiva como método”. En Creatividad, Investigación y Lógica Transcursiva, pp. 21-39. Mendoza, Editorial FRM – UTN. ISBN: 978-950-42-0179-3. Libro digital disponible en: https://archive.org/search.php?query=dante%20salatino Salatino, D. R. (2017). Tratado de lógica transcursiva: origen evolutivo del sentido en la realidad subjetiva. Mendoza, Autoedición. ISBN: 978-987-42-5099-5, disponible: https://archive.org/search.php?query=dante%20salatino Scaramella, D. (1974). “Introducción” en Medea. pp. 716. Mendoza: Facultad de Filosofía y Letras – UNCuyo (Trad. Ignacio Granero). “Young-Eisendrath, P. y Dawson, T. (1999). “Glosario” en Introducción a Jung. pp. 443-449. Madrid, España: Cambridge University Press. 154 7. DESDE LA POLICONTEXTURA TRANSCLÁSICA A LA TRANSCURSIVA Luciano Paolo Russo36 Resumen: El presente trabajo indaga el paso evolutivo de la lógica transclásica de Günther que cuenta con una explicación del sujeto desde lo volitivo, a la lógica transcursiva de Salatino que explica el proceso cognitivo en el sujeto. Se utilizó el concepto metateórico de evolución (progreso revolucionario) con inconmensurabilidad parcial para caracterizar la relación entre ambos métodos lógicos de explicar la realidad subjetiva. Se trata con dos intentos por modelizar el aspecto subjetivo de la existencia mediante el lenguaje: (i) por un lado, el transclásico policontextural implica abandonar los principios de la lógica clásica y aceptar la simultaneidad de contexturas opuestas y complementarias (heterarquía); (ii) por otro lado, el transcursivo que adapta “evolutivamente” la subjetividad a lo cognitivo; (iii) mediante una cuarta contextura que niega al sujeto emotivo para que surja el sujeto cognitivo, portador de un lenguaje universal. Concluimos que la modelización transcursiva de la experiencia subjetiva es una evolución teórica que implica inconmensurabilidad parcial con respecto a la transclásica, i.e. implica un cambio teórico al interior de la lógica que pretende explicar la existencia subjetiva en su aspecto cognitivo además de volitivo. Palabras claves: lógica, policontextura, lógica-transclásica, lógica-transcursiva, evolución, inconmensurabilidad. 36 Departamento de Filosofía – Facultad de Filosofía y Letras – Universidad Nacional de Cuyo. INCIHUSA – CCT-Mendoza – CONICET. 155 1.0. INTRODUCCIÓN Usualmente se entiende una revolución científica como el cambio drástico al interior de una teoría que consiste en el reemplazo de una teoría anterior por otra de mayor poder explicativo. Esta noción implica que para que un cambio teórico sea revolucionario es necesario que éste cumpla ciertos requisitos: i. la teoría reemplazante debe tener un mayor poder explicativo que la teoría reemplazada; ii. el lenguaje teórico de la teoría reemplazante no debe ser homologable con el lenguaje teórico de la teoría reemplazada. Por otro lado, una evolución científica es entendida usualmente como un largo período de cambio científico al interior de una teoría sin que exista un reemplazo de teoría, e.e. la astronomía de Ptolomeo hasta Copérnico (durante trece siglos aproximadamente). Aquí nos interesa introducir el marco filosófico de la filosofía evolucionaria de la ciencia (Marcum, 2013, 2015a, 2015b, 2017; Martínez y Olivé, L. (1997); Popper, et al. (1987)) para explicar la noción de inconmensurabilidad en términos de cambio teórico que implica la aceptación de una nueva teoría en base a una evolución de la anterior. El concepto intuitivo de evolución que utilizamos es el darwiniano clásico, i.e. los organismos se adaptan especialmente a ambientes que antes (de la evolución) les eran hostiles. La inconmensurabilidad (según Marcum) dentro de la filosofía evolutiva de Kuhn permite el aislamiento del léxico de una nueva especialidad respecto de una anterior para que pueda evolucionar en una especialidad distinta. 156 Marcum afirma que hay un vínculo evolutivo entre la estructura óntica profunda y nuestras facultades cognitivas evolucionadas para entenderla científicamente. En otras palabras (Marcum, 2017: 10) estamos epistémicamente adaptados al mundo en términos senso-perceptivos y cognitivos para entenderlo. La LT pretende explicar (no sólo describir) la lógica universal por la cual la subjetividad accede a la cognición del mundo por el lenguaje. 2.0. DESDE LA LPC A LA LT Con estas nociones en mente abordamos ahora el paso de la lógica policontextural de Günther (LPC) a la lógica transcursiva (LT) de Salatino, postulando que esta última representa una evolución (extensión) respecto de la anterior, en el sentido de que explica los aspectos cognitivos de la subjetividad cuando la LPC sólo da cuenta satisfactoriamente de los aspectos volitivos. El concepto de cambio teórico que se baraja en esta filosofía evolutiva de la ciencia responde más a una especiación a partir de un stock parental (especialización teórica en forma de árbol teórico a partir de un tronco común) que a un reemplazo total de una teoría por otra. Este es el caso, por ejemplo, de la revolución copernicana a mediados del siglo XVI y antes de Galileo. La lógica transcursiva se las ve con el sujeto en su existencialidad vital, no sólo en su realidad objetiva como sujeto sino en su realidad subjetiva incluida en su entorno, esto constituye la policontextura heterárquica desde la cual el sujeto volitivo-cognitivo explora el mundo en búsqueda de su supervivencia. En la LT sujeto y objeto son opuestos, complementarios y concurrentes. 157 La teoría de Günther se limita a caracterizar la cognición por medio de una jerarquía “…como una relación ordenada de materia y forma…” (Tratado de Lógica Transcursiva: 130) y la LT propone ver la contextura de la cognición heterárquicamente (simétricamente) con la de la volición. Salatino cambia el “someterse” de la razón de Günther al entorno, por un “adaptarse” que implica un cambio profundo en la relación de la subjetividad con el entorno objetivo. El error de Günther consistió en utilizar sólo tres contexturas heterárquicas en lugar de cuatro, caracterizando solamente el aspecto subjetivo de la volición pero no completamente el de la cognición. La LT propone una cuarta contextura (cuarta negación) que permite ir de las relaciones superficiales a las profundas (reorganización) por un nuevo ciclado. Otra de las limitaciones de la LPC de Günther es que en el fondo nunca se separó de la lógica bivaluada en su propuesta, en cambio la LT deduce la realidad subjetiva como posible dentro de una distribución heterárquica de sistemas jerárquicos. Salatino considera a la “nada” como una contextura, aquella de la relación profunda y reorganizadora de la realidad subjetiva. El error de Günther fue buscar con el método científico para demostrar su intuición, lo cual subsana el método de la LT. Un objetivo de la LT es unir la razón y la voluntad como dos aspectos opuestos de una misma entidad: la psiquis. Frente a la LPC que sigue en la lógica binaria (aristotélica) que divide estas realidades subjetivas y que sólo encuentran primera unidad en el pensamiento de Hegel. Sin embargo Günther lo pone en términos de manifestaciones recíprocas de una y la misma configuración ontológica (esto es lo que la LT de algún 158 modo divide, al tiempo que une heterárquicamente con su teoría del mecanismo del pensamiento, la psiquis) Un aporte de la LPC de Günther a la LT es que la causalidad, por su pasaje a través de un sistema vivo, sufre un cambio radical de carácter. En otras palabras, la causalidad de la “contextura objetiva” del universo hace un bucle (cicla) a través de la subjetividad y hacia el entorno. Este último es el principio guía de toda la lógica de Günther y lo que inspiró el surgimiento de LT. Frente al equilibrio estático que persigue la ciencia tradicional, propio del mundo inerte, la LT descubre el equilibrio dinámico, un desequilibrio estable que permite mantener la vida. Los PAUs muestran cómo es la dinámica de este desequilibrio estable de manera estructural y funcional. Cada sujeto en LT es un centro volitivo y cognitivo independiente y relativamente objetivo respecto de su actividad propia, e.e. en relación de intercambio con los aspectos objetivos de la realidad. 3.0. FUNDAMENTOS DE LA LT Según la LT el mundo que nos rodea está compuesto de hechos, i.e. de las relaciones entre un sujeto y un objeto genéricos a través del cambio (aparente) Esta descripción del ente es simplemente brillante y constituye un giro en la lógica policontextural transclásica hacia una ontología completa de la subjetividad. Pero la evolución no se produce sino hasta la introducción de la cuarta contextura, el nicho ontológico de la nada, la cuarta negación que desorganiza y reorganiza al mismo tiempo. Los límites de eso que llamamos hecho son aquello que objetualiza al ente y lo pone frente a la subjetividad plausible de ser conocido. En primera instancia el sujeto subjetivo se pone a sí mismo como sujeto cognoscente 159 (y volente) frente a un sujeto objetivo que se muestra como objeto cognoscible para una subjetividad. En segunda instancia el objeto es transformado en el sujeto mediante una función de cognición que lo reordena y lo pone en relación con la subjetividad. El ciclo ahora pasa por la nada como contextura para reorganizar al sujeto y así cumplir con la existencia cognoscente de la subjetividad. Lo antedicho en términos de Günther sería explicar la realidad en términos de una primera negación que genera un mundo objetivo y en donde está el objeto; una segunda negación, en donde está el sujeto y su aspecto volitivo; y una tercera negación que genera el mundo de la doble reflexión, en donde está lo subjetivo con su aspecto cognitivo. El ciclo entre estas identidades de reflexión es una heterarquía . Hay que rescatar algunos aspectos del enfoque de Günther: a. Los conceptos de jerarquía y heterarquía nos plantean una realidad estructurada en niveles; b. El aspecto jerárquico no alcanza para una determinación completa de la realidad; c. El aspecto heterárquico muestra la interrelación entre sistemas cerrados y abiertos y su nivel de acoplamiento. Günther también propuso el lenguaje negativo (de varias negaciones) que justifica la distribución heterárquica de varios sistemas binarios en múltiples contexturas. Tratar con lo subjetivo (viviente) es un problema puesto que existen fenómenos que están distribuidos sobre una pluralidad de dominios lógicos. La LPC hace algunos aportes: i. remueve la ambigüedad que se produce en la representación de la relación S/O. ii. Introduce un nuevo concepto de identidad. iii. las formas de expresión identitarias pueden manifestarse 160 simultáneamente. iv. un nuevo proceso inductivo que se configura al saltar fuera del sistema (del límite). v. Nuevas identidades: sujeto (S), objeto (O), sujeto objetivo (SO) y sujeto subjetivo (SS) como valores lógicos. vi. plantea una heterarquía o una circularidad distribuida de valores lógicos. 4.0. APORTES DE LA LT La LT muestra y resuelve algunas limitaciones de la LPC: a. los operadores lógicos transclásicos (transjuntores) son reemplazados por operadores del álgebra de Boole; b. la necesidad de una máquina transclásica teórica es cubierta por el patrón autónomo universal (PAU); c. LT maneja el tiempo interno o psíquico; d. la falta de un lenguaje en el cual especificar la interacción simultánea entre las contexturas genera la propuesta transcursiva de un lenguaje universal; e. la no caracterización integral de la subjetividad frente a la cual la LT agrega una cuarta contextura para dar cuenta de la cognición como su fundamento primordial. La LT propone mediante su lenguaje universal (en lugar del lenguaje negativo solamente) cuatro nichos o contexturas: i. el sujeto que es identificado con el desorden (01); ii. el objeto que es identificado con el orden (10); iii. el factor organizador donde se da una copresencia disyuntiva de designaciones, representa el cambio evidente o transformación que afecta al S y al O al relacionarse (11); iv. un cambio oculto o profundo que actúa como desorganizador de su sistema de relaciones donde se da la co-ausencia conjuntiva de designaciones (00) La ontología de la LT queda definida por el patrón autónomo universal compuesto por dos tríadas: una superficial, representando lo aparente de la realidad, y 161 otra profunda que habla del constituyente oculto de cualquier hecho real. Dados dos atributos se generan binariamente los nichos mediante una combinación de los mismos en dos elementos que son a la vez opuestos y complementarios. Los aspectos estáticos (S y O) están en relación con los aspectos dinámicos del sistema (relación evidente y relación profunda): la co-presencia de los atributos básicos liga transformando (organiza) en forma evidente ambos elementos estáticos; y la co-ausencia de los atributos básicos que destruye la ligadura entre los elementos estáticos. Como corolario LT no sigue ninguno de los principios de la lógica clásica: en LT la identidad es compuesta; es posible que una cosa sea y no sea al mismo tiempo y bajo el mismo respecto porque S y O tienen contexturas distintas; y hay cosas que tienen al mismo tiempo una propiedad y otra como las transformaciones. Establece así una causalidad cíclica frente a la causalidad lineal de la lógica tradicional bivaluada. El interjuego lógico entre volición y cognición se hace evidente en la realidad cotidiana mediante la vida, el conocimiento y el lenguaje que son las únicas manifestaciones subjetivas genuinas. 5.0. CONCLUSIÓN El contraste entre las propuestas de Günther y de Salatino cumple al menos con el requisito i. la teoría reemplazante debe tener un mayor poder explicativo que la teoría reemplazada, para ser un cambio revolucionario dentro de la lógica ya que aporta a la explicación de la subjetividad la relación entre volición y cognición mediante la cuarta negación. 162 Además cumple con el requisito ii. el lenguaje teórico de la teoría reemplazante no debe ser homologable con el lenguaje teórico de la teoría reemplazada, ya que el lenguaje teórico de LT agrega la cuarta contextura, el nabla, la relación profunda, que es un concepto que no está en LPC güntheriana. De manera que podemos hablar en este sentido de una revolución dentro de la lógica. Pero nuestra concepción de revolución está asociada a la filosofía evolucionista de la ciencia como Marcum la plantea. De manera que tal revolución es vista aquí como una evolución, una adaptación de la LT a la resolución de un problema que la LPC no podía solucionar, a saber el de explicar satisfactoriamente los aspectos cognitivos de la subjetividad. No queremos dejar cerrado el camino a futuras investigaciones que arrojen luz sobre el impacto del aporte de la lógica policontextural y especialmente de la transcursiva en la comunidad científica internacional. Simplemente sentar alguna base para dimensionar los aportes de Günther y Salatino a la lógica de la vida y del sentido, tan relevante para la filosofía hoy como lo fue en tiempos de Aristóteles. El recorrido histórico que hace Salatino (2017) en la obra que citamos en este trabajo del concepto de lógica desde Aristóteles, pasando por Hegel y Peirce, hasta Günther y su propia propuesta transcursiva, constituye en sí mismo un aporte esclarecedor sobre los problemas filosóficos que involucra la reflexión sobre el rol del sujeto en la lógica y el rol de la lógica en la explicación de la realidad subjetiva. Esperamos haber mostrado al menos inicialmente la evolución acaecida al interior de la lógica transclásica 163 policontextural desde la propuesta de Günther aún incompleta y la propuesta de Salatino que permitió completar el valioso aporte de Günther a la lógica. 164 REFERENCIAS Marcum, J. A., (2013). Wither Kuhn's historical philosophy of science? An evolutionary turn. En: P. Hanna, ed. An anthology of philosophical studies. Athens: Athens Institute for Education and Research, pp. 99-109. Marcum, J. (2015a). Thomas Kuhn's Revolutions. A Historical and an Evolutionary Philosophy of Science?. London: Bloomsbury. Marcum, J. (2015b). The Evolving Notion and Role of Kunh's Incommensurability Thesis. En: W. J. &. B. A. Devlin, ed. Kuhn's Structure of Scientific Revolutions - 50 Years On. Dordrecht: Springer, pp. 115-134. Marcum, J., (2017). Evolutionary Philosophy of Science: A New Image of Science and Stance towards General Philosophy of Science. Philosophies, 2(25), pp. 1-11. Martinez, S. F. y Olivé, L. (comp), (1997). Epistemología evolucionista. México - Buenos Aires - Barcelona: Paidós. Popper, K. R.; Campbell, D. T.; et. al., (1987). Evolutionary Epistemology, Rationality and the Sociology of Knowledge. Tercera ed. (1993) La Salle, Illinois: Open Court. Salatino, D., (2017). Tratado de Lógica Transcursiva. Origen evolutivo del sentido en la realidad subjetiva. Mendoza, Autoedición. ISBN: 978-987-42-5099-5, disponible: https://archive.org/search.php?query=dante%20salatino *** 165 166 167 168 8. REFUNCIONALIZACIÓN DEL CONCEPTO SISTEMA DE ECUACIONES LINEALES Crecimiento de poblaciones y cadenas de Markov Ana María Narvaez37; Juan Norberto Ferraro38 Resumen: En los contenidos mínimos de Álgebra Lineal y Geometría Analítica aparecen aplicaciones de Sistemas de Ecuaciones Lineales (SEL) al crecimiento de población y a cadenas de Markov que por problemas de tiempo no se dan en las clases. El propósito de este trabajo es rediseñar el contenido clásico SEL como un modelo de estado lineal dinámico y discreto que permita explicar la solución de una ecuación en diferencia lineal. De este modo adquieren relevancia los modelos mencionados para ser incorporados a los contenidos curriculares. La metodología empleada ha consistido en trabajar en el contexto de aplicación y retroalimentar el contexto de educación, teniendo presente que el conocimiento científico reconoce cuatro contextos: producción, justificación, educación y aplicación. En el contexto de aplicación se discuten las aplicaciones del conocimiento científico, su utilidad, su beneficio o perjuicio para la comunidad o la especie humana; este contexto es el más relacionado con la Ingeniería. En esta contribución se han obtenido un conjunto de competencias que pueden desarrollar los estudiantes dentro del marco de los Estándares de Segunda Generación para la Acreditación de las Carreras de Ingeniería, propuestos por el CONFEDI, transformando las prácticas docentes y, en consecuencia poder migrar a una planificación de SEL que muestre un modelo de aprendizaje centrado en competencias en lugar de uno centrado en contenidos. Palabras claves: sistema de ecuaciones lineales (SEL), modelo de estado discreto lineal, competencias 37 Grupo IEMI, F. R. Mendoza, UTN. Departamento de Ciencias Básicas de Facultad de Ingeniería, UNCuyo 38 Departamento de Electrónica y Electromecánica de UTN, FRM. Departamento de Ciencias Básicas de Facultad de Ingeniería, UNCuyo 169 1.0. INTRODUCCIÓN En los contenidos mínimos de Álgebra y Geometría Analítica vigentes en las carreras de Ingeniería de la UTN aparecen aplicaciones de sistemas de ecuaciones lineales (SEL) al crecimiento de poblaciones y a cadenas de Markov, que por razones de tiempo, en la UTN, Facultad Regional Mendoza, no se dan en las clases que son presenciales, habiéndose utilizado un criterio de utilidad para tomar esta decisión en los años precedentes. El objetivo propuesto en este trabajo es refuncionalizar el concepto SEL como modelo matemático de sistemas de estado dinámico lineales y discretos. Por definición, el estado de un sistema dinámico es el conjunto más pequeño de variables (llamadas variables de estado) tal que, el conocimiento de esas variables en un determinado tiempo t0 junto con el conocimiento de los valores de la señal de entrada para los instantes t  t0, permite determinar el comportamiento y evolución del sistema para cualquier instante t  t0. Las variables de estado se agrupan en el llamado vector de estado y el espacio n-dimensional que determinan los posibles valores de esas variables, se denomina espacio de estado. Se entiende a un sistema de estado discreto como un operador matemático que transforma una señal de entrada o de excitación (input), representada mediante x(n) o xn que es un vector genérico del espacio ndimensional, en otra de salida (output), representada mediante y(n) o yn que también es un vector n dimensional, por medio de un grupo finito y fijo de leyes y funciones; en símbolos, yn = T xn , o bien yn = T(xn) 170 donde T es un operador algebraico o mapeo o transformación lineal sobre el espacio n-dimensional, conocido como procesamiento en las aplicaciones, realizado por el sistema sobre xn para producir yn. Un sistema de estado lineal es aquel que satisface el principio de superposición; es decir, la respuesta del sistema a una suma ponderada de señales es igual a la correspondiente suma ponderada de las salidas a cada una de las señales de entrada. O bien, un sistema es lineal si para dos entradas cualesquiera xn y x’n y dos constantes arbitrarias a y b, se cumple para la transformación lineal matemática T, que la transformación (o transformada) de la combinación lineal axn + bx’n es igual a la combinación lineal de las transformaciones, es decir T(a xn + b x’n) = a T(xn) + b T(x’n) 2.0. METODOLOGÍA PARA LA ENSEÑANZA Según se indicó anteriormente, se deberían dar las mencionadas aplicaciones utilizando como objeto matemático SEL. En consecuencia, surgen las siguientes preguntas: ¿cómo vincular SEL con estas aplicaciones?; en otras palabras, ¿cómo explicar el uso del modelo matemático SEL para obtener resultados en las cadenas de Markov o en crecimiento de poblaciones? Una explicación posible es entender que los modelos reales de cadenas de Markov y crecimiento poblacional se pueden representar algebraicamente de la forma xk+1 = A xk, con k = 1, 2, …,n, …; (1) donde xk+1 es un vector de estado correspondiente al periodo k+1, xk es el vector del periodo anterior k y A es la matriz de datos o de información del proceso que transforma el vector del estado k en el vector del estado 171 k+1, A es la matriz de nxn que representa matricialmente al operador matemático T. Es decir, xk+1 = T(xk) es equivalente a escribir xk+1 = Axk La matriz A de transición de estados o, simplemente matriz de transición, contiene toda la información sobre movimientos libres del sistema descrito por (1). Estos movimientos libres se refieren a los cambios de estado o evolución del estado del sistema en ausencia de entrada. La expresión (1), matemáticamente es una ecuación vectorial en el espacio n-dimensional, en diferencias o recursiva y, lineal. Usando el álgebra matricial en (1), se escribe I xk+1 - A xk = 0, donde I es la matriz identidad de nxn. Si y sólo si cuando k aumenta indefinidamente (k →  ) y se observa que xk+1 = xk = u, entonces se puede escribir Iu – Au = 0 O bien (I – A) u = 0 (2) que es la expresión matricial de un SEL homogéneo, siendo I-A la matriz de coeficientes del SEL, u el vector de estado de variables o incógnitas del SEL y O el vector cero de términos independientes del SEL. 3.0. CADENAS DE MARKOV Consideremos un sistema que está, en cualquier momento dado, en uno y sólo un estado entre una cantidad finita de ellos. Por ejemplo, el clima en cierta región puede ser lluvioso o despejado; vivimos en un 172 área urbana, suburbana o rural; compramos un celular marca A, B o cualquier otra; etc. Al pasar el tiempo, el sistema puede pasar de un estado a otro y, supondremos que el estado del sistema es observado a periodos fijos (cada día, cada semana, cada año, etc.). En muchas aplicaciones se conoce el estado actual del sistema y se desea predecir el que tendrá en el siguiente periodo de observación o en cualquier otro. Definición Una cadena de Markov o proceso de Markov es aquel en el que la probabilidad de que el sistema esté en un estado particular en un periodo de observación dado, depende solamente de su estado en el periodo de observación anterior. Supongamos que el sistema tiene n estados posibles. Para cada i = 1, 2,…, n y cada j = 1, 2,…, n, sea aij la probabilidad de que si el sistema se encuentra en el estado j en cierto periodo de observación, estará en el estado i en el siguiente; aij recibe el nombre de probabilidad de transición. Además, aij se aplica a cada periodo; es decir, no cambia con el tiempo. Como aij es una probabilidad, se cumple que 0  aij  1 para todo i,j Además, si el sistema está en el estado j en cierto periodo de observación, entonces debe estar en alguno de los n estados (también puede permanecer en el estado j) en el siguiente, o sea a1j + a2j + …+ anj = 1. Es conveniente disponer las probabilidades de transición como elementos de la matriz A = (aij) de nxn, llamada matriz de transición, o matriz de Markov o estocástica (el término estocástico quiere decir “conjetura respecto a”) o de probabilidades. 173 Ejemplo Supongamos que una consultoría dedicada al estudio de mercados está analizando la preferencia de los consumidores respecto de dulces cada semana. Se ha determinado que 50% de las personas que actualmente utilizan la marca A, la comprarán de nuevo la próxima semana, 25% cambiará a la marca B y 25% preferirá alguna otra. De las personas que ahora consuman la maca B, 30% la comprará otra vez la próxima semana, 60% optará por la marca A y 10% cambiará a otra. De los consumidores que actualmente compran otra marca, 30% adquirirá de nuevo otra marca la próxima semana, 40% escogerá la marca A y 30% cambiará a la B. Los estados A, B y C representan las marcas A, B y otra marca, respectivamente. Las probabilidades de que una persona que consume la marca A cambie a la marca B es 0,25; la probabilidad de que una persona que consume la marca B la siga comprando es 0,3, y así sucesivamente. Por lo tanto, la matriz de transición de esta cadena de Markov es 0,50 0,60 0,40   A = 0,25 0,30 0,30   0,25 0,10 0,30 Ahora se utilizará esta matriz de transición para determinar la probabilidad de que el sistema se encuentre en cualquiera de los n estados en el futuro. Sea xk = [x1k x2k x3k]T , k > 0 el vector de estado del proceso de Markov en el periodo de observación k, donde xjk es la probabilidad de que el sistema se encuentre en el estado j en el periodo de observación k. Al vector x0, que denota el vector de estado en el periodo 0, se le llama vector de estado inicial. 174 Se puede demostrar que si A es la matriz de transición de un proceso de Markov, el vector de estado xk+1, en el (k+1)-ésimo periodo de observación, puede determinarse a partir del vector de estado xk en el késimo periodo de observación como xk+1 = A xk. Utilizando la expresión (2), (I – A) u = 0, queda el siguiente SEL homogéneo  0,50 − 0,60 − 0,40 − 0,25 0,70 − 0,30   − 0,25 − 0,10 0,70   u1  u  =  2 u 3  0  0    0  Resolviendo por el método de eliminación gaussiana, se obtiene el siguiente conjunto solución  2,3t     3 S =  1,25t  IR     t      Es importante tener en cuenta que si bien el modelo matemático tiene la solución trivial más infinitas soluciones no triviales para cada valor real de t, el modelo real de una cadena de Markov tiene solución única que verifica la restricción que la suma de las componentes del vector de probabilidad es igual a 1, es decir 2,3t + 1,25t + t = 1, de donde t = 0,2198 Por lo tanto, u = [0,5055 0, 2747 0,2198]T Interpretación: cuando n crece, los vectores de estado tienden al vector fijo u = [0,5055 0, 2747 0,2198]T. Esto quiere decir que, a largo plazo, la marca A tendrá el control de cerca del 51% del mercado, la marca B 175 dominará aproximadamente el 27% del mercado y las otras marcas tendrán la preferencia del 22% restante. Observación Otra explicación consiste en ver la forma recursiva de la ecuación en diferencia xk+1 = A xk = A (A xk-1) = A2 xk-1 = A2(A xk)=A3xk =....= Ak+1 x0 xk+1 = Ak+1 x0 Es decir, el vector del estado k+1 sólo depende de la potencia k+1 de la matriz de transición A y del vector de estado inicial x0. Si en el ejemplo, x0 = [0,2 0,2 0,6]T, x1 = A x0 = [0,4600 0,2900 0,2500]T x2 = A x1 = A2 x0 = [0,5040 0,2770 0,2190]T x3 = A x2 = A3 x0 = [0,5058 0,2748 0,2194]T x4 = A x3 = A4 x0 = [0,5055 0,2747 0,2198]T x5 = A x4 = A5 x0 = [0,5055 0,2747 0,2198]T En consecuencia, cuando n crece los vectores tienden al vector fijo u = [0,5055 0,2747 0,2198]T, idéntico al calculado mediante el SEL. 4.0. CRECIMIENTO DE POBLACIONES Un modelo de crecimiento de población, se estudia a lo largo del tiempo. En el caso que nos ocupa se cuenta la población en ciertos puntos discretos del tiempo, tal como cada año, o cada segundo, etc. Aquí no es importante la naturaleza de estos individuos, personas, bacterias, etc., sino su número. Un ejemplo clásico son las poblaciones de competencia. Ejemplo Sea el caso de dos poblaciones, de zorros y gallinas, que compiten una contra otra. Los números de estas poblaciones se denotan mediante zi y gi que 176 corresponden al conteo de zorros y gallinas, respectivamente. Suponga que las gallinas, sin zorros que las molesten, tienen una tasa de natalidad que excede a la tasa de mortalidad, supongamos que gi+1 = 1,2 gi. Sin gallinas para alimentarse, sería de esperar que los zorros comenzarán a extinguirse, sea por ejemplo zi+1= 0,6 zi. El modelo cuando los zorros tienen éxito devorando cierto número de gallinas en cada periodo de tiempo, suponiendo que esto permitiera un incremento en la población de zorros proporcional al número de gallinas devoradas, por ejemplo, sea zi+1= 0,6 zi+ 0,5 gi. La población de gallinas comenzará a decrecer debido a los zorros, de modo que se toma gi+1 = 1,2 gi - kzi , donde k representa la tasa de gallinas devoradas por zorros; k permanece como variable para estudiar el efecto de diferentes tasas de mortalidad. Suponiendo que existe un número inicial de 1.000 gallinas y de 100 zorros, se obtiene el modelo zi+1 = 0,6 zi + 0,5 gi y gi+1 = -kzi + 1,2 gi para i = 1,2,…. con zi = 100 y gi = 1.000. Expresando matricialmente el comportamiento de estas poblaciones conforme pasa el tiempo, se tiene z i+1  = gi+1  xi+1 =  0,6 0,5 0,6 0,5 z i  − k 1,2  g  , donde A = − k 1,2  y   i     100  . 1000 x1 =  El modelo es xi+1 = A xi para i = 1,2,… y se resuelve mediante un SEL como en el caso de la cadena de Markov. Cabe destacar que en esta situación no se tienen las condiciones adicionales de la suma de 177 componentes del vector igual a 1. De modo que el modelo puede dar dos tipos de comportamiento totalmente diferentes, para diferentes valores de k. Otra explicación posible es mediante el estudio de las potencias de la matriz A como en las cadenas de Markov, puesto que xi+1 = Ai x1 para i = 0,1,2,… 5.0. LOS CONTEXTOS Actualmente se reconoce que el conocimiento científico se despliega en cuatro contextos: descubrimiento, justificación, educación y aplicación. Tradicionalmente estos contextos aparecían desligados unos de otros. El contexto de descubrimiento, lugar donde se gestan las teorías e hipótesis científicas, estaba reservado al ámbito de la psicología, pero sin mucha esperanzas de lograr un tratamiento metódico del mismo, con lo cual aparecía más cercano a lo que Kant denominaba ‘imaginación’. El contexto de justificación, en cambio, era el propio de la ciencia. Las diferentes escuelas epistemológicas y metodológicas nos proponían métodos alternativos para lograr la validación del conocimiento científico, al tiempo que se desvinculaba de la cuestión del descubrimiento. Por ejemplo, el influyente Círculo de Viena con sus métodos inductivos y el falsacionismo popperiano con su método hipotético hipotético-deductivo renegaban ambos de la pertinencia del contexto de descubrimiento para la ciencia. El contexto de educación, por su parte, estaba reservado a los pedagogos y no tenía mayor importancia para los científicos. Simplemente se trataba de la transmisión del conocimiento en las instituciones. En otras palabras, se consideraba que el contexto de educación se ocupaba sólo de reproducir lo que los 178 científicos habían logrado, pero sin tener incumbencia en los otros contextos. Finalmente, el contexto de aplicación, que ocupaba un lugar secundario para el pensamiento clásico y que se transformara en una instancia importante de reflexión para la ciencia a partir del advenimiento de la segunda revolución industrial, también había sido descuidado en sus relaciones con los otros contextos mencionados. Sin embargo, varias reflexiones contemporáneas han superado esa visión sesgada del conocimiento científico y han puesto de relieve la interdependencia entre los contextos señalados. Así se ha tematizado la influencia del contexto de aplicación en el quehacer científico por un proceso de feedback. La tecnología lejos de actuar desligada de la ciencia o de ser un corolario de ella, impone rumbos de trabajo al científico, a la vez que modifica el conjunto de instrumentos con los cuales aquél obtiene su visión del mundo. Pero no sólo esto, el contexto de aplicación también influye en la educación, a través de las nuevas tecnologías y obliga a cambios radicales y permanentes de todo el sistema educativo con los nuevos contenidos que es necesario incluir. El contexto de educación ha sido analizado y se ha descubierto la influencia que tiene no sólo en la formación sino también en la práctica de la ciencia. En este sentido, Thomas Kuhn fue uno de los autores que ha puesto de manifiesto que la educación que recibe el científico es trascendental para el análisis de la ciencia, a través de la noción de paradigma o de matriz disciplinar. Lejos de ser un elemento que el científico olvida en su práctica, la educación es esencial para entender la permanencia en el tiempo de las matrices disciplinares. Junto con lo anterior, el contexto de educación se ve fuertemente influido por los otros: 179 qué sea relevante para la educación de los futuros científicos, determinará las líneas directrices del sistema educativo en todos sus niveles. El contexto de descubrimiento, por su parte, ya no es considerado ajeno a la ciencia. Cómo se llega a las teorías científicas ha sido estudiado por las corrientes epistemológicas contemporáneas post kuhneanas, demostrando así que los otros contextos de la ciencia son en gran medida interdependientes y, además, que la ciencia está íntimamente relacionada con otras expresiones humanas, como son la cultura, la religión y la política. 6.0. FUNDAMENTACIÓN Como se indicó anteriormente, el conocimiento científico reconoce cuatro contextos, los cuales están interrelacionados. Esta nueva forma de entender el conocimiento científico nos señala la necesidad de articular los contextos y de que la enseñanza no puede ser considera escindida de los otros contextos. Dicha situación impacta de lleno en la enseñanza de las carreras de ingeniería a través de la idea de ‘competencias’, la cual plantea la necesidad de lograr una formación donde el futuro ingeniero pueda tender puentes con la práctica profesional. Las competencias surgieron frente a la necesidad de lograr que el saber enseñado en la currícula de las diferentes carreras sirva efectivamente en la práctica profesional. Así entendida, para obtener una competencia bastaba lograr una adecuada integración entre universidad y sector productivo. Sin embargo, actualmente se da dentro del ámbito profesional y productivo una obsolescencia acelerada de los saberes. Por ello, las competencias ya no son un mero ‘saber hacer’. En este sentido, cobran especial relevancia las competencias formativas también en el ámbito profesional porque son estas las que 180 brindan esquemas conceptuales amplios que permiten la adaptación y el auto- aprendizaje. 6.1. COMPETENCIAS El concepto de competencias ligado a la profesión se observa claramente en el trabajo de Zablaza Beraza, titulado “El trabajo por competencias en la enseñanza universitaria”, en donde se sostiene que el enfoque del trabajo didáctico por competencias supone una forma distinta de afrontar la enseñanza universitaria. Estamos acostumbrados a pensar la formación universitaria en términos de listas de materias, de modo que cualquier cosa que altere esa lógica parece un «salto en el vacío» muy difícil de visualizar. Sin embargo, las competencias no son otra cosa que un planteamiento de la formación que refuerza la orientación hacia la práctica, tomando como punto de referencia el perfil profesional. Frente a una orientación basada en el conocimiento (concebido en abstracto, como un conjunto amplio e indeterminado de saberes disciplinarios situados en un espacio científico generalmente borroso), las competencias constituyen una aproximación más pragmática al ejercicio profesional (concebido como el conjunto de acciones o funciones que desarrollan un buen profesional en el ejercicio de su actuación profesional). La formación basada en competencias ha llegado a constituir un amplio y extenso movimiento (competencybased education and training) que se ha proyectado sobre numerosos campos profesionales: educación, medicina, enfermería, danza, ingeniería, abogacía, administración de empresas, etc. Dado que la formación, sobre todo cuando va ligada al ámbito profesional, está muy relacionada a la acreditación, el enfoque de las competencias ha acabado bifurcándose 181 en dos grandes ramas: la mencionada formación basada en competencias, y la evaluación de las competencias poseídas. (Zablaza Beraza, 2016) De acuerdo con Lay (Lay, 2017), las competencias específicas que se pueden desarrollar en el alumno trabajando de la manera mencionada son: Modelar y resolver los problemas de aplicación de SEL mencionados utilizando los métodos de eliminación gaussiana y de Gauss-Jordan. Modelar en forma de ecuación vectorial problemas de crecimiento de población y cadenas de Markov y resolver e interpretar sus soluciones en términos de los vectores que las generan. Relacionar el concepto de conjunto generador con los SEL. 7.0. CONCLUSIONES Es necesario trabajar en la formación docente en el enfoque por competencias en carreras de Ingeniería para potenciar el desarrollo de competencias en los estudiantes, futuros ingenieros, al menos, porque como docentes podemos plantear más hipótesis explicativas. A tal efecto, primero se debería tener en claro qué competencias deseamos desarrollar para, posteriormente, redactar documentos sobre el contenido que se desarrollará con los estudiantes. Los modelos científicos en general, y, los modelos matemáticos para crecimiento de poblaciones y cadenas de Markov, que permiten predecir, tienen una base que facilita la construcción de recursos didácticos. Y la doble condición empírico-matemática del modelo lo habilita para establecer cómo se puede aprender de ellos cuando se usan para representar la realidad. 182 Los contextos del conocimiento científico están íntimamente relacionados; sin embargo, es útil distinguirlos y analizarlos. El contexto de aplicación es sumamente relevante para la Ingeniería, porque es en este contexto donde trabaja principalmente. Es importante reconocer el lenguaje compacto que ofrecen las matrices en las ciencias en general y en las ciencias ingenieriles en particular. Asimismo, las distintas representaciones matriciales de operadores enriquecen la enseñanza mediante los cambios de registros de representación semiótica 7.1. FUTURAS LÍNEAS DE TRABAJO Los temas de crecimiento de poblaciones y cadenas de Markov se pueden retomar en el tema Eigensistemas, al finalizar el programa de la asignatura pues, la convergencia o estabilidad de los modelos a un valor de estado de equilibrio, depende del radio espectral (el valor absoluto del mayor eigenvalor de la matriz de transición). 183 REFERENCIAS Berman, C., Narvaez, A. (2015) El Lenguaje de la Matemática. Modelos para la enseñanza. En Conceptos y lenguajes en ciencia y tecnología. Vol.3, Cuadrado et al. [ed], Univ. de Valparaíso, pp. 223234. Calderón, J. (2014) Cómo evaluar el contexto de aplicación. En Educación en ciencias empíricas en Facultades de Ingeniería. Buenos Aires: UTN. FRM. pp.84-92. CONFEDI, Propuesta de estándares de segunda generación para la acreditación de carreras de ingeniería en la República Argentina: ‘Libro rojo del CONFEDI’, mayo 2018.Disponible en: https://www.ing.unlp.edu.ar/sitio/institucional/difusion/ archivos/LIBRO_ROJO_DE_CONFEDI_estandares_d e_segunda_generacion.pdf Duval, R. (1995) Semiosis y pensamiento humano. Registros semióticos y aprendizajes intelectuales. Universidad del Valle. Instituto de Educación y Pedagogía, Grupo de Educación Matemática. Peter Lang S. A. Editions scientifiques européennes. Kolman, B.; Hill, D. (2006). Álgebra Lineal. Pearson Prentice Hall, Mexico. Lay, David (2017) Álgebra Lineal con enfoque por competencias. Argentina: Pearson. Zabalza Beraza, M.A, (2016) La formación por competencias: entre la formación Integral y la empleabilidad”, Disponible en: http://tecnologiaedu.us.es/formaytrabajo/Documentos/ lin6zab.pdf *** 184 9. LA REVOLUCIÓN MULTIVARIANTE DE LA INVESTIGACIÓN Ricardo Césari39, Matilde César40 Resumen: La incorporación de la segunda generación del análisis multivariante involucró variaciones fundamentales en la metodología de la investigación que desafiaron los enfoques estadísticos tradicionales para la evaluación de validez. Como resultado de estos cambios de enfoque las asociaciones empíricas al análisis de sistemas de relaciones entre construcciones teóricas; ahora se necesita hipótesis explícitas sobre la medición experimental y la teoría. La aplicación de la Lógica Transcursiva (LT); clarifica y ayuda conceptualizar la interrelación que existe entre la teoría y la empiria en todo el proceso de investigación. El método multivariado PLS-Path Modeling, proporciona un excelente medio para la interacción Teoría - Datos. Cuanto mejor especificada es la teoría, más dominante es el papel que desempeña. Una teoría bien especificada puede reflejarse en un gran sistema de relaciones de variables. Palabras claves: Lógica Transcursiva, modelos PLS, Path Model CeReCoN (Centro Regional de Investigación y Desarrollo en Computación y Neuroingeniería) – ILICo (Área de Infometría, Lexicometría e Ingeniería del Conocimiento). UTN, Facultad Regional Mendoza-Argentina. [email protected] 40 CeReCoN (Centro Regional de Investigación y Desarrollo en Computación y Neuroingeniería) – ILICo (Área de Infometría, Lexicometría e Ingeniería del Conocimiento). UTN, Facultad Regional Mendoza-Argentina. [email protected] 39 185 1.0. MODELO RELACIONAL TEORÍA – EMPIRIA A principios de la década de los 80’, la aplicación de los nuevos métodos, como un cambio de enfoque al análisis simultáneo de multivarianza fueron considerados como la época donde se desarrolló una "revolución multivariante", sin embargo por estos días se han convertido en un factor decisivo en la investigación académica.[Ringle, Sarstedt, Mitchell & Gudergan, 2018; Myers, Massy & Greyser, 1980, (del texto de Fornell]. Actualmente, son palpables las contribuciones en las ciencias humanas como consecuencia de la aplicación de estos métodos multivariados de segunda generación, tales como las ecuaciones estructurales (SEM) y la regresión polinómica (PLS). La rápida difusión de estos, se debió al hecho de que los métodos estadísticos son "en gran medida empíricos”; y en contraste a un enfoque de "datos, luego conceptualización", la investigación metodológica sobre modelos de ecuaciones estructurales de mínimos cuadrados parciales (PLSSEM) y el PLS Path Modeling (PLS-PM), permiten un enfoque más basado en la teoría que en la experimentación, [Khan et al., 2019; Henseler, Hubona & Ray, 2016; Elkaseh, Wong & Fung, 2016]. De acuerdo a Haenlein & Kaplan, (2004), en metodología de investigación, una teoría puede contener tres diferentes tipos de nociones: (a) conceptos teóricos que "son propiedades o atributos abstractos e inobservables"; (b) conceptos empíricos que "pueden ser comprobados mediante observaciones directas"; y (c) conceptos derivados, que son no observables, pero "a diferencia de los conceptos teóricos, deben vincularse directamente a los conceptos empíricos ",[Bagozzi & Philipps, 1982, p.465; Belkhamza & Hubona, 2018]. En este sentido y teniendo en cuenta los conceptos 186 precedentes, en una teoría la verdad es una cualidad de las proposiciones que concuerdan con la realidad. En segundo término, la verdad como coherencia, sostiene que hay conjuntos de axiomas o enunciados que son verdaderos simultáneamente. Asimismo, un enunciado es verdadero cuando se deduce del conjunto de axiomas o es compatible con un conjunto coherente de enunciados. Tomando en cuenta como ejemplo, el teorema de Pitágoras este es verdadero, ya que es una deducción de los axiomas de geometría euclidiana (completitud), y además no está en contradicción con esos axiomas (consistencia). Empero, si el teorema de Pitágoras estuviese referido a otro conjunto de axiomas podría ser falso o carecer de significado. Sin embargo, cuando este criterio de verdad se aplica en ámbitos no formales, se considera que el conjunto de enunciados son todos verdaderos. En la teoría pragmática, la verdad de un enunciado se ve en la práctica, porque funciona o tiene consecuencias útiles [Cortés Morató et al.: 1996]. Estos autores definen también, tres posibles tipos de relaciones que vinculan a estos conceptos: “las hipótesis no observacionales”, “las definiciones teóricas” y “las reglas de correspondencia”, representado en la figura N º 1.. 187 Fig. Nº 1. Relaciones entre conceptos contenidos en una teoría (Elaboración propia). En la expresión de Fornell, “la esencia de la metodología de investigación” es avanzar en la comprensión de estas relaciones, combinando el conocimiento teórico con el conocimiento empírico. Sin teoría, cualquier manipulación estadística de datos tiene un valor muy limitado; y sin datos, la teoría sigue siendo imaginaria y abstracta”, [Fornell C. 1981]. 2.0. TEORÍA CIENTÍFICA DE HEMPEL De acuerdo a Hempel, (1952) “La teoría científica podría compararse con una red espacial compleja; sus conceptos están representados por nudos, mientras que los hilos que conectan estos últimos corresponden, en parte, a las definiciones y en parte, a las hipótesis fundamentales y derivadas incluidas en la teoría. Todo el 188 sistema flota, sobre el plano de observación y está anclado a él por reglas de interpretación. En virtud de esas conexiones interpretativas, la red puede funcionar como una teoría científica; a partir de ciertos datos de observación, podemos ascender, a través de una cadena interpretativa, a algún punto de la red teórica, de allí proceder, a través de definiciones e hipótesis, a otros puntos, desde el cual otra cadena interpretativa permite un descenso al plano de observación”. (fig. Nº 2) Fig. Nº 2. Red espacial de Hempel representando la teoría científica (Elaboración propia). 189 3.0. REPRESENTACIÓN DE LA TEORÍA CIENTÍFICA DE HEMPEL CON EL CONSTRUCTO MULTIVARIADO La característica fundamental de este tipo de análisis, especialmente los modelos PLS - Path Modeling, radica en una interacción flexible entre la teoría y los datos; ya que al combinar conocimiento teórico y empírico, mediante los errores de modelado en la observación (errores de medición); incorporan variables teóricas (no observables, abstractas) y empíricas (observables, manifiestas), en el análisis, confrontando la teoría con datos (prueba de hipótesis) y la combinación de teoría y datos (desarrollo de teorías) [Hair, Risher, Sarstedt & Ringle, 2019; Hair, Matthews, Matthews & Sarstedt, 2017; Hair, Hult, Ringle & Sarstedt, 2016; Henseler, Hubona & Ray, 2016]. Aquí, los conceptos y las relaciones definidas sobre el contenido de una teoría en el proceso de Investigación, se ponen en evidencia con la aplicación de los métodos descritos. Los conceptos teóricos son propiedades o atributos abstractos, no observables que alcanzan su significado a través de conexiones formales con los conceptos empíricos, así como a través de su definición, [Bagozzi, 1979; Bagozzi & Fornell 1982; Belkhamza & Hubona, 2018]. Tanto los conceptos derivados, como los teóricos, comparten una particular característica, son inobservables. Pero éstos se diferencian, en que los conceptos derivados deben estar vinculados directamente con los conceptos empíricos, y generalmente están en niveles de abstracción más bajos. Algunos autores, enuncian que los conceptos empíricos se refieren a "propiedades o relaciones cuya presencia o ausencia en un caso dado puede ser determinada subjetivamente, bajo circunstancias apropiadas, por observación directa" [Hempel, 1965: 22]. 190 Para otros autores, estos mismos conceptos pueden incluir datos experimentales o pueden medirse a través de instrumentos objetivos. En cualquier caso, el investigador registra los fenómenos observables y puede asignar codificación numérica o simbólica [Belkhamza & Hubona, 2018; Belkhamza & Hubona, 2018], representado en la figura 3. En cuanto a las relaciones entre conceptos, se puede inferir las siguientes correlaciones: La primera, es la hipótesis no observacional. Esta, vincula los conceptos teóricos con otros conceptos teóricos (indicado con las líneas continuas). En los que sinónimos comunes para las hipótesis no observacionales, incluyen leyes teóricas, leyes hipotéticas, proposiciones no observacionales, axiomas, postulados, relaciones causales, o a veces, simplemente, hipótesis. En segundo término, corresponde a la definición teórica. En ella se conecta un concepto teórico con un concepto derivado (indicado por líneas continuas con rupturas de 2 puntos y raya entre ellos). El tercer tipo de relación, las reglas de correspondencia. Se encuentran en cualquier teoría y están ilustradas por líneas discontinuas. Expresan una relación entre conceptos no observables (teóricos o derivados) y conceptos empíricos. La cuarta y última relación, la definición empírica, indicada por las líneas curvas en bucle. Da sentido a un concepto empírico al equipararlo con eventos físicos reales en el mundo de las experiencias, [Bagozzi & Fornell 1982]. 191 Fig. Nº 3. Representación de la teoría científica de Hempel con un constructo multivariado. [adaptado de Bagozzi & Phillips. Fuente: Elaboración propia.] Los constructos en el modelo multivariante, se visualizan mediante un Path Diagram, que relaciona los conceptos teóricos y empíricos, [Becker, et al 2012; Wong, 2016; Hair, Hult, Ringle, Sarstedt & Thiele, 2017] representado, en la Figura 4. Fig. Nº 4. Esquema Simple del modelo PLS-Path Modeling 192 En este modelo, la teoría en Investigación es una forma de abstracción. Las variables teóricas en la estructura de los modelos son por definición conceptos abstractos (teóricos). No son directamente observables, se denominan “latentes” y no son aplicables con observaciones directas. Una variable teórica, representa un fenómeno no observacional abstracto, que obtiene su significado conceptual a través de su relación con otras variables manifiestas (observables) en la red en que forman parte. Fornell manifiesta que “el significado de una variable teórica se deriva de sus vínculos con las observaciones en el mundo empírico”. Por lo tanto, el significado empírico es proporcionado por la observación y los datos; y el significado conceptual está dado por un sistema de hipótesis teóricas proporcionadas por el investigador. Estas consideraciones empíricas y conceptuales, se combinan prácticamente, dependiendo del método multivariado particular. [Fornell C.,1981]. En cualquier proceso de Investigación, generalmente la variable teórica, no puede expresarse en función de sus indicadores empíricos sin incluir un error. De esta forma, constituyen las llamadas variables indeterminadas y la elección depende de la confianza del analista en los datos frente a la confianza en la teoría. Si el analista tiene una gran confianza en la teoría, pero considera que los datos están llenos de “ruido aleatorio”, serían preferibles las variables determinadas con corrección posterior (debido a un error de medición aleatorio). Esto movería el análisis "lejos" de los datos y "más cerca" de la teoría. Si, por el contrario, se cree más fe en la precisión de los datos, y el analista quisiera permanecer "más cerca" del nivel empírico, entonces las variables definidas serían más apropiadas, [Bagozzi & Fornell, 1982; Belkhamza & Hubona, 2018]. 193 Por lo tanto, la elección entre los tipos de variables teóricas tiene implicaciones para la ponderación del conocimiento empírico vs. teórico. Este vínculo entre variables teóricas y empíricas se denomina relaciones epistémicas o reglas de correspondencia. Hay tres tipos de relaciones epistémicas; los enfoques con indicadores reflexivos, formativos y simétricos: (1) Reflexivos no observables: sugieren que uno o más latentes subyacentes (teóricos) "causan" los indicadores observables. Los enfoques reflexivos asumen que la variable latente es la “realidad teórica” y las variables medidas observables, son una muestra de posibles indicadores de esa realidad. (2) Formativos no observables: son considerados como efectos, más que como causas. En consecuencia, las puntas de flecha en el Path Diagram del modelo, están dirigidas hacia la variable teórica (latente). Los modelos formativos asumen que los indicadores observados son la “realidad” y que son todas dimensiones de la variable latente. Estos son típicos de los diseños experimentales en los que el investigador manipula una o más de las variables empíricas y las no observables teóricas que son dependientes de estas variables empíricas, [Bagozzi, 1977); Furrer, Tjemkes & Henseler, 2015; Pek & Wu, 2018]. (3) Simétricos, considerados como posibles combinaciones de indicadores formativos y reflexivos. Este tipo de relación epistémica es particularmente útil cuando es difícil distinguir entre causa y efecto. Caso en el cual, algunas construcciones pueden ser reflexivas y otras formativas, dentro de una sola construcción, siendo posible utilizar ambos tipos de indicadores. La adopción de este tipo de análisis multivariante cambia el enfoque de las asociaciones empíricas a un análisis de sistemas de relaciones entre constructos teóricos; necesita hipótesis explícitas sobre la medición y la teoría, 194 simultáneamente; y desafía los enfoques estadísticos tradicionales para la evaluación de validez. Por lo expresado, se puede decir que los datos siempre se interpretan en el contexto de algún marco de referencia teórico y dependiendo de éste; un solo fenómeno puede tener varias interpretaciones. Este tipo de análisis multivariante, ofrece una herramienta que obliga al analista a lograr que el marco teórico de referencia sea más explícito y proporciona una mejor interacción entre la teoría y los datos [Bagozzi, 1984]. Se debe tener en cuenta que, para cualquier modelo, el constructo en PLS- PM se debe especificar en el modo de medición de los indicadores (es decir, Modo A, asociada a construcciones reflexivas, Modo B, a construcciones formativas, o Modo C, a construcciones mixtas o simétricas (formativas-reflexivas); que generalmente utilizan algunos de estos tipos de modelos de variables latentes descritos, y que se puedan encontrar en la investigación empírica. [Henseler et al., 2009; Tenenhaus et al., 2005; Ringle et al. 2012; Hair, Hult, Ringle & Sarstedt, 2016; Hair, Hult, Ringle, Sarstedt & Thiele, 2017; Henseler, Hubona & Ray, 2016; Wong, 2016].. 4.0. PATRÓN RELACIONAL (PAU) DE LA LÓGICA TRANSCURSIVA Las aplicación de este método (LT), permite interrelacionar los conocimientos teóricos (abstractos) y el empírico (superficial), mediante el uso del modelo del Patrón Relacional PAU Hemiciclo, precisado por Salatino (2018). En el gráfico de Figura Nº 5, se pueden marcar los “recorridos” en ambas regiones: Teórica (profunda) Empírica (superficial). Estos se justifican por las circulaciones de acuerdo a la combinación entre 195 constructos reflexivos y formativos; así como a sus relaciones, con los indicadores observables en cada caso (explicativos y no explicativos) a saber. Fig. Nº 5. Patrón Relacional Hemiciclo PAU Hemiciclo de LT. [Fuente: Salatino D., 2018] A continuación, se describe una síntesis de sus aplicaciones, basada en diferentes autores: a. Formativo-Reflexivo: en este modelo el constructo exógeno formativo es un concepto medido de varios indicadores observables exógenos (explicativos), y de constructos específicos endógenos reflexivos. Siendo su objetivo el de representar la parte común de varios índices que pretenden medir causa y efecto, utilizando diferentes indicadores explicativos formativos y a explicar reflexivos. (ver Fig. Nº 6) b. Reflexivo-Formativo: es un modelo cuya variable latente de 1º orden (LV1) es exógena y tiene indicadores reflexivos; mientras que la variable latente 196 de 2º orden (VL2) es endógena, con indicadores formativos. Ambos están relacionados formando la construcción reflexiva exógena y formativa endógena. Cabe aclarar que el constructo exógeno tiene un efecto directo en la construcción endógena. Por lo tanto, la variable latente VL2 sirve tanto como antecedente y consecuente, sobre estudios de causa-efecto. c. Formativo-Formativo: los constructos formativos constituyen un concepto general abstracto de los indicadores observables, considerándose construcciones de orden inferior. Su aplicación, es útil para estructurar una construcción compleja; que contenga numerosos indicadores en varios subconstructos latentes de tipo formativos.[Jarvis et al., 2003; Petter et al.,2007; Lu&Wu, 2018; Delcourt, Gremler, van Riel & van Birgelen, 2016] (ver Fig. Nº 7). Fig. Nº 6. Constructo Formativo – Reflexivo. [Fuente: Elaboración propia] 197 d. Reflectivo-Reflexivo: los constructos se obtienen solamente de manera reflexiva; distinguiéndose unos de otros, pero están correlacionados. Apropiado cuando el objetivo del estudio es encontrar una conexión de conceptos teóricos relacionados, pero de distintas mediciones observables (indicadores explicativos y no explicativos), [Lohmoller, 1989; Wong, 2016; Schuberth, Henseler & Dijkstra, 2018]. Fig. Nº 7. Constructo Formativo – Formativo. [Fuente: Elaboración propia] La diferencia entre los indicadores formativos y reflexivos está relacionada con la conceptualización de dos métodos de análisis de datos: el análisis factorial común AF, y el análisis de componentes principales ACP. En el AF las variables latentes se llaman “factores” y están asociados a las variables observadas en forma reflexiva. Sin embargo, en el ACP, estas mismas 198 variables se llaman “componentes”, y se forman como relaciones lineales de las variables observadas. En este método este componente puede ser representado con indicadores formativos. A su vez, ambos constructos pueden ser: “independientes” (o explicativos) y “dependientes” (o no explicativos). [Hulland, 1999; Ziyae & Heydari, 2016; Hulland, Baumgartner & Smith, 2018 Por otro lado, si una variable latente o indicador no es influenciado por otra variable o no depende de ninguna otra en el modelo, se considera una “variable exógena”. Actuando estas como variables independientes. Asimismo si la variable es influida o depende de otras variables o indicadores, se la conoce como “variable endógena”. Éstas pueden afectar a otras variables endógenas, en este caso, pueden actuar como variables independientes o como dependientes. En estas dependencias se debe incluir un término residual o error de medición, dado que pocas veces tienen una validez y confiabilidad ideales y esta variable contempla las “variaciones inexplicables” [Salatino D., 2018]. 5.0. CONCLUSIONES La aplicación de PLS-PM requiere que la teoría sustantiva se pueda explicar en un esquema de flechas (Path Diagram) y en este contexto, identificar simultáneamente segmentos abstractos (teóricos) relacionando los mismos con variables manifiestas (observables). En cuanto a los vínculos entre las variables teóricas y empíricas, el analista es libre de especificar relaciones formativas, reflexivas, o simétricas de las diversas relaciones epistémicas en el modelo a construir. El PLS-PM, proporciona un medio poderoso para la interacción teoría-datos. Cuanto mejor especificada está 199 la teoría, más dominante es el papel que desempeña. Una teoría bien especificada puede reflejarse en un gran sistema de relaciones de variables. La adopción de esta segunda generación de análisis multivariante implica cambios en el enfoque de asociaciones empíricas, al de análisis de sistemas de relaciones entre constructos teóricos; ahora se necesita conjuntamente, hipótesis explícitas sobre la medición experimental y la teoría y desafía los enfoques estadísticos tradicionales para la evaluación de validez de los análisis. Los nuevos métodos multivariados de segunda generación, como el PLS-Path Modeling, permiten, a través de la elección del modelo y la especificación del modo, determinar la relación de un conocimiento previo relativo a los datos en el análisis; es la especificación de cómo el modelo teórico se relaciona con el modelo de medición. Si consideramos la especificación del modelo con indicadores formativos versus indicadores reflexivos, muy común en los métodos multivariados; en estos casos, se supone que la teoría implica ciertas observaciones y las observaciones implican algo sobre la teoría. Algunos modelos permiten tanto indicadores formativos como reflexivos dentro de la misma estructura y en consecuencia, la naturaleza de la interacción entre la teoría y los datos puede darse concretamente y variar dentro de un solo modelo. La Lógica Transcursiva (LT), aplicada en los modelos multivariados, nos hace ver esto de una manera transparente y sencilla, ayudándonos a conceptualizar la interrelación entre la teoría y la empiria en el proceso de una investigación. Cuando el conocimiento teórico se tiene bien desarrollado, es posible dejar que este conocimiento tenga una mayor influencia en el análisis y cuando alguien tiene menos explicación de la teoría, es posible dejar que los datos (los conceptos empíricos) 200 jueguen el papel más importante en el análisis, pero siempre interrelacionados; esto lo permiten los modelos propuestos. 201 REFERENCIAS Anderson, P. F. (1983). Marketing, scientific progress, and scientific method. Journal of marketing, 47(4), 18-31.. Bagozzi, R. P. (1977). Structural equation models in experimental research. Journal of Marketing Research, 14(2), 209-226. Bagozzi, R. P., & Fornell, C. (1982). Theoretical concepts, measurements, and meaning. A second generation of multivariate analysis, 2(2), 5-23. Bagozzi, R. P., & Phillips, L. W. (1982). Representing and testing organizational theories: A holistic construal. Administrative science quarterly, 459-489. Becker, J. M., Klein, K., & Wetzels, M. (2012). Hierarchical latent variable models in PLS-SEM: guidelines for using reflective-formative type models. Long Range Planning, 45(5-6), 359-394. Belkhamza, Z., & Hubona, G. S. (2018). Nomological Networks , en IS Research. Bollen, K. A., & Diamantopoulos, A. (2017). Notes on measurement theory for causal-formative indicators: A reply to Hardin. Feyerabend, P. (1975). Against Method. Atlantic Highlands. Flake, J. K., Pek, J., & Hehman, E. (2017). Construct validation in social and personality research: Current practice and recommendations. Social Psychological and Personality Science, 8(4), 370-378. Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of marketing research, 18(1), 39-50. Haenlein, M., & Kaplan, A. M. (2004). A beginner's guide to partial least squares analysis. Understanding statistics, 3(4), 283-297.. Hair, J. F., Hult, G. T. M., Ringle, C. M., Sarstedt, M., & Thiele, K. O. (2017). Mirror, mirror on the wall: a comparative evaluation of composite-based structural 202 equation modeling methods. Journal of the Academy of Marketing Science, 45(5), 616-632. Hanson, N. R. (1958). Patterns of discovery: An inquiry into the conceptual foundations of science (Vol. 251). CUP Archive. Henseler, J., Hubona, G., & Ray, P. A. (2016). Using PLS path modeling in new technology research: updated guidelines. Industrial management & data systems, 116(1), 2-20. Henseler, J., Ringle, C. M., & Sinkovics, R. R. (2009). The use of partial least squares path modeling in international marketing. En New challenges to international marketing (pp. 277-319). Emerald Group Publishing Limited. Jarvis, C. B., MacKenzie, S. B., & Podsakoff, P. M. (2003). A critical review of construct indicators and measurement model misspecification in marketing and consumer research. Journal of consumer research, 30(2), 199-218. Kuhn, T. S. (1962). The structure of scientific revolutions. Chicago, The University of Chicago Press. Laudan, L. (1956). On the Impossibility of Crucial Falsifying Experiment: Grunbaum on. The IXuhemian Argument'," Philosophy of Science, 32, 295-299.. Law, K. S., & Wong, C. S. (1999). Multidimensional constructs M structural equation analysis: An illustration using the job perception and job satisfaction constructs. Journal of Management, 25(2), 143-160.. Lohmöller, J. B. (1983). Path models with latent variables and partial least squares (PLS) estimation (Doctoral dissertation, Verlag nicht ermittelbar).. Peter, J. P., & Olson, J. C. (1983). Is science marketing?. Journal of Marketing, 47(4), 111-125.. Preckel, F., & Brunner, M. (2017). Nomological Nets. Encyclopedia of Personality and Individual Differences, 1-4. 203 Rindskopf, D., & Rose, T. (1988). Some theory and applications of confirmatory second-order factor analysis. Multivariate behavioral research, 23(1), 51-67. Ringle, C. M., Sarstedt, M., & Straub, D. (2012). A critical look at the use of PLS-SEM. En MIS Quarterly (MISQ), 36(1). Ringle, C. M., Wende, S., & Will, A. (2005). SmartPLS 2.0 (beta). Salatino, D. R. (2018). patrón relacional PAU de Lógica Transcursiva que caracterizan una teoría o sistema de conceptos. Adenda de LT a un modelo de investigación, UNC-UTN Tenenhaus, M., Vinzi, V. E., Chatelin, Y. M., & Lauro, C. (2005). PLS path modeling. Computational statistics & data analysis, 48(1), 159-205. VanMeter, D. S., & Asher, H. B. (1973). Causal analysis: its promise for policy studies. Policy Studies Journal, 2(2), 103. Venkatraman, N. (1989). Strategic orientation of business enterprises: The construct, dimensionality, and measurement. Management science, 35(8), 942-962. Venkatraman, N., & Ramanujam, V. (1986). Measurement of business performance in strategy research: A comparison of approaches. Academy of management review, 11(4), 801-814. Wong, K. K. K. (2016). Mediation analysis, categorical moderation analysis, and higher-order constructs modeling in Partial Least Squares Structural Equation Modeling (PLS-SEM): A B2B Example using SmartPLS. Marketing Bulletin, 26. Zaltman, G., LeMasters, K., & Heffring, M. (1982). Theory construction in marketing: Some thoughts on thinking. John Wiley & Sons. Ziyae, B., & Heydari, R. (2016). Investigating the Effect of Self-Leadership on Entrepreneur’s Innovation in Small and Medium-Sized Enterprises. International Journal of 204 Humanities and Cultural Studies (IJHCS) ISSN 23565926, 2(4), 1169-1182. 205 206 10. BASES NEUROBIOLÓGICAS DE UNA NUEVA INTELIGENCIA ARTIFICIAL Programa “Psiquis”: Primer proyecto Dante Roberto Salatino41 RESUMEN La finalidad de este trabajo fue desarrollar el primer proyecto dentro de un programa integral, de un emulador de los procesos cognitivos que, según una teoría elaborada anteriormente (Salatino, 2013), se justifican en el comportamiento oscilatorio autónomo de varias regiones del SNC, como fundamento general del funcionamiento del aparato psíquico. Siguiendo los lineamientos de la Lógica Transcursiva se programó una plataforma Arduino (microcontrolador), con lo que se logró emular los rudimentos de un “sistema perceptivo”, acoplando las entradas según un supuesto “nivel de consciencia” o grado de atención. Mediante el reconocimiento de colores, a través del sensor TCS230, logramos identificar los estímulos, clasificarlos y asignar las conclusiones a un sistema real específico, según las pautas fijadas de antemano para esta emulación del aparato psíquico. De esta forma se espera sentar las bases de una Inteligencia Artificial (IA) con firme sustento neurobiológico. Palabras clave: Inteligencia Artificial, Estructura y función psíquicas, Neurobiología, Lógica Transcursiva, Plataforma Arduino. 1.0. INTRODUCCIÓN El creciente avance tecnológico se plantea dar solución a problemas de la vida diaria como lo hace el cerebro humano. Con esto último hay un problema: desconocemos casi todo respecto a su funcionamiento. 41 UNCuyo 207 Por lo tanto, siendo rigurosos, debemos decir que la IA no existe, solo la natural, que dicho sea de paso, tampoco sabemos qué es. Cuando hablamos de IA, lo hacemos de manera ambigua ya que nos estamos refiriendo, al mismo tiempo, a varios instrumentos informáticos. Así, se incluyen aquí las Redes Neuronales, la Computación Evolutiva, los Sistemas Difusos, por solo mencionar algunos. Por otro lado, la mayoría de sus virtudes se sustentan en varias teorías que transitan frecuentemente, en ámbitos marginales de la ciencia, como son la teoría del caos, la teoría de los fractales, la teoría del autómata celular, entre otras. En la actualidad, como para agregar una pequeña cuota a la confusión general, la IA está ligada estrechamente a lo que se conoce como “Neurocomputación”, cuyo sustento lo dan las redes neuronales artificiales. De acuerdo a lo que nos dicen las fichas técnicas de los computadores actuales, son capaces de realizar centenares de millones de operaciones en coma flotante por segundo, y esto se supone, les permite por ejemplo: “entender” el significado de las formas visuales o de distinguir entre distintas clases de objetos. Algo debe quedar claro desde el principio, las computadoras actuales, por más rápidas y minúsculas que sean, siguen siendo tan “bobas” como la que pergeñara Turing en 1936. En definitiva son autómatas finitos que sirven para tomar decisiones binarias, y nada más. La “Neurocomputación” trajo aparejado otro término conflictivo, por ambiguo: “Neurociencia”. Esta rama del conocimiento, proclama dedicarse al estudio del sistema nervioso. Aunque, debemos tener en cuenta algo que es 208 importante. Están las Neurociencias no Conductuales, que son las que verdaderamente estudian al sistema nervioso, entre las que se encuentran: la Neurobiología, la Neurología, la Neurofisiología, la Neuroanatomía, y la Neurofarmacología; todas del ámbito de la medicina. Pero, por otro lado, están las Neurociencias Conductuales (que son a las que se refieren el 99% de los “trabajos científicos” que se publican hoy en día), y se jactan de su dedicación a analizar la relación del sistema nervioso (que casi nunca tienen en cuenta) con la conducta, los procesos cognitivos y el aprendizaje. Entre ellas podemos encontrar: la Psicobiología, la Psicofisiología, la Psicofarmacología, la Neurociencia Cognitiva, y la Neuropsicología; ninguna del ámbito médico, sino del de las Ciencias Cognitivas que tienen como metáfora fundante (y ahora verdad objetiva), que el cerebro funciona como una computadora (algo absolutamente falso), y de esta manera pretenden “descifrar” las “funciones cognitivas”, estudiando los “sistemas de procesamiento de información” (algo que existe en un computador, pero no en el cerebro), como también, decir algo sobre la atención, la memoria, la percepción, la praxis, el lenguaje y el pensamiento. Forma parte de sus objetivos, el estudio de la emoción (aquellas sensaciones subjetivas relacionadas con la experiencia humana), que por supuesto, nada tienen que ver con un “chip” electrónico. Mucho menos aún, sus aportes pueden ser significativos (en cuanto a su fundamentos), en el vasto campo de la conducta humana. Para hacernos una idea somera de qué estamos hablando, veamos en el esquema de la izquierda de la Figura 1, la propuesta teórica que hace Levelt (destacado Psicolingüista holandés) en las postrimerías del S.XX sobre cómo sería el modelo de producción del 209 lenguaje humano (que se asume funciona en el cerebro) siguiendo estrictamente la teoría de Noam Chomsky, uno de los fundadores de las ciencias cognitivas. Figura 1 MODELOS PSICOLINGÜÍSTICOS Lo que Levelt describe en el esquema no es otra cosa que lo que se conoce, desde los primeros tiempos de la computación, como “parser” (o analizador, en español). Es decir, un analizador sintáctico, idéntico al que tiene nuestra computadora o nuestro teléfono celular y que les permite a estos adminículos, descifrar (deletrear) qué es lo que estamos ingresando por el teclado. En cambio, en el esquema de la derecha, de la misma figura, ofrecido como modelo de producción del lenguaje humano por la Lógica Transcursiva, se encuentra una posible fundamentación del mecanismo natural. En resumen, en la actualidad neurocientífica se asiste a una franca dicotomía. Por un lado, los impresionantes 210 logros científicos y tecnológicos que arrojan una apabullante cantidad de información; y por otro lado, la escasez de teorías que puedan integrar toda esa información y conducir a conocimientos que expliquen adecuadamente los nuevos hallazgos. Desde una visión personal de lo anterior, creo que la explicación de tal disparidad se basa en un problema metodológico. Toda disciplina dentro de la ciencia está definida por su objeto de estudio, y por disponer de un método idóneo que posibilite su análisis. La Neurociencia, hoy, hecha mano al método científico tradicional con base experimental (el aplicado, por ejemplo, en las ciencias naturales), pero desde una perspectiva cognitivista, lo cual puede ser causa de inconvenientes. Veamos el porqué. La ciencia tradicional es muy estricta a la hora de considerar la ‘objetividad’ de los datos registrados, y mucho más aún, cuando se trata del análisis de los resultados. Los métodos hipotético-deductivo y empírico, aquellos aplicados tanto a las ciencias formales como a las naturales, son los que cuentan con el beneplácito de la comunidad científica; y en todo responden, en cada una de las áreas investigadas, a una sola teoría que está en absoluta vigencia, por lo menos, hasta que no aparezca otra teoría que la refute. Las Ciencias Cognitivas, en cambio, se manejan de una manera muy distinta. Por solo dar un ejemplo que está muy ligado a la Neurociencia: en Psicolingüística están en vigencia, no menos de 25 teorías distintas (Salatino, 2012) para tratar de explicar, cómo se origina, se adquiere, se comprende y se produce el lenguaje humano. 211 Como es simple de apreciar, difícilmente se pueda lograr una compatibilización entre lo teórico y lo práctico, cuando existe una relación entre ellos de 25:1. Por lo tanto, siguiendo en esta línea, podemos identificar, al menos, dos inconvenientes como para que la Neurociencia pueda ser considerada una ciencia por derecho propio, a saber: 1) no hay un objeto de estudio claramente definido, y 2) el método no se condice con una única teoría, ergo, no cuenta con un método válido. La cuestión, entonces, está en cambiar de paradigma. Para que lo anterior sea posible, necesariamente y en primer lugar, se debe abandonar definitivamente la vieja metáfora computacional de la mente (en todas sus variantes: duras y blandas), base lógico-filosófica de las Ciencias Cognitivas. Esta metáfora, transformada en la actualidad en una verdad objetiva férreamente establecida, fue la que posibilitó una aplicación ad hoc del método científico tradicional a estas ciencias, que surgieron desde una nueva y particular versión de los aspectos psicológicos del ser humano, al equiparar el funcionamiento de la mente del hombre a una computadora, con lo cual, esa ‘caja negra’ que es el cerebro, supuestamente, deja de serlo, ya que se acepta que la mente funciona allí. Surge, de esta manera, la posibilidad de abordar, fácilmente, el sistema nervioso central y por tanto la mente desde rutinas lógico-matemáticas, e inclusive, poder simular, mediante simples circuitos electrónicos, alguna que otra manifestación evidente del comportamiento o de la conducta, propiciados por este órgano noble. Así planteadas las cosas, surgieron una gran cantidad de técnicas que permitían, en teoría, explorar la fuente 212 misma de las manifestaciones cognitivas, aquellas que radican, supuestamente, en el cerebro, y que nos distinguen del resto de los animales no humanos. La desventaja que presenta el planteo anterior radica en la disociación cada vez más notoria, en la Neurociencia así concebida, entre los mecanismos descritos y su base biológica, o más precisamente, neurobiológica y neurofisiológica. Lo anterior no fue óbice para que se utilizara, a veces de manera no adecuada, toda la parafernalia de exámenes cerebrales, en su mayoría funcionales (con la imprecisión que ello implica), con el fin de fundamentar la explicación de los ‘fenómenos cognitivos’, en ‘datos’ surgidos desde el funcionamiento cerebral normal o patológico. Muchos de los avances logrados en el campo de la Neurobiología y de la Neurología, permiten plantear una relación concreta y analizable entre los fenómenos psíquicos y su base anatómica y fisiológica. Pero, para que los hallazgos anteriores tengan validez es imprescindible cambiar el concepto de “mente”, por el de “psiquis”. En esto consiste, fundamentalmente, el cambio de paradigma sugerido, y es lo que trataremos de bosquejar, en sus comienzos, en este trabajo. El Programa “PSIQUIS” es un emprendimiento teóricopráctico para ser desarrollado en el mediano-largo plazo. Su propósito es diseñar un emulador de los procesos cognitivos que, según una teoría elaborada anteriormente (Salatino, 2013), se justifican en el comportamiento oscilatorio autónomo de varias regiones del SNC, como fundamento general del funcionamiento del “aparato psíquico”. Estos procesos serían los responsables de nuestro comportamiento y nuestra conducta; y, en definitiva, de nuestra subjetividad. De 213 esta forma se espera sentar las bases de una Inteligencia Artificial con firmes bases neurobiológicas. El Programa consta de cuatro Proyectos: 1er Proyecto: dedicado al desarrollo del Sistema Perceptivo, encargado de ordenar los patrones percibidos y seleccionar respuestas, mediante el marcapasos neurológico formado por los Ganglios Basales, el Tálamo y la Corteza Cerebral Asociativa. • 2do Proyecto: Generación de la Estructura Psíquica (Memoria Estructural) y de la unificación perceptiva, a cargo del marcapasos neurológico Tálamocortical. • 3er Proyecto: Elaboración de la Memoria Operativa, coordinación de las respuestas motoras, aprendizaje de nuevas rutinas, y formación de hábitos. Controlada por el marcapasos neurológico olivo-cerebeloso. • 4to Proyecto: Creación de la Cuña Temporal dedicada a la administración del tiempo interno, actualización de la Memoria Transitoria y del “Control Predictivo” de nuestro cerebro. Su regulación y modulación las opera el “Marcapasos Psíquico”, formado por el acoplamiento de los tres marcapasos anteriores. Este Proyecto es el verdadero artífice de nuestra actividad cognitiva, al funcionalizar la estructura psíquica; esto es, transformar las ideas en pensamientos. En este trabajo desarrollaremos el primer Proyecto. • 214 2.0. MATERIAL Y MÉTODO La plataforma del microcontrolador Arduino® UNO R3 ATMEGA328p da fundamento a la emulación de los distintos “procesos cognitivos básicos” que lleva a cabo, en su funcionamiento normal, nuestra psiquis. Este microcontrolador de bajo costo es una elección estándar para desarrollar muchos proyectos científicos. Dispone de una capacidad de almacenaje de 32 KB para programas, lo cual es suficiente, ya que su programación es muy escueta. El procesador corre a 16 MHz, y su set estándar de entradas/salidas, cuenta con: 14 pins digitales, 6 entradas analógicas, y un puerto serie de comunicación, que se conecta mediante un cable USB a la PC (Figura 2) (Grimmett, 2014, p. 9, Atmel, 2009). Figura 2 Arduino® UNO R3 ATMEGA328p En cuanto al método, se emularán las entradas y las salidas del aparato psíquico siguiendo los principios básicos de la Lógica Transcursiva (LT) (Salatino, 2017). 3.0. APARATO PSÍQUICO La estructura propuesta del aparato psíquico se sustenta en la anatomía, fisiología y neurobiología del sistema nervioso central (SNC). Como se puede apreciar en el esquema de la Figura 3, son seis las estructuras grises del SNC, que están 215 involucradas en la constitución y manejo del aparato psíquico. Estas estructuras son: • 1) Tálamo • 2) Ganglios basales • 3) Sistema límbico • 4) Corteza cerebral (asociativa y sensoriomotora) • 5) Cerebelo • 6) Oliva inferior Los estímulos que llegan, tanto del medio social (sistema sociocultural), como del entorno inmediato (sistema psico-interno) e inclusive desde el propio organismo (sistema bio-externo), ingresan por las vías sensitivas al tálamo (conjunto de núcleos grises, ubicado en el centro de la masa cerebral). Desde allí, son derivados a los ganglios basales (grupo de núcleos grises que se hallan en la base del cerebro) que se encargan de la “identificación” de las entradas. Figura 3 FUNDAMENTOS NEUROBIOLÓGICOS DEL APARATO PSÍQUICO (Tomada de Salatino & Tersoglio, 2019) 216 Esta “identificación” no hace otra cosa que determinar de qué sistema real proviene el estímulo, para que nuestra psiquis pueda elaborar la respuesta adecuada. La información de entrada queda momentáneamente, retenida en la “memoria transitoria”, que se ubica en la corteza cerebral. Si los estímulos vienen desde el sistema bio-externo (de nuestro cuerpo) su solución tiene prioridad absoluta, y son los mismos ganglios basales quienes promueven la respuesta inmediata mediante una serie de movimientos innatos, de carácter inconsciente. En cambio, si los estímulos provienen desde el entorno inmediato (sistema psico-interno) o desde el entorno social (sistema sociocultural), los ganglios basales, en conjunto con el sistema límbico (dispuesto alrededor del cuerpo calloso, la estructura que comunica ambos hemisferios), le dan el marco motivacional a la entrada. Aunque los ganglios basales son los que determinan si los nuevos estímulos son “conocidos” o no. Cuando ya “conocemos” la respuesta, es decir, cuando ya hemos hecho un “habito” de responder de la misma forma ante iguales requerimientos, los ganglios basales “consultan” a la corteza cerebral asociativa (corteza prefrontal, ubicada delante de la corteza sensoriomotora), para ver si ya hay algún antecedente de dicha situación. Si existe dicho antecedente, dan la orden que se ejecute la respuesta motora conocida. Esta “respuesta anticipada” está “registrada” en la corteza del cerebelo (parte posterior del encéfalo), en la que conocemos como “memoria operativa”. Algo muy distinto ocurre, cuando el desafío que plantean los estímulos entrantes no tiene antecedentes. Por primera vez tiene participación la consciencia, puesto que se trata de una situación nueva, de la que nos tiene 217 que quedar un aprendizaje, alguna experiencia. En esta ocasión, los estímulos recibidos por el tálamo son derivados a los ganglios basales para su “identificación” y su “clasificación” (proceso que abordaremos en detalle, más adelante), una vez que se comprueba que no hay antecedentes de la situación presente, el sistema límbico le asigna una importante carga emotiva, por ser desconocida. Producida la “clasificación” de los estímulos, que le indica al aparato psíquico la relevancia que tienen los aspectos que determinan el hecho real percibido, según su orden de precedencia, son enviados al circuito tálamocortical (tálamo-corteza asociativa). Este circuito se encarga, en primer lugar, de “contextualizar” temporalmente el acto perceptivo. Este minucioso proceso es llevado a cabo en el tálamo; por los núcleos específicos que contemplan lo que llega desde fuera de la psiquis, y los núcleos no específicos que hacen lo propio con lo que surge desde el sujeto. En segundo lugar, el circuito tálamocortical, deja constancia de haber aprendido, y, por ende, de haber logrado un determinado conocimiento y una comprensión de la nueva realidad, la que pasará a formar parte de la “estructura psíquica” del sujeto. Esta “estructura” será alojada en la “memoria estructural”, aquella que, residiendo en la corteza cerebral, es indeleble y de carácter inconsciente. Cuando se confirmó el registro de un hecho nuevo, los ganglios basales, el sistema límbico, el cerebelo y la oliva inferior (núcleo gris perteneciente al bulbo raquídeo, que se ubica en el extremo superior de la médula espinal), compaginan la respuesta adaptativa correspondiente, con el debido tenor emotivo. Esta respuesta o estos “movimientos aprendidos”, al menos en las primeras veces que se producen, son de carácter consciente. Luego, si se repiten a menudo y en forma 218 exitosa, pasarán inconsciente. a formar parte de un hábito 4.0. SISTEMA PERCEPTIVO La evidencia filogenética nos muestra un SNC con una arquitectura neuroanatómica tripartita relacionada con la organización del comportamiento (movimiento y otras conductas) (Salatino, 2012) (Figura 4). Según la antigüedad evolutiva, y solo con fines didácticos, podemos identificar cada una de estas partes como: 1) cerebro neuronal en donde la estructura psíquica depende solo del funcionamiento de las neuronas y las estructuras anatómicas que le dan soporte son el tallo cerebral (formado por el cerebro medio, la protuberancia y el bulbo raquídeo) y los ganglios basales; 2) cerebro visceral que asienta en el sistema límbico que son las redes neuronales de donde surgen los afectos que estructuran la psiquis; y 3) cerebro cortical cuyo sustento es la corteza cerebral en su grado de máximo desarrollo lo cual permite al ser humano, y solo a él, lograr una estructura psíquica (arreglos neuronales) que posibilitan el manejo del fenómeno cognitivo como manifestación suprema de su subjetividad. 219 Figura 4 SISTEMA DOPAMINÉRGICO La dopamina es un neurotransmisor que está presente en distintas áreas del SNC y es muy importante en la regulación de la actividad motora del organismo, es decir, en la proyección de la respuesta. Pero, además, en la cognición, en la motivación, en la producción de leche, en el sueño, en el humor, en la atención y en el aprendizaje. En otras palabras, es la dopamina la que pone en funciones los distintos estratos de la estructura psíquica descritos de acuerdo con el sistema real (Salatino, 2009) que se deba atender; o sea, el biológico o bio-externo (cerebro neuronal), el psíquico o psicointerno (cerebro visceral), o el sociocultural (cerebro cortical). La dopamina es quien define, como acabamos de ver, qué estructuras forman parte de cada uno de estos ‘cerebros evolutivos’, pero el mecanismo íntimo que permite la selección de uno de ellos según al sistema real al que haya que prestar atención es de naturaleza temporal, ya que cada uno tiene como guía un “marcapasos neurológico”. Los tres marcapasos tienen una frecuencia de base que los identifica, así: el marcapasos de los ganglios basales (percepción) oscila aproximadamente a 80 Hz, el marcapasos tálamocortical (estructura psíquica) a 40 Hz y el marcapasos olivocerebeloso (movimiento) aproximadamente entre 10 y 20 Hz. El ion Ca++ es el principal determinante de estas bandas de frecuencia (Figura 5). 220 Figura 5 FUNCIONAMIENTO DEL APARATO PSÍQUICO Referencias: S: sujeto – O: objeto – V: transformación aparente - : transformación no aparente – SBE: sistema bioexterno – SPI: sistema psico-interno – SSC: sistema sociocultural El PAU estructural (Salatino, 2017) de la Figura 5, muestra la diferenciación del cambio original que estructura, habitualmente, la psiquis. Se aprecia la relación existente entre un cambio somático que genera una urgencia vital (p.e. hambre en un bebe). Un cambio externo que aporta para corregir el desequilibrio anterior (aporte materno). Por último, un cambio representado por una acción específica como respuesta al cambio externo (succión). Esta secuencia se da a nivel evidente o superficial. A nivel profundo, existe parte del cambio original (cambio interno) que cumple la función de ligar y funcionalizar a los demás cambios. Es ese cambio, el que no se hace evidente salvo por sus inconfundibles manifestaciones. Las que aparentemente, posibilitan la alternancia entre los otros cambios o del predominio de uno sobre otro, hasta lograr la motivación que promueve la satisfacción del deseo original. La realidad subjetiva, entonces, surge de la conjunción de un deseo y una 221 necesidad que deben ser satisfechos. En el esquema se han superpuesto los distintos sistemas reales que “administran” los cambios descritos, con sus respectivas activaciones neurobiológicas (los distintos rangos de frecuencia que ya hemos mencionado) y los distintos procesos que los conectan. Algo similar ocurre cuando el estímulo viene desde el entorno, como lo muestra la secuencia siguiente (Figura 6). Figura 6 COMPORTAMIENTO Y CONDUCTA Como se puede apreciar en el esquema anterior, el comportamiento es algo estrictamente individual e inconsciente (profundo) y de fuerte arraigo biológico, mientras que la conducta se pone de manifiesto, exclusivamente, cuando nos relacionamos con los demás en estado de plena consciencia. 5.0. NIVELES DE CONSCIENCIA Antes de proponer un posible modelo de identificación y clasificación de los estímulos por parte del sistema perceptivo, debemos definir cómo se administran, en nuestro emulador, los niveles de consciencia, que representan el grado de atención que se le presta a lo percibido. Como el único “lenguaje” que maneja este emulador del aparato psíquico, como ya veremos, está constituido por los colores de la luz, el nivel de consciencia estará dado por el grado de “luminosidad” del “color o hecho real” que se perciba (Figura 7). 222 Figura 7 NIVELES DE CONSCIENCIA SEGÚN LA LT En el lado derecho de la Figura 6 vemos una “célula psíquica” teórica (psicocito). El eje de los “ahora” que se ubica en la diagonal mayor del hipercubo 4D, representa el “estado de consciencia” con que está funcionando este elemento funcional de la psiquis. En el extremo superior (C) nos dice de su máxima expresión (100% de atención), mientras que su extremo inferior (I), nos está indicando un estado de total inconsciencia. Del lado izquierdo de la figura está representado, con una escala de grises que va desde el blanco (1 = 100%) al negro (0 = 0%), la luminosidad de un determinado color. En la “célula psíquica”, entonces, el nivel de consciencia estará dado por el grado de “aplanamiento” del hipercubo. Es decir, tal como lo muestra la figura está en el 100%, pero a medida que sus extremos se aproximan al centro, el nivel de atención, y por lo tanto de consciencia, disminuye. Vamos a proponer dos versiones de un emulador de los niveles de consciencia. En la primera de ellas, el nivel de 223 consciencia lo pondremos en evidencia a través de la cantidad de luz que incida sobre un fotorresistor (o fotorresistencia) cuya resistencia al paso de la corriente disminuye con el aumento de intensidad de la luz incidente (Figura 8). Figura 8 CIRCUITO “NIVELES DE CONSCIENCIA” Referencias: LDR: (light-dependent resistor) fotorresistencia 5.1. TEORÍA Se hace incidir una luz blanca sobre la fotorresistencia (LDR), como consecuencia de ello, el zumbador emite un sonido con una frecuencia determinada. El cálculo de la frecuencia de emisión del zumbador se realiza en función del voltaje que deja pasar la resistencia LDR, de acuerdo con la intensidad de la luz que incida en ella. El valor digital que arroja la resistencia LDR, luego de la entrada analógica, varía entre 0 (total oscuridad) y 1023 (máxima iluminación), ya que tiene una precisión de 10 bits (210). La frecuencia, en este caso, representa el “nivel de consciencia”, 224 teniendo en cuenta que nuestro “aparato psíquico” solo se maneja con colores (así representa los hechos reales que percibe), la luminosidad de esos colores indica el nivel de atención que la psiquis presta a esa “percepción”. En otras palabras, el “nivel de consciencia” con el que opera el aparato psíquico según la ocasión. El grado de luminosidad lo pondremos en evidencia, convirtiendo la variación de la resistencia de una fotorresistencia cuando incide una luz en ella, en frecuencia que enviamos a un zumbador. Además, tendremos una señal luminosa que con su color nos indicará el mismo nivel, de acuerdo con el siguiente detalle: 20 Hz ---- LED ROJO ---- nivel de consciencia máximo (despierto y aprendiendo) (Se activa el SSC) 40 Hz ---- LED AZUL ---- nivel de consciencia intermedio (pensando o soñando mientras duerme) (Se activa el SPI) 80 Hz ---- LED VERDE ---- nivel de consciencia mínimo (durmiendo, sin soñar) (Se activa el SBE) Cálculo de la frecuencia: Frecuencia = 80 Hz - (valor analógico/17) Oscuridad absoluta = 80 - (0/17) = 80 Hz Luminosidad media = 80 - (680/17) = 40 Hz Luminosidad máxima = 80 - (1023/17) = 20 Hz En el Apéndice se encuentran la lista de materiales empleados y el programa respectivo. En este caso se ha utilizado un led RGB, en vez de un led para cada color como en la figura. 5.2. ARDUINO® COMO MARCO DE REFERENCIA Otra manera de emular los niveles de consciencia, con el microprocesador Arduino®, es usando la técnica de 225 PWM (Pulse Width Modulation) o de Modulación por Ancho de Pulso. De esta forma, se utiliza el mismo microcontrolador para generar las frecuencias que necesitamos, sin necesitar ningún otro agregado. Esto se puede hacer mediante programación (por software) o directamente a través de las interrupciones y eventos cronometrados (por hardware). Las interrupciones permiten a los microcontroladores responder a los eventos sin tener que sondear continuamente para ver si algo ha cambiado. Además de asociar interrupciones con ciertos pines, también puede usar interrupciones generadas por temporizador (Monk, 2019, p. 73). Esta última alternativa es la que se usará en la etapa final de este proyecto. Por ahora, y con un fin didáctico, describiremos la opción por software (Cameron, 2019, p. 12). El modelo de microprocesador que estamos utilizando, no cuenta con salidas analógicas, que son aquellas que pueden adquirir cualquier valor en cualquier momento. Estas salidas son muy útiles cuando necesitamos, por ejemplo, controlar un proceso en forma continua y no “a saltos”. Se puede utilizar una salida PWM para emular una señal analógica de tensión con Arduino®. Los pines digitales que permiten generar salidas analógicas son: 11, 10, 9, 6, 5 y 3 (Figura 9). 226 Figura 9 PINES PWM (⁓) La emulación de una salida analógica se logra activando una salida digital durante un tiempo, y mantenerla apagada durante el resto (el mismo mecanismo sugerido por la teoría del funcionamiento de la psiquis que estamos considerando). En promedio, la tensión de salida será igual al valor analógico que se está buscando. Esta modulación permite mantener constante la frecuencia (algo clave en nuestro aparato psíquico), mientras varía el ancho de pulso. Como vemos en la Figura 10, solo son posibles dos únicos valores de tensión: 0 o 5V. A la relación entre el tiempo que la señal está activa (a 5V) (t’) y el periodo T, se lo conoce como “ciclo de trabajo” (duty cycle o D) de la señal. Es posible, cambiando el ancho de pulso, variar D en forma continua (como en una salida analógica). Esto es, variar el voltaje que sale (de 0 a 5V) con solo cambiar el ancho del pulso (tiempo de la señal activa), 227 pero manteniendo la frecuencia constante, ya que el periodo T (separación entre los pulsos) permanece sin cambios; algo que es clave para nuestro sistema. Figura 10 MODULACIÓN POR ANCHO DE PULSO Referencias: D: ciclo de trabajo – T: periodo – f: frecuencia También podemos observar en la figura anterior, cómo se calcula la frecuencia de la señal. De acuerdo con todo lo dicho podemos concluir que una señal pulsada es suficiente para emular una señal analógica, como proponemos que sucede con la consciencia. Por ejemplo: podemos variar la intensidad lumínica de un led mediante una PWM. El led, realmente, se “enciende y apaga” varias veces por segundo, pero ese parpadeo es tan rápido que nuestra visión no lo aprecia. Esto mismo le sucede a nuestra consciencia, se “enciende y se apaga” 40 veces por segundo, por lo tanto, la sensación es que estamos “conscientes” todo el tiempo, mientras permanecemos despiertos. El efecto conseguido es que el led (la consciencia) brilla (está activa) con menor intensidad. Lo que equivale a decir que el nivel de 228 consciencia, a frecuencia constante (40 Hz), es un porcentaje menor. Como hemos dicho, se puede generar una señal PWM por software. El programa que se encuentra en el Apéndice pone el pin PWM ⁓10 (Ver Figura 9) activo (HIGH) 40 veces por segundo, durante 12,5 ms. Esto constituye un ciclo de trabajo (D) del 50%. El periodo T es de 25 ms. La equivalencia para nuestra psiquis sería estar 12,5 ms consciente y 12,5 ms inconsciente, y con un nivel de consciencia del 50%, apto para pensar, elaborar respuestas y para soñar, si estuviéramos durmiendo. Con la misma frecuencia (40 Hz) podemos variar rápidamente el ciclo de trabajo, llevándolo cercano al 100%, cuando sea necesario prestar atención para aprender algo nuevo o para corregir un error, en cuyo caso, los valores del pin ⁓10 deberán variar (Ver Apéndice). En resumen, el estado de vigilia lo maneja el pin ⁓10. Cuando es hora de dormir, o de operar los procesos inconscientes (cuña temporal; Salatino, 2009) debemos cambiar la frecuencia, por ende, cambiar al pin ⁓11. Allí tenemos que lograr una frecuencia de 80 Hz, es decir, trabajar con un periodo T de 12,5 ms (12.500 seg). Cuando se debe proyectar una respuesta hacia el medio social, la frecuencia debe cambiar a 20 Hz (T = 50 ms) en el pin ⁓9. 6.0. IDENTIFICACIÓN Y CLASIFICACIÓN DE ESTÍMULOS La identificación de los estímulos significa saber desde qué sistema real provienen. O sea, si su origen es biológico (nuestro cuerpo) o viene de cualquier objeto inerte de nuestro entorno; o es psíquico, o en su defecto, 229 proviene del medio sociocultural (originados en nuestra vida de relación con nuestros semejantes y otros seres vivos). Ya hemos descrito, en el punto anterior, el mecanismo que puede emular este proceso. En cambio, para la “clasificación” de los estímulos proponemos una supuesta unidad perceptiva basada en el mecanismo lógico de un “autómata finito” (Figura 11). Desde la LT caracterizamos, de una manera muy general, un hecho real como la concurrencia de un sujeto (S = 01), un objeto (O = 10) y una transformación (V = 11) que los liga. La composición de este detector es muy sencilla. Consta de un “identificador” para cada uno de los “elementos” que conforman un hecho real y de una serie de conectores, que, al interpretar su código binario, le permite al sistema cambiar de estado. Figura 11 AUTÓMATA FINITO DETERMINISTA APARATO PERCEPTIVO GENÉRICO Referencias: NC: núcleo caudado – CO: interneurona colinérgica – GA: interneurona GABAérgica – GPE: globus pallidus externo – GPI: globus pallidus interno SNR: sustancia negra reticular – SNC: sustancia negra compacta – 1: activación – 0: inhibición La “máquina perceptiva” anterior está capacitada para identificar cualesquiera de los seis patrones que se forman con los tres elementos indicados. Es decir, SVO, 230 VOS, OSV, SOV, OVS y VSO. Para identificar a qué sistema real pertenece el “hecho” que estamos percibiendo, nos valemos del primer elemento de la “cadena”. Por ejemplo, el patrón VOS propuesto en la figura anterior, viene desde el sistema real sociocultural. De manera equivalente, si el patrón comienza con “S”, el fenómeno a analizar proviene desde el sistema psicointerno o de lo que tiene que ver con la subjetividad de los seres vivos. Mientras que, si el primer elemento es “O”, nos está diciendo que el hecho real tiene que ver directamente con nuestro cuerpo, o con algo externo a nosotros, pero que no tiene vida. Una vez identificado el origen, o el sistema al que pertenece el estímulo, debemos “clasificarlo”. Esto último se logra, identificando, a su vez, los elementos que siguen al primero. En el caso del ejemplo de la figura, el hecho es identificado como proveniente del sistema sociocultural (una transformación), que viene desde otro ser vivo, pero no de un semejante. De la misma manera, se procede con los cinco patrones restantes. En la misma figura se puede apreciar el “centro de operaciones” del sistema perceptivo, representado por los ganglios basales, donde se le ha superpuesto el autómata finito. En el esquema se han respetado, básicamente, las conexiones activadoras (1) e inhibidoras (0) que mantienen entre ellos y con el tálamo y la corteza cerebral, según recientes investigaciones neurobiológicas (Salatino, 2013, p. 49). Como se desprende del esquema anterior, el único “lenguaje” que este “aparato psíquico” maneja es el de los colores de la luz, con todas sus implicancias físicas. En otras palabras, solo uno de entre 4.294.967.296 colores será un “hecho real” que pueda tener sentido para él. De la misma forma, sus respuestas ante tales 231 estímulos serán los colores complementarios respectivos, para poder “comunicarse” con un “semejante”. El patrón básico de colores primarios y secundarios de la luz, representan “metafóricamente”, cómo se estructura la psiquis, además de emular los fenómenos neurobiológicos que le dan sustento a la “actividad psíquica”, y de cómo adquiere, comprende y produce su “lenguaje”, cuestiones todas que serán dirimidas en las próximas etapas de este proyecto. 6.1. RECONOCIMIENTO DE LOS COLORES CON ARDUINO (Cameron, 2019, p. 267) Existen en el mercado varios sensores que pueden ser utilizados para reconocer los colores, utilizando el modelo RGB (rojo, verde, azul), que es como hemos definido a nuestro “aparato perceptivo”. Describiremos, someramente, algunos detalles del funcionamiento de uno de los sensores más sencillos: el módulo TCS230. Este módulo consiste en una matriz de 64 fotodiodos, con filtros para los colores: rojo, verde, azul y blanco. Hay 16 fotodiodos para filtro de color, y el sensor de reconocimiento de color produce una onda cuadrada con una frecuencia proporcional a la intensidad de la luz del color relevante, igual que nuestro aparato perceptivo natural (Figura 12). El detector TCS230 puede medir los tres colores primarios: rojo, verde y azul, y también puede separar el detector de luz blanca (la suma de los anteriores). Dado que se puede crear cualquier color mezclando diferentes niveles de los colores primarios, un color determinado (un hecho real para nuestro sistema) nos dice de la composición de la fuente lumínica. 232 Podemos utilizar este detector cuando necesitemos producir una acción basados en el color de un objeto (en nuestro caso, de un hecho real). Figura 12 SENSOR DE COLOR TCS230 Las tablas de la figura anterior fueron adecuadas según nuestros propósitos, por lo que no responden estrictamente, a las especificaciones de fábrica, aunque pueden programarse. En el Apéndice hay un programa de aplicación que sí se ajusta a las especificaciones técnicas. 233 7. CONCLUSIONES Hemos presentado el primer Proyecto del Programa “Psiquis”, una emulación electrónica de nuestro aparato psíquico, realizado sobre un microcontrolador Arduino de bajo costo. En esta oportunidad se ha desarrollado un “aparato perceptivo” que cumple con las pautas establecidas para llevar adelante el proceso de percepción, según una teoría sobre la estructura y función psíquicas desarrollada previamente (Salatino, 2013). De acuerdo con la teoría citada, este aparato psíquico a ser emulado en cuatro etapas solo maneja el lenguaje de los colores de la luz. Esto que podría considerarse una franca limitación, en cambio, se transforma en una manera posible de comprender cómo funciona nuestra psiquis, por lo menos, en sus aspectos básicos. Para cumplir con el cometido de percibir estímulos, identificar de dónde vienen, clasificarlos y determinar el nivel de atención (nivel de consciencia) que hay que prestar a lo percibido, se han utilizado distintos sensores que nos han ayudado a emular tales situaciones. Para determinar los “niveles de consciencia” se han utilizado dos métodos distintos. Por un lado, una fotorresistencia (LDR) que nos dice sobre la luminosidad ambiente, haciendo variar la tensión que pasa por ella, de acuerdo con la intensidad de la luz incidente. Este cambio de resistencia fue usado con dos propósitos. En primer lugar, para cambiar la frecuencia de un zumbador (señal audible) que nos indica el “sistema real” (biológico, psíquico o sociocultural) desde donde viene el estímulo, a través de su tono. En segundo lugar, para variar el color de un led RGB (compuesto por un 234 microled para cada color primario de la luz), de acuerdo con el sistema real involucrado (Figura 5). Por otro lado, para lograr los mismos niveles de consciencia, se utilizó la misma plataforma del microcontrolador. En vez de usar sensores se aplicó la técnica PWM o de Modulación de Ancho de Pulso. Esta técnica emula una salida analógica de gran precisión a partir de una señal digital. Así, obtenemos las frecuencias que identifican a cada sistema real, y, además, nos da el nivel de atención con que se desarrolla el acto perceptivo. Por último, mediante el reconocimiento de colores, a través del sensor TCS230, logramos identificar los estímulos, clasificarlos y asignar las conclusiones a un sistema real específico, según las pautas fijadas de antemano para esta emulación del aparato psíquico. 235 APÉNDICE PROYECTO: NIVELES DE CONSCIENCIA Materiales ARDUINO UNO R3 ATMEGA328p Protoboard Cables para conexiones 1 fotorresistencia LDR 1 resistencia de 10 k 1 Buzzer o zumbador pasivo 3 resistencias de 220  1 led RGB (cátodo común) tipo Keyes, sin resistencias. En realidad, el fotorresistor LDR no es apto para hacer una medida adecuada de la cantidad de luz, dado que su tiempo de respuesta es muy lenta (100 mseg), y depende de la temperatura ambiente. Para medir el nivel de iluminación con alta precisión (rango entre 1 y 65535 lux) se necesita emplear el módulo BH1750, que es un sensor de luz digital (a diferencia del LDR que es analógico), aunque tiene un costo diez veces mayor. Programa // Constantes de los componentes conectados a los pines #define BUZZER 9 #define LDR 0 int valorLDR = 0; // LEDs en los pines PWM int redLED = 6; int greenLED = 5; int blueLED = 3; void setup () { 236 // Activa monitor serie Serial.begin(9600); // Define los pines LED como salidas pinMode(redLED, OUTPUT); pinMode(greenLED, OUTPUT); pinMode(blueLED, OUTPUT); } void loop() { // Colocamos las salidas RGB en off digitalWrite(redLED, HIGH); digitalWrite(greenLED, HIGH); digitalWrite(blueLED, HIGH); // Obtenemos el valor de la entrada analógica LDR (0-1023) int valorLDR = analogRead( LDR); // Mostramos el valor leído en el monitor serial del IDE Serial.println( valorLDR); // Enciende el LED correspondiente if(valorLDR < 40) { digitalWrite(greenLED, LOW); } if(valorLDR < 700) { digitalWrite(blueLED, LOW); } if(valorLDR < 1023) { digitalWrite(redLED, LOW); } { delay(200); } // Obtenemos la frecuencia (nivel de consciencia) en función del voltaje // Este voltaje depende de la resistencia LDR y de la luz que incida en ella int nivelConsc = 80 - (valorLDR)/17); // Producimos el sonido a la frecuencia adecuada 237 tone(BUZZER, nivelConsc); } SEÑAL PWM POR SOFTWARE Programa int digPin = 10; // pin digital 10 void setup() { pinMode(digPin, OUTPUT); // pin en modo de salida } void loop() { digitalWrite(digPin, HIGH); //asigna valor HIGH al pin delayMicroseconds(12500); // espera 12,5 ms digitalWrite(digPin, LOW); //asigna valor LOW al pin delayMicroseconds(12500); // espera 12,5 ms } PARA CAMBIAR FRECUENCIA (En el pin 10) delayMicroseconds(2000); // espera 2 ms DETECCIÓN DE COLORES Programa // Detección de colores usando TCS230. // Pines de control del TCS230 #define TCS320_OE 7 #define TCS320_S0 10 #define TCS320_S1 11 #define TCS320_S2 2 #define TCS320_S3 3 #define TCS320_OUT 4 #define variance 50 // Detección de error aceptable: 2%. #define SEL_RED digitalWrite(TCS320_S2,LOW); 238 digitalWrite(TCS320_S3,LOW); #define SEL_GREEN digitalWrite(TCS320_S2,HIGH); digitalWrite(TCS320_S3,HIGH); #define SEL_BLUE digitalWrite(TCS320_S2,LOW); digitalWrite(TCS320_S3,HIGH); #define SEL_CLEAR digitalWrite(TCS320_S2,HIGH); digitalWrite(TCS320_S3,LOW); #define TWO_PER \ digitalWrite(TCS320_S0,LOW); digitalWrite(TCS320_S1,HIGH); #define debug(a) Serial.println((a)); #define NUMCOL 5 // int RGB[NUMCOL][3]; // Cinco colores con 3 elementos // Array of NUMCOL strings len 10. 11 for null. // char colname[NUMCOL][11]; // Valores típicos para una división del 2% (establecer variancia en 50). int RGB[NUMCOL][3]={ {248,647,393}, {188,261,265}, {404,710,546}, {506,493,304}, {930,1199,837}, }; char colname[NUMCOL][11]={ "rojo", 239 "amarillo", "marrón", "azul", "negro", }; //////////////////////////////////////////////////////////////// void setup() { pinMode(TCS320_OE,OUTPUT); pinMode(TCS320_S0,OUTPUT); pinMode(TCS320_S1,OUTPUT); pinMode(TCS320_S2,OUTPUT); pinMode(TCS320_S3,OUTPUT); pinMode(TCS320_OUT,INPUT); TWO_PER; digitalWrite(TCS320_OE,LOW); // Siempre en ON } Serial.begin(115200); Serial.println("TCS230 color detector"); //////////////////////////////////////////////////////////////// unsigned long get_TCS230_reading(void) { unsigned long val; noInterrupts(); val = pulseIn(TCS320_OUT,HIGH,20000); // 2000s=2ms 2Hz min. interrupts(); return val; } static int clr,red,green,blue; //////////////////////////////////////////////////////////////// uint16_t detect(void) { unsigned long val; 240 SEL_RED; red = val = get_TCS230_reading(); Serial.print("ROJO: "); Serial.print(val); SEL_GREEN; green = val = get_TCS230_reading(); Serial.print("VERDE: "); Serial.print(val); SEL_BLUE; blue = val = get_TCS230_reading(); Serial.print("AZUL: "); Serial.print(val); } Serial.print(" \n"); //////////////////////////////////////////////////////////////// int withinEQ(int c, int xl, int xh) { if (c>=xl && c<=xh) return 1; return 0; } //////////////////////////////////////////////////////////////// // Compara un valor con un valor y variancia. int compare(int c, int v, int err) { int xh=v+err, xl=v-err; if (withinEQ(c,xl,xh)) return 1; return 0; } //////////////////////////////////////////////////////////////// void loop() { uint8_t chr,i,fnd; if (Serial.available()>0) { chr = Serial.read(); // Gasto. // Busca coincidencia de color. 241 } } detect(); fnd=0; for (i=0;i<NUMCOL;i++) { if ( compare(red,RGB[i][0],variance) && compare(green,RGB[i][1],variance) && compare(blue,RGB[i][2],variance) ) { // Found Serial.print("Col is :"); Serial.println(colname[i]); fnd=1; break; } } if (!fnd) Serial.println("NOT Found"); 242 REFERENCIAS Atmel (2009). Datasheet ATMEGA328p. Rev. A. Hong Kong, Atmel Corporation. Cameron, N. (2019). Arduino Applied: Comprehensive Projects for Everyday Electronics. Edinburgh, UK, Apress. Grimmett, R. (2014). Arduino Robotic Projects. Birmingham, UK, Packt Publishing Ltd. Monk, S. (2019). Programming Arduino. Next Steps. Going Further with Sketches. New York, Mc Graw Hill Education. Salatino, D. R. (2009). Semiótica de los sistemas reales – Tesis Doctoral en Letras especialidad Psicolingüística por la Facultad de Filosofía y Letras de la Universidad Nacional de Cuyo, Mendoza, Argentina – Director: Dra. Liliana Cubo de Severino. Salatino, D. R. (2012). Aspectos psico-biosocioculturales del lenguaje natural humano. Introducción a la teoría psíquica del lenguaje Mendoza, Argentina - Desktop Publishing, Amazon, ISBN: 978-987-33-2379-9. Salatino, D. R. (2013). Psiquis – Estructura y función – Mendoza, Argentina – Autoedición. ISBN: 978-987-33-3808-3. Salatino, D. R. (2015). “Bases neurológicas y psíquicas del lenguaje musical.” En: Actas de ECCoM, La experiencia musical: cuerpo, tiempo y 243 sonido en el escenario de nuestra mente. Vol. 2, Nº 1, pp. 257-267. Salatino, D. R. (2017c). Tratado de Lógica Transcursiva. El origen evolutivo del sentido en la realidad subjetiva. Mendoza, Argentina, Primera autoedición. ISBN: 978-987-42-5099-5. Salatino, D. R.; Tersoglio, A. E. (2019). “Risk of Autism in the use of assisted reproduction techniques. An analysis from the Transcurssive Logic” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No. 1: pp. 1-16. (Jan. – Mar. 2019); ISSN: 2415-0371. 244 11. NUEVO MODELO NOSOLÓGICO DE LA ENDOMETRITIS CRÓNICA Dante Roberto Salatino42 - Alberto Eugenio Tersoglio43 Resumen: El propósito de este trabajo fue indagar sobre un nuevo modelo nosológico de una enfermedad crónica, en este caso, la Endometritis, con el fin de aportar otros elementos para su diagnóstico y tratamiento. El método utilizado para obtener la información consistió en el análisis de las relaciones que guardan los elementos fundamentales que determinan la entidad crónica, siguiendo los principios de la Lógica Transcursiva. Los resultados obtenidos en investigaciones previas, alertan sobre algunas cuestiones a dilucidar. La supuesta “cura” de una infección (endometritis bacteriana) sugiere que obtendremos un nacido vivo de todos los embarazos, pero solo la mitad de las mujeres que padecieron la infección quedarán embarazadas. Por otro lado, la normalización solo del estado inmunitario que altera la infección, arrojaría una alta tasa de abortos espontáneos. Aún, cuando todo se normalice, la tasa de abortos no es desdeñable, ni tampoco, la cantidad de otra patología que acompaña a estos embarazos, como por ejemplo, partos prematuros. Se encontró que si tomamos al endometrio, es decir, el revestimiento interno de tejido epitelial del útero en donde tiene lugar la implantación del embrión, como un sistema en sí mismo, podemos aproximarnos mejor al logro de nuestras pretensiones. Esto último implica tener en cuenta, por un lado, su microbiota/microbioma, comunidad simbiótica de microorganismos que alojada en la cavidad uterina, constituye una primera barrera defensiva; y por otro, los aspectos que definen su sistema inmunitario local. Una “disbiosis”, esto es, una microbiota alterada, puede dar lugar a un estado de inflamación crónica, aún en ausencia de gérmenes patógenos, y que puede haberse originado, p.e., en algún tratamiento antibiótico previo. Las investigaciones realizadas permitieron concluir que la modelización permite 42 43 Instituto de Filosofía – FFL – UNCuyo. Centro Internacional de Reproducción Asistida. 245 considerar a la endometritis crónica como la confluencia de las reacciones estructural, funcional y sistémica que puede provocar una infección. Por lo tanto, su diagnóstico es posible aunque no existan las evidencias habituales de su presencia, y el tratamiento puede extenderse más allá de lo tradicional (antibióticos, corticoides, estimulantes de la médula ósea, etc.), como lo es el uso de cultivos de células madre mesenquimales para regenerar un endometrio sano. Palabras clave: Inflamación crónica, modelos nosológicos, microbiota/microbioma, células madre, lógica transcursiva. 1.0. INTRODUCCIÓN La nosología consiste en una sistematización de las enfermedades dados los conocimientos que se tiene de ellas, basados en supuestos teóricos sobre la naturaleza de los procesos patológicos que las caracterizan. El propósito de este trabajo fue la elaboración de un nuevo modelo nosológico de la Endometritis Crónica (EC), con el fin de ajustar su diagnóstico y tratamiento, abordando la enfermedad a través de los lineamientos metodológicos que nos brinda la Lógica Transcursiva (Salatino, 2019). La Endometritis Crónica, como entidad nosológica, es una inflamación sutil y continua del endometrio, es decir, del revestimiento interno de tejido epitelial del útero en donde tiene lugar la implantación del embrión (Kimura et al., 2019). Como consecuencia de lo anterior, su presencia cumple un rol importante en la pérdida recurrente de embarazos (Romero, Espinoza y Mazor, 2004; Johnston-Mac Ananny et al., 2010; McQeen et al., 2015; Tersoglio y Salatino, 2015; Cicinelli, 2017; Vitagliano et al., 2018; Kimura et al., 2019; Hirata et al., 2020). La prevalencia de EC, en mujeres afectadas de falla repetida de 246 implantación (FRI), está en el orden del 37% (Vitagliano et al., 2017). Se han reportado altas tasas de implantación, luego de haberse curado la EC, en comparación con aquellas mujeres en donde la enfermedad no se curó (76% vs 59%) (Tersoglio y Salatino, 2015). El hecho de haberse curado la enfermedad, es decir, de que los cultivos para distintos gérmenes den negativos, que no haya elementos histopatológicos que indiquen infección crónica, o que otros índices certifiquen esta condición, no necesariamente significa que la influencia negativa sobre el embarazo haya terminado. 2.0. ESTADO DE LA CUESTIÓN Se pudo demostrar que tanto la normalización de la histopatología endometrial como de las células NK endometriales (un tipo de glóbulo blanco presente en el endometrio, también en la sangre), se constituyen en predictores individuales de embarazo clínico (Figura 1) (Tersoglio y Salatino, 2019a). Figura 1 RESULTADOS DEL EMBARAZO SEGÚN LOS PREDICTORES Referencias: EC: embarazo clínico – NV: nacido vivo AE: aborto espontáneo – NE: no embarazo – 1: normal – 0: anormal 247 La figura anterior nos muestra que en el mejor de los casos (grupo 11), o sea, en donde los dos predictores se normalizaron, obtuvimos un 78% de nacidos vivos, pero hubo un 5% de abortos espontáneos, y un 17% que no quedó embarazada. En el peor de los casos (grupo 00), ambos predictores anormales, no se obtuvieron embarazos. Pero, en los grupos intermedios, los resultados no fueron tan categóricos. Cuando solo se normalizaron las NK (grupo 01) se obtuvo solo un 40% de nacidos vivos, y un 30% de abortos espontáneos. Mientras que, cuando se normalizó solo la histopatología (grupo 10), hubo un 50% de nacidos vivos y ningún aborto. Los resultados anteriores nos alertan sobre algunas cuestiones. La supuesta “cura” de una infección (endometritis bacteriana) sugiere que obtendremos un nacido vivo de todos los embarazos, pero que solo la mitad de las mujeres que padecieron la infección quedarán embarazadas. Por otro lado, la normalización solo del estado inmunitario (normalización de las NK), arrojaría como resultado una alta tasa de abortos espontáneos, y en consecuencia, menos nacidos vivos que el caso anterior. Aún, cuando todo se normalice, la tasa de abortos espontáneos no es desdeñable, ni tampoco, la cantidad de otra patología que acompaña a estos embarazos, como por ejemplo, partos prematuros. Queda claro entonces que, con la supuesta eliminación de una infección, o una pretendida estabilización del estado inmunitario del endometrio, no alcanza para excluir definitivamente, las consecuencias sobre la fertilización que produce una inflamación crónica. Tratar de determinar cuáles son los factores que no estamos teniendo en cuenta para solucionar este problema, es el motivo principal de este trabajo. 248 3.0. EL ENDOMETRIO COMO SISTEMA Desde el inicio del s.XX, y por más de 50 años, hubo consenso sobre que una cavidad uterina sana era una cavidad estéril. A finales de los ’80 del siglo pasado, usando medios de cultivo apropiados, se comenzó a reportar la presencia bacterias uterinas, incluso en mujeres asintomáticas sanas (Baker et al., 2018). De hecho, y a pesar de que el feto es estéril, ni bien nace, sus cavidades abiertas al medio ambiente comienzan a plagarse de gérmenes. Estos microorganismos que acompañan durante toda su vida al ser humano se conocen con el nombre genérico de “microbiota”, y mantienen, en condiciones de salud, una relación simbiótica equilibrada con su portador. Se estima que la cantidad de microorganismos que habitan el cuerpo de un ser humano es diez veces mayor que la cantidad total de sus células corporales, aunque solo pesan 200 gramos (Madigan et al., 2019). Por otro lado, todos los integrantes de la microbiota poseen su propio código genético. A este genoma se le da el nombre de “microbioma”. Los genes humanos son aproximadamente 23.000, mientras que los genes de la microbiota alcanzan a los 3.000.000, es decir, 130 veces más numerosos (Noce et al., 2014). Las cifras anteriores hacen que la microbiota y sus genes, deban ser considerados como un órgano más de nuestro cuerpo, que además, es único e irrepetible, como una huella digital. Para poder considerar al endometrio como sistema y objeto de nuestro estudio, debemos tener en cuenta por un lado su microbiota/microbioma y por otro, los aspectos que definen su sistema inmunitario local. 249 La Figura 2 muestra las relaciones, que a nuestro juicio, presentan los elementos fundamentales que definen al endometrio como un verdadero sistema. Figura 2 PAU ENDOMETRIAL Referencias: DP: defensa pasiva – DA: defensa activa genus: especie de una bacteria – fenotipo: manifestación externa del conjunto de caracteres hereditarios genotipo: conjunto de genes característicos de cada especie Durante mucho tiempo se le llamó "flora intestinal" al conjunto de microorganismos que conviven de manera simbiótica en nuestro tracto intestinal. Sin embargo, este nombre es inexacto pues "flora" hace referencia a la vida vegetal y sabemos que estos microorganismos son bacterias, hongos y levaduras, cuyo funcionamiento no tiene ninguna relación con el de las plantas. Es por ello por lo que en la actualidad se ha adoptado el nombre más preciso y científicamente aceptado de microbiota para nombrar a este micro-ecosistema. Ahora bien, ¿cuál es la diferencia entre microbiota y microbioma? Como ya mencionamos, la microbiota es el conjunto de microorganismos que conviven simbióticamente con el nuestro. De hecho, las células de nuestra microbiota sobrepasan al número de células humanas en una proporción 10 a 1. Todas esas células 250 también poseen su propio código genético, que aunque es distinto del nuestro, se encuentra estrechamente relacionado con nuestra salud. Es al conjunto total de los genes de nuestra microbiota a lo que los científicos han denominado como microbioma. El conjunto de genes contenidos en el microbioma humano podría servir para identificarnos como individuos, como si tratara de una huella dactilar. Según los científicos, cada microbioma posee características distintivas del organismo que lo hospeda, por lo tanto, es posible la identificación de una persona a partir del análisis de los genes que alberga su microbioma. La Figura 3 da un detalle de cómo funciona el sistema inmune de un animal. Vemos que, ante la agresión de cualquier agente patógeno, el animal dispone de dos subsistemas inmunes. Una inmunidad innata que está presente en todos los animales, cuyas características principales se centran en su rápida respuesta, y la posibilidad de reconocer una amplia gama de agentes agresores, usando un conjunto pequeño de receptores. Existen en esta modalidad, dos tipos de defensas. Las “defensas externas” constituidas por la piel, las membranas mucosas y las secreciones. En cambio, las “defensas internas”, están representadas por células fagocíticas (se comen las células nocivas); las células asesinas naturales (o NK, acrónimo de la expresión inglesa natural killers) que ya hemos mencionado, y luego analizaremos con más detalle; proteínas antimicrobianas, y una respuesta inflamatoria generada como defensa ante la invasión. La otra modalidad inmunitaria es la inmunidad adaptativa, que es patrimonio solo de los vertebrados, y se caracteriza por responder lentamente, usando un 251 gran grupo de receptores para reconocer a un agente patógeno particular. Figura 3 SISTEMA INMUNITARIO EN ANIMALES (Adaptado de Reece et al, 2018) 3.1. ALTERACIONES DEL EQUILIBRIO DINÁMICO DE MICROBIOTA/MICROBIOMA/INMUNIDAD LOCAL En los últimos años, se han incrementado las investigaciones enfocadas a mejorar nuestro conocimiento sobre el delicado balance existente entre los agentes microbiales e inmunitarios que conviven a nivel del endometrio (D’Ippolito et al., 2018). Si bien, este complejo sistema constituye una protección ante el riesgo de una infección, en determinadas circunstancias, 252 la pueden propiciar, y con ello, malograr la normal implantación de un embrión. El establecimiento de un cuadro inflamatorio crónico, como la endometritis, por ejemplo, depende de varios factores. Uno de ellos es la alteración del balance dinámico microbiota/microbioma, o lo que se conoce con el nombre de disbiosis (Hedayat y Lapraz, 2019, p. 77). Este desequilibrio de la microbiota con respecto a las necesidades del organismo, obedece a tres razones básicas (Ibidem, p. 87): 1) insuficiencia de la microbiota, 2) pérdida de diversidad de los microorganismos constituyentes, y 3) presencia de gérmenes patógenos competidores (infección). El microorganismo normal predominante en el aparato reproductivo, durante la gestación, es el Lactobacilus, y se supone que constituye una barrera natural que impide la entrada de gérmenes patógenos. Cuando la barrera natural se altera o desaparece, se desencadenan una serie de eventos que conforman el cuadro de disbiosis, como lo muestra la Figura 4 Figura 4 PAU DISBIÓTICO Referencias: TLR: receptores tipo Toll (relacionan las respuestas inmunes innatas con las adaptativas – reconociendo gérmenes y virus, dando inicio al proceso inflamatorio) 253 En primer lugar, ante la falta de reconocimiento de los agresores se favorece el crecimiento bacterial (01); luego, se produce una inestabilidad genómica de las células epiteliales (11), disminuyendo las defensas externas dado el despegamiento que afecta a las células de la piel y mucosas (10); además, se altera el proceso de autofagia, que es como una célula inmune destruye a un germen, engulléndolo. Todo esto desemboca en una ausencia del proceso inflamatorio (00) que acompaña a toda agresión, y por lo tanto, el proceso pasa desapercibido para el sistema inmunitario. Aunque en ocasiones, esta inflamación se produce, pero no dispara la respuesta inmunitaria adecuada, y entonces, aparece un cuadro inflamatorio crónico, como el que nos ocupa. Por otro lado, el endometrio desactiva la reacción inmunitaria que se debería producir cuando el embrión, producto de la unión de una célula propia de la madre, con una heteróloga (el espermatozoide paterno), intenta anidarse. Es decir, el ingreso de un tejido extraño no genera un rechazo. De esta manera, el endometrio se constituye en un verdadero sistema que cumple un papel central en la vigilancia inmune uterina. ¿Cómo funciona el aparato inmunitario local? La Figura 5 nos orienta al respecto. Con un objetivo didáctico, vamos a suponer que el sistema inmunitario funciona de la misma manera que lo hace el Ministerio de Seguridad de un país cualquiera, cuya razón de ser, por supuesto, es disminuir el número de infracciones a la norma establecida, que en el caso que nos ocupa, sería discernir lo propio de lo extraño y atacar esto último. Así, tenemos infractores (invasores), un cuerpo policial que custodia las calles (la sangre) en busca de 254 infractores, un calabozo para alojar transitoriamente a los detenidos hasta ser identificados, un fiscal quien lleva el caso al juez, que es quien determina la culpabilidad y sentencia la pena de muerte. Además, hay un cuerpo especial (los natural killers o asesinos naturales, pertenecientes a la inmunidad innata) cuya misión es sentenciar y ejecutar al infractor sin juicio previo, dada su peligrosidad. Figura 5 PAU INMUNITARIO (Modificado de Dranoff, 2004, p. 18) La “policía” representa la inmunidad innata, ya que es la primera línea de defensa contra la infección, y actúa de 255 dos maneras para detener al invasor, o bien a distancia, mediante sustancias solubles (pistolas taser) llamadas “complemento”, o cuerpo a cuerpo. Esta última operatoria está a cargo de células específicas (granulocitos, mastocito, macrófago, célula dendrítica, y, célula NK – Ver Figura 5). Esta forma de defensa es rápida y efectiva, ya que pueden reconocer (mediante su “identikit”), en forma efectiva, una gran cantidad de gérmenes, y orquestar una inmediata reacción inflamatoria. En cambio, la inmunidad adaptativa está representada por todo el aparato encargado de administrar justicia, por lo que, como ocurre en la actividad administrativa judicial, aquí todo es más lento, ya que no hay acción directa, sino mediante anticuerpos, generados en los “antecedentes delictivos” (el equivalente al prontuario de un delincuente) de los invasores, registro que llevan unos glóbulos blancos especiales: las células T y las células B. Hay tres tipos de células T: 1) TCD4 o linfocitos T colaboradores que activan a otras células para que, o bien “presenten” el antígeno a las células efectoras (el caso de las células B, o el “fiscal” de la causa), o para que ejecuten al agresor sin juicio previo (macrófagos, linfocitos asesinos o TNK); 2) TCD8 o citotóxicos, encargados de la función ejecutora de la inmunidad celular, neutralizando al invasor y destruyéndolo; y 3) T y TNK que comparten sus funciones entre la inmunidad innata y la adaptativa, y son francamente ejecutoras, pero siempre con activación previa (“orden de ejecución” librada por el juez). Por último, como parte fundamental del sistema inmunitario, tenemos al “Complejo Mayor de Histocompatibilidad” (el juzgado y sus jueces). En este complejo (en el juzgado) hay un “lugar” (celda o calabozo) en donde se coloca al sospechoso, hasta que se averigüen sus antecedentes. Las células B (fiscal) 256 presentan el caso (antígeno), al “juez”, quien evalúa, haciendo un reconocimiento del agresor, el “dictar sentencia”, dando la orden de activación a las células que se encargan de la ejecución del reo. Todo este minucioso mecanismo puede abordarse desde la Lógica Transcursiva, porque las relaciones estructurales y funcionales que mantienen todos sus integrantes, constituyen un PAU, como se puede apreciar en la Figura 5. 4.0. ENDOMETRITIS CRÓNICA Con el objeto de detectar bacterias y virus el sistema inmunitario dispone de una serie de receptores llamados “reconocedores de patrones” (o RRP), y se expresan a través de células presentadoras de antígenos, como las células dendríticas y los macrófagos. Su modo básico de acción se ve reflejada en la Figura 6. Figura 6 PAU DE LOS RRP Referencias: Transmembrana/endocelular: ubicación del receptor con respecto a la membrana celular – NLR: detector de ADN de virus y bacterias – TLR: reconoce componentes de la membrana de las bacterias – CLR: reconoce distintas especies de hongos – RLR: detecta ARN viral. Los receptores NLR, también llamados “inflamasomas”, son los encargados de desatar la cascada inflamatoria y son claves en la regulación del microbioma (Suresh y Mosser, 2013; D’Ippolito et al., 2018). Los receptores 257 TLR son los que dan la primera señal para que se desencadene la cascada inflamatoria. Los receptores CLR (Plato et al., 2015) reconocen todo tipo de hongo, además de colaborar con los TLR, y esta colaboración ha sido utilizada terapéuticamente en el tratamiento de infecciones por hongos, tan comunes en pacientes inmunodeprimidos (tratamiento del cáncer, trasplantados, víctimas del VIH), como también en las provocadas por algunas bacterias y virus. Todo este complejo mecanismo, en el endometrio, tiene un comportamiento particular. Así, por ejemplo, en presencia de una posible infección, los receptores TLR atraen a las células NK (uNK o células NK uterinas) y a macrófagos para que desarrollen la respuesta inmunitaria requerida. Las uNK son una población heterogénea que surge, o bien de progenitores locales, o bien de células NK periféricas (residentes en la sangre). El número absoluto de estas células aumenta durante la ovulación, aunque se mantiene en una proporción constante durante todo el ciclo menstrual (30%) con respecto a otros glóbulos blancos. Pero, durante el embarazo, esa proporción aumenta al 70%, de lo que se infiere que las uNK están involucradas en el éxito de los procesos de implantación y progreso del embarazo, pero también en su fracaso cuando el mecanismo está corrupto (D’Ippolito et al., 2018). A veces, se altera la expresión de los genes que codifican las proteínas involucradas en el proceso inflamatorio (de los reconocedores de patrones), esto desencadena una serie de trastornos en el funcionamiento de los distintos grupos de glóbulos blancos, alterando por consiguiente, la secreción de anticuerpos que se vuelven en contra del propio organismo (al que desconocen), incrementándose también los inflamasomas y la liberación de sustancias 258 que agreden las células, ahora no invasoras, sino del endometrio normal (Op. Cit.). Más allá de que haya habido o no una infección previa, esta falla en el reconocimiento, sobre todo, por parte de los receptores TLR (asociados a los CLR), alteran el proceso de implantación y producen una endometritis crónica que ya no depende de un germen, de un hongo o de un virus, sino de un desbalance en la respuesta inmunitaria. La inmunidad local, también se puede ver alterada en presencia de una disbiosis (Hedayat y Lapraz, 2019, p. 79). Como consecuencia, cae la tasa de implantación, y por lo tanto, de embarazos; en aquellos embarazos que logran comenzar, el endometrio inflamado no los puede mantener, descendiendo en todos los casos el número total de nacidos vivos. 5.0. CONCLUSIONES La definición de un nuevo modelo nosológico de la endometritis crónica, según lo concebimos en este trabajo, se sustenta en los aspectos básicos que facultan un cuadro de endometritis, de acuerdo a como lo muestra la Figura 7. Figura 7 PAU DE LA ENDOMETRITIS 259 Según la Figura 7, cuando un agente patógeno alcanza el endometrio, alojado dentro del útero, se producen una serie de fenómenos encadenados. En primer lugar, aparece una reacción estructural que se hace sentir en el órgano uterino; luego, una reacción funcional que altera el comportamiento del epitelio del endometrio, trayendo consecuencias tanto en el régimen menstrual como, en el caso de la posibilidad de un nuevo embarazo. Por otro lado, la infección, produce una reacción sistémica (es decir, que involucra a todo el organismo), cuando se desencadena la respuesta inmunitaria para tratar de defenderse de la agresión y sus consecuencias. La reacción inmunitaria que se da en el endometrio puede ser anómala y desembocar en una inflamación crónica, como hemos visto. Teniendo en cuenta lo precedente, es posible hacer el diagnóstico de endometritis crónica, aunque no existan las evidencias habituales, al descubrir, mediante un minucioso análisis del aparato inmunitario local, algún tipo de desviación de su funcionamiento normal. Por otro lado, surge la posibilidad de no abandonar los intentos de lograr un embarazo que concluya exitosamente en aquellos casos de falla repetida de implantación, en donde el tratamiento tradicional (antibióticos, corticoides, estimulantes de la médula ósea, etc.) no haya dado resultado. Investigaciones muy recientes (Tersoglio, Tersoglio, Salatino et al., 2019b) muestran que el uso de células madre mesenquimales pueden regenerar un endometrio debilitado, como el que queda, por ejemplo, cuando se ha desarrollado una endometritis crónica. 260 REFERENCIAS Baker, J.M.; Chase, D.M.; Herbst-Kralovetz, M.M. (2018). Uterine Microbiota: Residents, Tourists, or Invaders? Frontiers in Immunology, Volume 9, Article 208, pp. 1-16. Balada, F.N. et al. (2012). Farmacología y endocrinología del comportamiento. Barcelona, Editorial UOC. Bouet P.E. et al. (2016). Chronic endometritis in women with recurrent pregnancy loss and recurrent implantation failure: prevalence and role of office hysteroscopy and immunohistochemistry in diagnosis. Fertil Steril. 105, pp. 106-110. Cicinelli, E. (2017). Chronic endometritis in patients with unexplained infertility: Prevalence and effects of antibiotic treatment on spontaneous conception. Am J Reprod Immunol. Vol. 79(1), e12782, pp. 1-6. doi: 10.1111/aji.12782. D’Ippolito, S. et al. (2018). Endometrial microbes and microbiome: Recent Insights on the inflamatory and immune “players” of the human endometrium. Am. J Reprod Immunol, 2018e13065. Doi 10.1111/aji.13065. Dranoff, G. (2004). Cytokines in Cancer Pathogenesis and Cancer Therapy. Nature Reviews/Cancer, Vol. 4, pp. 11-22. García Segovia, A.; Sanchez-Ramón, S. (2015). Estado actual del estudio de las células NK en pacientes infértiles. Revista Iberoamericana de Fertilidad, Vol. 32, Nº 2, pp. 3-11. Hedayat, K.M.; Lapraz, J.C. (2019). The Theory of Endobiogeny. Volume 2: Foundational Concepts for Treatment of Common Clinical Conditions. Elseiver Academic Press. Hirata, K. et al. (2020). Histological diagnostic criterion for chronic endometritis based on the clinical outcome. BMC Women’s Health (en prensa). 261 Johnston-Mac Ananny, E.B. et al. (2010). Chronic endometritis is a frequent finding in women with recurrent implantation failure after in-vitro fertilization. Fertil Steril., 93, pp. 437-441. Kimura, F. et al. (2019). Review: Chronic endometritis and its effect on reproduction. J. Obstet. Gynaecol. Res., pp. 1-10. doi:10.1111/jog.13937 Kitaya, K. et al. (2019). Characterization of Microbiota in Endometrial Fluid and Vaginal Secretions in Infertile Women with Repeated Implantation Failure. Mediators of Inflammation. Volume 2019, Article ID 4893497. doi: 10.1155/2019/4893497. Madigan, M.T. et al. (2019). Brock Biology of Microorganisms. New York, Pearson. McQueen, D.B. (2015). Pregnancy outcomes in women with chronic endometritis and recurrent pregnancy loss. Fertil. Steril., 104(4), pp. 927-931. doi: 10.1016/ j.fertnstert.2015.06.044. Moreno, I.; Simon, C. (2019). Deciphering the effect of reproductive tract microbiota on human reproduction. Reprod Med Biol., 18, pp. 40-50 Noce, A. et al. (2014). Gut Microbioma Population: An Indicator Really Sensible to Any Change in Age, Diet, Metabolic Syndrome, and Lifestyle. Mediators of Inflammation, Volume 2014. Article ID 9011308. doi: 10.1155/2014/901308 Plato, A.; Hardison, S.E.; Brown, G.D. (2015) Pattern recognition receptors in antifungal immunity. Semin Immunopathol., 37, pp. 97-106. Reece, J.B. et al. (2018). Campbell Biology. Ontario, Canada, Pearson. Romero R, Espinoza J, Mazor M. (2004). Can endometrial infection/inflammation explain implantation failure, spontaneous abortion, and preterm birth after invitro fertilization? Fertil Steril., 82, pp. 799-804. 262 Salatino, D. R. (2019). “Fundamentals of a new research method” Inter. J. Res. Methodol. Soc. Sci., Vol., 5, No. 1: pp. 52-73. (Jan. – Mar. 2019); ISSN: 2415-0371. Suresh, R.; Mosser, D.M. (2014). Pattern recognition receptors in innate immunity, host defense, and immunopathology. Adv Physiol Educ., 37, pp. 284-291. Tersoglio, A.E.; Salatino, D.R.; et al. (2015) Repeated implantation failure in oocyte donation. What to do to improve the endometrial receptivity? JBRA Assisted Reproduction, 19(2), pp. 44-52. doi: 10.5935/15180557.20150012 Tersoglio, A.E.; Salatino, D.R.; et al. (2019a). The endometrium histopathology and its NK cells concentration, results as predictors variables of clinical pregnancy in repeated implantation failure. (En prensa). Tersoglio, A.E.; Tersoglio, S.; Salatino, D.R. et al. (2019b). Regerative therapy by endometrial mesenchymal stem cells in thin endometrium with repeated implantation failure. A novel strategy. JBRA Assisted Reproduction (En prensa). Vitagliano, A.; Saccardi, C.; Noventa, M. (2017). Chronic endometritis: Really so relevant in repeated IVF failure?. Am J Reprod Immunol;e12768, Letter to the Editor. doi: 10.1111/aji.12758. Vitagliano, A. et al. (2018). Effects of Chronic endometritis therapy on in vitro fertilization outcome in women with repeated implantation failure: a systematic review and meta-analysis. Fertility and Sterility, 110(1), pp. 103-112.e1. Zaru R. (2019). Pattern recognition receptor (PRRs) ligands. Bitesized Immunology. Accedido el 6/10/2019. https://www.immunology.org/public-information/bitesizedURL immunology/receptores-y-mol%C3%A9culas/pattern-recognition-receptor-prrs *** 263 264 12. MODELACIÓN: LÓGICA Y ALCANCES María Noelia Robles44; Raúl César Pérez 45; [email protected]; [email protected] Resumen: La utilización de la modelación para el estudio científico y tecnológico en diferentes áreas es cada vez más habitual. Sin embargo, deben analizarse los límites aceptables de sus aplicaciones y las condiciones de su validez. Cuando se recurre al modelado con estos fines conviene considerar cuestiones importantes como: 1) El resultado de los modelos es una aproximación a la realidad, que en ocasiones no es descripta correctamente, por lo que es necesario validar sus resultados, confrontando los fenómenos reales con las simulaciones correspondientes, para ver si el ajuste es aceptable. 2) Cuando se utilizan ecuaciones matemáticas para formalizar los procesos de estudio se realizan simplificaciones que, usualmente, eliminan términos responsables de describir fenómenos importantes que el modelado no contempla o es incapaz de reproducir. Por estas y otras razones, los resultados de los modelos deben ser confrontados con los resultados de los hechos reales, para ver el grado de validez de su utilización. Es importante también, considerar los tipos de modelos existentes que pueden clasificarse en: Teóricos: tratan de describir los fenómenos por medio de las ecuaciones matemáticas que los formalizan, Empíricos: utilizan como materia prima los datos obtenidos a través de mediciones experimentales implementadas y por medio de la estadística, desarrollan modelaciones que ajusten a los resultados obtenidos, y Computacionales: se toman las dos 44 Centro de Estudios para el Desarrollo Sustentable (CEDS). Facultad Regional Mendoza. UTN – CONICET. 45 Centro de Estudios para el Desarrollo Sustentable (CEDS). Facultad Regional Mendoza. UTN 265 metodologías mencionadas anteriormente, y se integran para implementar y/o desarrollar software para modelar y simular computacionalmente. Para mostrar con mayor claridad lo expuesto, se desarrolla un estudio de caso completo como ejemplo de lo afirmado. Palabras claves: modelo, aproximación, simulación, validez. 1.0. INTRODUCCIÓN En el desarrollo de los diferentes campos de la investigación actual, se está generalizando cada vez más la utilización de modelos para estudiar los procesos y simular sus resultados. A raíz de esta situación, se debe tener claridad en cuál es el rol de la modelización en estas actividades, y hasta dónde son válidas sus aplicaciones e implementaciones; caso contrario se pueden generar y cometer graves errores en los temas de estudio e investigación de interés. Por lo expuesto, se torna importante la comprensión profunda de qué es un modelo, cuál es su lógica y cuáles son las implicancias de su utilización. Todo modelo surge del conocimiento de una persona especializada en el tema, pero lo primero que se debe observar al respecto, es que todo ser humano es imperfecto; y en consecuencia, nada de lo que él pueda realizar será perfecto; y los modelos no son la excepción; motivo por el cual se debe realizar un examen exhaustivo sobre la competencia o no de su aplicación en la temática a estudiar. Agravando esta situación, cuando se modeliza un hecho o fenómeno generalmente se simplifican cuestiones que idealizan los fenómenos, apartándose en mayor o menor 266 medida de la realidad concreta. Como consecuencia, se debe analizar si esta diferencia es aceptable o no. Los motivos por los cuales se recurre a esta idealización de los fenómenos reales se pueden sintetizar en dos razones: 1. Cuando se utilizan ecuaciones matemáticas, existen términos que se desestiman por diversas razones: presentan dificultades para resolverse y entonces se simplifica la ecuación; o bien, se considera que los valores que arrojan sus resultados son de menor orden que el resto y se pueden despreciar. Sin embargo, puede ocurrir que los términos de menor orden, bajo ciertas condiciones, se tornen en resonantes; en cuyo caso el modelo desestima la posibilidad de que tal hecho ocurra. 2. En numerosas ocasiones, no se conocen las ecuaciones que formalizan los fenómenos, y en consecuencia se recurre al análisis estadístico, obteniendo resultados que infieren conclusiones idealizadas. En estos casos hay que ser muy estrictos al elegir el método estadístico que se emplea para procesar los datos obtenidos experimentalmente. 1.1 Tipos de modelo Las diferentes investigaciones que demandan el uso de modelos, han establecido tres grupos de modelos distintos: 1.1.1 Modelos empíricos-estadísticos Es común que para estudiar e investigar ciertos fenómenos de interés, se implementen experiencias científicas para obtener mediciones de datos de interés sobre él. Éstas, posteriormente son procesadas para producir información útil. Si estos procesos son tratados 267 por métodos estadísticos o formalización teórica, se engloban dentro de este grupo. El resultado final es un modelo estadístico que puede simular situaciones diferentes. 1.1.2 Modelos teóricos Este tipo de modelos son más comunes en ciencias formales como la Física o la Matemática, donde se formalizan los estudios e investigaciones a través de ecuaciones matemáticas correspondientes a las leyes que los rigen. 1.1.3 Modelos computacionales o numéricos Afortunadamente, los avances tecnológicos de los últimos años han puesto a disposición de los investigadores un nuevo recurso para modelar: la computación y el desarrollo de software específicos. Este hecho ha potenciado enormemente las posibilidades de modelación de fenómenos científicos, reduciendo la complejidad y tiempo de cálculo, incurriendo en varios casos en el abuso y perdiendo la noción conceptual de lo que se está procesando. Sin embargo, es una herramienta muy potente, especialmente en los casos que no pueden resolverse mediante la formulación teórica o las metodologías estadísticas, permitiendo incluso, facilitar el trabajo de estos tipos de modelos mencionados. No obstante, cualquiera sea el modelo que se utilice, se debe ser muy cauto, y verificar su aplicación a la temática que se estudia, verificando la validez de los resultados calculados al contrastarlos con los datos reales existentes, y comprobando si el error que se comete es aceptable o no. 268 El propósito del presente trabajo fue ensayar y cuantificar los procesos físico-químicos que tienen lugar durante el confitado de cerezas en conserva elaboradas con sacarosa mediante el método lento o Francés para obtener un modelo matemático que se ajustara a las mediciones halladas. Se caracterizó la evolución de variables físico-químicas tales como: humedad, sólidos solubles (ºBrix) de la pulpa y jarabe, pH y densidad de la solución edulcorante. La modelación se realizó para representar el comportamiento de las migraciones de sólidos solubles en el interior de los frutos. La reducción del contenido de agua en los alimentos es uno de los métodos comúnmente empleados para preservarlos y prolongar su vida útil. La deshidratación osmótica (DO) es un método ampliamente utilizado para eliminar parcialmente el agua de las frutas por inmersión del tejido celular en soluciones hipertónicas acuosas de azúcar (Nowacka et al. 2014). Su objetivo es producir dos efectos principales: flujo de agua desde el producto hacia la solución hipertónica y flujo de solutos hacia el interior del alimento; de esta manera se produce una reducción del contenido de agua mientras se incrementa el contenido de sólidos solubles. En el caso que se presenta se estudiará la difusión de los sólidos solubles para la fase de modelado. Para mostrar con mayor claridad lo expuesto, se desarrollará un estudio de caso completo como ejemplo de lo afirmado. 2.0. ESTUDIO DE CASO: MODELIZACIÓN DE LA DIFUSIÓN DE SACAROSA EN CEREZAS EN CONSERVA. 2.1. MATERIALES Y MÉTODOS 2.1.1. IMPREGNACIÓN DE FRUTOS 269 Se trabajó con cerezas sulfitadas de 3500-3800 ppm de SO2, variedad Rainier sp, calibre 2,2 cm. Las cerezas se desulfitaron mediante inmersión en agua corriente durante 24 horas, el día previo al inicio del ensayo. Se elaboraron cerezas en conserva con sacarosa al 100% mediante el método lento o Francés, empleando una relación sólido-líquido de 1:2,5. La temperatura del ensayo se mantuvo constante a 50ºC. Se caracterizó la evolución de variables físico-químicas tales como: humedad y sólidos solubles (ºBrix) de la pulpa; y pH y densidad de la solución edulcorante, a fin de verificar que las condiciones de frontera se mantuvieran constantes. Cada ensayo constó de cinco impregnaciones sucesivas en jarabes de concentración creciente desde 25ºBrix, en el primer día, a 65ºBrix, en el quinto, aumentando cada día la concentración de este en 10ºBrix. El sexto día se procedió al envasado del producto final. 2.1.2 MÉTODO DE MUESTREO Se efectuó un ensayo destructivo tomando muestras de cereza por triplicado en distintos tiempos, fijados con una frecuencia determinada de muestreo. De cada cereza se obtuvo la sección ecuatorial, (Figuras 1 y 2) mediante dos cortes con bisturí, y sobre ella se realizaron tres cortes concéntricos con un sacabocado manual, que constaba de tres cuchillas (Figura 3). El mismo, permitió medir las concentraciones en distintas capas internas de los frutos situadas a las siguientes distancias medidas desde el eje de simetría de la cereza, ubicado en el centro del orificio de esta: radio 1= 0,27 cm (r1), radio 2= 0,73 cm (r2), radio 3= 1,16 cm (r3). Cada sección circular obtenida, se dividió en dos mitades aproximadamente de manera que, en una sección semicircular se midió humedad, y en la otra 270 porción de muestra se midieron ºBrix, que fueron los datos utilizados para la modelización. Figuras 1 y 2: Corte de sección ecuatorial de la cereza; Figura 3: Sacabocado manual. 2.1.3 MODELO EMPÍRICO A partir de los datos obtenidos de las mediciones realizadas, se halló un modelo estadístico del contenido de sacarosa en las cerezas. La migración de sacarosa en la matriz alimentaria pudo modelarse mediante la ecuación logarítmica (1). Cti + t = A  ln(t i + t ) + b (1) Siendo: t i : tiempo inicial, igual a 0 t : tiempo en horas a partir del cual se efectúa la medición Ct i + t : valor de concentrac ión obtenido para el tiempo considerad o Se establecieron condiciones iniciales y de borde y a partir de dos mediciones realizadas se calcularon los coeficientes A y b, mediante las siguientes ecuaciones (2) y (3) respectivamente: A= (C p - Ca ) (ln( t p ) − ln( ta )) (2) 271 b = Ca − A  ln( ta ) (3) Siendo: a y p, los instantes posterior y anterior considerados. En las Figuras 4 a 7 se puede observar los valores de salida del modelo comparados con los datos medidos experimentalmente, desde la 1ª a la 4ª impregnación respectivamente, para la fracción media r2. 1ª Impregnación: radio 2 Modelo 18,0 16,0 14,0 12,0 10,0 8,0 6,0 4,0 2,0 0,2 5 0,5 0 0,7 5 1,0 0 1,2 5 1,5 0 1,7 5 2,0 0 2,5 0 3,0 0 3,5 0 4,0 0 5,0 0 6,0 0 Concentración (ºBrix) Datos empíricos Tiempo (horas) Figura 4: Concentración de sólidos solubles en función del tiempo para la 1° impregnación 2ª Impregnación: radio 2 Modelo 29,0 27,0 25,0 23,0 21,0 19,0 17,0 15,0 23 ,65 23 ,90 24 ,15 24 ,40 24 ,65 24 ,90 25 ,15 25 ,40 25 ,65 26 ,15 26 ,65 27 ,15 27 ,65 28 ,65 Concentración (ºBrix) Datos empíricos Tiempo (horas) 272 Figura 5: Concentración de sólidos solubles en función del tiempo para la 2° impregnación 3ª Impregnación: radio 2 Modelo 43,0 41,0 39,0 37,0 35,0 33,0 31,0 29,0 45 ,45 45 ,70 45 ,95 46 ,20 46 ,45 46 ,70 46 ,95 47 ,20 47 ,45 47 ,95 48 ,45 48 ,95 49 ,45 50 ,45 Concentración (ºBrix) Datos empíricos Tiempo (horas) Figura 6: Concentración de sólidos solubles en función del tiempo para la 3° impregnación 4ª Impregnación: radio 2 Modelo 54,0 52,0 50,0 48,0 46,0 44,0 42,0 70 ,45 70 ,70 70 ,95 71 ,20 71 ,45 71 ,70 71 ,95 72 ,20 72 ,45 72 ,95 73 ,45 73 ,95 74 ,45 75 ,45 Concentración (ºBrix) Datos empíricos Tiempo (horas) Figura 7: Concentración de sólidos solubles en función del tiempo para la 4° impregnación 273 2.1.4 MODELADO TEÓRICO Este fenómeno de transferencia de sólidos puede representarse matemáticamente, por la ecuación diferencial que describe el proceso de movimiento de la sacarosa en el interior del fruto, expresado por la segunda ley de difusión de Fick, ecuación (4), considerando la cereza con una geometría esférica (Crank, 1975).  2C = 1 C  D t (4) Siendo: C= la concentración [mol . L−1] t= el tiempo [s] r= la posición [m] D=el coeficiente de difusión [m2. s−1] Para el cálculo de este, se propone la variación del coeficiente de difusión en función del tiempo mediante la relación: D(t ) = D0 (1 + t ) (5) Al trabajar con tres dimensiones se emplea el Laplaciano que generaliza la segunda derivada, para resolver la ecuación de Fick. Dado que la simetría del problema es esférica, se trabajó con el laplacianos en coordenadas polares esféricas, obteniéndose la ecuación (6) (6) Además, para simplificar el modelo, se considera isotropía de las propiedades de la pulpa de la cereza, 274 aceptando que existe variabilidad sólo a lo largo del radio de esta, motivo por el cual solo se conserva el término correspondiente a la variación radial. 2 f = 1   2 f   r r 2 r  r  (7) Se observa que la función solución que describe el valor de la concentración en un punto particular del fruto es dependiente del radio r y del tiempo t. Para obtener la función solución la ecuación, se propone el método de variables separables de la forma: (8) Posteriormente se establecen condiciones iniciales y de contorno, utilizando las mediciones realizadas y se obtiene como parte de la función solución, la dependiente del tiempo, la ecuación (9). T(t) = T0  (1 + t) K 2 D 0 (9) Como parte radial de la función solución, se propone: R(r) = cos (k  r) r (10) Esta ecuación es elegida entre las posibles funciones soluciones, debido a que representa mejor la difusión radial, puesto que puede explicar en forma más intuitiva el proceso de transferencia de solutos, como una onda esférica estacionaria, ayudando a la mejor comprensión del concepto físico. 275 Finalmente, la función solución completa del modelo propuesto, como resolución de la ecuación diferencial se puede expresar como sigue: C(r, t) = T(t)  R(r) = T0  (1 + t) K 2 D 0  cos (k  r) r (11) Utilizando como condiciones iniciales, para t=0 y 2 valores de radios medidos distintos, se obtuvo el valor de K mediante la ecuación (12): LN Km = (rm  C( m, 0) ) (ra  C( a ,0) ) (rm − ra ) (12) Donde: m: corresponde al radio medido donde se calcula K; a: corresponde al radio medido en la posición anterior que se considera para el cálculo. Estableciendo las condiciones iniciales y de contorno correspondientes se obtiene el valor para D0.  C ( m, p )   LN   C  ( m,a )  D0 = 2 K  LN (1 + t p ) (13) Los subíndices a y p, son los instantes posterior y anterior considerados. A continuación se presentan, en los gráficos de las Figuras 8 a 10 los datos de concentración obtenida para los tres radios distintos medidos, desde la 1° y hasta la 3° impregnación, y su comparación con los valores obtenidos por el modelo. 276 1ª a 3ª Impregnaci ón: radi o 1 Concentración (mol/L) Da tos Empíri cos Mode l o 0,0016 0,0014 0,0012 0,0010 0,0008 0,0006 0,0004 0,0002 0,0000 0 0 0 5 0 0 0 0 0 0 0 5 0 0 7 7 7 7 2 2 4 0,0 0,5 1,0 1,2 2,0 3,0 4,0 25,0 25,5 26,0 26,5 27,0 28,0 29,5 49,1 49,6 50,1 50,6 51,4 52,4 55,5 Tiempo (horas) Figura 8: Concentración de sólidos solubles en función del tiempo para la fracción central: radio 1 = 0,27 cm 1ª a 3ª Impregnaci ón: radi o 2 Mode l o 0, 00 0, 50 1, 00 1, 25 2, 00 3, 00 4, 0 25 0 ,0 25 0 ,5 26 0 ,0 26 0 ,5 27 0 ,0 28 5 ,0 29 0 ,5 49 0 ,1 49 7 ,6 50 7 ,1 50 7 ,6 51 7 ,4 52 2 ,4 55 2 ,5 4 Concentración (mol/L) Da tos Empíri cos 0,0016 0,0014 0,0012 0,0010 0,0008 0,0006 0,0004 0,0002 0,0000 Tiempo (horas) Figura 9: Concentración de sólidos solubles en función del tiempo para la fracción media: radio 2 = 0,73 cm 1ª a 3ª Impregnaci ón: radi o 3 Mode l o 0,0015 0,0010 0,0005 0,0000 0, 00 0, 50 1, 00 1, 25 2, 00 3, 00 4, 0 25 0 ,0 25 0 ,5 26 0 ,0 26 0 ,5 27 0 ,0 28 5 ,0 29 0 ,5 49 0 ,1 49 7 ,6 50 7 ,1 50 7 ,6 51 7 ,4 52 2 ,4 55 2 ,5 4 Concentración (mol/L) Da tos Empíri cos 0,0020 Tiempo (horas) Figura 10: Concentración de sólidos solubles en función del tiempo para la fracción externa: radio 3 = 1,16 cm 277 Posteriormente se verifica el ajuste al modelo hallado contrastando con las mediciones por medio de software computacional. 3.0. RESULTADOS Y DISCUSIÓN DEL MODELO EMPÍRICO Luego de calcular el error entre los valores reales y los calculados por el modelo empírico, se encontró que los errores en promedio fueron del 0,77%, 1,10% y 1,19% para r1, r2, y r3 respectivamente. La dificultad mayor se tuvo durante la primera impregnación, puesto que al estar la matriz desprovista de sólidos, el potencial difusivo fue mayor y por lo tanto el sistema tardó más en estabilizarse. Una vez determinado esto, se calculó nuevamente el error promedio sin considerar el primer día de impregnación y los valores se redujeron a: 0,18%, 0,62% y 0,88% para r1, r2, y r3 respectivamente. La fracción central r1 fue la que mejor ajustó al modelo hallado estadísticamente, ya sea que se considerara o no el primer día de impregnación. 3.1. RESULTADOS Y DISCUSIÓN DEL MODELO TEÓRICO En este caso se encontró que los errores en promedio fueron del 2,94%, 0,72% y 3,63% para r1, r2, y r3 respectivamente. Al igual que en el caso anterior, la dificultad mayor se tuvo durante la primera impregnación. Sin embargo, la fracción intermedia r2 se modeló mejor, aun considerando la oscilación del primer día de impregnación. Se procedió al cálculo del error promedio nuevamente, sin considerar el primer día de impregnación y los valores obtenidos fueron: 0,72%, 1,57% y 1,51% para r1, r2, y r3 respectivamente. A partir 278 de los resultados obtenidos se determinaron los coeficientes de difusión, parámetro clave que se necesita en el análisis, diseño y optimización de la transferencia de masa durante el proceso de deshidratado de los alimentos. 3.2. RESULTADOS GENERALES La fracción externa r3, fue en ambos casos la más difícil de modelar puesto que, probablemente al suponer isotropía, dejó de considerarse la resistencia a la difusión que supone la piel de la cereza por su estructura, al ingreso de la sacarosa. Se concluyó que el mayor error en ambos casos se produjo el primer día, cuando aún el sistema no había alcanzado el equilibrio y la matriz se encontraba desprovista de sólidos. El potencial de difusión fue máximo y las fluctuaciones producidas mayores. Debido a los errores calculados, se concluye que para ambos tipos de modelación el ajuste es adecuado y los modelos pueden ser aplicados al caso de estudio propuesto. 4.0. CONCLUSIONES _ Para el caso en estudio, los tres modelos ajustaron aceptablemente. _ Fue muy importante el trabajo de mediciones realizados para tener suficiente información a fin de desarrollar un modelo válido. _ Es imposible que no surjan diferencias relevantes entre los resultados obtenidos por un modelo y las 279 mediciones realizadas a través de experiencias, esto se debe a que en ambos procesos se cometen errores. REFERENCIAS Crank J. (1975). The Mathematics of Diffusion, 2nd Ed., Clarendon Press, Oxford, U.K. Nowacka M., Tylewicz U, Laghi L, Dalla Rosa M, Witrowa-Rajchert D. (2014). Effect of ultrasound treatment on the water state in kiwifruit during osmotic dehydration. Food Chemistry, 144, 18-25. 280 281 282 13. MODELADO HEURÍSTICO DE LA DEMOSTRACIÓN POR EL ABSURDO Luis Eduardo Gómez46 Resumen: Este artículo es la continuación de uno anterior, titulado Heurística demostrativa (Gómez, 2017), en el cual se introdujo un método de modelado heurístico formal deductivo-abductivo para el aprendizaje de la demostración formal directa de la validez mediata, de formas argumentales en la Lógica Proposicional. Este artículo presenta el modelo heurístico para el aprendizaje de la demostración indirecta por el absurdo. La demostración se continúa modelando por la combinación de la deducción y de la abducción formal, pero el modelo de búsqueda cambia. Esta modificación es necesaria ya que el objetivo heurístico de toda demostración directa es la conclusión, mientras que en la demostración indirecta por el absurdo se proponen diversos objetivos que son contradicciones. El modelado tiene los mismos fundamentos metodológicos que el descripto para el camino directo pero su operatoria es distinta. Este artículo está estructurado en dos partes. En la primera se dan algunas nociones básicas teóricas del modelo y en la segunda se muestra su funcionamiento. El modelo es el resultado de una convergencia de procesos de deducción y de abducción formal. Para evidenciar su flexibilidad y potencia, se desarrolla un ejemplo de modelado heurístico de demostración indirecta por el absurdo de una forma argumental típica. Se muestra cómo se hace uso del modelo, construyendo varias demostraciones. Se concluye que el modelo heurístico propuesto es potencialmente útil para el aprendizaje de la demostración por el absurdo en función de reglas en los cursos de Lógica. 46 Facultad Regional Mendoza, Universidad Tecnológica Nacional. Facultad de Filosofía y Letras, Universidad Nacional de Cuyo 283 Palabras claves: deducción, demostración indirecta, contradicción, abducción formal, heurística deductivoabductiva. 1. INTRODUCCIÓN Uno de los logros más importantes en el ámbito de la educación en Lógica Proposicional clásica bivalente (LP) es el aprendizaje de la justificación formal de la validez de un esquema de razonamiento deductivo. Tal justificación puede ser directa o indirecta. Este artículo es la continuación de otro anterior, titulado Heurística demostrativa (Gómez, 2017) en el cual se introdujo un método de modelado heurístico formal deductivo-abductivo para el aprendizaje de la demostración directa de la validez mediata de formas argumentales consistentes en la Lógica Proposicional. Este artículo presenta el modelo heurístico para el aprendizaje de la demostración indirecta por el absurdo. En la demostración indirecta el modelo de búsqueda cambia. Esta modificación es necesaria ya que el objetivo heurístico de toda prueba directa es la conclusión, mientras que en la demostración indirecta se proponen diversos objetivos, que son contradicciones. El modelado tiene los mismos fundamentos metodológicos que el descripto para el camino directo pero su objetivo es distinto. El artículo está estructurado en dos partes. En la primera se dan algunas nociones básicas de LP, y se ofrece una visión novedosa de la Regla del Absurdo. Luego se presenta el modelo y su funcionamiento. El modelo está orientado hacia una convergencia de series demostrativas en las cuales se emplean los métodos de deducción y de abducción formal. 284 Para evidenciar su flexibilidad y potencia, se desarrolla un ejemplo de modelado heurístico de demostración indirecta por el absurdo de una forma argumental típica. Se muestra cómo se usa el modelo, construyendo varias demostraciones de una misma forma argumental. 1.1. FORMA PROPOSICIONAL ARGUMENTAL (FA) (FP) Y FORMA Se llama forma argumental (FA) deductiva a un esquema formal de argumento constituido por formas proposicionales (FP) pi y por la inferencia, o relación de consecuencia lógica deductiva de una conclusión o consecuente (Φ) a partir de las premisas o antecedente (Γ). Γ representa el conjunto de las premisas: {p1, …, pn}. Cada FP es una ‘fórmula bien formada’ (fbf), esto es, una fórmula que cumple las reglas de formación del lenguaje LP. Una FP es un esquema o un nombre de proposición. |- es el deductor sintáctico, y simboliza la derivación formal o consecuencia lógica de Φ a partir de Γ. Indica que la conclusión se sigue necesariamente de las premisas. Es decir, la FA Γ |- Φ es deducible en LP. Una característica esencial de todo argumento y de toda FA deductivos es su validez en un sistema lógico L. Una FA en la lógica proposicional clásica bivalente (LP) puede ser evaluada como válida o inválida en función de que Φ se deduzca, o no, de Γ. Se prueba la validez estableciendo una secuencia deductiva entre las premisas y la conclusión en función de reglas. 285 1.2. VERDAD Y VALIDEZ SEMÁNTICA El conocimiento científico está orientado a la verdad de sus afirmaciones, por lo cual debe tener en cuenta la validez formal y material de sus formas argumentales. Debe cuidar la consistencia, la relevancia, y la suficiencia de sus premisas, de modo que sea imposible derivar de ellas una conclusión falsa, o contradictoria. Un argumento que carece de una premisa necesaria para fundamentar la conclusión, o que contiene (al menos) una premisa falsa, o que posee premisas inconsistentes, es “vacuamente” válido pero débil e inaceptable en ciencias fácticas. Del mismo modo, un argumento cuya conclusión es verdadera pero sus premisas no son importantes ni relevantes ni suficientes para fundamentar dicha verdad es “trivialmente” válido desde un punto de vista formal pero totalmente inútil, inaceptable y dañino epistémica y operativamente. Un argumento es sólido, fuerte, si es válido y sus premisas son verdaderas. En las ciencias fácticas se busca la verdad semántica, por lo que es necesario darle importancia no sólo a la validez sino a la fortaleza, solidez, o firmeza de sus inferencias. Una modelación que contenga una premisa falsa (o ausente) o premisas inconsistentes, puede ser formalmente válida pero materialmente débil, falsa e incluso potencialmente perjudicial, aun cuando, por azar, el resultado sea útil y verdadero dentro de las fórmulas y los parámetros de error aceptados circunstancialmente. “[C]ada razonamiento lógicamente correcto no es mejor o peor que las premisas en las que se apoya” (Suppes, 1988, p.132) 286 2 DEMOSTRACIÓN DE LA VALIDEZ ARGUMENTAL La demostración de validez formal de una FA es la secuencia deductiva, justificada mediante reglas, de que la conclusión deriva de las premisas. Demostrar es poner en evidencia la razón de dicha derivación. Si la FA es válida, entonces las premisas son la razón suficiente para la conclusión y la conclusión es la razón necesaria para las premisas. Luego, si la FA es válida y la conclusión es falsa, al menos una premisa es necesariamente falsa. Y si la FA es válida y las premisas son verdaderas, la conclusión es necesariamente verdadera. La demostración de validez inmediata de una FA se hace manifestando la regla que justifica la deducción de la conclusión a partir de las premisas, sin pasos intermedios. La demostración mediata es la secuencia deductiva de formas proposicionales (FP) justificadas por reglas, que deriva la conclusión. Los métodos de prueba formal de validez mediata son: el directo, el indirecto, y el del condicional asociado. En los métodos directo e indirecto se establece una secuencia de inferencias que deduce la conclusión. En el método del condicional asociado se “analogan” la consecuencia lógica con la implicación material, y se “convierte” la FA ( Γ |- Φ ) en su FP análoga ( Γ→ Φ ). Finalmente, se “analogan” la valuación de verdad de la FP y la valuación de validez de la FA: si la FP es tautológica, la FA es válida (y si no, no). “[E]l fundamento lógico del método del condicional asociado es la analogía formal entre estructuras lógicas diferentes (FAs y FPs). Esto brinda la ventaja pragmática de poder utilizar todos los métodos de prueba de tautologías, y luego “analogar” la verdad proposicional con la validez argumental” (Gómez, 2017, pp. 65-6). 287 2.1. DEMOSTRAR Y APRENDER A DEMOSTRAR La demostración mediata que se ofrece en los textos de lógica proposicional es un desarrollo completo. Muestra un resultado exitoso. Pero para los alumnos, en la enseñanza y aprendizaje de la lógica, la demostración es un proceso, a veces fallido, de búsqueda y encuentro (euriskein) de dicho resultado. La heurística demostrativa que se propone aquí es un proceso de apertura de múltiples árboles deductivos y abductivos cuyo fin es llegar a resultados comunes que funcionan como ‘puentes’ que permiten reconstruir las demostraciones deductivamente, y abductivamente (a elección). 2.2. LA ABDUCCIÓN FORMAL Se propone en LP, como el método inverso a la deducción. La abducción parte de la conclusión y busca las posibles premisas que le dieron origen, en función de las reglas deductivas. Dada una conclusión, se proponen dos clases de premisas: las que son lógicamente equivalentes a la conclusión, y las que implican lógicamente a la conclusión. Por ejemplo: si en algún estado de avance del proceso heurístico demostrativo aparece una conclusión disyuntiva (p v q) a la cual es necesario llegar, la pregunta abductiva es: ¿cuáles son las premisas posibles de donde deriva? Debajo se dan algunas opciones, separadas según surjan por equivalencia o por implicación lógicas. Hay que leer las columnas de derecha a izquierda: 288 Γ -| Φ Abducción por equivalencia lógica -| Regla Premisa/s posible/s (Γ) Def → p → q pvq DeM pvq Conm  ( p ∧ q ) Idempot (p v q) v (p v q) DN ( p v q ) (p v q) (p v q) pvq Absorción p v ( p ∧ q ) pvq Γ -| Φ Conclusión qvp pvq (p v q) ∧ (p v q) pvq Abducción por implicación lógica Regla Premisa/s posible/s -| Conclusión vI p pvq vI q pvq DC ( r → p ), ( s → q ), ( r v s ) pvq SD (( p v q ) v r ), r pvq ∧E (p v q) ∧ r pvq 3. DEMOSTRACIÓN DE VALIDEZ INDIRECTA La demostración indirecta es de dos clases: 1) por contraposición y 2) por contradicción o reducción al absurdo (RAA). 289 1) La prueba por contraposición se usa cuando resulta difícil llevar adelante la prueba directa de la FA: Γ |- Φ y es más accesible demostrar Φ |-  Γ. La relación entre estas FA es análoga a la de sus condicionales asociados, entre los cuales hay una equivalencia lógica llamada ley de contraposición: ( Γ → Φ )  ( Φ →  Γ ) La prueba por contraposición toma como premisa la contradictoria de la conclusión dada, y deduce la contradictoria de (al menos una de) las premisas dadas. Demuestra indirectamente una FA, al probar una FA análoga por contraposición. Luego, el fundamento lógico de la prueba por contraposición es la analogía formal entre la FA probada ( Φ |-  Γ ) y la FA dada ( Γ |- Φ ), cuyas FP (los condicionales asociados respectivos) son equivalentes lógicamente por la ley de contraposición. Φ |-  Γ si y sólo si Γ |- Φ Algunos autores consideran que en este tipo de prueba se utiliza (como analogado) la ley del modus tollendo tollens (MTT, o MT), cuya forma es ((Γ→Φ)&Φ)Γ La ley del MT es deducible de la ley de contraposición (por la ley de importación): Si (Γ → Φ) ↔ (Φ → Γ), (Γ → Φ) → (Φ → Γ). Luego si (Γ→ Φ) → (Φ → Γ), ((Γ → Φ) & Φ) → Γ Ya los estoicos hicieron la derivación inversa, tomando al modus tollens como la segunda “forma básica” de FA válida, y de ella derivaron la contraposición. En la práctica, la prueba por contraposición puede desarrollarse con un formato análogo, manteniendo en el antecedente algunas de las premisas de la FA original, y 290 concluyendo la contradictoria de (al menos) una de las premisas restantes (una es suficiente). Sean Γ1 =  y Γ2 = Γ = (pa ∧ … ∧ pn), o bien Γ1 = (pa ∧ … ∧ pj) y Γ2 = (pk ∧ … ∧ pn), o bien Γ1 = (pa ∧ … ∧ pn-1), y Γ2 = pn. La prueba por contraposición, se funda en la analogía formal entre las FA (Φ, Γ1 |- Γ2) y (Γ1, Γ2 |- Φ), por la equivalencia lógica entre sus condicionales asociados: ( Γ1 ∧ Φ ) → Γ2  ( Γ1 ∧ Γ2 ) → Φ Luego, Γ1 , Φ |- Γ2 si y sólo si Γ1, Γ2 |- Φ 2) La prueba indirecta por reducción al absurdo (RAA) es una forma de Demostración Condicional. Razonamos por reductio ad absurdum cuando asumimos la negación de lo que estamos tratando de probar, y luego, a partir de esta suposición, junto con otros supuestos explícitos o de fondo, podemos deducir una contradicción explícita.(Jacquette, p.243). Se apoya en los principios lógicos de no-contradicción (PNC) y de tercero excluido (PTE). El PTE sostiene que toda proposición es o bien verdadera o bien falsa, y no hay una tercera opción. En símbolos: |- Φ v Φ. El PNC dice que toda contradicción es una falsedad lógica (⊥) y es inaceptable, y lógicamente imposible. Toda lógica consistente se sostiene en este principio. En símbolos: |-  ( Φ ∧ Φ ). Dos proposiciones contradictorias no pueden ser ni verdaderas ni falsas a la vez. En LP una contradicción es una FP que es interpretada como lógicamente falsa en todas sus instancias de sustitución (C. de Muro, 126). Por ejemplo: las siguientes FP son contradictorias, 291 cualesquiera que sean sus interpretaciones: ( r ∧ r ), ( p → q ) ↔ ( p ∧ q ), (p → q) →  (q → p). Los estoicos usaban la RAA como Introducción del Negador (I, IN). “Cuando un seguidor de Zenón quería refutar el enunciado comunmente aceptado de que_P, hacía un argumento de la forma 'Si P entonces Q'; y si P entonces no_Q; por lo tanto, es imposible que_P '” (Kneale, p.124). O sea: ((Φ → Ψ) ∧ (Φ → Ψ)) |- Φ Gentzen (p.293-4) da la Introducción del Negador (IN). “I: (Reductio ad absurdum.) Si podemos derivar cualquier proposición falsa (F) de un supuesto A, entonces A no es verdadero, o sea, se sostiene A.” [A], …, F |- A. siendo F = “lo falso” = contradicción =(p.e.) A ∧ A. La regla ECQ (ex contradictione [sequitur] quodlibet) es F |- D, o Ψ ∧ Ψ |- Φ. En NK (cálculo de lógica natural clásica) la RAA no es ECQ. Ni es EDN, la Eliminación de la Doble Negación: Φ |- Φ. Copi, Scherer, Lambros, Kulathungam, presentan formatos en los que se utiliza Ad (vI), SD y DN, o PNC y MT. A diferencia de la lógica intuicionista, la lógica clásica sí acepta el PTE y la Doble Negación (DN). 3.1. LA TÉCNICA DE DEMOSTRACIÓN POR EL ABSURDO "[l]a demostración por el absurdo, ... consiste en partir de la negación del enunciado que se quiere probar, deducir de allí una contradicción, y concluir, entonces, con la afirmación del enunciado originalmente negado. La regla de reducción al absurdo es la que permite esta clase de razonamiento: ¬ χ → (ψ & ¬ ψ) / χ". (Cassini, p.25). 292 “En una demostración indirecta, si introduciendo la negación de la conclusión deseada se puede deducir una contradicción de la forma P & -P, entonces se puede afirmar la conclusión deseada por la regla de reducción al absurdo” (Suppes p.156) Operativamente, la demostración por el absurdo consta de los siguientes pasos: 1. Dada una FA, Γ |- Φ, se supone que es inválida. Esto es, que las premisas dadas (Γ) son verdaderas y la conclusión es falsa. Es decir, se supone que la negación de la conclusión es verdadera. Si la conclusión es Φ, el supuesto absurdo será Φ. Y si la conclusión es Φ, el supuesto condicional introducido será su negación (Φ), que equivale a Φ por la ley de Doble Negación (DN). 2. A partir de las premisas, de las deducciones realizadas antes del supuesto (si las hubiere) y del supuesto condicional absurdo, se deduce una contradicción, la cual es el cierre del supuesto. 3. Ya que las premisas se suponen verdaderas, la contradicción se dedujo debido al supuesto de que la conclusión es falsa. Por lo tanto, se establece la verdad de la conclusión dada y con ello la validez de la FA que se quería demostrar. 3.2. LA REGLA DEL ABSURDO Estos tres pasos son precisamente lo que expresa la Regla del Absurdo (Abs): Si de las premisas dadas, supuestas verdaderas ( Γ ), y del supuesto condicional que niega la conclusión, se sigue una contradicción, entonces se deduce válidamente la conclusión. Siendo Φ y Ψ metavariables, y ⊥ el signo de falsedad lógica, la Regla del Absurdo se puede simbolizar como EN: 293 (a) Γ Φ ⁞ Ψ ∧ Ψ (b) Γ (Φ) ⁞ Ψ ∧ Ψ (c) Γ [Φ] ⁞ ⊥ Φ Φ Φ El esquema (a) equivale a: Γ, [Φ],…,Ψ,…,Ψ |- Φ. Lo que equivale a: Γ, [Φ],…,Ψ, [Φ],…,Ψ |- Φ y también a Γ, (Φ → Ψ), (Φ → Ψ) |- Φ. (c) es otra representación de (a). En (a) y en (c) el supuesto absurdo es Φ, que es el contradictorio de la conclusión (Φ). (b) equivale a: [ (Φ)],…,Ψ,…,Ψ |- Φ, etc. En (b) la conclusión es Φ y el supuesto es (Φ), que equivale a Φ (por DN). Esta equivalencia puede llevar a tomar (b) como IN (I): Γ, [ Φ ],…,Ψ,…,Ψ |- Φ. En la Lógica Clásica valen la ley de la Doble Negación (DN): Φ  Φ, la regla de Sustitución (RS) o Reemplazo de Equivalentes (RE), y la regla de Eliminación de la Doble Negación (EDN): Φ |- Φ, la que no se confunde con la regla de explosión, o ECQ. EJEMPLO: A continuación se ofrece un simple ejemplo con dos pruebas por el absurdo de una misma FA que ilustran la regla … y que no requieren un esfuerzo heurístico. 1 2 3 4 5 6 294 (p ∧ q) p q p ∧ q (p ∧q) ∧ (p ∧q) q /⸫ q Sup.Abs 2,3 ∧ I 4,1 ∧ I 3-5 Abs. 1 (p ∧ q) 2p /⸫ q 3 q Sup.Abs 4p→q 1, Def→ 5 p 3,4 MT 6 p ∧ p 2,5 ∧ I 7q 3-6 Abs 3.3. RAA Y REFUTACIÓN La prueba por RAA tiene dos usos: para refutar la validez de una FA, o para establecerla. 1) Cuando se refuta una FA Γ |- Φ, se acepta que sus premisas Γ son verdaderas y se demuestra que su conclusión Φ es falsa o de ella se deriva una contradicción. Aquí la RAA funciona como Introducción del Negador (I, IN) Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA = IN para Γ |- Φ) 2) La RAA se usa principalmente como prueba de la validez de una FA Γ |- Φ por la refutación de la refutación de la misma. Si se prueba que de premisas verdaderas y del supuesto de que la conclusión es falsa (lo cual sería una refutación), se deduce una contradicción, entonces se establece que la conclusión dada es verdadera (= no es falsa) y la FA es válida. Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA = EN para Γ |- Φ) 4. MODELO HEURÍSTICO DEDUCTIVO-ABDUCTIVO DE DEMOSTRACIÓN POR EL ABSURDO Se utilizará la metavariable H para designar un conjunto de al menos una secuencia de fbfs justificadas por reglas que constituyen las demostraciones encontradas {H1, H2, …, Hk} de una FA. En la heurística clásica la secuencia Hi es el resultado de procesos deductivos. En el modelo propuesto de heurística abductivo-deductiva, 295 Hi se descubre a partir de la concurrencia de secuencias de fórmulas construidas desde los dos extremos: premisas y conclusión: si = aj (Gómez, 2017, pp. 70-5). Heurística deductiva Heurística deductivo- abductiva Γ, Hi |- Φ Γ, Hi |- Φ Hi = D(s1,…,si)g Hi = {D(s1,…,si)g U A(aj,…,a1)h / (si = aj)g,h } El primer paso del modelo heurístico para la demostración indirecta es la construcción de la tabla de deducciones. Se toman en cuenta las premisas y el supuesto absurdo (la negación de la conclusión). Se hacen deducciones por equivalencia y por implicación lógica, y se enumera cada una de ellas. El segundo paso es proponer los objetivos de búsqueda. Son las FP contradictorias de las premisas, o de las FP que componen las mismas, o de las FP equivalentes a ellas, o deducidas de ellas. Se hace una tabla de objetivos y se enumera cada uno de ellos. El tercer paso es incluir en dicha tabla un esquema de cómo llegar a los objetivos. Se plantean deducciones y abducciones encaminadas a los objetivos. Se elabora una tabla de abducciones por equivalencia y por implicación lógica, y se enumera cada una de ellas. El cuarto y último paso es la construcción deductiva de la demostración indirecta H a partir de la concurrencia de las deducciones y abducciones orientadas por los objetivos. Estos pasos no forman una secuencia lineal, sino que se entrelazan para armar las bases y hallar las demostraciones. 296 5. EJEMPLO DE APLICACIÓN DEL MODELO HEURÍSTICO EN LA DEMOSTRACIÓN POR EL ABSURDO Se parte de una forma argumental (FA) cuya validez se pretende demostrar por el absurdo mediante reglas de inferencia deductiva, usando el cálculo NK de deducción natural combinado con la abducción formal. Sea la FA (p → q), (r v p), r |- q Por su simplicidad y comodidad se representa el proceso demostrativo en formato de tabla. Cada premisa se numera en una fila separada. Su formalización a modo de tabla es: 1 p→q 2 rvp 3 r /⸫ q El primer paso es la construcción de la tabla de deducciones. Se parte de las premisas (1, 2, 3) y del supuesto absurdo (4). Se establecen dos columnas: una para las FP equivalentes lógicamente a las premisas y al supuesto absurdo, y otra para las FP implicadas lógicamente por las premisas y el supuesto absurdo de forma independiente o combinada. Cada FP es enumerada para guiar y simplificar el proceso. Proceso Deductivo (1) p → q (2) r v p (3) r FP equivalentes a (1) y a (2) a (1): (5) p v q (6) (p ∧ q) (7) q → p a (2): (8) r → p (9) p → r (4) q FP implicadas Def→ (11) p (2)(3) SD Def→ (12) p (1)(4) MT Transp Def→ Conm+Def→ (10) (r ∧ p) DeM 297 En este ejemplo la primer premisa (1) tiene tres FP equivalentes, que son (5), (6), y (7). Y otro tanto pasa con la segunda premisa (2), cuyas FP equivalentes son (8), (9), y (10). En cada caso se menciona la regla de equivalencia lógica correspondiente. A su vez, (11) y (12) son FP implicadas lógicamente por algunas de las proposiciones anteriores. El segundo paso es proponer los objetivos de búsqueda, que son, en primer lugar, las FP contradictorias de las proposiciones dadas en las premisas. En el ejemplo, hay dos proposiciones simples o atómicas: p y r. Como la contradictoria de r, que es r, es la premisa (3), un objetivo de búsqueda [o1] será r. Esto se representa por medio del número (3) debajo de r y de [o1] debajo de r. Si se encuentra r (el objetivo 1), entonces por la regla de introducción del conjuntor ∧I (o regla del producto: Prod) se podrá construir la contradicción r y r, la cual cerrará la deducción a partir del supuesto absurdo. También se toman en cuenta las proposiciones compuestas (o moleculares) que constituyen la primera y segunda premisas: (1) (p → q) y (2) (r v p). Esto determina dos nuevos objetivos de búsqueda: [o2] que es (p → q) y [o3] que es (r v p). Si se alcanza el objetivo 2 [o2], se hará el producto con (1) para formar una contradicción. Y si se alcanza el objetivo 3 [o3], se hará el producto con (2), logrando otra contradicción. 298 Objetivos FP simples p ∧ p r ∧ r (11) (12) [o1] (3) FP compuestas (p → q) ∧ ( p → q) (r v p) ∧ (r v p) (1) [o2] (2) [o3] H1 H2 H3 H4 En este punto se ha encontrado una contradicción en p, ya que en (11) se dedujo p y en (12) se dedujo p. Esto significa que la primera demostración indirecta (H1) ha sido hallada deductivamente. Y cada objetivo que se alcance constituirá una nueva demostración H. La construcción deductiva de H1 es: 1 p→q 2 rvp 3 r /⸫ q H1 q 4 Sup.Abs. 5 p 2,3 SD 6 p 1,4 MT p ∧ p 7 5,6 ∧ I 8 q 4-7 Abs. El tercer paso es desarrollar las abducciones orientadas a encontrar los tres objetivos. El primer objetivo [o1] es r. Si r es la conclusión, no se encuentra una equivalencia que pueda darle origen, como r v r, o r ∧ r, por ejemplo. Entonces se busca una abducción por implicación lógica. r se encuentra en la premisa (2) (r v p), que es una disyunción. Las reglas que permiten la eliminación del disyuntor son: Casos (Cas) y Silogismo Disyuntivo (SD). Para poder utilizar SD en (2) hay que contar con p. Pero p ha sido deducida en (12). Así se ha alcanzado el primer 299 objetivo [o1] y con él, la segunda demostración indirecta (H2) con contradicción en r (1a) y r (3). [o1] r ∧ (1a) H2 r v p, p ⊣ r SD (1a) (2) (12) [o1] (rvp) p (2) (12) r (3) Cuarto paso: La construcción deductiva de H2, que cumple el primer objetivo [o1], es: 1 p→q 2 rvp 3 r /⸫ q H2 4 q Sup.Abs. 5 p 1,4 MT 6 r 2,5 SD 7 r ∧ r 6,3 ∧ I 8 q 4-7 Abs. Ahora se hacen las abducciones por equivalencia () y por implicación (). Proceso Abductivo Abducción por  ¿? ⊣ r [o1] (p ∧ q) ⊣ (p →q) Df→ (2a) [o2] (r ∧ p) ⊣ (r v p) DeM (4a) [o3] 300 Abducción por  (r v p), p ⊣ r (2) SD (1a) (12) [o1] p, q ⊣ (p ∧ q) ∧I (3a) (11) (4) r, p ⊣ (r ∧ p) ∧I (5a) (3) (12) El segundo objetivo [o2] es (p → q), que es la contradictoria de la primera premisa (1). La abducción por equivalencia (2a) da el equivalente lógico (p ∧ q). Y de la abducción (3a) por implicación lógica de (p∧q) resultan dos líneas abductivas: p, y q. Pero p ya se obtuvo en (11) y q es el supuesto absurdo (4). De modo que se ha obtenido una tercera demostración indirecta (H3) con contradicción en (p → q) y (p → q). (p ∧ q) ⊣ (p → q) [o2] p, q ⊣ (p ∧ q) (11) (4) En forma de tabla o árbol: H3 (2a) (3a) (p → q) ∧  (p → q) (1) (p ∧ q) (2a) p (11) q (3a) (4) 4°: Luego la construcción de H3 que cumple [o2] es: 1 2 3 4 5 6 7 8 9 p→q rvp r q p p ∧ q ( p → q) (p → q) ∧ (p → q) q /⸫ q Sup.Abs. 2,3 SD 5,4 ∧ I 6 Def→ 1,7 ∧ I 4-8 Abs. H3 Una nueva abducción por equivalencia (4a) permite alcanzar el tercer objetivo [o3] (r v p) abduciendo su equivalente (r ∧ p) según la ley de De Morgan. 301 Y de (r ∧ p) se abducen r (3) y p (12). Esta es la cuarta demostración indirecta (H4) con contradicción entre (6) y (2a). (r ∧ p) ⊣ (r v p) DeM (4a) H4 r, p ⊣ (r ∧ p) (5a) ( r v p ) ∧ ( r v p ) (2) r ∧ p (4a) r p (5a) (3) (12) La construcción deductiva de H4, que cumple [o3], es: 1 2 3 4 5 6 7 8 9 p→q rvp r q p r ∧ p (r v p) (r v p) ∧ (r v p) q /⸫ q Sup.Abs. 1,4 MT 3,5 ∧ I 6 DeM 2,7 ∧ I 4-8 Abs. H4 Nuevos objetivos: El proceso deductivo permite ampliar los objetivos de este modelo heurístico a un segundo nivel. Éste comprende las FP equivalentes a las premisas (1) y (2). Así, (5), (6) y (7) son equivalentes a (1), y además (8), (9) y (10) son equivalentes a (2). Las FP contradictorias a cada una de las seis son nuevos objetivos. A continuación se detallan los objetivos a encontrar para las FP equivalentes a la premisa (1) y las abducciones correspondientes. 302 Objetivos y abducciones FP equivalentes a la premisa (1) (p v q) ∧ (p v q) (p∧q)∧(p∧q) (q→ p) ∧ (q→ p) (5) [o4] p ∧ q (6a) p (2)(3) ⊣ (11) q (3a) (6) [o5] (7) [o6] p q q ∧ p p ∧ q (11) (4) (4) (11) (4) p ∧q ⊣ (p vq) (6a) p, q ⊣ (p ∧ q) (q∧p) ⊣ (q→ p)(7a) p, q ⊣ (p ∧ q) (3a) H5 (3a) H6 p ∧ q ⊣ q ∧ p (8a) H7 Dado que (5) (p v q) es equivalente a (1), el cuarto objetivo [o4] es su contradictoria (p v q). Por abducción formal: (p ∧ q) ⊣ (p v q) DeM (6a) [o4] p, q ⊣ (p ∧ q) (3a) (11) (4) La construcción deductiva de (H5), que cumple [o4] es 1 2 3 4 5 6 7 8 9 10 p→q rvp r q p p ∧ q (p v q) p v q (p v q) ∧ (p v q) q /⸫ q Sup.Abs. 2,3 SD 5,4 ∧ I 6 DeM 1 Def→ 8,7 ∧ I 4-9 Abs. H5 La fórmula (6) (p ∧ q) se dedujo de (1). La FP contradictoria de (6) es (p ∧ q), que es [o5]. Por 303 abducción formal (3a) se accede al objetivo 5. Se obtiene (H6) con contradicción entre (6) y (3a). 1 2 3 4 5 6 7 8 9 [o5] (p ∧ q) ∧ (p ∧ q) (3a) (6) p→q rvp r q p p ∧ q ( p ∧ q) (p ∧ q) ∧ (p ∧ q) q /⸫ q Sup.Abs. 2,3 SD 5,4 ∧ I 1 Def→ 6,7 ∧ I 4-8 Abs. H6 El sexto objetivo [o6] es (q→ p) que es la contradictoria de (7). Y (7) equivale a (1). Por abducción formal: (q ∧ p) ⊣ (q → p) Df→ (7a) [o6] (p ∧ q) ⊣ (q ∧ p) Conm (8a) p, q ⊣ (p∧q) (3a) (11) (4) Se construye deductivamente H7 que cumple [o6]: 1 p→q 2 rvp /⸫ q 3 r H7 4 q Sup.Abs. 5 p 2,3 SD 6 p ∧ q 5,4 ∧ I 7 q ∧ p 6 Conm 8 (q → p) 7 Def→ 9 q → p 1 Transpos 10 (q → p) ∧ (q → p) 9,8 ∧ I 11 q 4-10 Abs Finalmente se arman los objetivos para las FP equivalentes a la premisa (2) y las abducciones. 304 Objetivos y abducciones FP equivalentes a la premisa (2) (r → p) ∧ (r→p) (p→r) ∧(p→r) r ∧ p (9a) p ∧ r (10a) (8) [o7] (3) (12) (9) [o8] (r ∧ p) ∧ (r ∧p) (10) [o9] (5a) p r (11a) r∧p ⊣ (r→p)9a p∧r⊣(p→r)10a r,p ⊣ (r∧p) I∧ 5a r, p ⊣ (r ∧ p)5a H8 H9 H10 En la tabla de Objetivos y abducciones de las FP equivalentes a la premisa (2) han quedado expuestas las estrategias heurísticas para las próximas tres demostraciones. El objetivo 7 [o7] es (r → p): la contradictoria de (8). Se alcanza por las abducciones (9a) y (5a). Así se puede construir deductivamente H8. 1 p→q 2 rvp 3 r /⸫ q H8 q 4 Sup.Abs. 5 p 1,4 MT 6 r ∧ p 3,5 ∧ I 7 r → p 2 Def→ 8 (r → p) 6 Def→ (r → p) ∧ (r → p). 9 7,8 ∧ I 10 q 4-9 Abs. El objetivo 8 es (p → r): la contradictoria de (9). Se alcanza por las abducciones (10a) y (11a). Así se puede construir deductivamente H9. (p ∧ r) ⊣ (p → r) (10a) Def→ 305 1 2 3 4 5 6 7 8 9 10 11 p, r ⊣ (p∧ r) p→q rvp r q p p ∧ r (p → r) pvr p → r (p → r) ∧ (p → r). q (11a) ∧ I (Prod) /⸫ q Sup.Abs. 1,4 MT 5,3 ∧ I 6 Def→ 2 Conm 8 Def→ 9,7 ∧ I 4-10 Abs. H9 El objetivo 9 es (r ∧ p), cuya contradictoria es (10). Se alcanza por la abducción (5a). Así, surge H10: 1 p→q 2 rvp 3 r /⸫ q H10 Sup.Abs. 4 q 1,4 MT 5 p 3,5 ∧ I 6 r ∧ p (r ∧ p) 2 DeM 7 8 (r ∧ p) ∧ (r ∧ p). 6,7 ∧ I 9 q 4-8 Abs. Whitehead & Russell (p.160) entendieron el “principio de la reductio ad absurdum" (Abs) como: “si p implica su propia falsedad, entonces p es falsa”. Y lo representaron así: |- ( p → p ) → p. Y en la p.164 establecen “el complemento del principio de la reductio ad absurdum": “[…] una proposición que se sigue de la hipótesis de su propia falsedad es verdadera”, 306 y lo presentan como |- ( p → p ) → p. Para Rescher, el fundamento de la RAA (como autocontradicción) es: Si p |- p, entonces |- p. 1 p→q 2 rvp 3 r /⸫ q H11 Sup.Abs. 4 q 2,3 SD 5 p 1,5 →E 6 q q ∧ q 6,4 ∧I 7 8 q 4-7 Abs. En H11 se da una autocontradicción lógica. En 6, q no se sigue del supuesto q. Se prueba q directamente, en las líneas 5 y 6 (sin usar el supuesto 4), para establecer de modo indirecto que q es falsa. La prueba por el absurdo, que es indirecta, también puede formar parte de una prueba directa, o contener otra prueba por el absurdo. Estos usos no se han considerado aquí. 6. CONCLUSIONES 1) Se ha dejado en claro aquí una diferencia entre la prueba por contraposición y la RAA para Γ |- Φ. La estructura de la demostración por contraposición es: si Φ |-  Γ entonces Γ |- Φ mientras que la estructura de la RAA es Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ. 2) La RAA tiene dos usos: a) como refutación o contraargumentación. Se supone que la conclusión es verdadera y se deriva una contradicción, lo cual es una prueba de invalidez de una FA (Γ |- Φ), 307 Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA es IN) Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA es IN) Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA es EN) Γ, [ Φ ], …, (Ψ ∧ Ψ) |- Φ (RAA es EN) o una prueba de invalidez de una FA (Γ |- Φ) y b) Se supone que la conclusión es falsa y se deriva una contradicción, lo cual es una prueba de validez (o la refutación de la invalidez) de una FA (Γ |- Φ). o una prueba de validez de una FA (Γ |- Φ) El uso en el aula suele ser como prueba de validez (b), y es el que se ha desarrollado en este artículo. 3) La heurística que conduce a por lo menos una demostración por el absurdo de validez sintáctica de una forma argumental en LP es más fácil y productiva cuando resulta de una convergencia de procesos de deducción y de abducción formal. A través del ejemplo ofrecido se aprecia la variedad de demostraciones y la mayor facilidad para encontrarlas con esta heurística. Y esto deja en evidencia que el modelo heurístico propuesto es potencialmente útil para el aprendizaje exitoso de la demostración por reducción al absurdo en LP en los cursos de Lógica. Como se ha visto, el primer paso se establece casi por completo desde el comienzo, pero los otros tres pasos se van entrecruzando hasta dar con las secuencias completas de las demostraciones, si las hay. 308 REFERENCIAS Cassini, A. (2013). El juego de los principios. Una introducción al método axiomático. 2ed. Buenos Aires: AZ Colacilli de Muro, M.A.; Colacilli de Muro, J.C. (1975). Elementos de Lógica Moderna y Filosofía. Buenos Aires: Estrada. Copi, Irving. (2001). Lógica Simbólica. 2ed. México: CECSA. Garrido, Manuel. (2005). Lógica Simbólica. 4ed. Madrid: Tecnos. Gentzen, G. (1964). Investigations into Logical Deduction. En: American Philosophical Quarterly, Vol. 1, No. 4 (Oct., 1964), pp. 288-306. Gómez, Luis. (2017). Heurística demostrativa. En: Cuadrado, G.A. y Gómez, L.E. “Ciencias de la Ingeniería en el siglo XXI. Nuevos enfoques en su lógica, enseñanza y práctica”. Ciudad Autónoma de Buenos Aires: Universidad Tecnológica Nacional. Facultad Regional Mendoza. Jacquette, Dale. (2008) Mathematical Proof & Discovery, Reductio ad Absurdum. Informal Logic, Vol.28, No.3 (2008), pp. 242-261. Kneale, William y Kneale, Martha. (1972). El desarrollo de la Lógica. Madrid: Tecnos. Kulathungam, L. (1975). "Reductio-ad-absurdum, a family feud between Copi & Scherer". Notre Dame Journal of Formal Logic. Vol. XVI, No. 2. Lambros, Charles H. (1973). “Scherer on Reductio ad Absurdum.” Mind, 82, pp. 581-585. Scherer, Donald. (1971). “The Form of Reductio ad Absurdum.” Mind, 80, pp. 247-252. 309 Rescher, N. "Reductio ad Absurdum," Internet Encyclopedia of Philosophy. http://www.iep.utm.edu/ reductio/ (12-12-2017). Suppes, P.; Hill, S. (1988). Primer Curso de Lógica Matemática. Barcelona: Reverté. Whitehead, Alfred N.; Russell, Bertrand. (1981). Principia Mathematica (hasta el *56). Madrid: Paraninfo. *** 310 14. LA RESISTENCIA AL USO DE HERRAMIENTAS ANALÍTICAS EN CONTEXTOS ORGANIZACIONALES Estudio exploratorio Esteban Anzoise47; Cristina Scaraffia48; Julio H. Cuenca49 Resumen: Los resultados preliminares muestran la ausencia de una correlación estadísticamente significativa entre la Intención de Uso y el Comportamiento Actual hacia el uso de herramientas analíticas, así como el uso predominante de planillas de cálculo como herramienta de apoyo a los procesos de decisión. El análisis del peso de los factores demográficos y de contexto muestra que no existe una correlación estadísticamente significativa entre la Generación a la cual pertenece el participante y la Intención de Uso de herramientas analíticas. EL análisis de la Posición o Nivel de decisión en la estructura organizacional muestra que a menores niveles de decisión existe un mayor peso por parte de los referentes más importantes para el ejecutivo para que utilize herramientas analíticas. Finalmente, en las organizaciones del Sector Metalmecánico existe una mejor Actitud que en las organizaciones del Sector de Informática y en éstas respecto del Sector de Obras Civiles. Como puntos de aprendizaje, se puede destacar la alta resistencia al uso de herramientas analíticas lo que muestra la situación de desventaja de las PyMEs relevadas por la dificultad implícita para adaptarse al actual contexto de alta complejidad y volatilidad. La existencia de una mayor presión social para el uso de herramientas analíticas a menores niveles de decisión que produce una situación de desventaja para enfrentar un mayor número de problemas no estructurados. Finalmente, surge una oportunidad para mejorar el proceso de difusión de estas herramientas al desarrollar acciones de formación ejecutiva en organizaciones del sector de desarrollo de software y del sector metalmecánico los cuales tienen un alto aporte tanto al desarrollo de las 47 Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN 49 Instituto de Gestión Universitaria - Grupo IEMI & Grupo LADEI, F. R. Mendoza, UTN 48 311 exportaciones Geográfico. como el desarrollo del Producto Bruto Palabras claves: <proceso de decisión>, <comportamiento planeado>, <herramientas de apoyo al proceso de decisión>. 1.0. INTRODUCCIÓN Decidir es una actividad permanente en los diferentes niveles de decisión organizacionales50. Desde la perspectiva del Nuevo Darwinismo (Hodgson, 2013; Nicholson & White, 2006), puede aseverarse que la realización de decisiones correctas en un ambiente complejo conduce al éxito y la supervivencia de la organización en el largo plazo (Drucker, 2007; Grünig & Kühn, 2013; Hannan & Freeman, 1984; Hatch, 2004; Probst & Bassi, 2014; Shimabukuro, 2016). Diversos estudios muestran el impacto de las decisiones en la rentabilidad de las organizaciones. Como muestra, puede mencionarse como el mejor conocimiento en profundidad del comportamiento de los clientes lleva a que las organizaciones aventajen a sus pares competidores en un 85% en el crecimiento de las ventas, 22% en ingresos netos, 25% en ROI y más del 25% en el margen bruto51 (Brown, Kanagasabai, Pant, & Pinto, 2017; Fleming & Harter, 2009; Perrey et al., 2014). 50 Nota del autor: La voz inglesa Decide tiene las acepciones de 1. Come or bring to a resolution in the mind as a result of consideration / 1.1. Make a choice from a number of (Decide, 1989). La voz inglesa Choose tiene las acepciones de 1. Pick out (someone or something) as being the best or most appropriate of two or more alternatives / 1.1. Decide on a course of action. (Choose, 1989). 51 Nota del autor: The DataMatics 2013 benchmarking survey was conducted from May to June 2103 with 418 senior executives of major companies from a wide variety of industries and distributed equally across Europe, the Americas, and Asia. The data obtained consisted of companies’ self-assessment of their own position and capabilities. A subsample of these results showed a positive 312 En el período 2006 – 2019, numerosos estudios globales muestran que la complejidad creciente del contexto (Burton & Panetta, 2017), el cambio profundo del perfil demográfico de los consumidores (Chandler, Hostmann, Rayner, & Herschel, 2011; Deloitte Touche Tohmatsu Limited, 2019), y la alta volatilidad de los mercados (Halliday, McDaniel, Reitsma, Duan, & Hart, 2017),entre otros factores de contexto, complejizan la tarea de decisión y muestran la existencia de errores en los procesos de decisión que conllevan un impacto financiero negativo en la “última línea” del Estado de Resultados de la compañía. En el siglo XXI, los ejecutivos enfrentan una tarea mucho más demandante ya que deben decidir en menor tiempo y con una mayor complejidad de la información a analizar. Estudios de diversas disciplinas, con foco en el proceso de decisión, muestran que un alto porcentaje de ejecutivos decide basados en su experiencia previa, modelos mentales o un simple conjunto heurístico de reglas de decisión (Ariely, Rao, & Yager, 2016; Grünig & Kühn, 2013; Kepner & Tregoe, 1997; Probst & Bassi, 2014; Stern, 2003). En consecuencia, los procesos de decisión pueden ocurrir sin una real comprensión del complejo sistema en el cual se halla inmersa la organización. Como referencia el relevamiento realizado por PricewaterhouseCoopers (PwC) titulado PwC’s Global Data and Analytics Survey 2016: Big Decisions™, mostró que los ejecutivos participantes identificaron una brecha entre la capacidad de decisión organizacional al año 2015 y la capacidad esperada para el año 2020. Dicha brecha se expresó en términos del alcance y la correlation with objective performance criteria. The validation phase evidenced a significant correlation with the companies’ return on assets. 313 exactitud de la analítica utilizada para proveer los datos requeridos para decidir y el tiempo que se requiere para responder una pregunta, decidir, ejecutar y medir el valor creado como resultado (Blase, Fiendt, Yager, Rao, & Wixom, 2016). En relación al uso de herramientas analíticas a nivel organizacional como apoyo al proceso de decisión, solo el 39% de los participantes reportó que la decisión es principalmente basada en datos analíticos (Blase, DiFilippo, Feindt, & Yager, 2016) y un 33% basan sus decisiones en su experiencia e intuición 52 (Ariely et al., 2016). Dos puntos de vista teóricos principales, identificados en la literatura como Proceso de Decisión Clásico [Classical Decision Making (CDM)] y como Proceso de Decisión Naturalístico [Naturalistic Decision Making (NDM)] ofrecen diferentes modelos explicativos de los procesos de decisión intuitivo y decisión lógica basada en datos de contexto y el uso de herramientas analíticas basadas en modelos (D. Collins, Collins, & Carson, 2016; L. Collins, Carson, & Collins, 2016; Mascarenhas & Smith, 2011). Sin embargo, existen estudios limitados que tratan de identificar el peso de los factores demográficos y de contexto en la elección de los procesos de decisión y en el uso de herramientas analíticas. El foco novedoso de esta investigación es el uso del modelo subyacente en la Teoría del Comportamiento Planeado desarrollado por Ajzen para poder determinar la Intención de Uso de las Herramientas de Apoyo al Proceso de Decisión basadas en modelos. Este modelo ha sido aplicado en diferentes áreas sociales y ha 52 Nota del autor: Este estudio se basó en una muestra estratificada conformada por 2.106 ejecutivos C-suite, directores de unidades de negocio y vicepresidentes seniors (SVPs) distribuidos en 10 principales economías y 15 industrias. La encuesta se completó en mayo de 2016 y fue realizada en forma conjunta por Forbes Insights y PwC. 314 demostrado su alta capacidad predictiva (Armitage & Conner, 2001). El segundo aspecto novedoso es la triangulación no solo aplicando un amplio espectro de encuestas globales sino también El Modelo de Difusión de Innovaciones de Rogers (Rogers, 2003) y el Modelo de Análisis de Fuerzas de Kurt Lewin (Burnes, 2004; Cummings & Worley, 2007; Lewin, 1947). Estos dos modelos permiten identificar los factores que impactan positivamente en la Actitud hacia el Uso de las HAPD, así como los factores que afectan el Control de Comportamiento Percibido identificado por Ajzen. Llegado este punto, es adecuado reconocer la importancia de esta investigación para el área de las decisiones organizacionales de las pequeñas y medianas empresas (PyMEs). Sin descartar la intuición y experiencia como herramientas principales de decisión, la incorporación de Herramientas de Apoyo al Proceso de Decisión basadas en modelos permite generar soluciones en tiempo mínimo a situaciones complejas y problemas no estructurados. Por ello, poder identificar los factores que promuevan el uso de dichas herramientas permitiría mejorar sustancialmente el rendimiento operativo de las PyMEs que, en Argentina al año 2018, constituyen el 97% del total de empresas registradas, generan el 70% del empleo, el 89% de las empresas que exportan (aunque solo el 1,5% de ellas lo hace) y generan el 44% del PBI del país (Cámara Argentina de Comercio y Servicios, 2018; Espacio CAME, 2017, 2018; Roset, 2019) . En consecuencia, y reflejando estas diferentes perspectivas este estudio se focaliza en responder las siguientes preguntas de investigación: Cómo es el proceso de adopción de las Herramientas de Apoyo a los Procesos de Decisión (HAPD) basadas en modelos 315 en organizaciones de base tecnológica y financieras; y cuáles son las variables principales que definen el proceso de adopción de las Herramientas de Apoyo a los Procesos de Decisión (HAPD) basadas en modelos en organizaciones de base tecnológica y financieras. 2.0. METODOLOGÍA El marco metodológico para esta investigación corresponde a un paradigma positivista, con una metodología de investigación cuantitativa que siguió una lógica hipotético – deductiva. Se estableció un diseño basado en una investigación exploratoria - descriptiva, cros-seccional no longitudinal (Cooper & Schindler, 2014; Easterby-Smith, Thorpe, & Jackson, 2015). Se decidió establecer en la primera etapa una investigación exploratoria ya que no existen investigaciones previas sobre el objeto de estudio lo que impide obtener conclusiones sobre qué aspectos son relevantes y cuáles no. Para ello se realizó una extensa revisión bibliográfica especializada que permitió determinar qué factores destacados o variables favorecen y/o presentan resistencia al uso de HAPD basadas en modelos en organizaciones privadas del área de ingeniería y financieras, así como una relación tentativa entre dichas variables. Los factores identificados se obtuvieron aplicando el Modelo de Fuerzas de Kurt Lewis y el Modelo de Comportamiento Planeado de Ajzen. A partir del estudio exploratorio se generó una etapa de investigación descriptiva básica, a partir del desarrollo de un cuestionario para recolectar evidencia de campo para su posterior análisis, cuyo objetivo fue proveer de una representación válida y exacta de los factores o variables que son relevantes a las preguntas que guían esta investigación (Cooper & Schindler, 2014). 316 Para esta investigación se utilizó una versión ampliada del modelo de la Teoría de Comportamiento Planeado de Ajzen identificado como Modelo Integrativo que incluye el efecto de las variables externas o de contexto sobre las creencias de comportamiento, creencias normativas y las creencias de control (Bleakley & Hennessy, 2012; Menozzi, Fioravanzi, & Donati, 2015). Las variables de contexto que se incluyen comprende el Sector Productivo al cual pertenece la organización, la Generación a la cual pertenece el participante de este estudio, el nivel de decisión en la estructura organizacional en la cual el participante pertenece y el grado de intensidad de uso de las HAPD en los diferentes niveles de decisión organizacionales (Robbins & Coulter, 2005, 2012) como se muestra en la Figura 1. 317 Figura 9: Modelo de Teoría de Comportamiento Planeado integrado con variables de contexto. En este estudio se aplicó el muestreo de conveniencia (también conocido como muestreo no sistemático o muestreo accidental) (Etikan, Musa, & Alkassim, 2016). Del listado total de organizaciones disponibles se obtuvo una muestra estratificada de 114 individuos que ocupan diferentes niveles de decisión en empresas de base tecnológica y del sector financiero distribuidas en diferentes provincias de la República Argentina. Se utilizó el listado de empresas del sector metalmecánico en la provincia de Mendoza; el listado de empresas del Polo Tic de las provincias de Mendoza y Santa Fe; el listado de empresas que pertenecen al Clúster Eólico Argentino de la Cámara de Industriales de Proyectos e Ingeniería de Bienes de Capital de la República Argentina (CIPIBIC) y el listado Entidades Financieras de la Superintendencia de Entidades Financieras y Cambiarias (Superintendencia de Entidades Financieras y Cambiarias (SEFyC), 2018). 3.0. RESULTADOS OBTENIDOS Como resultado inicial, existe una correlación positiva baja, rs (69) = 0,407, p < 0,001 (Rs2 = 16%), entre la variable Actitud hacia el uso de HAPD basadas en modelos y la Intención de Uso de HAPD basadas en modelos lo que indica que existen otros factores que limitan dicha Intención de Uso. Un segundo resultado muestra que existe una correlación positiva baja, rs (69) = 0,511, p<0,000 (Rs2 = 26%), entre la variable Control de Comportamiento del uso de HAPD basadas en modelos y la Intención de Uso de HAPD basadas en 318 modelos lo que muestra el bajo desarrollo de los factores que soportan el uso de HAPD basadas en modelos. Un tercer resultado muestra que existe una correlación positiva baja, rs (69) = 0,464, p<0,000 (Rs2 = 22%), entre la variable Control de Comportamiento del uso de HAPD basadas en modelos y la Actitud hacia el uso de HAPD basadas en modelos lo que muestra la existencia de una valoración positiva de las consecuencias de utilizar las HAPD. Finalmente, se halla la ausencia de una correlación estadísticamente significativa entre la variable Intención de Uso de HAPD basadas en modelos y el Comportamiento Actual hacia el uso de HAPD basadas en modelos. El relevamiento del uso actual de herramientas analíticas muestra el bajo uso de estas con un uso predominante de planillas de cálculo. En consecuencia, esta ausencia de correlación es consistente con el comportamiento observado y confirma el poder predictivo de la Teoría de Comportamiento Planeado de Ajzen como lo muestran numerosos análisis y meta-análisis. En general, cuanto más favorable es la actitud y las normas subjetivas, y cuanto más elevado sea el control percibido sobre el comportamiento bajo análisis, más fuerte debería ser la intención de realizar un determinado comportamiento (Ajzen, 1991, 2012). Estudios meta – analíticos muestran una correlación promedio de 0,53 entre intención y comportamiento (Ajzen, 2012; Armitage & Conner, 2001; Menozzi et al., 2015). Al analizar el peso de las variables de contexto en la Intención de Uso de HAPD basadas en modelos (Figura 2), se observa que no existe una correlación estadísticamente significativa entre la Generación a la cual pertenece el participante de este estudio, y alguna de las restantes variables del modelo considerado. En relación con la segunda variable demográfica 319 considerada, la Posición o Nivel de decisión en la estructura organizacional en la cual el participante pertenece, el análisis estadístico inferencial asociativo de la relación entre la variable Posición o Nivel de decisión y la Presión Social Percibida hacia el uso de HAPD basadas en modelos muestra que existe una correlación positiva, rs (69) = 0,409, p<0,000 lo que puede ser considerado un tamaño del efecto entre mediano o típico y grande o más grande que el típico de acuerdo a Cohen (1988). Siguiendo el Modelo de Ajzen, se entiende por Normas Subjetivas [Subjective norms] o Presión Social Percibida que comprenden las diferentes componentes de presión social percibida por el individuo por parte de sus referentes más importantes para que realice o no un determinado comportamiento (valores familiares e individuales, normas legales, reglas institucionales, etc.). La correlación positiva significa que a medida que la Posición o Nivel de decisión en la estructura organizacional en la cual el participante pertenece pasa del nivel de Dueño de la Empresa (15,5% de los participantes codificados con el valor 1) a Gerente Operativo o Supervisor (84,5% de los participantes codificados con el valor 5) la Presión Social Percibida hacia el uso de HAPD basadas en modelos también crece. La baja correlación hallada (Rs2 = 16%) refleja que existen otros factores que influyen en la formación de la Presión Social Percibida. Interpretando este resultado, en el caso de una organización privada, la presión social la deberían ejercer los diferentes integrantes del cuerpo directivo sobre el resto de la estructura organizacional para mejorar la ratio de decisiones correctas que impactarán en forma positiva en el resultado financiero. El hecho que la Presión Social Percibida sea mayor a menor nivel de decisión refleja la 320 ausencia de un contexto organizacional interno que no promueve el uso de HAPD basadas en modelos. En relación con la tercera variable demográfica considerada, el Sector Productivo al cual pertenece la organización en la cual el participante se desempeña, el análisis estadístico inferencial asociativo de la relación entre la variable Sector Productivo y la Actitud hacia el uso de HAPD basadas en modelos muestra que existe una correlación negativa, rs (69) = -0,680, p<0,000 lo que puede ser considerado un tamaño del efecto mucho más grande que el típico de acuerdo a Cohen (1988). Considerando que la variable demográfica Sector Productivo es una variable nominal codificada siguiendo la siguiente asignación de rótulos: Sector Metalmecánico (1); Software (2); Obras Civiles (3) y Sector Financiero (4), la presencia de una correlación negativa significa que en las organizaciones del Sector Metalmecánico existe una mejor Actitud hacia el uso de HAPD basadas en modelos que en las organizaciones del sector de Obras Civiles53 – es decir, la valoración de las consecuencias de utilizar las HAPD en base a la información disponible se vuelca en contra de su uso. La correlación media hallada (Rs2 = 46%) refleja el peso singular de este factor en la definición de la Actitud hacia el Uso de HAPD basadas en modelos. De igual forma, el análisis estadístico inferencial asociativo de la relación entre la variable Sector Productivo y la Intención de uso de HAPD basadas en modelos muestra que existe una correlación negativa, rs (69) = -0,584, p<0,000 lo que puede ser considerado un tamaño del efecto entre mediano o típico y grande o más grande que el típico de acuerdo a Cohen (1988). En la 53 Nota del autor: En este estudio no se obtuvieron respuestas de individuos de empresas del Sector Financiero 321 misma línea de análisis, la presencia de una correlación negativa significa que en las organizaciones del Sector Metalmecánico existe una mejor Intención de uso de HAPD basadas en modelos que en las organizaciones del sector de Obras Civiles. La correlación media hallada (Rs2 = 34%) refleja que existen otros factores que influyen en la formación de la Intención de Uso aparte de la contribución de la Actitud hacia el Uso (16%) y el Control de Comportamiento (26%). 4.0. CONCLUSIONES Y RECOMENDACIONES Como primer punto de aprendizaje, se puede destacar la alta resistencia al uso de herramientas analíticas lo que muestra la situación de desventaja en la cual se hallan las PyMEs relevadas por la dificultad implícita para adaptarse al actual contexto de alta complejidad y volatilidad. Como segundo punto de aprendizaje se destaca la existencia de una mayor presión social para el uso de herramientas analíticas a menores niveles de decisión. Lo cual es un factor positivo para la organización. La menor correlación con los niveles superiores de decisión es consistente con el bajo uso de herramientas analíticas reportado, pero esto también muestra la situación de desventaja que enfrentan las organizaciones ya que un contexto de mayor complejidad produce un mayor número de problemas no estructurados que requieren solución en menor tiempo y que impactan en mayor grado en el resultado financiero de las organizaciones. Finalmente, como tercer punto de aprendizaje se halla el Control de Comportamiento del uso de HAPD correlaciona (46%) con el tipo de sector económico al cual pertenece la organización. Esto muestra una oportunidad para mejorar el proceso de difusión de estas herramientas en los procesos de decisión al desarrollar acciones de formación ejecutiva 322 en organizaciones del sector de desarrollo de software y del sector metalmecánico los cuales tienen un alto aporte tanto al desarrollo de las exportaciones como el desarrollo del Producto Bruto Geográfico. Figura 10: Modelo Integrativo considerado y correlaciones estadísticamente significativas halladas en las variables demográficas Posición en la Organización y Sector Productivo incluidas. 5.0. AGRADECIMIENTOS Los autores de este trabajo desean agradecer a las empresas pertenecientes al sector metalmecánico en la provincia de Mendoza; del Polo Tic de las provincias de Mendoza y Santa Fe; y al Clúster Eólico Argentino de la 323 Cámara de Industriales de Proyectos e Ingeniería de Bienes de Capital de la República Argentina (CIPIBIC) que aceptaron participar de este estudio. Finalmente, nuestro agradecimiento al financiamiento provisto por la Universidad Tecnológica Nacional a través del Proyecto de Investigación TOUTNME0004092 sin el cual este relevamiento no hubiera podido realizarse. 324 REFERENCIAS. Ajzen, I. (1991). The Theory of Planned Behaviour. Organizational Behavior and Human Decision Processes, 50, 179-211. Ajzen, I. (2012). The Theory of Planned Behavior. In P. A. M. Lange, A. W. Kruglanski, & E. T. Higgins (Eds.), Handbook of Theories of Social Psychology (Vol. 1, pp. 438-459). London, UK: Sage. Ariely, D., Rao, A., & Yager, F. (2016). The human factor: Working with machines to make big decisions. Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/bigdecisionsurvey/assets/the_human_factor_working_with_machines _to_make_big_decisions.pdf Armitage, C. J., & Conner, M. (2001). Efficacy of the Theory of Planned Behaviour: A Meta-Analytic Review. British Journal of Social Psychology, 40, 471-499. doi:https://doi.org/10.1348/014466601164939 Blase, P., DiFilippo, D., Feindt, M., & Yager, F. (2016). Data-driven: Big decisions in the intelligence age. Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/data_driven_big_decisions_in_the_intelligence_age.pdf Blase, P., Fiendt, M., Yager, F., Rao, A., & Wixom, B. (2016). Speed and sophistication: Building analytics into your work flows. Recuperado de https://www.pwc.com/us/en/advisory-services/assets/pwc-big-decisionsspeed-and-sophistication.pdf Bleakley, A., & Hennessy, M. (2012). The Quantitative Analysis of Reasoned Action Theory. The Annals of the American Academy of Political and Social Science, 640(1 Advancing Reasoned Action Theory), 28-41. doi:10.1177/0002716211424265 Brown, B., Kanagasabai, K., Pant, P., & Pinto, G. S. (2017). Capturing value from your customer data. Retrieved from 325 Burnes, B. (2004). Kurt Lewin and the Planned Approach to Change: A Re-appraisal. Journal of Management Studies, 41(6), 977-1002. Burton, B., & Panetta, K. (2017). Eight Dimensions of Business Ecosystems Enable the Digital Age. Recuperado de Stamford, CT, USA: https://www.gartner.com/smarterwithgartner/8-dimensions-of-businessecosystems/ Cámara Argentina de Comercio y Servicios. (2018). Las Pymes: antídoto contra la pobreza. Recuperado de Buenos Aires: https://www.cac.com.ar/data/documentos/55_Documento%20CAC%20%20Pyme%202018.pdf Collins, D., Collins, L., & Carson, H. J. (2016). “If It Feels Right, Do It”: Intuitive Decision Making in a Sample of High-Level Sport Coaches. Frontiers in Psychology, 7(Article 504), 10. doi:10.3389/fpsyg.2016.00504 Collins, L., Carson, H. J., & Collins, D. (2016). Metacognition and Professional Judgment and Decision Making in Coaching: Importance, Application and Evaluation. International Sport Coaching Journal, 3, 355 -361. doi:10.1123/iscj.2016-0037 Cooper, D. R., & Schindler, P. S. (2014). Business Research Methods (12 ed.). New York, NY: McGrawHill/Irwin. Cummings, T. G., & Worley, C. G. (2007). Desarrollo Organizacional y Cambio (8 ed.): Cengage Learning Editores. Chandler, N., Hostmann, B., Rayner, N., & Herschel, G. (2011). Gartner's Business Analytics Framework. Recuperado de Stamford, CT, USA: https://www.gartner.com/imagesrv/summits/docs/na/businessintelligence/gartners_business_analytics__219420.pdf Choose. (1989, June 2018). Oxford Living English Dictionary. 2nd. Recuperado de https://en.oxforddictionaries.com/definition/choose 326 Decide. (1989, June 2018). Oxford Living English Dictionary. 2nd. Recuperado de https://en.oxforddictionaries.com/definition/decide Deloitte Touche Tohmatsu Limited. (2019). The Deloitte Global Millennial Survey 2019. Recuperado de New York, NY: https://www2.deloitte.com/content/dam/Deloitte/global/Documents/AboutDeloitte/deloitte-2019-millennial-survey.pdf Drucker, P. F. (2007). The Effective Executive (2nd Revised ed.). New York: Elsevier. Easterby-Smith, M., Thorpe, R., & Jackson, P. R. (2015). Management and Business Research (5th ed.). Los Ángeles, USA: Sage. Espacio CAME. (2017, diciembre 2017). La economía PyME en 2018. PYME, 50, 1-3. Espacio CAME. (2018, enero 2018). PYMES que llegan al mundo. PYME, 51, 1-3. Etikan, I., Musa, S. A., & Alkassim, R. S. (2016). Comparison of Convenience Sampling and Purposive Sampling. American Journal of Theoretical and Applied Statistics, 5(1), 1-4. doi:10.11648/j.ajtas.20160501.11 Fleming, J. H., & Harter, J. K. (2009). The Next Discipline. Applying Behavioral Economics to Drive Growth and Profitability. Recuperado de Washington, DC: Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex Problems (M. Montani, A. Clark, & C. O'Dea, Trans. 3rd ed.). Berlin Springer-Verlag. Halliday, R., McDaniel, T., Reitsma, R., Duan, X., & Hart, C. (2017). Forrester Data Global Business Technographics® Priorities And Journey Survey, 2017: Overview. Recuperado de Cambridge, MA: https://www.forrester.com/report/Forrester+Data+Global+Business+Technogra phics+Priorities+And+Journey+Survey+2017+Overview/-/E-RES138832 327 Hannan, M. T., & Freeman, J. (1984). Structural Inertia and Organizational Change. American Sociological Review, 49(2), 149-164. Hatch, M. J. (2004). Dynamics in Organizational Culture. In M. S. Poole & A. H. V. d. Ven (Eds.), Handbook of Organizational Change and Innovation (Vol. 1, pp. 190 211). Oxford: Oxford University Press. Hodgson, G. M. (2013). Understanding Organizational Evolution: Toward a Research Agenda using Generalized Darwinism. Organization Studies, 34(7), 973-992. Kepner, C. H., & Tregoe, B. B. (1997). The New Rational Manager (Updated edition ed.): Princeton Research Press. Lewin, K. (1947). Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change. Human Relations, 1(5), 38. Mascarenhas, D. R. D., & Smith, N. C. (2011). Developing the performance brain: decision making under pressure. In D. J. Collins, A. Abbott, & H. Richards (Eds.), Performance Psychology E-Book: A Practitioner's Guide (pp. 245-231). Edinburgh: Elsevier Health Sciences, . Menozzi, D., Fioravanzi, M., & Donati, M. (2015). Farmer’s motivation to adopt sustainable agricultural practices. Bio-based and Applied Economics, 4(2), 125147. doi:10.13128 Nicholson, N., & White, R. (2006). Darwinism-A new paradigm for organizational behavior? Journal of Organizational Behavior, 27(2 - Special Issue: Darwinian Perspectives on Behavior in Organizations), 111-119. doi: 10.1002/job.345 Perrey, J., Pickersgill, A., Fiedler, L., Bokmann, A., Roth, M., Hayes, J., & Kraus, M. (2014). Capturing value from your customer data. Retrieved from 328 Probst, G., & Bassi, A. (2014). Tackling Complexity. A Systemic Approach for Decision Makers. Sheffield, UK: Greenleaf Publishing. Robbins, S. P., & Coulter, M. (2005). Toma de Decisiones: la esencia del trabajo del gerente (J. F. J. D. Martínez, Trans.). In M. d. Anta (Ed.), Administración (8 ed., pp. 614). México: Pearson Educación de México, S.A. de G.V. Robbins, S. P., & Coulter, M. (2012). Managers as Decision Makers In S. Yagan (Ed.), Management (11 ed., pp. 176-201). Boston: Prentice Hall. Rogers, E. M. (2003). Diffusion of Innovation. New York, NY: Simon and Schuster. Roset, N. (2019, Martes, 04 de junio de 2019). ¿Se están sustituyendo importaciones en Argentina? El Cronista Comercial. Recuperado de https://www.cronista.com/economiapolitica/Se-estan-sustituyendoimportaciones-en-Argentina-20190604-0026.html Shimabukuro, K. (2016). Organizational Learning as a Tool for Adaptation in the Oil and Gas Industry. (Master in Science of Project Management), Norwegian University of Science and Technology, Trondheim. Recuperado de https://daim.idi.ntnu.no/masteroppgaver/014/14581/masteroppgave.pdf Stern, D. (2003). Increasing acceptance of managers for the use of marketing decision support systems. Paper presented at the Australian and New Zealand Marketing Academy Conference, Adelaide, Australia. Superintendencia de Entidades Financieras y Cambiarias (SEFyC). (2018). Información de Entidades Financieras. Enero 2018. Recuperado de Ciudad Autónoma de Buenos Aires, República Argentina: http://www.abappra.com.ar/informe_enfin/t30-201801e.pdf 329 330 15. FACTORES QUE IMPACTAN EN LA INTENCIÓN DE USO DE HERRAMIENTAS ANALÍTICAS EN PYMES Estudio descriptivo inicial. Esteban Anzoise54; Cristina Scaraffia55; Julio H. Cuenca56 Resumen: El presente trabajo muestra los resultados del trabajo de investigación complementario establecido para triangular los resultados preliminares de la primera etapa de investigación de carácter exploratoria – descriptiva. Para ello se realizó una extensa revisión bibliográfica especializada que permitió determinar qué factores destacados o variables favorecen y/o presentan resistencia al uso de HAPD basadas en modelos en organizaciones privadas del área de ingeniería y financieras, así como una relación tentativa entre dichas variables. El análisis de dicho material se realizó desde la perspectiva del Desarrollo Organizacional (DO) y la clasificación de los factores destacados o variables favorecen y/o presentan resistencia al uso de HAPD basadas en modelos se realizó aplicando el Modelo de Análisis de Fuerzas de Kurt Lewis. Se identificaron 16 factores que favorecen el uso de HAPD basadas en modelos y 14 factores que generan resistencia al uso de HAPD basadas en modelos. Como principal conclusión se halla que es posible actuar sobre el proceso de difusión de las Herramientas de Apoyo al Proceso de Decisión (HAPD) basadas en modelos a nivel organizacional para acelerar el uso de estas. El Modelo de Fuerzas de Lewin permite ordenar los distintos factores y categorizarlos como que favorecen la difusión o se oponen a la misma. Al conectar dichos factores que favorecen o se oponen a la difusión de dichas herramientas, con el Control Percibido por parte del sujeto, siguiendo el Modelo Ajzen, es posible diseñar e implementar el Modelo de Tres Etapas de Lewin para favorecer el desarrollo de los factores que desarrollan un Control de Comportamiento 54 Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN Instituto de Gestión Universitaria - Grupo IEMI, F. R. Mendoza, UTN 56 Instituto de Gestión Universitaria - Grupo IEMI & Grupo LADEI, F. R. Mendoza, UTN 55 331 Percibido favorable a la difusión y minimizar el efecto de aquellos factores que se oponen a su difusión a nivel organizacional. Palabras claves: <proceso de decisión>, <comportamiento planeado>, <herramientas de apoyo al proceso de decisión>, <modelo de análisis de fuerzas>, <triangulación>. 1.0. INTRODUCCIÓN El relevamiento realizado por KPMG International titulado Growing pains— 2018 Global CEO Outlook, mostró que los ejecutivos participantes necesitan equilibrar el conocimiento basado en datos de las necesidades y requisitos del cliente con su propia experiencia e intuición. El análisis de la misma encuesta realizada en el período 2015 – 2017 mostró consistentemente que el 67% de los ejecutivos han ignorado las ideas basadas en datos porque eran contrarias a su propia experiencia o intuición. Los ejecutivos también mostraron cierto escepticismo sobre los datos. Más de la mitad (51%) dijo que tienen menos confianza en la precisión de la analítica predictiva que en la de los datos históricos. Los ejecutivos también plantearon que quieren entender el origen de los datos que alimentan los modelos predictivos y si dichos datos son confiables (KPMG International, 2018). Cerca de dos terceras partes de los ejecutivos participantes de América Latina respondieron que no están invirtiendo en la automatización de los procesos en comparación con una tercera parte de los ejecutivos globales. Y solo un 6% de los ejecutivos de América Latina planean incrementar el uso de modelos o análisis predictivos en contraste con el 32% del total de ejecutivos participantes que incrementarán el uso de los mismos (KPMG Cárdenas Dosal, 2018). 332 El contraste entre decisiones intuitivas y decisiones lógicas basadas en datos de contexto y el uso de herramientas analíticas basadas en modelos es analizado desde una perspectiva académica a través de dos puntos de vista teóricos principales, identificados en la literatura como Proceso de Decisión Clásico [Classical Decision Making (CDM)] y como Proceso de Decisión Naturalístico [Naturalistic Decision Making (NDM)]. Estos dos puntos de vista hacen suposiciones totalmente diferentes no solo sobre el proceso de decisión, sino también sobre cómo se adquiere la experiencia en decidir (Mascarenhas & Smith, 2011). Independientemente de la forma de decidir, desde la perspectiva del Nuevo Darwinismo (Hodgson, 2013), puede aseverarse que la realización de decisiones correctas en un ambiente complejo conduce al éxito y la supervivencia de la organización en el largo plazo (Drucker, 2007; Grünig & Kühn, 2013). En consecuencia, surge la necesidad de desarrollar “la capacidad de comprender las interrelaciones de los hechos presentados de tal forma que consiga orientar la acción hacia una meta deseada (p. 314)" (Luhn, 1958) lo que se denomina Inteligencia de Negocios [Business Intelligence (BI)] (Dedić & Stanier, 2016). Este concepto ha evolucionado desde su aparición en 1965 para convertirse en los 90s en un sistema o “conjunto de metodologías, procesos, arquitectura y tecnologías que transforman datos en información útil y con significado para permitir un mejor proceso de decisión y un análisis en profundidad a nivel operacional, táctico y estratégico” (Forrester Research Inc., 2019; Gartner Inc., 2019). La madurez analítica de una organización, entendida como el grado de inserción de las herramientas analíticas en los procesos organizacionales, la inclusión de proveedores, clientes y socios y la medida en que la 333 información es considerada de alta confiabilidad a través de toda la organización, puede ser analizada a través de diferentes modelos de madurez (Chuah & Wong, 2011). Uno de los modelos más difundidos por su foco en los aspectos técnicos de la organización, muy buena documentación y fácil acceso a través de la web es el Modelo de Madurez de la Inteligencia de Negocios propuesto por Gartner Inc. (Duncan & Howson, 2015). Estudios realizados por dicha consultora muestran que el mejor conocimiento en profundidad del comportamiento de los clientes lleva a que las organizaciones aventajen a sus pares competidores en un 85% en el crecimiento de las ventas, 22% en ingresos netos, 25% en ROI y más del 25% en el margen bruto (Brown, Kanagasabai, Pant, & Pinto, 2017). En línea con estos interrogantes a nivel global, se estableció un proyecto de investigación desde la Universidad Tecnológica Nacional para dar respuesta a las siguientes preguntas de investigación: ¿Cómo es el proceso de adopción de las Herramientas de Apoyo a los Procesos de Decisión (HAPD) basadas en modelos en organizaciones de base tecnológica y financieras?, y, ¿Cuáles son las variables principales que definen el proceso de adopción de las Herramientas de Apoyo a los Procesos de Decisión (HAPD) basadas en modelos en organizaciones de base tecnológica y financieras? Como un aspecto novedoso de esta investigación se destaca el uso del modelo subyacente en la Teoría del Comportamiento Planeado desarrollado por Ajzen para poder determinar la Intención de Uso de las HAPD basadas en modelos. Se utilizó una versión ampliada de dicho modelo identificada como Modelo Integrativo que incluye el efecto de las variables externas o de contexto 334 sobre las creencias de comportamiento, creencias normativas y las creencias de control (Bleakley & Hennessy, 2012). Las variables de contexto que se incluyeron fueron el Sector Productivo al cual pertenece la organización, la Generación a la cual pertenece el participante de este estudio, el nivel de decisión en la estructura organizacional en la cual el participante pertenece y el grado de intensidad de uso de las HAPD en los diferentes niveles de decisión organizacionales (Robbins & Coulter, 2005, 2012). Sobre una muestra estratificada de 114 individuos se utilizó un cuestionario piloto basado en la Teoría de Comportamiento Planeado de Ajzen para determinar la relación entre el Control Percibido del Uso de HAPD basadas en modelos y la Intención de Uso de estas. Se entiende el Control Percibido del Comportamiento como “la medida en la cual la gente cree que puede realizar un determinado comportamiento si está inclinada a hacerlo” (Ajzen, 2012, p. 446); es decir, el control que la persona cree tener sobre la realización de un determinado comportamiento. La correlación positiva significa que a medida que el Control de Comportamiento del uso de HAPD basadas en modelos de los integrantes de la organización se incrementa – es decir, se incrementa la creencia subjetiva de los integrantes de la organización de que si deben utilizar una HAPD basadas en modelos no fallarán y lo harán en forma exitosa– la Intención de Uso de HAPD basadas en modelos también crece. El análisis estadístico inferencial asociativo de la relación entre la variable Intención de Uso de HAPD basadas en modelos y el Comportamiento Actual hacia el uso de HAPD basadas en modelos mostró la ausencia de una correlación estadísticamente significativa. 335 Numerosos análisis y meta-análisis muestran el poder predictivo de la Teoría de Comportamiento Planeado de Ajzen. En general, cuanto más favorable es la actitud y las normas subjetivas, y cuanto más elevado sea el control percibido sobre el comportamiento bajo análisis, más fuerte debería ser la intención de realizar un determinado comportamiento (Ajzen, 1991, 2012). Estudios meta – analíticos muestran una correlación promedio de 0,53 entre intención y comportamiento (Armitage & Conner, 2001). Dado que diversos estudios sugieren que el comportamiento pasado es un predictor importante de comportamientos futuros (Ajzen, 2012; Armitage & Conner, 2001; Menozzi, Fioravanzi, & Donati, 2015), se pidió a los participantes que indiquen en el cuestionario en qué medida hace uso de diversas herramientas de apoyo a su proceso de decisión (comportamiento). El resultado mostró un bajo nivel de madurez analítica caracterizado por un uso preferente de planillas de cálculo y un bajo uso de herramientas analíticas en los procesos de decisión. Este resultado es consistente con los resultados de la encuesta realizada por Gartner Inc. (2018) a nivel global que muestra que más del 87% de las organizaciones caen en la categoría de bajo nivel de Inteligencia de Negocios y Madurez Analítica (No consciente y oportunista) (Gartner, 2018). El foco novedoso de esta etapa de investigación complementaria es la triangulación de los resultados iniciales no solo aplicando un amplio espectro de encuestas globales sino también el Modelo de Análisis de Fuerzas de Kurt Lewin (Burnes, 2004; Cummings & Worley, 2007; Lewin, 1947) como herramienta complementaria de análisis a los resultados que muestra 336 la aplicación del Modelo de Comportamiento Planeado de Ajzen. Llegado este punto, es adecuado reconocer la importancia de esta investigación para el área de las decisiones organizacionales de las pequeñas y medianas empresas (PyMEs). Claramente, diversos estudios recopilados muestran la existencia de errores en los procesos de decisión que conllevan un impacto financiero negativo en la “última línea” del Estado de Resultados de la compañía. La complejidad creciente del contexto (Burton & Panetta, 2017), el cambio profundo del perfil demográfico de los consumidores (Chandler, Hostmann, Rayner, & Herschel, 2011; Deloitte Touche Tohmatsu Limited, 2019), y la alta volatilidad de los mercados (Halliday, McDaniel, Reitsma, Duan, & Hart, 2017) genera una demanda de decisiones en cada vez menor tiempo, con un número creciente de datos a analizar que explica las limitaciones de los procesos de decisión. Sin descartar la intuición y experiencia como herramientas principales de decisión, la incorporación de HAPD basadas en modelos permite generar soluciones en tiempo mínimo a situaciones complejas y problemas no estructurados. Por ello, poder identificar los factores que promuevan el uso de dichas herramientas permitiría mejorar sustancialmente el rendimiento operativo de las PyMEs que en Argentina, al año 2018, constituyen el 97% del total de empresas registradas, generan el 70% del empleo, el 89% de las empresas que exportan (aunque solo el 1,5% de ellas lo hace) y generan el 44% del PBI del país (Cámara Argentina de Comercio y Servicios, 2018; Espacio CAME, 2017, 2018; Roset, 2019) . En consecuencia, y reflejando estas diferentes perspectivas esta etapa de investigación complementaria se focaliza en identificar los factores 337 que soportan y resisten el proceso de adopción y difusión de las HAPD en las organizaciones. 2.0. METODOLOGÍA El marco metodológico para esta investigación corresponde a un paradigma positivista, con una metodología de investigación cuantitativa que siguió una lógica hipotético – deductiva. Se estableció un diseño basado en una investigación exploratoria - descriptiva, cros-seccional no longitudinal (Cooper & Schindler, 2014; Easterby-Smith, Thorpe, & Jackson, 2015). Se decidió establecer en forma complementaria con la primera etapa de investigación de carácter exploratoria – descriptiva un proceso de triangulación. Para ello se realizó una extensa revisión bibliográfica especializada que permitió determinar qué factores destacados o variables favorecen y/o presentan resistencia al uso de HAPD basadas en modelos en organizaciones privadas del área de ingeniería y financieras, así como una relación tentativa entre dichas variables. El análisis de dicho material se realizó desde la perspectiva del Desarrollo Organizacional (DO). Existen diversas definiciones de DO, pudiendo citarse "Desarrollo Organizacional es la aplicación sistemática y amplia de conocimientos de la ciencia del comportamiento al desarrollo planeado y mejora de las estrategias, estructuras y procesos organizacionales para mejorar la efectividad de una organización” (Cummings & Worley, 2007, p. 2). El DO implica una convergencia e integración de técnicas de intervención psicológicas con las técnicas de intervención administrativa, bajo el convencimiento de que ninguna de los dos funciona aisladamente. Su área de aplicación incluye a) la necesidad de cambiar la cultura organizacional (normas culturales); b) la necesidad de cambiar los aspectos 338 formales de la organización (estructuras y posiciones); y c) la necesidad de mejorar la colaboración intergrupal (Cummings & Worley, 2007). La clasificación de los factores destacados o variables favorecen y/o presentan resistencia al uso de HAPD basadas en modelos se realizó aplicando el Modelo de Análisis de Fuerzas de Kurt Lewis. 3.0. RESULTADOS OBTENIDOS Lewin considera el cambio en el comportamiento de un individuo como el resultado equivalente de un conjunto de fuerzas dentro de un sistema. Desde el campo de la psicología social, Lewis define el concepto de “campo” [field] o “espacio vital” [life space] como el ambiente psicológico en un individuo (o su equivalente en un grupo de individuos) el cual podía ser descripto matemáticamente como un conjunto de constructos. Dicho campo es dinámico al cambiar con las experiencias por las que el individuo transita. La identificación de sus partes o “construcción a través de atributos” permite describir las motivaciones, valores, necesidades, estados de ánimo, objetivos, ansiedades e ideales del individuo o grupo. Lewis sostiene que los cambios en “espacio vital” del individuo o grupo depende no solo del cambio que produce un estímulo externo al mismo sino principalmente de la medida en que el individuo o grupo internaliza o lo acepta. Por lo que se puede identificar desde este enfoque un conjunto de factores (fuerzas) que influencian una determinada situación social ya sea hacia el logro de un determinado objetivo (fuerzas que soportan o promueven el cambio) o bloqueando el logro de dicho objetivo (fuerzas que se oponen a dicho cambio). Esta forma de ver una situación de cambio social se denomina Modelo de Análisis de 339 Fuerzas [Force-field Analysis] (Burnes, 2004; Cummings & Worley, 2007; Lewin, 1947) Las fuerzas que apoyan el proceso de adopción y difusión de las HAPD en las organizaciones están presentes tanto dentro como fuera de ellas. Las fuerzas externas identificadas que soportan el proceso de adopción son: 1) cambios en los mercados internacionales, 2) cambio en la estructura de negocios a nivel nacional, 3) cambio en las condiciones económicas, 4) nuevas leyes y regulaciones, 5) cambio en tendencias demográficas, y 6) avances tecnológicos (Wagner & Hollenbeck, 1992). Las fuerzas internas identificadas que soportan el proceso de adopción son: 1) limitaciones en el suministro de materia prima, 2) comprensión creciente de la necesidad de cambio, 3) caída de la producción tanto en calidad como en cantidad, 4) cambio en la perspectiva de negocio de la organización, y 5) sensación de que el cambio es necesario. Las fuerzas que resisten el cambio son físicas, emocionales e intelectuales. La Teoría de Desarrollo Organizacional identifica las siguientes categorías inclusivas de dichas fuerzas: 1) resistencia cultural, 2) limitaciones de recursos, 3) amenazas al poder y la influencia, 4) barreras organizacionales y 5) percepción defensiva (Northcraft & Neale, 1994; Wagner & Hollenbeck, 1992). Aplicando la estructura de análisis del Modelo de Análisis de Fuerzas de Kurt Lewin es posible identificar, desde la perspectiva de cambio organizacional, los factores presentes a nivel organizacional que soportan y resisten el proceso de adopción y difusión de las HAPD basadas en modelos en las organizaciones. Las tablas 1 y 2 muestran los factores identificados organizados según el Modelo de Análisis de Fuerzas de Kurt Lewin. 340 4.0. CONCLUSIONES Y RECOMENDACIONES Se identificaron 16 factores que favorecen el uso de HAPD basadas en modelos y 14 factores que generan resistencia al uso de HAPD basadas en modelos. Este hallazgo es consistente con los resultados mostrados por los 18 estudios globales considerados en el período 2006 – 2019 que muestran que el desafío que representa la incorporación de herramientas analíticas tiene escala global. Como principal conclusión se halla que desde la perspectiva del Desarrollo Organizacional es posible modificar la resistencia organizacional a la incorporación de herramientas analíticas en los procesos de decisión al identificar los factores que favorecen y los que resisten dicho proceso. Como principal recomendación surge la aplicación a nivel organizacional del Modelo de Análisis de Fuerzas de Lewin para ordenar los distintos factores y categorizarlos como que favorecen la difusión o se oponen a la misma. Al conectar dichos factores que favorecen o se oponen a la difusión de dichas herramientas, con el Control Percibido por parte del sujeto, siguiendo el Modelo Ajzen, es posible diseñar e implementar el Modelo de Tres Etapas de Lewin para favorecer el desarrollo de los factores que desarrollan un Control de Comportamiento Percibido favorable a la difusión y minimizar el efecto de aquellos factores que se oponen a su adopción. 341 Tabla 2 Factores que favorecen el proceso de cambio ordenados según el Modelo de Lewin de Fuerzas para el cambio ¿Cuáles son las fuerzas que modelan el proceso de cambio? Fuerzas para el cambio ✓ Limitaciones en ✓ menor tiempo para decidir (Halliday et el suministro de al., 2017) materia prima Presión Interna ✓ Comprensión creciente de la necesidad de cambio ✓ Caída de la producción tanto en calidad como en cantidad ✓ Cambio en la perspectiva de negocio de la organización ✓ Sensación de que el cambio es necesario 342 ✓ identificación del nivel de madurez del proceso de decisión (Ariely, Rao, & Yager, 2016) ✓ identificación de decisiones no satisfactorias y su impacto (Dye, Sibony, & Truong, 2009; Lovallo & Sibony, 2010) ✓ incremento de la complejidad de las plataformas de comercio digitales al crecer el número de opciones disponibles para el cliente (Gillespie et al., 2018) ✓ el ritmo de crecimiento de expertos en análisis de datos triplicará el ritmo de crecimiento de IT para el año 2020 (Howson, Richardson, Sallam, & Kronz, 2019) ✓ es necesario decidir con mayor complejidad y en menor tiempo (Ariely et al.,2016; Halliday et al., 2017) Tabla 1 (continuación) ¿Cuáles son las fuerzas que modelan el proceso de cambio? Fuerzas para el cambio ✓ el consumidor se vuelve prosumer al ser parte del ✓ Cambios en proceso (Chandler et al., 2011) los mercados internacionales ✓ cambio en el ecosistema de negocios (Burton & ✓ Cambio en la Presión Panetta, 2017) estructura de ✓ se incrementa el uso de herramientas analíticas externa negocios a de datos (Blase, DiFilippo, Feindt, & Yager, 2016; nivel nacional Blase, Fiendt, Yager, Rao, & Wixom, 2016) ✓ Cambio en las condiciones económicas ✓ Nuevas leyes y regulaciones ✓ ✓ Cambio en tendencias demográficas ✓ Generación Millenials y Generación Z redefinen el mercado (Deloitte Touche Tohmatsu Limited, 2019; Dimock, 2019; Goasduff, 2019) ✓ la habilidad integrativa del usuario del modelo (AlMamary, Alina Shamsuddin, & Aziati, 2013; Aldhmour & Eleyan, 2012; Zoltners, 1981) ✓ comprensión creciente del conocimiento sobre los aspectos técnicos de las HAPD (Halliday et al., 2017) ✓ el menor costo que un modelo específico para una determinada situación; más rápido de implementar que sistemas basados en datos reales; y la capacidad de realizar proyecciones (Gualtieri & Curran, 2016) ✓ cambio en las tendencias tecnológicas estratégicas (Gillespie et al., 2018) ✓ para el 2021, el uso de lenguaje natural en herramientas analíticas incrementará su adopción del 30% al 50% de los empleados (Howson et al., 2019) ✓ mayor nivel de integración de las Herramientas de Apoyo al Proceso de Decisión (HAPD) basadas en modelos (Chandler et al., 2011; Ransbotham & Kiron, 2017) ✓ potencia de cálculo creciente de computadoras personales que permitirá el uso de HAPD basadas en modelos de mayor complejidad (Dedrick & Kraemer, 2008; Marr, 2017; Panetta, 2018) ✓ Avances tecnológicos ✓ 343 Tabla 3 Factores que resisten el proceso de cambio ordenados según el Modelo de Lewin de Fuerzas para el cambio ¿Cuáles son las fuerzas que modelan el proceso de cambio? Fuerzas que resisten el cambio Resistencia Cultural Limitaciones en los recursos Amenazas al poder y la influencia Barreras organizacionales Intereses propios ✓ ✓ nivel de satisfacción con el modelo de decisión estilo cognitivo del usuario Desconfianza general ✓ la brecha entre las suposiciones del contexto sobre las que se basa y el contexto organizacional actual lo que reduce la exactitud de las predicciones Conflictos de personalidad Presión de los pares ✓ variables personales Limitaciones en los recursos Posible pérdida de estatus Diferentes percepciones y objetivos ✓ variables institucionales ✓ ✓ ✓ dificultad de cuantificar los datos de contexto ya que existen siempre variables cualitativas; las limitaciones en recolectar todos los datos requeridos por el proceso de decisión el costo creciente de desarrollo de los DSS ✓ la dependencia de los DDS para decidir en desmedro del uso del pensamiento crítico por parte de los integrantes de la organización; ✓ la existencia de suposiciones de diseño que no siempre coinciden con las suposiciones del que decide resistencia al uso de nuevas herramientas tecnológicas la perspectiva personal del usuario hacia el modelo de decisión la falta de conocimiento tecnológico por parte de los usuarios de los DSS para entender el tipo de proceso a realizar. el requerimiento de capacidad de pensamiento abstracto para entender los modelos subyacentes en el diseño de los DSS el miedo de aprender nuevos conceptos y/o herramientas lo que aleja a los individuos de su zona de confort Disrupción social Falta de tacto gerencial Cambios no introducidos a tiempo Inercia burocrática Percepción defensiva Temor a lo desconocido ✓ ✓ ✓ ✓ Miedo de fracasar 344 ✓ ¿Cuáles son las fuerzas que modelan el proceso de cambio? Fuerzas que resisten el cambio ✓ la dificultad para entender fácilmente los modelos matemáticos formales embebidos en los mismos 345 REFERENCIAS. Ajzen, I. (1991). The Theory of Planned Behaviour. Organizational Behavior and Human Decision Processes, 50, 179-211. Ajzen, I. (2012). The Theory of Planned Behavior. In P. A. M. Lange, A. W. Kruglanski, & E. T. Higgins (Eds.), Handbook of Theories of Social Psychology (Vol. 1, pp. 438-459). London, UK: Sage. Al-Mamary, Y. H., Alina Shamsuddin, & Aziati, N. (2013). The Impact of Management Information Systems Adoption in Managerial Decision Making: A Review Management Information Systems, 8(4), 010-017. Aldhmour, F. M., & Eleyan, M. B. (2012). Factors Influencing the Successful Adoption of Decision Support Systems: The Context of Aqaba Special Economic Zone Authority. International Journal of Business and Management, 7(2). Ariely, D., Rao, A., & Yager, F. (2016). The human factor: Working with machines to make big decisions. Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/the_human_factor_working_with_machines_to_make_big_decis ions.pdf Armitage, C. J., & Conner, M. (2001). Efficacy of the Theory of Planned Behaviour: A Meta-Analytic Review. British Journal of Social Psychology, 40, 471-499. doi:https://doi.org/10.1348/014466601164939 Blase, P., DiFilippo, D., Feindt, M., & Yager, F. (2016). Data-driven: Big decisions in the intelligence age. Recuperado de New York: https://www.pwc.com/us/en/advisoryservices/big-decisionsurvey/assets/data_driven_big_decisions_in_the_intelligence_age.pdf Blase, P., Fiendt, M., Yager, F., Rao, A., & Wixom, B. (2016). Speed and sophistication: Building analytics into your work flows Retrieved from New York: 346 https://www.pwc.com/us/en/advisory-services/assets/pwc-big-decisionsspeed-and-sophistication.pdf Bleakley, A., & Hennessy, M. (2012). The Quantitative Analysis of Reasoned Action Theory. The Annals of the American Academy of Political and Social Science, 640(1 Advancing Reasoned Action Theory), 28-41. doi:10.1177/0002716211424265 Brown, B., Kanagasabai, K., Pant, P., & Pinto, G. S. (2017). Capturing value from your customer data. Recuperado de Burnes, B. (2004). Kurt Lewin and the Planned Approach to Change: A Re-appraisal. Journal of Management Studies, 41(6), 977-1002. Burton, B., & Panetta, K. (2017). Eight Dimensions of Business Ecosystems Enable the Digital Age Recuparado de Stamford, CT, USA: https://www.gartner.com/smarterwithgartner/8-dimensions-of-businessecosystems/ Cámara Argentina de Comercio y Servicios. (2018). Las Pymes: antídoto contra la pobreza. Recuperado de Buenos Aires: https://www.cac.com.ar/data/documentos/55_Documento%20CAC%20%20Pyme%202018.pdf Cooper, D. R., & Schindler, P. S. (2014). Business Research Methods (12 ed.). New York, NY: McGrawHill/Irwin. Cummings, T. G., & Worley, C. G. (2007). Desarrollo Organizacional y Cambio (8 ed.): Cengage Learning Editores. Chandler, N., Hostmann, B., Rayner, N., & Herschel, G. (2011). Gartner's Business Analytics Framework. Recuperado de Stamford, CT, USA: https://www.gartner.com/imagesrv/summits/docs/na/businessintelligence/gartners_business_analytics__219420.pdf Chuah, M.-H., & Wong, K.-L. (2011). A review of business intelligence and its maturity models. African Journal of Business Management, 5(9), 3424-3428. doi:10.5897/AJBM10.1564 347 Dedić, N., & Stanier, C. (2016). Measuring the Success of Changes to Existing Business Intelligence Solutions to Improve Business Intelligence Reporting. Paper presented at the 10th International Conference on Research and Practical Issues of Enterprise Information Systems (CONFENIS 2016), Vienna, Austria. Dedrick, J., & Kraemer, K. L. (2008). Globalization of Innovation: The Personal Computing Industry. Paper presented at the Sloan Industry Studies Annual Conference, Boston, MA. http://web.mit.edu/is08/pdf/Globalization%20of%20Innovation%20PC.PDF Deloitte Touche Tohmatsu Limited. (2019). The Deloitte Global Millennial Survey 2019. Recuperado de New York, NY: https://www2.deloitte.com/content/dam/Deloitte/global/Documents/AboutDeloitte/deloitte-2019-millennial-survey.pdf Dimock, M. (2019). Defining generations: Where Millennials end and Generation Z begins. FACTANK. Recuperado de https://www.pewresearch.org/facttank/2019/01/17/where-millennials-end-and-generation-z-begins/ Drucker, P. F. (2007). The Effective Executive (2nd Revised ed.). New York: Elsevier. Duncan, A. D., & Howson, C. (2015). ITScore Overview for BI and Analytics. Recuperado de Stamford, CT 06902 USA: https://www.gartner.com/en/documents/3136418 Dye, R., Sibony, O., & Truong, V. (2009). Flaws in strategic decision making. Recuperado de New York: Easterby-Smith, M., Thorpe, R., & Jackson, P. R. (2015). Management and Business Research (5th ed.). Los Ángeles, USA: Sage. Espacio CAME. (2017). La economía PyME en 2018. PYME, 50, 1-3. Espacio CAME. (2018). PYMES que llegan al mundo. PYME, 51, 1-3. Forrester Research Inc. (2019). Business Intelligence. Recuperado de https://www.forrester.com/Business-Intelligence# 348 Gartner, I. (2018, December 6, 2018). Gartner Data Shows 87 Percent of Organizations Have Low BI and Analytics Maturity. Recuperado de https://www.gartner.com/en/newsroom/press-releases/2018-12-06-gartnerdata-shows-87-percent-of-organizations-have-low-bi-and-analytics-maturity Gartner Inc. (2019). Analytics and Business Intelligence (ABI). Recuperado de https://www.gartner.com/en/informationtechnology/glossary/business-intelligence-bi Gillespie, P., Daigler, J., Lowndes, M., Klock, C., Dharmasthira, Y., & Shen, S. (2018). Magic Quadrant for Digital Commerce. Retrieved from Stamford, CT, USA: https://cdn2.hubspot.net/hubfs/4784080/Files/Website%20PDFs/EN/Other%20 Studies/Gartner_Magic_Quadrant_for_Digital_Commerce_2018%E2%84%A2( EN).pdf Goasduff, L. (2019). Chatbots Will Appeal to Modern Workers. Recuperado de Stamford, CT, USA: https://www.gartner.com/smarterwithgartner/chatbots-will-appeal-to-modernworkers/ Grünig, R., & Kühn, R. (2013). Successful DecisionMaking. A Systematic Approach to Complex Problems (M. Montani, A. Clark, & C. O'Dea, Trans. 3rd ed.). Berlin Springer-Verlag. Gualtieri, M., & Curran, R. (2016). Forrester Data Global Business Technographics® Priorities And Journey Survey, 2015: Overview. Retrieved from Cambridge, MA: https://slideplayer.com/slide/13294942/ Halliday, R., McDaniel, T., Reitsma, R., Duan, X., & Hart, C. (2017). Forrester Data Global Business Technographics® Priorities And Journey Survey, 2017: Overview. Recuperado de Cambridge, MA: https://www.forrester.com/report/Forrester+Data+Global+Business+Technogra phics+Priorities+And+Journey+Survey+2017+Overview/-/E-RES138832 Hodgson, G. M. (2013). Understanding Organizational Evolution: Toward a Research Agenda using Generalized Darwinism. Organization Studies, 34(7), 973-992. 349 Howson, C., Richardson, J., Sallam, R., & Kronz, A. (2019). Magic Quadrant for Analytics and Business Intelligence Platforms. Recuperado de Stamford, CT, USA: https://cadran-analytics.nl/wp-content/uploads/2019/02/2019-GartnerMagic-Quadrant-for-Analytics-and-Business-Intelligence-Platforms.pdf KPMG Cárdenas Dosal, S. C. (2018). Encaminados al crecimiento. Los directores generales de América Latina se preparan para un futuro más integrado — 2019 Global CEO Outlook. Capítulo América Latina. Recuperado de Swiss: https://assets.kpmg/content/dam/kpmg/xx/pdf/2018/05/encaminados-alcrecimiento-kpmg-latin-america-ceo-outlook-2018-espanol.pdf KPMG International. (2018). Growing pains— 2018 Global CEO Outlook. Recuperado de Swiss: https://assets.kpmg/content/dam/kpmg/xx/pdf/2018/05/growing-pains.pdf Lewin, K. (1947). Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change. Human Relations, 1(5), 38. Lovallo, D., & Sibony, O. (2010). The case for behavioral strategy. McKinsey Quarterly(1), 136. Luhn, H. P. (1958). A Business Intelligence System. IBM Journal of Research and Development, 2(4), 314 - 319. doi:10.1147/rd.24.0314 Marr, B. (2017). 9 Technology Mega Trends That Will Change The World In 2018. Rrecuperado de https://www.forbes.com/sites/bernardmarr/2017/12/04/9-technology-megatrends-that-will-change-the-world-in-2018/#50b378e55eed Mascarenhas, D. R. D., & Smith, N. C. (2011). Developing the performance brain: decision making under pressure. En D. J. Collins, A. Abbott, & H. Richards (Eds.), Performance Psychology E-Book: A Practitioner's Guide (pp. 245-231). Edinburgh: Elsevier Health Sciences, . Menozzi, D., Fioravanzi, M., & Donati, M. (2015). Farmer’s motivation to adopt sustainable agricultural practices. Bio-based and Applied Economics, 4(2), 125147. doi:10.13128 350 Northcraft, G. B., & Neale, M. A. (1994). Organizational Behavior: A Management Challenge (2nd ed.). Forth Worth, TX: The Dryden Press. Panetta, K. (2018). Gartner Top 10 Strategic Technology Trends for 2019. Recuperado de Stamford, CT, USA: https://www.gartner.com/smarterwithgartner/gartner-top-10-strategictechnology-trends-for-2019/ Ransbotham, S., & Kiron, D. (2017). Analytics as A Source of Business Innovation. Recuuperado de https://sloanreview.mit.edu/projects/analytics-as-a-source-of-businessinnovation/ Robbins, S. P., & Coulter, M. (2005). Toma de Decisiones: la esencia del trabajo del gerente (J. F. J. D. Martínez, Trans.). In M. d. Anta (Ed.), Administración (8 ed., pp. 614). México: Pearson Educación de México, S.A. de G.V. Robbins, S. P., & Coulter, M. (2012). Managers as Decision Makers. En S. Yagan (Ed.), Management (11 ed., pp. 176-201). Boston: Prentice Hall. Roset, N. (04 de junio de 2019). ¿Se están sustituyendo importaciones en Argentina? El Cronista Comercial. Recuperado de https://www.cronista.com/economiapolitica/Se-estansustituyendo-importaciones-en-Argentina-20190604-0026.html Wagner, J. A., III, & Hollenbeck, J. R. (1992). Management of Organizational Behavior. Englewood Cliffs, NJ: Prentice Hall, Inc. Zoltners, A. A. (1981). Normative Marketing Models. En R. L. Schultz & A. A. Zoltners (Eds.), Marketing Decision Models. New York: Elsevier Science Publishing Co. 351 352 16. IMPORTANCIA DEL FACTOR MOTIVACIONAL EN LA FORMACIÓN POR COMPETENCIAS Gabriela Tomazzeli57 ; Carolina Bernaldo de Quirós58 Resumen: La actualización de los conceptos de “ingeniería” y de “las prácticas de la ingeniería” establecidos en el marco conceptual del libro rojo de CONFEDI, proporciona una resignificación del llamado “perfil del graduado” y más aún, un replanteo del trabajo conjunto a realizar por la comunidad universitaria, con el fin de formar a sus estudiantes. Esta mirada sobre “enseñanza-aprendizaje” da una nueva orientación y motivación a los objetivos docentes, lo cual debe reflejarse en la práctica de estos. En razón de lo mencionado, se presenta una propuesta sencilla de trabajo en las aulas, con la intención de iniciar a los alumnos en la formación y adquisición de competencias. Palabras claves: enseñanza, geometría, modelación aprendizaje, álgebra y 1.0. INTRODUCCIÓN Si bien es sabido que un profesional debe formarse de manera continua para poder responder a las demandas del medio, en la actualidad se presenta una nueva realidad que lleva a la necesidad de un cambio de paradigma en el planteo del proceso de enseñanzaaprendizaje. Surge así la necesidad de una transición de la enseñanza basada en las expectativas de logro requeridas para un estudiante (ya sea en una cátedra o como perfil del egresado) a la “formación por competencias”. Esto conlleva asimismo, un cambio del concepto tradicional de motivación del alumno para la 57 58 FRM - UTN FRM - UTN 353 obtención de una meta relacionada a su aprendizaje. Este cambio donde la búsqueda de competencias prevalece ante la consecución de un objetivo de eficacia es de gran importancia, ya que involucra a otras aptitudes perdurables en el tiempo. Más aún, el factor motivacional es primordial para que un estudiante oriente su aprendizaje hacia el desarrollo de determinadas competencias. Parte del mismo proceso es la motivación en los docentes para promover y acompañar el crecimiento del alumno. 2.0. COMPETENCIAS Y MOTIVACIÓN 2.1. COMPETENCIAS Existen múltiples y variadas definiciones de “competencia” en lo referido a la formación de un estudiante universitario. Según Philippe Perrernound, una competencia es una “…síntesis combinatoria de procesos cognitivos, saberes, habilidades, conductas y actitudes, para resolver problemas que plantea la vida” (2004). Durante el transcurso del recorrido universitario de una persona debe haber continuidad en su formación, de modo que al momento de egreso, la persona esté preparada para ser un profesional competente. El especialista francés en gestión por competencias Guy Le Boterf, afirma en relación a un profesional que “Para resolver un problema no solo debe emplear recursos (conocimientos, capacidades, actitudes) también debe saber organizarlos; las competencias se refieren a personas, la respuesta competente debe ser un respuesta en red, es decir ser competente implica interactuar con otros. Una persona no podrá ser reconocida competente más que si resulta capaz de sacar adelante una cuestión sino también de 354 comprender por qué y cómo se ha preparado para actuar” (2000). Para lograr profesionales con este perfil, entendemos la necesidad de trabajar en las aulas y desarrollar en los alumnos la capacidad de resolver problemas, y con ello, la posibilidad de realizar un aprendizaje autónomo, la oportunidad de darse cuenta de sus propias fortalezas y debilidades y la oportunidad de poder llevar a cabo una autoevaluación, así como también, coevaluación de pares. Es más, la competencia de resolución de problemas, le permite al estudiante desarrollar confianza en las propias posibilidades de aprendizaje, trabajar en equipo y aprender a comunicar, entre otros. 2.2. MOTIVACIÓN ¿Por qué queremos alumnos motivados? Es importante destacar que un estudiante motivado es un estudiante comprometido con su propio aprendizaje, y por consiguiente, tiene una meta clara en relación con tema a estudiar, o con el trabajo a realizar. Por otra parte, es conocido por el docente que muchas veces, dada una propuesta de estudio o de trabajo, el alumno orienta su motivación con el fin único de aprobar. Lo que se busca es que el estudiante oriente la motivación hacia la obtención de una meta más importante, más allá de la certificación de una nota de aprobación. Es sabido que la motivación provee al alumno de impulso y voluntad para el trabajo, sin embargo, otro rasgo notable de la motivación es que con ella aparece una componente emocional, que influye en que el trabajo propuesto, pueda resultar “querido”, o, hasta “temido” por el alumno. Este último factor de la motivación lleva a repensar y ser cuidadoso en la selección de la situación motivadora. El docente debe elegir situaciones que impliquen un desafío para el alumno, pero que al mismo tiempo esté 355 dentro de sus posibilidades hallar una solución. De aquí se desprende la necesidad de un seguimiento y evaluación continua del proceso de aprendizaje, que le permita al docente conocer el grupo de alumnos con el que trabaja y poder así regular sus tareas, intervenciones y aportes. De lo descripto se concluye que la formación estratégica debe estar centrada en un estudiante motivado. ¿Pero cómo motivamos al alumno?. Ante todo, es necesario que conozca el “qué, cómo y para qué” pretendemos que aprenda lo propuesto. De igual forma debe conocer el “qué, cómo y para qué”, en las instancias de evaluación. De esta manera, el alumno sabe de antemano cuál es la finalidad del proceso que está comenzando, puede comprometerse con él, determinar a cada momento en qué etapa está, cuánto dista aún de la meta a alcanzar y en consecuencia establecer estrategias para poder arribar a ella. 3.0. SITUACIÓN PROBLEMA. MODELADO Teniendo en cuenta que un alumno “bien” motivado es un alumno predispuesto a formarse en múltiples capacidades, se considera abordar los contenidos, ya sea de un tema, de una unidad, y en general los de una cátedra, partiendo de una consideración más auténtica, es decir, una tarea realista, plausible y estimulante para el alumno. En cátedras de ciencias básicas y especialmente aquellas en las que se enseñan lenguajes (en este caso, el algebraico), entendemos que la capacidad por excelencia para tal finalidad es la resolución de problemas, dejando que el alumno busque sus propias estrategias, consulte con sus pares, con distintas bibliografías, e instándolo a que exponga y justifique lo desarrollado. Asimismo, buscamos invitarlo a participar en una retroalimentación con sus pares, 356 reconociendo cuáles fueron sus propias dificultades y proponiendo nuevas alternativas de resolución. Lo expuesto sustenta la propuesta de los autores, de presentar uno de los temas que se abordan en la cátedra de Álgebra y Geometría Analítica. Se trata en particular, el tema de rectas y planos, mediante una situación problema para analizar y modelar, la cual resulta posible de aplicar en el aula. Mediante la misma, el alumno modela ecuaciones de rectas en el plano para encontrar una solución a problemas planteados en el ámbito ingenieril. Como ejemplo de una situación problema, se expone la siguiente: “De un sótano, se tienen los siguientes datos: su volumen es de 3999 m3, la altura de este es 5 m, y la longitud de uno de los lados de su planta es de 38 m. Se desea construir un entrepiso que cubra la cuarta parte de su superficie. La conexión entre el piso del sótano y el entrepiso, será una escalera con escalones de 0,18 m de alzada y 0,29 m de huella. Realiza esquemas que ejemplifiquen la información dada. A continuación, interpreta y resuelve: a. ¿A qué altura del techo, lo más próximo a los 2,5 m irá el entrepiso, para que la escalera tenga todos los escalones de igual alzada? b. Si ubicamos el esquema en ejes ortogonales x-y ¿a qué distancia «d» del origen estará ubicado el primer escalón? c. Anota la ecuación de la recta que «soporta» el borde inferior de los escalones. d. ¿Qué otras preguntas podrían hacerse en relación a esta situación, que involucre los conceptos de vectores, rectas, planos y distancias? Durante el proceso de modelación el estudiante interactúa entre la secuencia de la situación problema y 357 la formación del concepto requerido. En otras palabras, para la resolución del problema, debe recurrir a la construcción de un modelo sencillo gracias a que dispone previamente de un listado de conceptos matemáticos adquiridos. Por otra parte, la intención desde nuestro trabajo docente consiste en llevar un seguimiento, de modo de detectar las fortalezas y debilidades de esta nueva orientación de la práctica en el aula. Además, la evaluación, que puede ser en este caso, coevaluación, es posible de realizar a través de rúbricas. 4.0. CONCLUSIONES Y PERSPECTIVAS La competencia “resolución de problemas”, conlleva muchas otras no menos importantes como lo son la decodificación de datos y su codificación, la planificación, la toma de decisiones, la organización del tiempo, la comunicación verbal y la comunicación escrita, la creatividad, la adaptación al entorno, el sentido ético, la diversidad y multiculturalidad, comunicación interpersonal, trabajo en equipo, tratamiento de conflictos, negociación. Todo lo descripto puede englobarse en el concepto de modelización de situaciones auténticas. Hay que tener en cuenta que la selección y secuenciación de trabajo en el aula con las mismas, depende de la gestión de la clase a cargo del docente, quien tendrá que evaluar, determinar y redireccionar las tareas pertinentes, según las características específicas de sus alumnos, situación, tiempo, lugar, problemáticas, y otras. Por supuesto, que es ambicioso lo descripto anteriormente, pero una implementación paulatina y responsable, nos permitirá mejorar de a poco la calidad educativa en nuestras universidades. 358 REFERENCIAS Confedi. (2018). Propuesta de Estándares de segunda generación para la acreditación de carreras de ingeniería en la República Argentina, “Libro Rojo de Confedi”. (primera edición). Córdoba: Universidad FASTA Ediciones. Confedi. (2016). Segundo Taller de Diseño Curricular y Prácticas Docentes basadas en Competencias. Introducción al Diseño Curricular Basado en Competencias. Confedi, Acofi. (2018). Aseguramiento de la calidad y mejora de la educación en ingeniería: experiencias en América Latina. (primera edición). Colombia: Opciones Gráficas Editoriales Ltda. Lay, D.C. (2013). Álgebra Lineal para cursos con enfoque por competencias. (Primera edición). México: Pearson Educación. Morelli, R. D.; del Valle Martella, D. (2018).Trabajo práctico Integrador de la materia representación gráfica enfocado en la educación basada en competencias. Córdoba Pozo, J.I.; del Puy Pérez Echeverría, M. (2009). Psicología del aprendizaje universitario: La formación en competencias. Madrid: Ediciones Morata. Villa, A.; Poblete, M. (2007). Aprendizaje Basado en Competencias. Una propuesta para la educación de las competencias genéricas. Universidad de Deusto, Bilbao: Ediciones Mensajero. *** 359 360 17. EPISTEMOLOGÍA DE LAS CIENCIAS DE LA INGENIERÍA Zoom sobre el experimento Julio Ortigala59 Resumen: En este trabajo se explora a partir de una mirada epistemológica, la importancia de las determinaciones experimentales en el avance de la ciencia y la tecnología, y su relación con las teorías y los modelos. No es aceptado por todos los epistemólogos la importancia del experimento en el desarrollo de la ciencia moderna, aunque la filosofía de la ciencia tradicional, aceptó su valor, pero sin considerar relevante su tematización filosófica. En nuestro caso, damos por sentado el valor del experimento y la atención se centró fundamentalmente en el estudio de las teorías científicas, el cambio teórico y su relación con la epistemología de las ciencias experimentales. Analizamos el experimento como un proceso en el cual encontramos entradas, transformaciones y salidas y hacemos hincapié en la necesidad de un diseño adecuado, para lo cual es fundamental tener bajo control estadístico el sistema de medición. Si en la realización del experimento, se deben llevar a cabo mediciones, la calibración de los instrumentos de medición es de suma importancia. Finalmente, encontramos que el diseño debe contener un correcto análisis estadístico de los datos aportados a través de herramientas como la estadística descriptiva, el análisis correlacional, la estadística inferencial, la estadística bayesiana y el análisis ANOVA. Palabras claves: filosofía, proceso, tecnología, calibración, estadística. 1.0. INTRODUCCIÓN 59 Grupo IEMI. 361 Tenemos la impresión de que en el transcurrir histórico y a partir de las líneas filosóficas de ciertos epistemólogos, el experimento ha sido relegado en importancia en comparación con la teoría. Pero, analizando sistémicamente este aparente enfrentamiento y considerando que la ciencia moderna le debe tanto, en este trabajo defenderemos la hipótesis de que el experimento goza de autonomía con respecto a la teoría. La teoría y el experimento deberían ser reconocidos como iguales entre los que no hay un primero: la teoría no es más importante que el experimento. Si tenemos en cuenta las dos actividades, la científica y la experimental, defendemos que ambas están en un mismo nivel en cuanto a importancia se refiere, y que ambas gozan de la misma autonomía. Nuestro objetivo no es quitarle importancia a las teorías como herramienta de análisis para explicar el funcionamiento de la naturaleza, sino poner de manifiesto otro esquema, donde el experimento no esté subordinado a la teoría. Siguiendo a M. Iglesias (2004), el cual pone de manifiesto la importancia de las prácticas experimentales, se puede ver y analizar el desarrollo lógico en filosofía de la ciencia y el cambio de la tradicional relación entre teoría y experimento. En filosofía de la ciencia puede apreciarse un redimensionamiento de la práctica, lo cual conlleva a que temas como la verdad y la objetividad, la ciencia y la técnica, no sean analizados solos desde la teoría, y a partir de esta situación, se redefinan nuevos problemas filosóficos, promoviendo una nueva imagen de la ciencia. Hacking es especialmente interesante para la enseñanza de las ciencias porque pone el experimento al mismo nivel que la teoría. Hay un equilibrio entre ellos. Reconoce que podemos encontrarnos con casos, tanto 362 en que el experimento prima sobre la teoría (tal sería el caso de Faraday en física), como casos en los que la teoría ha sido fuente de inspiración para ciertos experimentos, como es el caso de la teoría de la “sopa primordial” en el origen de la vida y que Miller comprobó con su ya clásico experimento. Históricamente, en filosofía de la ciencia ha primado la tradición que privilegia los aspectos teóricos del conocimiento sobre cualesquiera otro de sus rasgos, de modo que toda la actividad científica es interpretada desde el punto de vista de la elaboración conceptual y la teorización. De esa tendencia se deriva la inclinación a reformular cualquier cuestión o problema de la filosofía de la ciencia en términos exclusivamente conceptuales o teóricos. De lo anterior, se deduce que la filosofía debía replantearse la concepción que comenzó allá por el siglo XVII. El proceso que comenzaba a instalarse entre algunos epistemólogos le dio otra dimensión al experimento y recibió el nombre de “Filosofía Experimental”. Modernamente, la ciencia aparece como una simbiosis entre la filosofía y el experimento, aportando la filosofía lo racional, la conjetura, y el razonamiento, y el experimento, la técnica, la manipulación y la observación. 2.0. LA IMPORTANCIA TECNOLÓGICOS DE LOS APARATOS Colocar a la teoría y la observación como los componentes principales del análisis investigativo, es cuando menos, un exceso de la filosofía de la ciencia. Uno de los fundamentos de la ciencia han sido proposiciones que manifiestan observaciones, como observar la posición de una estrella o el movimiento de 363 la aguja de un aparato de medición. Las elaboraciones teóricas que constituyen el núcleo de la ciencia se juzgarían —ya sea inductiva o deductivamente— a la luz de observaciones (alternativamente, proposiciones básicas). También se ha señalado históricamente la carga teórica de la observación; aunque hay que recordar otro punto no menos importante: el que asigna siempre una carga experimental a la teoría. Esto pone de manifiesto, sobre todo en física, química y biología que la empresa científica no está completa si se prescinde de su dimensión experimental. Evidentemente, todas las teorías físicas o químicas estuvieron cargadas de experimentación. Desde Galileo y siguiendo con Faraday y Watt, lo obvio es que las bases empíricas de las ciencias fácticas están formadas por resultados experimentales. En estos casos la experimentación antecedió a la elaboración de teorías. La filosofía de la ciencia, en ocasiones, no realiza una diferencia taxativa entre observar y experimentar, aunque está claro que existen grandes diferencias entre una y otra actividad. Como consecuencia, al científico se lo considera solo como un gran observador, y que la teoría se basa en una buena observación realizada desde una teoría. La diferencia indica la idea que se tenga de lo que hay detrás de los fenómenos. En primer lugar, se cree que los fenómenos nos ofrecen una imagen primitiva o inmediata de algún aspecto de la naturaleza. En segundo lugar, se tiene la idea que esa imagen primitiva es simple y, por lo tanto, aprovechable para la construcción de una “teoría científica”. Sin embargo, la historia de la ciencia nos enseña que hay muchos casos que contradicen estos postulados. En la construcción de una explicación no siempre lo más inmediato o primitivo que se percibe es el elemento más simple. Un ejemplo muy interesante sería la dificultad 364 que tuvieron los filósofos experimentales para entender algo tan inmediato como el calor. Originalmente al calor se lo consideró como un fluido al observar un hecho aparentemente tan sencillo como el proceso de calentamiento de una barra de metal a la que se aplica una fuente de calor por uno de sus extremos. En este caso, lo más inmediato no era lo más simple. El fenómeno calórico se entendió mucho mejor cuando se lo estudió a partir de aplicaciones tecnológicas, como taladrar un cañón o el uso de las máquinas térmicas. Mientras se pretendió entender el calor desde un punto de vista puramente descriptivo, pareció someterse con facilidad a las diferentes especies de calórico que inventaron los ilustrados para dar cuenta de sus diferentes cualidades. Cuando se intentó entender el calor como “causa” del movimiento, como ocurría en el funcionamiento de las máquinas de vapor, los fluidos calóricos no pudieron explicar el fenómeno. Los análisis que realiza Sadi Carnot, en su obra de 1824, se basa en su interés por los fenómenos de transformación del calor en trabajo, poniendo su atención en el funcionamiento de las máquinas de vapor, y no en los fenómenos de transformación que se pueden encontrar en la naturaleza, como los fenómenos meteorológicos. La razón empírica consistía en un conjunto de situaciones fabricadas, antes que naturales. Se ha puesto este ejemplo porque es especialmente elocuente y tal vez porque la máquina de vapor fue un icono de la revolución industrial construido para obtener trabajo a partir del fuego, y no para servir de banco de pruebas experimentales. En este caso, lo simple era algo tecnológico y no algo inmediato. La ciencia del siglo XIX abunda en desarrollos a partir de la técnica, en casos como el del electromagnetismo, el tratamiento de los gases enrarecidos, la físico-química, y lo mismo sucede 365 en muchas otras disciplinas. Los “objetos” de la ciencia no tuvieron que ver con aspectos inmediatos del mundo natural, sino con sofisticadas construcciones técnicas. 3.0. INVESTIGACIÓN CIENTÍFICA Se puede definir a la investigación científica como una secuencia de pasos que conducen a la búsqueda de conocimientos mediante la aplicación de métodos y técnicas específicas. Podemos encontrar distintos tipos de investigación en función del propósito con el que se realizan. Si nos centramos en el grado de manejo de las variables, podemos encontrar la investigación experimental, la investigación cuasi experimental y la investigación no experimental El método experimental pertenece a los métodos empíricos, con la característica de ser más desarrollados y tener una mayor precisión. La capacidad transformadora del hombre y su necesidad de investigar, da como resultados el desarrollo de la técnica y del conocimiento humano, con la finalidad de explicar lo desconocido y potenciar nuevos conocimientos. El experimento es el método empírico de estudio de un objeto, en el cual el investigador crea las condiciones necesarias o adecua las existentes, para el esclarecimiento de las propiedades y relaciones del objeto, que son de utilidad en la investigación. El experimento es una actividad que se caracteriza porque el investigador: • Define las variables que más influyen para la obtención del fin deseado, y evita la influencia de otros factores no esenciales que no desea estudiar. 366 • Replica más de dos veces el experimento u objeto de estudio en condiciones controladas. • Cambia, planificadamente los valores de las variables de interés, bajo las cuales se desarrolla el proceso o experimento. El experimento siempre está unido a la teoría y a los modelos, pero no es menos importante que ellos. El experimento puede ser llevado adelante sin que exista una teoría específica sobre el tema, aunque luego de generar conocimiento y validarlo, surgirá una teoría y modelos que den sustento al conocimiento generado por el experimento. En la teoría el problema se formula esencialmente como un problema teórico, un problema que se refiere al objeto idealizado de la teoría y que se experimenta para comprobar en un plano dialéctico, los conceptos teóricos pertenecientes a la teoría. Las condiciones que rodean al objeto son aquellas condiciones naturales o artificiales creadas por el investigador bajo las cuales se realiza el experimento con los medios e instrumentos adecuados para el mismo. El hecho de que en el experimento el investigador provoca el proceso o fenómeno que desea abordar, hace que el método experimental presente toda una serie de ventajas sobre los restantes métodos empíricos: - Puede seleccionar las variables de entrada que más influyen en la variable de salida. - Conocidas las variables más influyentes, puede obtener la combinación entre ellas que mejor respuesta de salida otorgan. - Posibilidad de estudio del fenómeno en condiciones variadas. 367 - Realizar réplicas del experimento y analizar la variabilidad. La experimentación en el Proceso de la Investigación Científica crea la posibilidad de estudiar exhaustivamente los nexos o relaciones entre determinados aspectos del mismo, y poner de manifiesto las causas condicionantes de la necesidad de dicho fenómeno. 4.0. LA PREPARACIÓN DEL EXPERIMENTO Para realizar un experimento científico, debemos establecer condiciones para que todas las partes involucradas estén bajo control. En el proceso de medición intervienen la magnitud a medir, el aparato de medición y el operario que realiza la medición. Además, hay que garantizar que el método de medición sea un método normalizado y las condiciones ambientales sean adecuadas. La observación fija la presencia de una determinada propiedad del objeto observado o una relación entre componentes, propiedades u otras cualidades de éste. Para la expresión de sus resultados no son suficientes los conceptos cualitativos y comparativos, sino que es necesaria la atribución de valores numéricos a dichas propiedades y relaciones para evaluarlas y representarlas adecuadamente. Cuando se inicia el estudio de una parte de la realidad en donde los procesos o fenómenos son totalmente desconocidos, se comienza por la elaboración de conceptos cualitativos, lo que permite una clasificación de los objetos de la región estudiada. Posteriormente se establecen determinadas relaciones entre los conjuntos de objetos semejantes con el auxilio de conceptos 368 comparativos, lo que permite clasificarlos en conjuntos que tengan cualidades semejantes. El uso de conceptos comparativos puede servir de base para la introducción de conceptos cuantitativos, es decir, conceptos que designan la cualidad medida. El tránsito de los conceptos cualitativos a los comparativos y de estos a los cuantitativos se realiza solo mediante proposiciones teóricas. La medición es el método que se desarrolla con el objetivo de obtener información numérica acerca de una propiedad o cualidad del objeto, proceso o fenómeno, donde se comparan magnitudes medibles y conocidas. El valor numérico de una propiedad va a estar dado por la diferencia de valores entre las magnitudes comparadas. Se denominará medición al proceso de comparación de una propiedad con una magnitud homogénea tomada como unidad de comparación. Se puede decir que la medición es la atribución de valores numéricos a las propiedades de los objetos. Aunque la medición constituye una de las formas del conocimiento empírico, los procedimientos de medición se determinan por consideraciones teóricas. Los procedimientos de la estadística descriptiva permiten organizar y clasificar los indicadores cuantitativos obtenidos en la medición revelándose a través de ellos las propiedades, relaciones y tendencias del proceso, que en muchas ocasiones no se perciben a simple vista de manera inmediata. Las formas más frecuentes de organizar la información en éste caso es en tablas de distribución de frecuencias, gráficos y las medidas de tendencia central como, la mediana, la media, la moda y otros. 369 Los procedimientos de la estadística inferencial se emplean en la interpretación y valoración cuantitativa de las magnitudes del proceso o fenómeno que se estudia, donde se determinan las regularidades y relaciones cuantitativas entre propiedades sobre la base del cálculo de la probabilidad de ocurrencia. 5.0. DISEÑO DEL EXPERIMENTO El experimento debe ser concebido como un proceso en el cual encontramos entradas (datos, mediciones), transformaciones y salidas (variables que explican el fenómeno) Para una realización correcta del mismo, primero debemos analizar si el sistema de medición está bajo control estadístico, considerando que el mismo está formado por el mensurando (la variable que se mide), el operario que mide, el aparato de medición, el método de medición y las condiciones ambientales. En el campo de la industria es frecuente hacer experimentos o pruebas con la intención de resolver un problema o comprobar una idea (hipótesis); por ejemplo, hacer algunos cambios en los materiales, métodos o condiciones de operación de un proceso, probar varias temperaturas en un reactor químico hasta encontrar la que dé mejor resultado, o crear un nuevo material con la intención de lograr mejorar o eliminar algún problema. Sin embargo, es común que estas pruebas o experimentos se hagan sobre la marcha, con base en el ensayo y error, apelando a la experiencia y a la intuición, en lugar de seguir un plan experimental adecuado que garantice una buena respuesta a los interrogantes planteados. El diseño estadístico de experimentos es precisamente la forma más eficaz de hacer pruebas. El diseño de 370 experimento consiste en determinar cuáles pruebas se deben realizar y de qué manera, para obtener datos que, al ser analizados estadísticamente, proporcionen evidencias objetivas que permitan responder los interrogantes planteados, y de esa manera clarificar los aspectos inciertos de un proceso, resolver un problema, o lograr mejoras. El experimento es un cambio en las condiciones de operación de un sistema o proceso, que se hace con el objetivo de medir el efecto del cambio sobre una o varias propiedades del producto, proceso o resultado. Por ejemplo, en un proceso químico se pueden probar diferentes temperaturas y presiones y medir el cambio observado en el rendimiento del proceso. Las variables de respuesta se utilizan para conocer el efecto o los resultados de cada prueba experimental, por lo que pueden ser características de la calidad de un producto y/o variables que miden el desempeño de un proceso. El objetivo de muchos estudios experimentales es encontrar la forma de mejorar las variables de respuesta. 6.0. TEORÍA GENERAL Supongamos que se tienen k poblaciones o tratamientos, independientes y con medias desconocidas 1,  2,... k ; así como varianzas también desconocidas. Las poblaciones pueden ser k métodos de producción, k tratamientos, k grupos, etc. En el caso de que los tratamientos tengan efecto, las observaciones Yij se podrán describir con el modelo estadístico lineal dado por: 371 Yij =  +  i +  ij Donde  es el parámetro de escala común a todos los tratamientos, llamada media global,  i es un parámetro que mide el efecto del tratamiento i y  ij es el error atribuible a la medición Yij . Este modelo implica que en el diseño completamente al azar, actuarían a lo sumo, dos fuentes de variabilidad: los tratamientos y el error aleatorio. La media global  no se la considera una fuente de variabilidad. 7.0. CONCLUSIÓN La importancia del experimento como actividad epistemológica está a la altura de la teoría y de los modelos, sin que uno tenga preponderancia sobre el otro. Las estrategias epistemológicas utilizadas habitualmente en la actividad experimental de las ciencias de la ingeniería, permiten incrementar nuestra confianza en los datos y posterior conocimiento aportados por el experimento. No obstante, debemos poder asegurar que la aplicación de estas es necesaria para que en el desarrollo de un experimento se obtengan resultados válidos, dado que en cada situación experimental hay un conjunto de estrategias que pueden emplearse para lograr resultados robustos, capaz de resistir el escrutinio de los expertos en la materia. De todos modos, debemos ser conscientes de las limitaciones que hacen que la actividad experimental no esté exenta de errores: La incertidumbre en la medición no puede eliminarse, solo 372 disminuirse, los instrumentos utilizados poseen precisión limitada, o pueden ser empleados de manera inadecuada o pueden estar fuera de calibración, el mensurando puede estar mal definido y no considerar todas las variables que inciden sobre él. Estas limitaciones inducirán un diseño experimental inapropiado. También, podemos cometer dos tipos de errores: aceptar la hipótesis nula cuando es falsa o rechazarla cuando es verdadera y estos dos tipos de errores no pueden eliminarse, solo disminuirse. La falibilidad es la nota distintiva de la ciencia, una característica que comparten tanto las teorías como los experimentos. Los enunciados experimentales son revisables y esta revisión se efectúa siguiendo una dinámica que involucra la relación entre el ámbito teórico, el experimental y el tecnológico. Además, debemos tener en cuenta que la mejor explicación para la persistencia del resultado con la variación de métodos de análisis estadístico, es que éste no es producido por el manejo estadístico de los datos. También, he tratado de sostener en este trabajo que las razones por las cuales un resultado experimental se acepta o se rechaza son internas, es decir, que existe un conjunto de criterios epistemológicos en los que se fundamenta la validación. 373 REFERENCIAS Agazzi, E. (1978). Temas y problemas de filosofía de la Física. Barcelona: Herder. Buchwald, J.Z. (1997) Ciencia, tecnología y sociedad, . Mc Graw Hill. México Galilei, G.(1638). Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias,Madrid: Editora Nacional Editado en 1976. Gonzalez, García, A. (1997). Relativismo, racionalismo y sociología del conocimiento, Madrid:Editora Nacional Guttierrez Pulido (2010) Análisis y diseño de experimentos. Mc Graw Hill. México Guttierrez Pulido (2012) Control estadístico de la calidad. Mc Graw Hill. México Hacking, I. (1996). Representar e intervenir, trad. Sergio F. Martínez, Instituto de Investigaciones FilosóficasUNAM/Paidós, México (1a. ed. en inglés: 1983). Van Fraassen, B.C. (1996). La imagen científica, trad. Sergio F. Martínez, México, Instituto de Investigaciones Filosóficas-UNAM/Paidós 374 18. SOBRE LA APLICABILIDAD DE LA LÓGICA EN LOS PROCESOS DE MODELIZACIÓN EN CIENCIA Juan Redmond60, Guillermo Cuadrado61, Rodrigo López Orellana62 Resumen: El objetivo de este artículo es defender la aplicabilidad de la lógica como condición de adecuación que debe cumplir todo enfoque sobre la modelización que pretenda ser preciso y adecuado. Probaremos nuestro punto a partir del caso de los modelos que no poseen sistema objetivo. Palabras clave: lógica, modelos sin sistema objetivo, razonamiento sustituto 1.0. INTRODUCCIÓN En un reciente trabajo publicado por Frigg y Nguyen (2018) se realiza un estudio muy completo sobre la importancia de la noción de representación científica en los enfoques teóricos sobre modelización en ciencia. En efecto, en toda perspectiva teórica sobre modelización, la noción de representación es central en el sentido que ella captura la relación que se establece entre el modelo y su sistema objetivo. Cada perspectiva, desde luego, la define de acuerdo a sus bases teóricas y principios. Pero en general, sea cual fuere el enfoque, señala Frigg y Nguyen, debe cumplir con ciertos objetivos y ciertas condiciones de adecuación. De los objetivos a los cuales debe responder nos detendremos en primer lugar en el llamado “problema de la representación”. En efecto, todo enfoque sobre modelización, para estar bien definido, 60 Universidad de Valparaíso, [email protected] Grupo IEMI, F. R. Mendoza, UTN, [email protected] 62 Conicyt, Chile / Universidad de Salamanca, España, [email protected] 61 375 debe rellenar formulación: el espacio vacío en la siguiente “M es una representación científica/epistémica de S sii ___” Esta fórmula es conocida como el Problema de la Representación Científica/Epistémica (SR-Problem o ER-Problem para abreviar). La diferencia entre Científico y Epistémico se refiere a lo que Callender y Cohen (2006, pp. 68-69) señalan como el "problema de demarcación" (Popper), pero para representaciones: "Representaciones científicas" para aquellos que demarcan las representaciones científicas de las no científicas; "representaciones epistémicas" para aquellos que consideran irrelevante esa distinción - siguiendo una sugerencia de Contessa (2007) para ampliar el alcance de la investigación. Depende de esta definición si la perspectiva es representacionalista o no. Como señalamos más arriba, cada perspectiva sobre modelización rellena esta fórmula de acuerdo a sus compromisos teóricos. Por ejemplo, los enfoques llamados representacionalistas la entienden como un homomorfismo estructural (biyección entre ambas partes). Mientras que los enfoques norepresentacionalistas comprometen otras nociones como las de uso o la manipulación que realiza un agente del modelo. Por otro lado tenemos a los inferencialistas que identifican representación con la función inferencial que cumple el modelo respecto de sus sistemas objetivos. Los otros objetivos en los cuales debe enfocarse toda perspectiva sobre modelización para ser precisa y confiable (accurate) son los siguientes: 1. El problema de demarcación representacional: el problema de tener un criterio que permita establecer la 376 diferencia entre representaciones científicas y las que no lo son. O un criterio que permita decir que todas las representaciones son científicas. 2. El problema de estilo: existen distintos estilos de representación, por ejemplo, un modelo de circuito eléctrico representa la función cerebral de una manera diferente a un modelo de red neuronal. Es decir, se debe poder responder adecuadamente a la pregunta ¿qué estilos existen y cómo se pueden caracterizar? 3. Formular estándares de precisión [Accuracy]: sabemos que ciertas representaciones son acertadas, precisas, otras no. Por ejemplo, tanto el modelo de doble hélice como el de triple hélice (Watson y Crick en 1953) constituyen representaciones del ADN, pero solo del primero decimos que es acertado o adecuado. ¿Pero sobre qué fundamentos teóricos afirmamos esto? Es decir, ¿qué constituye una representación adecuada? 4. Los problemas ontológicos: qué tipo de objetos son los modelos en tanto representaciones? Además de estos objetivos, como señala Frigg y Nguyen (2018), también tenemos "condiciones de adecuación" que deben cumplir satisfactoriamente. Estas son: - Razonamiento Sustituto [Surrogative Reasoning]: los modelos, en tanto representaciones científicas, nos permiten generar hipótesis sobre sus sistemas objetivos. Es decir, el modelo cumple con la función de sustituto al permitir la realización de razonamientos o inferencias. Sustituto en el sentido de que las conclusiones que se obtengan por esta vía serán consideradas como hipótesis formuladas sobre su sistema objetivo. Lo que infiero en M lo “traslado” al sistema objetivo. - Posibilidad de representaciones distorsionadas [Misrepresentation]: esta condición está ligada al 377 estándar de precisión. En efecto, si S no representa adecuadamente o con precisión a T, entonces debería ser una representación distorsionada (misrepresentation) y no una no-representación). Requerimiento de direccionalidad: las representaciones científicas se refieren o apuntan a sus objetivos pero no al revés: los objetivos no apuntan a sus representaciones. - Aplicabilidad de las matemáticas: ¿cómo es que el aparato matemático usado en algunas representaciones científicas se acopla al mundo físico. - Modelos sin sistema objetivo [Targetless Models]: ¿cómo considerar los modelos que no poseen sistema objetivo? Nos detendremos especialmente en esta última pues nos ayudará a defender el punto principal de este artículo: la aplicabilidad de la lógica. ¿Cuándo un modelo no tiene sistema objetivo? En este artículo defenderemos que un modelo “no tiene” sistema objetivo cuando: (i) sabemos que hay algo pero no sabemos realmente cómo es [si pensamos en la modelización del átomo, por ejemplo, tenemos los casos de los modelos del átomo que van de Dalton a Bohr]; (ii) realmente no sabemos si hay algo o no [si pensamos en el Modelo Planetario que propuso el planeta Vulcano entre Mercurio y el Sol]; (iii) sabemos que tal cosa no podría existir [modelos de poblaciones de organismos de tres sexos para el estudio del desarrollo evolutivo63]. “Hypothetical modelling” (Weisberg, 2013: 121) or “counterfactual models” (Cassini, 2018: 194). 63 378 Entendemos que esto último puede identificarse como un problema epistémico. Es decir, este problema epistémico, a nuestro entender, produce también un problema lógico: cómo es posible cumplir con la función de razonar sustitutivamente en M generando hipótesis si no hay sistema objetivo. Desde luego esta división no pretende ser exhaustiva. Ni tampoco nuestra propuesta pretende reemplazar los otros enfoques. Solo decimos que en estos casos señalados parece ser más adecuado usar una noción de inferencia que tenga en cuenta esta situación. Cabe señalar que los procesos de modelización en los que se focaliza nuestro trabajo (y donde se presentan los casos i, ii y iii), son aquellos que buscan escudriñar en los aspectos desconocidos del universo. En este contexto es donde creemos que surgen problemas epistémicos de acceso al conocimiento como epistemológicos de justificación de este. Esto significa, por un lado, que entendemos por sistema objetivo una porción desconocida y problemática de la realidad y, por otro lado, que intentamos conocer esa porción de la realidad por medio de la práctica de modelización. Creemos que los casos i, ii y iii corresponden a los límites mismos del ser humano a la hora de acceder a lo que llama realidad o mundo fenoménico. En este sentido, nuestra alegación es que difícilmente se puede aceptar que un sistema objetivo sea el resultado de "observar" los fenómenos. Por el contrario, lo que llamamos realidad o mundo fenoménico se presenta como un problema para el científico. Y la práctica de modelación es un intento, entre otros, de resolver estos problemas respondiendo a las preguntas que nos llevan a conocer más sobre el sistema objetivo. 379 Por lo tanto, nuestro punto de partida es que existe un modelo que apunta intencionalmente (a través de un agente) a un sistema objetivo en la práctica misma de generar hipótesis. Es decir, estamos interesados en resaltar la importancia de las bases lógicas que justifican el proceso heurístico-inferencial que los Modelos cumplen (mediante el razonamiento sustituto) en su tarea de ampliar el campo de conocimiento mediante la producción de hipótesis sobre el sistema objetivo. 2.0. RAZONAMIENTO SUSTITUTO Y APLICABILIDAD DE LA LÓGICA En la precisa descripción que nos brinda Frigg/Nguyen, en efecto, se destaca al mismo tiempo la función primordial y por ello protagónica que cumple el razonamiento sustituto en el proceso de modelización. La función de sustituto que cumple el modelo es una condición común a todas las perspectivas. Ciertamente cada una de ellas lo define y le da su lugar de acuerdo con sus bases teóricas. Por ejemplo en los enfoques representacionalistas es un subproducto de la práctica misma. Mientras que en una perspectiva inferencial como la de Suárez (2004), el razonamiento sustituto es lo que define la representación científica. Pero lo que parece no poder faltar en común en todas las perspectivas, que el modelo permita generar hipótesis sobre su sistema objetivo. Dadas así las cosas, es fácil llegar a la conclusión de que la lógica ocupa un lugar relevante en ese proceso. Un lugar que no parece estar recuperado en la consideración del razonamiento sustituto como condición de adecuación. En efecto, ella nos habla de la función sustituta que cumple “inferencialmente” el modelo, pero 380 no de los enfoques inferenciales comprometidos en este proceso. Es por ello por lo que creemos que el análisis de la función de sustituto que cumple el modelo no es completo si no consideramos lo que hemos llamado la Aplicabilidad de la Lógica. Nuestra premisa es que la aplicabilidad de la lógica es relevante debido a las limitaciones y restricciones impuestas por los diferentes marcos lógicos (y sus semánticas) sobre las afirmaciones realizadas en un campo científico dado. En particular con los modelos, de hecho, basados en el papel relevante que juega el razonamiento sustituto, creemos que es necesario incluir entre las condiciones de adecuación la aplicabilidad de la lógica. Para mostrar nuestro punto analizaremos lo que sucede en los casos más sencillos de targetless. Esto permitirá probar que si no consideramos la aplicabilidad de la lógica entre las condiciones de adecuación estaríamos cayendo en un error. 2.1. MODELOS SIN SISTEMA OBJETIVO Nos focalizaremos en el razonamiento sustituto pues allí se encuentra el núcleo primordial de la práctica de modelización. El razonamiento sustituto supone dos pasos. Un primer paso donde el agente que se sirve del modelo realiza sus inferencias. Y un segundo paso que consiste en llevar las conclusiones del paso anterior, como hipótesis, al sistema objetivo de ese modelo. El primer paso es claramente lógico y requiere de una lógica bien definida para dar cuenta de ello. El segundo debería ser un paso lógico aunque todavía se discute mucho sobre este punto y en particular en nuestro artículo no hablaremos de ello. Es decir, presuponemos 381 que tenemos una formulación como ‘M ξ S’ donde “ξ” define un tipo de relación inferencial entre el modelo M y su sistema objetivo S. Pero no es el foco del estudio del razonamiento sustituto. El razonamiento sustituto se refiere a las inferencias que realizamos en M y que luego, sus conclusiones, son “llevadas” al sistema objetivo como hipótesis que, la mayor parte de las veces, deben ser testeadas para saber si el sistema objetivo las cumple o verifica. Consideremos el siguiente caso como un ejemplo de las dificultades que puede acarrear no considerar propiamente la aplicabilidad de la lógica: consideremos el caso de targetless iii mencionado más arriba para un razonamiento sustituto que sigue los lineamientos de la lógica clásica. Consideremos entonces que para nuestro modelo M la propiedad más relevante sea A: “x posee tres sexos”. Consideremos ahora un individuo k1 que satisface esa propiedad a los efectos de poder simular con él en nuestro modelo. Pero al mismo tiempo, a partir de la afirmación de que ese individuo instancia tal propiedad (Ak1), puedo inferir –de acuerdo con los principios que rigen la lógica clásica- que debe existir al menos un individuo con tres sexos: Ak1→∃xAx (Especificación). Y si esto último lo trasladamos como hipótesis al sistema objetivo nos llevará al fracaso. Pero lo interesante es que el fracaso no se debe a un problema del estándar de adecuación y la posibilidad de representaciones distorsionadas. Se trata de un caso donde aplicamos la lógica indebida. Pues si confrontamos una situación como iii, no podemos usar una lógica con compromisos ontológicos para sus términos singulares (ki). En efecto, debe buscarse la lógica adecuada para ello. 382 ¿Por qué sucede esto? Bueno, porque la lógica clásica posee una semántica referencialista. Y, ¿qué significa esto? Significa que el significado de las expresiones del lenguaje de la lógica clásica de primer orden son sus referencias. El cuadro siguiente lo resume: Semántica Oración aseverativa Predicado Nombre propio  Su significado es  Su significado es  Su significado es Lo Verdadero o lo Falso Un concepto Un objeto Por otro lado Especificación es un axioma que rige para la lógica clásica y dice que, como indica la fórmula más arriba, que si es verdad que un individuo cumple con una propiedad cualquiera, es verdad también que debe existir al menos un individuo que cumpla tal propiedad. En este último caso es el cuantificado existencial el que carga con la exigencia. Sin embargo, y aquí reside el verdadero problema, esta semántica adolece de un problema que Karel Lambert (2003, p. 142) llamó esquizofrénico: mientras la lógica clásica acepta la vacuidad de los términos generales (predicados vacíos y sus respectivos conceptos), no es posible tener términos singulares que no refieran. Es decir, es una exigencia absoluta para la verdad o falsedad de las expresiones donde aparecen que los términos singulares refieran o denoten un objeto en la realidad (en el alcance de los cuantificadores). Al menos la misma realidad a la que nos referimos cuando hablamos de sistemas objetivos. Para más detalles sobre lógica y esquizofrenia ver Redmond/López (2018). 383 En definitiva, aplicar lógica clásica para razonamiento sustituto nos pone la restricción de que el modelo, sus partes y el sistema objetivo al que apunta, deben necesariamente existir, lo cual es insostenible en los casos de modelos sin sistema objetivo que hemos analizado. Otros casos que pueden tenerse en cuenta son las prácticas de modelización en mecánica cuántica donde no se puede usar una lógica que tenga activo el principio de explosión. Como nos señaló Newton da Costa viva voce en la conferencia de apertura del Congreso de Lógica en Rio de Janeiro en 2013, esto abre las puertas a las lógicas paraconsistentes. Lo mismo van Bendeghem, para las lógicas adaptativas que deben lidiar con modelos que suponen conjuntos de datos que en parte se contradicen. 3.0. CONCLUSIÓN El objetivo de este artículo fue mostrar la relevancia de la lógica en los procesos inferenciales que caracterizan a la práctica de modelización en ciencia. Para ello nos servimos de un caso de modelización sin sistemas objetivos que permitió hacer evidente que debe elegirse un enfoque inferencial no comprometido ontológicamente como es el caso de la lógica clásica. En efecto, partimos de la función de razonamiento sustituto que todo modelo, independientemente del enfoque sobre representación científica, debe cumplir para ser adecuado. Y mostramos como esta condición de adecuación no es completa si uno no considera la aplicabilidad de la lógica pertinente a tal función para que no nos lleve a conclusiones absurdas sobre el sistema objetivo. 384 REFERENCIAS Callender, C.; Cohen, J. (2006) “There Is No Special Problem About Scientific Representation”, Theoria, 21(1): 67–84. Cassini, A. (2018). “Models without a target”. ArtefaCToS, Vol. 7, No. 2 (2018), 2ª Época, p. 185-209. Contessa, G. (2007). “Scientific Representation, Interpretation, and Surrogative Reasoning”, Philosophy of Science, 74(1), pp. 48–68. doi:10.1086/519478 Frigg, R.; Nguyen, J. (2018), "Scientific Representation", The Stanford Encyclopedia of Philosophy (Winter 2018 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/win2018/entries/scientificrepresentation/. Lambert, K. (2003). Free Logic: Selected Essays, Cambridge: Cambridge University Press. Redmond, J.; López-Orellana, R. (2018). “Lógica clásica y esquizofrenia: por una semántica lúdica”. Revista de Filosofía 74, pp. 197-223. DOI: 10.4067/S0718-43602018000100215. Suárez, M. (2004). “An Inferential Conception of Scientific Representation”, Philosophy of Science, 71(5), pp. 767–779. doi:10.1086/421415 Weisberg, M. (2013). Simulations and Similarity: Using Models to Understand the World. New York: Oxford University Press. 385 386 19. MODELO CUALITATIVO DE INFRANÓMICA Aplicación a la nueva generación de infraestructuras Gustavo A. Masera64; Ricardo R. Palma65 Resumen: En el documento se propone analizar los fundamentos del modelo cualitativo basado en la Infranómica. Ésta última es una rama interdisciplinaria emergente que proporciona una base teórica y metodológica para tratar un sinnúmero de cuestiones de la compleja sociedad moderna que se derivan de la estructura y funcionamiento de las infraestructuras. En este sentido, el propósito central se orienta, a clarificar el debate en relación a los problemas que surgen de la interacción entre las diferentes infraestructuras, especialmente en aquellas denominadas críticas. Se concluye que la modelización de la Infranómica permite comprender la interrelación entre los varios aspectos concurrentes en la nueva generación de infraestructuras, caracterizadas, entre otras dimensiones, por el cruce entre éstas con los sistemas de electricidad y las tecnologías de la información y la comunicación, los cuales son dimensiones clave para el logro de los objetivos de desarrollo sostenible. . Palabras claves: Infranómica - infraestructuras críticas – horizonte 2030 – desarrollo sostenible 1.0. INTRODUCCIÓN El propósito de este documento radica en la comprensión de los desafíos que se presentan a las infraestructuras de próxima generación, en particular de aquellas que se denominan críticas y que se encuentran basadas en tecnologías emergentes. 64 Facultad de Ingeniería-Universidad Nacional de Cuyo; Facultad de Ciencias Económicas y Jurídicas-Universidad del Aconcagua (Mendoza, Argentina) 65 Facultad de Ingeniería-Universidad Nacional de Cuyo (Mendoza, Argentina) 387 El método de trabajo se enfoca en la perspectiva de la Infranomica. Se considera que la misma representa también un nuevo enfoque que permite pensar, entre otros temas, las condiciones para el manejo del riesgo y la criticidad en las infraestructuras innovativas o de nueva generación. A los fines de comprender su potencial para el análisis, se realiza una síntesis de sus fundamentos teóricos y un esquema sobre su desarrollo reciente en lo doctrinal. Posteriormente, se procede a elaborar una modelización de la Infranómica, buscando ilustrar con ello la relación entre los elementos que participan del modelado: campo, componentes, procesos y propiedades emergentes. (Forbus, 2010). El campo está representando por el territorio de la Infranómica como disciplina de disciplinas (metadisciplina) y un sistema de sistemas (metasistema). (Ghoerghe, et al., 2014). Los componentes principales del sistema se ordenan a la identificación de las infraestructuras y en la consideración de aquellas que se denominan críticas, por su rol central en el funcionamiento de las sociedades. Los procesos se refieren al cruce entre los sistemas tecnológicos eléctricos, y las tecnologías de la información y comunicación (paradigma E+I) en las infraestructuras. En estos procesos surge, asimismo, las propiedades emergentes, entre ellas, el problema de los riesgos asociados al funcionamiento de las infraestructuras. Por último, se plantean algunas discusiones en torno a la Infranómica frente a la necesidad de conseguir resultados de desarrollo sostenible en el marco del 388 horizonte 2030 planteado por Naciones Unidas. Para finalizar se establecen algunas reflexiones a modo de conclusión. 2.0. MODELO CUALITATIVO DE LA INFRANÓMICA En el presente apartado se plantea la posibilidad de representar los aspectos centrales del esquema, para lo cual se realiza una representación del modelo cualitativo e interdisciplinario de la Infranómica. De este modo se hace visible que la misma es, en realidad, un sistema de sistemas. El modelado cualitativo se refiere a las representaciones y razonamientos que las personas usan para comprender aspectos complejos del mundo, para lo cual formalizan las nociones cotidianas de causalidad y proporcionan explicaciones sobre cómo fundamentar representaciones simbólicas y relacionales en procesos perceptivos (Forbus, 2010). Se aplica a la Infranómica algunas ideas básicas del modelado cualitativo a partir de un principio básico, según se ha señalado ut supra: la identificación de cuatro marcos que permiten organizar el conocimiento que se posee sobre las infraestructuras: procesos, componentes, campo y propiedades emergentes. 3.0. CAMPO: La Infranómica como disciplina de disciplinas y sistema de sistemas En los últimos años, un campo disciplinar en construcción: la Infranómica (Gheorghe et al., 2014). El término Infranómica (Infranomics) es un el neologismo que surge de la necesidad de dotar de respuestas más complejas desde un marco teórico no tradicional que ayude al proceso de toma de decisión en sistemas socio-tecnológicos de alta complejidad. El término elegido hace referencia a “Infra” (por infraestructura) y 389 “Nómica” (por conocimiento). la raíz griega de gnosis, ley o En la obra de referencia editada por Gheorghe (Gheorghe et al, 2014), se forjó un concepto que al mismo tiempo es una herramienta de análisis. El cuerpo de esta disciplina se autodefine como un sistema de sistemas. Esto además es intuitivo y recursivo, de modo que si se entiende los nodos iniciales del árbol, recursivamente aplicando esta idea se llega al grano más fino necesario. La idea prosperó por el terreno de los modelos de simulación, que derivaron luego hacia los metamodelos. La Infranómica es, entonces, una disciplina de disciplinas, ya que supone los análisis de las normas y las reglas de juego, las instituciones, los aspectos de actores y de mercado, el poder y los aspectos científico-técnicos de la sociedad. En un primer momento del análisis, se plantearon dos planos en los que los beneficios de la infraestructura deberían florecer para satisfacer su fin último, que es cubrir las necesidades explícitas e implícitas de las mismas. En los primeros años de la Infranómica en la Unión Europea, dimensión tangible fue la más clara. Durante este período la mayor parte de los autores que produjeron trabajos de investigación y transferencias tangibles provenían del campo de las tecnologías y en menor grado de la economía. En una segunda etapa los campos de las tecnologías comenzaron a ser abrumados por la complejidad y las discusiones y debates tenían resultados mucho más cercanos a las verdaderas soluciones de los problemas reales. En muchos casos fue posible construir modelos y herramientas específicos para tomar decisión sobre ellos pero faltaban aún aportes de la mirada de otras disciplinas para darle completitud al concepto. 390 Los temas que aparecen en la agenda son, entre otros, los siguientes: infraestructura y sostenibilidad; enfoques integrados para la gestión estratégica de activos estratégicos; riesgos y seguridad, energía renovable y gestión; diseños óptimos de políticas para el área afectada por desastres; riesgos frente al consumo de energía de transporte y seguridad energética; los riesgos frente a la falta equidad y problemas éticos por falta de acceso a infraestructuras; el riesgo y la nueva tecnología urbana alternativa para futuras ciudades con bajas emisiones de carbono; problemas de modelado y simulación, problemas de gobernabilidad y de gobernanza en escenarios complejos con múltiples actores de intereses divergentes; infraestructuras capacitadas para enfrentar riesgos e incertidumbres asociados con el cambio climático, etc. Según lo expuesto, puede verse que la manera en que se abordan problemas como los de las nuevas estructuras, ya no tienen al artefacto o al diseño tecnológico como fin último, sino que se recurre a lo provisto por diversas disciplinas particulares, donde se incluyen las dimensiones sociales, de gestión y hasta culturales para un abordaje integral de los problemas emergentes en esta nueva era. 4.0. COMPONENTES: Infraestructuras e infraestructuras críticas Las sociedades contemporáneas descansan sobre numerosas y variadas infraestructuras a modo de conjuntos tecnológicos relativamente estables que articulan los diferentes sistemas vivos del sistema. Desde la perspectiva de la Infranómica, la infraestructura es un sistema socio-tecnológico de segundo orden (sistema de sistemas), que cumple con un servicio vital, 391 como es transmitir o transferir un flujo de algo (bienes, información, etc.) entre los nodos del sistema. Las nuevas infraestructuras en particular, se caracterizan por el cruce entre éstas con la electricidad y las tecnologías de la información y la comunicación. Este rasgo es denominado paradigma E+I - Electricity plus Information. (Masera et al., 2005). Al mismo tiempo, es preciso identificar los principales sistema de infraestructuras críticas:1) energía (centrales y redes de energía); 2) abastecimiento de agua (embalses, almacenamiento, tratamiento de agua potable y redes); 3) tratamiento de desechos; 4) transporte (aeropuertos, puertos, instalaciones intermodales, ferrocarriles y redes de transporte público, sistemas de control del tráfico); 5) infraestructura de la información y comunicación, que incluye las tecnologías de base digital e Internet, usadas para gestionar, monitorear y controlar las otras infraestructuras. Además, hay consenso en que las infraestructuras criticas pueden incluir las siguientes áreas: instituciones financieras; sector sanitario; alimentación; producción, almacenamiento y transporte de mercancías peligrosas (materiales químicos, biológicos, radiológicos y nucleares); administración (servicios básicos, instalaciones, redes de información; etc.). En las Infraestructuras críticas se pueden enumerar tres rasgos principales que hacen a su rol específico en la sociedad contemporánea. El primero de ellos es la función de producción de flujos continuos y universales de servicios básicos que resultan esenciales para el desarrollo económico y social. En otras palabras, son elementos que tienen que estar disponibles para todos, en todo momento. El usuario no se preocupa de la complejidad detrás de su acceso al servicio, puesto que 392 le interesa solamente conectarse y que el servicio esté disponible. En segundo lugar, las infraestructuras tienden a no ser posesión de un único dueño (público o privado). Además, puede pasar que cada operador, regulador y usuario posean distintas lógicas de funcionamiento. La regionalización de los mercados, por ejemplo en la Unión Europea, ha conducido al “desacople” de su sistema eléctrico (unbundling), donde ningún operador controla la infraestructura de producción o distribución. Entonces, cuando los sistemas se interconectan a través de las fronteras, los mismos entes nacionales ven recortados sus competencias. Por último, las infraestructuras han sido diseñadas para satisfacer necesidades sociales básicas, pero los cambios tecnológicos y organizativos han elevado su nivel de complejidad, quedando sujetas a riesgos internos y externos debido a fallos accidentales o intencionales. Y cuando se producen fallos, éstos tienden a propagarse excediendo los límites estructurales, funcionales y territoriales de cada sistema singular. Se plantea, en consecuencia, que los riesgos emergentes en las infraestructuras, especialmente en aquellas denominadas críticas (energía, transporte, tecnologías de la información y comunicación, etc.), serán en los próximos años cuestiones de máximo interés para el conjunto de los países y que formarán parte ineludible de las agendas. 5.0. PROCESOS: Las infraestructuras de nueva generación Todas las infraestructuras pueden llegar a ser consideradas de nueva generación, en la medida en que 393 se encuentren cruzadas por las tecnologías de la información y la comunicación (TICS) y los sistemas de electricidad. Pero el rol lo ocupan principalmente estas infraestructuras críticas que han sido definidas de diversa manera. Más específicamente, las “Infraestructuras Críticas” (IC) son una red de sistemas interdependientes de gran escala, y que implican complejas distribuciones físicas transfronterizas asociadas a tecnologías y redes cibernéticas, producto de la interconexión con los sistemas de tecnologías de la información y comunicación (Gheorghe et al., 2005). La Oficina de Protección de la Infraestructura Crítica de los Estados Unidos (EUA), por ejemplo, las concibe como los sistemas que podrían ser debilitados o destruidos en sus capacidades básicas. En este esquema se pueden incluir, entonces, a los bancos, el transporte, las redes de provisión de agua, servicios del gobierno y otras áreas públicas. Sobre esa concepción se han desarrollado, además, estrategias para asegurar el ciberespacio y la protección física de las infraestructuras criticas (NIPP, 2009) o la asociación para la seguridad de estas y la “resiliencia” (Canadá, 2014). La Organización de los Estados Americanos (OEA) las define como “aquellas instalaciones, sistemas y redes, así como servicios y equipos físicos y de tecnología de la información, cuya inhabilitación o destrucción tendría un impacto negativo sobre la población, la salud pública, la seguridad, la actividad económica, el medio ambiente, servicios de gobierno, o el eficaz funcionamiento de un Estado” (OEA, 2007) y, en consecuencia, sus estados miembros han convenido en una “Declaración sobre la “Protección de Infraestructura Crítica ante las Amenazas Emergentes” (OEA, 2015). 394 La Unión Europea, de su parte, coincide en considerarlas como aquellas instalaciones, redes, servicios y equipos físicos y de tecnología de la información cuya interrupción o destrucción pueden tener una repercusión importante en la salud, la seguridad o el bienestar económico de los ciudadanos o en el eficaz funcionamiento de los gobiernos de los estados miembros (Comisión Europea, 2004). Por los expuesto, se desarrolló desde 2006, el Programa Europeo de protección de las IC (PEPIC). Puede notarse, entonces, que las diversas definiciones colocan el énfasis en los impactos sobre la defensa y la seguridad económica de una sociedad en el nivel regional o nacional. 6.0. PROPIEDADES: El riesgo sistémico emergente Aunque no hay una definición aceptada universalmente, sin embargo, se han clasificado dos posibles categorías de riesgo: aquellas donde el riesgo se expresa mediante probabilidades de un suceso aunado a valoraciones sobre expectativas; y las otras, que sostienen que los riesgos se expresan fundamentalmente por la ocurrencia de eventos imprevistos y las consecuencias que pueden emanar de los mismos, con un fuerte componente de incertidumbre (IRGC, 2010; Renn, 2008). De acuerdo a lo expuesto, puede afirmarse que la noción de riesgo se refiere, a la inseguridad acerca de la gravedad de las consecuencias (o resultados) de una actividad, con respecto a algo que la sociedad percibe como valioso, vital o crítico. Los riesgos pueden derivarse de numerosos factores y en distintos ámbitos: cracks financieros; crisis alimentaria; calentamiento global; aumento de la desertificación; estancamiento de las negociaciones comerciales; problemas de 395 suministros de gas y restricciones energéticas; renovados conflictos geopolíticos; fallas en los sistemas, como black-outs eléctricos de grandes dimensiones (OECD, 2003). Más recientemente, durante el desarrollo de la cumbre anual del Foro Económico Mundial acerca del tema “Creando un futuro compartido en un mundo fracturado,” se presentó el informe anual “Riesgos Globales 2018” (Davos, 2018). En el mismo se propicia el fomento de la resiliencia en sistemas complejos y se advierte que debido a la alta exigencia que se efectúa a los sistemas, el ritmo acelerado de los cambios puede resultar en una intensificación de 4 riesgos como: a)Las amenazas cibernéticas y los ciberataques así como la proliferación de armas de destrucción masiva; b) La pérdida de la biodiversidad, clima extremo y colapso de ecosistemas, grandes desastres naturales o ambientales causados por el hombre y el fracaso en la mitigación del cambio climático: c) el aumento de las tensiones geopolíticas; d) el riesgo de que estalle otra crisis financiera. Existe una relación directa entre infraestructuras críticas (IC), nuevas tecnologías (TIC) y sociedad de la información (SI). Por consiguiente, un conjunto de fallos en el funcionamiento de las TIC, pueden hacer colapsar por un cierto período la base técnica de la SI, y ello resultará en la pérdida de transmisiones de datos y del acceso a fuentes de información, afectando otras IC (agua, transporte, electricidad, logística, aeropuertos), lo que en pocos días derivará colapsando la sociedad misma. El riesgo implica la posibilidad de daño o avería en un sector determinado, por ejemplo, la infraestructura de la información y de la comunicación (ICC), conjuntamente con la extensión de este daño a todas las otras 396 infraestructuras que en la sociedad de la información dependen de ella (IRGC, 2006). Los riesgos pueden incidir en las Infraestructuras críticas de una sociedad, afectando la estabilidad política y la prosperidad económica de los países. Además, son procesos que pueden generar cambios en la distribución del poder entre los países, así como efectos catastróficos en regiones vulnerables. 7.0. DISCUSIÓN: La Infranómica frente a los objetivos del horizonte 2030 de desarrollo sostenible La infranómica es reciente, y como sucede con cualquier disciplina emergente, necesita de mucha investigación a nivel de aplicaciones, además de debates sobre el alcance conceptual de la misma, como acerca de las metodologías, y las relaciones entre las disciplinas concurrentes. De su parte, el nivel de las aplicaciones puede requerir el desarrollo y la prueba de métodos, herramientas y técnicas para permitir el análisis y la toma de decisiones en contextos difíciles, mientras que el nivel conceptual puede requerir la incorporación de diversos campos teóricos y metodologías. Se ha planteado al respecto que lograr el equilibrio adecuado entre las aplicaciones y la base conceptual (teoría) requiere de un mayor número de casos de estudios, realizados bajos investigaciones rigurosas. Téngase en cuenta que gran parte de las infraestructuras (puertos, caminos, ciudades, sistemas de interconexión eléctrico, gasoductos) se ha construido durante el siglo pasado, con tecnologías de varias décadas en algunos casos. Pero, tal como lo plantean los especialistas de la nueva generación de infraestructuras, debe garantizarse que éstas funcionen 397 correctamente ahora y en el futuro próximo. “Todos enfrentamos el mismo desafío: ¿cómo hacemos que nuestra infraestructura 'responda', para que pueda responder a los continuos cambios y las principales tendencias? ¿Cómo podemos hacer un mejor uso de las redes existentes con los menores costos sociales posibles y sin perder de vista al usuario final?”66. Es que en el mundo contemporáneo se avizoran escenarios turbulentos, interdependientes e inciertos, en los cuales será cada vez más difícil formular políticas adecuadas sin una preparación adecuada en relación a la modelización de escenarios prospectivos. Es por ello que la Infranómica como disciplina de disciplinas, es funcional al análisis integral de las tendencias de la sociedad. Al mismo tiempo, su comprensión como sistema de sistemas, permite la aplicación de políticas que permitan reaccionar adecuadamente a los nuevos escenarios. Ahora bien, si el objetivo de generar una política fructífera para la competitividad de las economías y la mejora de la calidad de vida es un objetivo compartido, no es labor sencilla abordar la temática, por su complejidad creciente y la interdependencia de las distintas dimensiones socio-técnicas, más aún cuando se está en una labor delicada frente al cumplimiento de los objetivos del horizonte 2030. De allí que sea preciso plantear primeramente un nuevo enfoque para el estudio integral de las infraestructuras tal como sostiene la Infranómica. Esto es, si previamente no realiza un análisis de sus problemas desde nuevos marcos teóricos y gestiona sus problemas de infraestructuras desde nuevas perspectivas. 66 cfr. http://www.nextgenerationinfrastructures.eu/ 398 En una perspectiva regional, se plantea que América Latina y Argentina, en particular, tendrán que preocuparse de invertir, no sólo en el acrecentamiento de las capacidades en infraestructuras, sino también en su protección, reconociendo su criticidad y su vulnerabilidad. Más aún si se tiene en cuenta los objetivos de desarrollo sostenible que exige el horizonte 2030 (CEPAL, 2019). En particular, la Comisión Económica para América Latina considera que la región deberá tener un especial cuidado en el análisis de la infraestructura existente, teniendo en cuenta los problemas financieros (y recursos en general) para crear nuevas infraestructuras en los países en vías de desarrollo. En suma, es crucial plantear las bases para una reflexión sobre las posibles respuestas estratégicas que pueden imaginarse, frente a los desafíos que imponen a las sociedades los objetivos de Naciones Unidas sobre desarrollo sostenible y para ello nada mejor que la labor contemple a la Infranómica. 8.0. REFLEXIÓN FINAL En los últimos años se ha hecho imprescindible la comprensión de las “Infraestructuras de Próxima Generación” o nuevas infraestructuras. En tal sentido, es representativo que se estén conformando en diversos ámbitos nacionales e internacionales, grupos de investigación que reúnen –en una estrategia asociativa de carácter intersectorial- a representantes de puertos, ciudades, empresas, organizaciones, think tanks y centros académicos, a fin de plantear todas las dimensiones interactuantes en estos procesos. Para dar cuenta de esta complejidad se ha planteado recientemente una nueva rama del conocimiento de carácter interdisciplinario: la Infranómica. Luego, 399 teniendo en cuenta los factores arriba mencionados, en el documento se ha realizado una aproximación a este campo emergente y se ha elaborado un modelo del mismo. 400 REFERENCIAS CEPAL (2003). Los Caminos Hacia una Sociedad de la Información en América Latina y el Caribe, Santiago de Chile, UN-CEPAL. CEPAL (2019). Agenda 2030 y los Objetivos de Desarrollo Sostenible, Santiago de Chile, UN-CEPAL. COMISIÓN EUROPEA (2004). Hacia la Europa basada en el conocimiento. La Unión Europea y la sociedad de la información. Luxemburgo: Oficina de Publicaciones Oficiales de las Comunidades Europeas DAVOS (2018). World Economic Forum. International Conference. Geneva: Switzerland Forbus, K. D. (2010). “Qualitative modeling”. Wiley Interdisciplinary Reviews: Cognitive Science, 2(4), 374– 391. Advanced Review. Gheorghe, A. et. al. (2005). Critical Infraestructures at Risk, Dordretch, Springer. Gheorghe, A., et al. (edit.) (2014). Infranomics. Sustainability, Engineering Design and Governance, Dordrech, Springer. Gheorghe, A.; Masera, M. (2014). «Infranomics: A Discipline-of-Disciplines for the XXIst Century», En: Gheorghe, A., et al. (edit.) ib., pp. 1–7. IRGC (2006), White Paper on Managing and Reducing Social Vulnerabilities from Coupled Critical Infrastructures, Geneva, International Risk Governance Council IRGC (2010). Emerging risks. Sources, drivers and governance issues, Geneva, International Risk Governance Council, Revised edition. Masera, M. et al. (2005): “The Security of Information and Communication Systems and the E+I Paradigm”, En: Gheorghe, A. et al., op. cit., p. 35-56. NETMUNDIAL (2014). “Multistakeholder Statement” (April, 24th, 2014). Disponible Link permanente en: 401 http://netmundial.br/wp-content/uploads/2014/04/NETmundialMultistakeholder-Document.pdf NIPP (2009). National Infraestructure Protection Plan. US Department of Homeland Security. Washington D.C., U.S. Department of Home Security. OEA (2007). Declaración de Panamá sobre la Protección de la Infraestructura Crítica en el Hemisferio, Washington D.C., Insight Report, 01 de marzo de 2007. OEA (2015). Promoción de la Seguridad Hemisférica, Comisión de Seguridad Hemisférica, Washington D.C., Insight Report, 17 de abril 2015. OEA (2015). Trend Micro Reporte de Seguridad Cibernética e Infraestructura Crítica de las Américas. Washington DC; International Futures Project. Palma, R.; Morel, L.; Forradellas, R. (2012). «Analytical methodology to evolutionary steps for manufacturing strategy in small and medium enterprises», Iberoam. J. Ind. Eng., vol. 3, Nº 6, pp. 02-19. Renn, O. (2008). Risk Governance. Coping with Uncertainty in a Complex World. London, Esarthscan. Rosemann, M.; Green, P. (2002), «Developing a meta model for the Bunge–Wand–Weber ontological constructs», Inf. Syst., vol. 27, Nº 2, pp. 75-91, abr. 2002. *** 402