RESUMEN Fundamento: ante la pandemia provocada por el nuevo coronavirus SARS-CoV-2, resulta impor... more RESUMEN Fundamento: ante la pandemia provocada por el nuevo coronavirus SARS-CoV-2, resulta importante la estimacion del crecimiento de casos infestados y decesos de la poblacion cubana Objetivo: obtener predicciones para el pico de casos confirmados y fallecidos en Cuba por la COVID- 19, haciendo uso de herramientas estadisticas e informaticas Metodos: el metodo de los minimos cuadrados fue utilizado para la obtencion de los parametros utilizando modelos lineales (MCL) y no lineales (MCNL) Los modelos logisticos y exponenciales, como la curva de crecimiento logistico, utilizada para modelar el crecimiento poblacional (modelos de crecimiento de Gompertz), se aplicaron en el pronostico del crecimiento de casos infectados y/o decesos respectivamente Resultados: existe una adecuacion de los modelos presentados con respecto a los valores pronosticados y los reales lo cual permite una confiabilidad de los mismos para los pronosticos efectuados para Cuba Conclusiones: los modelos estadist...
En muchos problemas presentes en diversas áreas de la vida es necesario establecer un punto de co... more En muchos problemas presentes en diversas áreas de la vida es necesario establecer un punto de corte (PC) que permita determinar que individuos (ítems, objetos ) pueden ser catalogadas de “buenos” y “malos”. En lo que sigue usaremos la terminología de “positivos” y “negativos”. En la toma de decisiones el decisor usa, de una forma, u otra un PC para establecer, tras analizar diversas variables de desempeño fija una función de ellas, denominada marcador, que permite determinar si el ítem es positivo o negativo., clasificándole en uno de los conjuntos correspondientes. Por ejemplo en economía al analizar empresas, el interés es establecer cuales gozan de salud y cuales se avocan a una bancarrota. En medicina ante una nueva prueba es de interés establecer que individuos son positivos y cuales negativos ante una prueba que genera un biomarcador (biomarker). Esto puede ser ejemplificado en diversas áreas, como se ve, al enfrentarse a la toma de decisiones al analizar un vector formado por variables cuantitativas, cualitativas, de texto etc. (features) , y determinar un valor que le caracterice. Esta labor será la variable de decisión y usándola de clasificarán los ítems. En esta labor es necesario evaluar varios marcadores y establecer cual es la probabilidad de mala clasificación de cada uno de ellos. Esto es resuelto actualmente usando un algoritmo particular de Aprendizaje Automático (Machine Learning, ML).
Una de las funcionalidades presente en los sistemas de información geográfica es la búsqueda de c... more Una de las funcionalidades presente en los sistemas de información geográfica es la búsqueda de caminos óptimos. En la actualidad, este tipo de funcionalidad se implementa sobre modelos que no garantizan escalabilidad y eficiencia cuando las redes son grandes. En este artículo se propone un modelo de representación de redes en Sistemas de Información Geográfica basado en el concepto de grafos reducidos. Este modelo permite realizar búsquedas de caminos óptimos en redes grandes de forma eficiente y escalable. Una característica relevante del modelo propuesto es la posibilidad de realizar análisis a escala en la red. Palabras clave: Representación de redes, sistemas de información geográfica, análisis de redes, búsqueda de caminos óptimos, reducción de grafos.
Quality of life is important in oncology and is used as a primary variable in c trolled cancer cl... more Quality of life is important in oncology and is used as a primary variable in c trolled cancer clinical trials. Analysis of quality of life data is quite complex, due to the multidimensionality and management of missing data. Objectives: to formulate a methodology based on the item response theory for dimensionality reduction for categorical data; to propose a stratified imputation method for missing data patterns based on a simple overpopulation regression model; to fit mixed models of item response theory for imputed longitudinal data and to assess the impact of therapeutic vaccine treatments on quality of life. Methods: This study included a sample of 1,107 patients included in 5 clinical trials to test the effectiveness and safety of the CIMAvaxEGF vaccine in lung cancer. Results: The item response theory allowed us to reduce the dimensionality of the questionnaires. It was found that multiple imputation based on simple overpopulation regression provided better estimates. It was constructed a joint model of latent variables for longitudinal categorical data. Conclusions: The dimension of the questionnaires was reduced. It was shown that the multiple imputation method through the simple regression model of overpopulation is the most appropriate. The proposed latent class mixed model allowed a better explanation of the variation in quality of life over time. Quality of life is predictive and prognostic of survival time for lung cancer.
Modelos y métodos matemáticos para la toma de decisiones: Aplicaciones post pandemia. , 2024
Health-related quality of life (HRQoL) or perceived health is defined as "the subjective evaluati... more Health-related quality of life (HRQoL) or perceived health is defined as "the subjective evaluation made by the person of the impact that their illness and its treatment have on the physical, psychological, and social domains of functioning and well-being". Objectives: Evaluate whether the QLQ-C30 questionnaire presents the same metric properties in the two cultures (origin and destination), that is, that there is a metric equivalence. Methods: This study included a sample of 1775 patients, to whom the QLQ-C30 questionnaire was applied. Of these, 1107 patients included in 5 lung cancer clinical trials, 279 patients included in 3 head and neck trials, 113 patients included in 2 prostate cancer trials, 146 patients included in 2 breast cancer trials, and 140 patients included in in a cervical cancer trial. To evaluate Reliability, Cronbach's Alpha of the items was used. To evaluate the internal consistency, Cronbach's Alpha of the dimensions was used. Most important results: It is considered that there is good stability over time since the Cronbach's alpha value is greater than 0.7 for all the items. It is considered that there is good internal consistency since Cronbach's alpha value is greater than 0.7 for all dimensions. Conclusions: The QLQ-C30 questionnaire presented the same metric properties in the two cultures, thus demonstrating metric equivalence.
Modelos y métodos matemáticos para la toma de decisiones: Aplicaciones post pandemia, 2024
In this contribution we try to promote interest in considering the challenge posed to studies in ... more In this contribution we try to promote interest in considering the challenge posed to studies in the social sciences by the existence of large masses of data. Only the use of quantitative methods can make it possible to establish the essential characteristics of the data under study The use of agglomeration methods is discussed and how these were used in a study of the study is illustrated.
This study presents the results of a sampling campaign of PM 10 respirable particles, carried out... more This study presents the results of a sampling campaign of PM 10 respirable particles, carried out at the library located in the Metropolitana University,
RESUMEN En el trabajo se presentan los resultados de una investigación con 589 sujetos a los cual... more RESUMEN En el trabajo se presentan los resultados de una investigación con 589 sujetos a los cuales se les aplicó el Test de Matrices Progresivas de Raven y se hace una evaluación de algunas de sus características y posibilidades ofreciéndose como alternativas variantes que pudieran ser igualmente eficientes pero a su vez muchos más ahorrativas en el tiempo de aplicación y, por ende, en el costo de su aplicación.
Traditional portfolio optimization uses the standard deviation of the returns as a measure of ris... more Traditional portfolio optimization uses the standard deviation of the returns as a measure of risk. In recent years, the Target-Shortfall-Probability (TSP) was discussed as an alternative measure. From the utility-theoretical point of view, the TSP is not perfect. Furthermore it is criticized due to the insufficient description of the risk. The advantages of the TSP are the usage independent of the distribution and the intuitive understanding by the investor. The use of a TSP-vector reduces an utility-theoretical disadvantage of a single TSP and offers an sufficient description of risk. The developed Mean-TSP-vector model is a mixed-integer linear program. The CPU-Time of the program to get a solution demonstrates that the model is suitable for practical applications. A test of the performance shows, that the average return of the model when used in bear markets is equal to the results of the traditional portfolio optimization but - due to skewness - in bullish markets can achieve better returns.
RESUMEN Fundamento: ante la pandemia provocada por el nuevo coronavirus SARS-CoV-2, resulta impor... more RESUMEN Fundamento: ante la pandemia provocada por el nuevo coronavirus SARS-CoV-2, resulta importante la estimacion del crecimiento de casos infestados y decesos de la poblacion cubana Objetivo: obtener predicciones para el pico de casos confirmados y fallecidos en Cuba por la COVID- 19, haciendo uso de herramientas estadisticas e informaticas Metodos: el metodo de los minimos cuadrados fue utilizado para la obtencion de los parametros utilizando modelos lineales (MCL) y no lineales (MCNL) Los modelos logisticos y exponenciales, como la curva de crecimiento logistico, utilizada para modelar el crecimiento poblacional (modelos de crecimiento de Gompertz), se aplicaron en el pronostico del crecimiento de casos infectados y/o decesos respectivamente Resultados: existe una adecuacion de los modelos presentados con respecto a los valores pronosticados y los reales lo cual permite una confiabilidad de los mismos para los pronosticos efectuados para Cuba Conclusiones: los modelos estadist...
En muchos problemas presentes en diversas áreas de la vida es necesario establecer un punto de co... more En muchos problemas presentes en diversas áreas de la vida es necesario establecer un punto de corte (PC) que permita determinar que individuos (ítems, objetos ) pueden ser catalogadas de “buenos” y “malos”. En lo que sigue usaremos la terminología de “positivos” y “negativos”. En la toma de decisiones el decisor usa, de una forma, u otra un PC para establecer, tras analizar diversas variables de desempeño fija una función de ellas, denominada marcador, que permite determinar si el ítem es positivo o negativo., clasificándole en uno de los conjuntos correspondientes. Por ejemplo en economía al analizar empresas, el interés es establecer cuales gozan de salud y cuales se avocan a una bancarrota. En medicina ante una nueva prueba es de interés establecer que individuos son positivos y cuales negativos ante una prueba que genera un biomarcador (biomarker). Esto puede ser ejemplificado en diversas áreas, como se ve, al enfrentarse a la toma de decisiones al analizar un vector formado por variables cuantitativas, cualitativas, de texto etc. (features) , y determinar un valor que le caracterice. Esta labor será la variable de decisión y usándola de clasificarán los ítems. En esta labor es necesario evaluar varios marcadores y establecer cual es la probabilidad de mala clasificación de cada uno de ellos. Esto es resuelto actualmente usando un algoritmo particular de Aprendizaje Automático (Machine Learning, ML).
Una de las funcionalidades presente en los sistemas de información geográfica es la búsqueda de c... more Una de las funcionalidades presente en los sistemas de información geográfica es la búsqueda de caminos óptimos. En la actualidad, este tipo de funcionalidad se implementa sobre modelos que no garantizan escalabilidad y eficiencia cuando las redes son grandes. En este artículo se propone un modelo de representación de redes en Sistemas de Información Geográfica basado en el concepto de grafos reducidos. Este modelo permite realizar búsquedas de caminos óptimos en redes grandes de forma eficiente y escalable. Una característica relevante del modelo propuesto es la posibilidad de realizar análisis a escala en la red. Palabras clave: Representación de redes, sistemas de información geográfica, análisis de redes, búsqueda de caminos óptimos, reducción de grafos.
Quality of life is important in oncology and is used as a primary variable in c trolled cancer cl... more Quality of life is important in oncology and is used as a primary variable in c trolled cancer clinical trials. Analysis of quality of life data is quite complex, due to the multidimensionality and management of missing data. Objectives: to formulate a methodology based on the item response theory for dimensionality reduction for categorical data; to propose a stratified imputation method for missing data patterns based on a simple overpopulation regression model; to fit mixed models of item response theory for imputed longitudinal data and to assess the impact of therapeutic vaccine treatments on quality of life. Methods: This study included a sample of 1,107 patients included in 5 clinical trials to test the effectiveness and safety of the CIMAvaxEGF vaccine in lung cancer. Results: The item response theory allowed us to reduce the dimensionality of the questionnaires. It was found that multiple imputation based on simple overpopulation regression provided better estimates. It was constructed a joint model of latent variables for longitudinal categorical data. Conclusions: The dimension of the questionnaires was reduced. It was shown that the multiple imputation method through the simple regression model of overpopulation is the most appropriate. The proposed latent class mixed model allowed a better explanation of the variation in quality of life over time. Quality of life is predictive and prognostic of survival time for lung cancer.
Modelos y métodos matemáticos para la toma de decisiones: Aplicaciones post pandemia. , 2024
Health-related quality of life (HRQoL) or perceived health is defined as "the subjective evaluati... more Health-related quality of life (HRQoL) or perceived health is defined as "the subjective evaluation made by the person of the impact that their illness and its treatment have on the physical, psychological, and social domains of functioning and well-being". Objectives: Evaluate whether the QLQ-C30 questionnaire presents the same metric properties in the two cultures (origin and destination), that is, that there is a metric equivalence. Methods: This study included a sample of 1775 patients, to whom the QLQ-C30 questionnaire was applied. Of these, 1107 patients included in 5 lung cancer clinical trials, 279 patients included in 3 head and neck trials, 113 patients included in 2 prostate cancer trials, 146 patients included in 2 breast cancer trials, and 140 patients included in in a cervical cancer trial. To evaluate Reliability, Cronbach's Alpha of the items was used. To evaluate the internal consistency, Cronbach's Alpha of the dimensions was used. Most important results: It is considered that there is good stability over time since the Cronbach's alpha value is greater than 0.7 for all the items. It is considered that there is good internal consistency since Cronbach's alpha value is greater than 0.7 for all dimensions. Conclusions: The QLQ-C30 questionnaire presented the same metric properties in the two cultures, thus demonstrating metric equivalence.
Modelos y métodos matemáticos para la toma de decisiones: Aplicaciones post pandemia, 2024
In this contribution we try to promote interest in considering the challenge posed to studies in ... more In this contribution we try to promote interest in considering the challenge posed to studies in the social sciences by the existence of large masses of data. Only the use of quantitative methods can make it possible to establish the essential characteristics of the data under study The use of agglomeration methods is discussed and how these were used in a study of the study is illustrated.
This study presents the results of a sampling campaign of PM 10 respirable particles, carried out... more This study presents the results of a sampling campaign of PM 10 respirable particles, carried out at the library located in the Metropolitana University,
RESUMEN En el trabajo se presentan los resultados de una investigación con 589 sujetos a los cual... more RESUMEN En el trabajo se presentan los resultados de una investigación con 589 sujetos a los cuales se les aplicó el Test de Matrices Progresivas de Raven y se hace una evaluación de algunas de sus características y posibilidades ofreciéndose como alternativas variantes que pudieran ser igualmente eficientes pero a su vez muchos más ahorrativas en el tiempo de aplicación y, por ende, en el costo de su aplicación.
Traditional portfolio optimization uses the standard deviation of the returns as a measure of ris... more Traditional portfolio optimization uses the standard deviation of the returns as a measure of risk. In recent years, the Target-Shortfall-Probability (TSP) was discussed as an alternative measure. From the utility-theoretical point of view, the TSP is not perfect. Furthermore it is criticized due to the insufficient description of the risk. The advantages of the TSP are the usage independent of the distribution and the intuitive understanding by the investor. The use of a TSP-vector reduces an utility-theoretical disadvantage of a single TSP and offers an sufficient description of risk. The developed Mean-TSP-vector model is a mixed-integer linear program. The CPU-Time of the program to get a solution demonstrates that the model is suitable for practical applications. A test of the performance shows, that the average return of the model when used in bear markets is equal to the results of the traditional portfolio optimization but - due to skewness - in bullish markets can achieve better returns.
Una tabla de contingencia es el resultado del cruce de dos o más variables.
Es la forma de prese... more Una tabla de contingencia es el resultado del cruce de dos o más variables.
Es la forma de presentación de los datos típica de la investigación en ciencias sociales, que se caracteriza por un uso predominante de variables (o atributos) definidas en los niveles de medición nominal y ordinal.
La tabla de contingencia consiste en un cierto número de celdas en las que, como resultado de un proceso de tabulación, se vuelcan las frecuencias (número de casos) correspondientes a cada combinación de valores de varias variables
CUANDO NOS ENFRENTAMOS A DATOS ESTOS DEBEN SER ANALIZADOS.
ESTO LO DENOMINAMOS TRATAMIENTO DE DA... more CUANDO NOS ENFRENTAMOS A DATOS ESTOS DEBEN SER ANALIZADOS.
ESTO LO DENOMINAMOS TRATAMIENTO DE DATOS ESTE PUEDE SER INTUITIVO (NOS FALTA ESTADÍSTICA Y TIEMPO) O
Algunas veces es posible y práctico examinar a cada persona o elemento de la población que deseam... more Algunas veces es posible y práctico examinar a cada persona o elemento de la población que deseamos describir. A esto lo llamamos enumeración completa o censo. Utilizamos el muestreo cuando no es posible contar o medir todos los elementos de la población. Por población nos referimos a un conjunto de elementos que han sido elegidos para un estudio,. Muestra es una porción de la población. La muestra debe satisfacer las siguientes condiciones: • Homogeneidad: debe ser extraída de la misma población. • Independencia: las observaciones no deben estar mutuamente condicionadas entre sí. • Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual proviene. Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones como la media, la mediana, la moda y la desviación estándar. Estos describen características notables de una población. Una población queda caracterizada a través de ciertos valores denominados parámetros, que describen las principales propiedades del conjunto. Un parámetro es un valor fijo (no aleatorio) que caracteriza a una población en particular. En general, una parámetro es una cantidad desconocida y rara vez se puede determinar exactamente su valor, por la dificultad práctica de observar todas las unidades de una población. Se utilizan casi siempre letras griegas o latinas mayúsculas para representar parámetros de población.
Tratamos de estimar el valor de los parámetros desconocidos a través del empleo de muestras. Las cantidades usadas para describir una muestra se denominan estimadores o estadísticos muestrales
Serie de Reportes Técnicos MODELOS CUANTITATIVOS PARA APLICACIONES EN ESTUDIOS DE SALUD HUMANA Y EL MEDIO-AMBIENTE, 2023
Como vimos una estrategia de muestreo viene dada por un diseño un estimador. Veremos aquí los di... more Como vimos una estrategia de muestreo viene dada por un diseño un estimador. Veremos aquí los diseños muestrales básicos, por ser los más usados, y los estimadores más populares, en términos de sus propiedades estadísticas y computacionales. Estrategias de muestreo son construidas al hacer los pares correspondientes. En particular vamos ver las propiedades d estimadores bajo condiciones simples. Al estudiar estrategias particulares haremos una detallada discusión.
La Estadística Robusta es un enfoque alternativo
motivado por la necesidad de paliar el efecto de... more La Estadística Robusta es un enfoque alternativo motivado por la necesidad de paliar el efecto de violaciones en las hipótesis que soportan los métodos. • Por ejemplo el no cumplimiento de seguir una distribución dada exactamente, existir outliers etc. prof
Suponga que hacemos un experimento aleatorio en el que podemos observar la VA X. con una distribu... more Suponga que hacemos un experimento aleatorio en el que podemos observar la VA X. con una distribución con parámetros desconocidos k. El experimento es repetido independientemente y se observa.
El método de máxima verosimilitud fue usado desde los 20’s del siglo pasado.
Su pionero fue, com... more El método de máxima verosimilitud fue usado desde los 20’s del siglo pasado. Su pionero fue, como en tantas otras cosas de la estadística, Sir. R. Fisher. Este método soporta muchos procedimientos que utilizan criterios de convergencia para usar modelos inferenciales basados en la normalidad asintótica. A pesar de sus propiedades este no es una panacea pues no siempre provee de métodos aceptables. Este puede ser ineficiente comparado con otras alternativas. Sin embargo bajo ciertas condiciones de regularidad se puede aceptar la normalidad asintótica y provee de óptimos en diversos procedimientos existentes
En la vida el hombre se enfrenta a la necesidad de tomar
constantemente decisiones. Este utiliza ... more En la vida el hombre se enfrenta a la necesidad de tomar constantemente decisiones. Este utiliza reglas que fijan su comportamiento tras observar, repetidamente, los fenómenos del mundo circundante. El éxito de ellas es evaluado al considerar en que proporción estas han sido acertadas. La racionalidad de los individuos se mide de acuerdo a ciertos modelos de comportamiento desarrollados en estas ciencias. Al considerar el problema general, el punto de vista matemático ha conllevado a desarrollar modelos que conforman la Teoría de Decisión. Esta se imbrica con la Teoría de Juegos por lo que un campo fértil de su uso está en la variopinta de problemas que se planteada en el diseño de sistemas inteligentes para los videojuegos y en la Economía.
Vemos que es un estadístico. Si tenemos la variable aleatoria X que toma valores en {c,A) y (G, B... more Vemos que es un estadístico. Si tenemos la variable aleatoria X que toma valores en {c,A) y (G, B} es un espacio medible auxiliar cualquiera un estadístico es una función de la variable aleatoria definido como sigue: Definición. Toda aplicación T mensurable (medible) tal que T:c n ¾®G es un estadístico si esta no depende de valores desconocidos. Note que un estadístico no es más que una regla de decisión. Los problemas que aborda la estadística lleva a determinar una estructura que llamamos modelo estadístico. Definición El par {c, P q ; qÎQ} donde la variable X toma valores en c y P q es la ley de probabilidad que describe el comportamiento de la va. En particular utilizaremos la notación {X, P q } y en la mayor parte de los casos recurriéremos a la función de densidad f q =f(x,q) que es densidad de la ley de probabilidad P q respecto a la medida de Lebesgue o la contadora.
Von Neumann y Morgenstern
construyeron un marco de referencia
consistente para la toma de decis... more Von Neumann y Morgenstern construyeron un marco de referencia consistente para la toma de decisiones bajo incertidumbre. Los espacios de mezcla son transformables en un espacio de utilidad al imponerle condiciones adicionales
Cuando coloquialmente se habla de estadística, se suele pensar en una relación de datos numéricos... more Cuando coloquialmente se habla de estadística, se suele pensar en una relación de datos numéricos presentada de forma ordenada y sistemática.
Esta idea es la consecuencia del concepto popular que existe sobre el término y que cada vez está más extendido debido a la influencia de nuestro entorno, ya que hoy día es casi imposible que cualquier medio de difusión, periódico, radio, televisión, etc, no nos aborde diariamente con cualquier tipo de información estadística sobre accidentes de tráfico, índices de crecimiento de población, turismo, tendencias políticas, etc.
1. INTRODUCCIÓN Cuando se analizan datos, las pruebas estadísticas se basan en suponer que se ha ... more 1. INTRODUCCIÓN Cuando se analizan datos, las pruebas estadísticas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad comportamiento es describible al conocer . Lo más común es considerar alguna relación con la distribución normal. Así es usual que se considere que son válidas condiciones que soportan la normalidad asintótica del estadístico de prueba T n usado. Por supuesto para los intervalos de confianza y los contrastes de hipótesis, dependen del modelo probabilístico supuesto. En muchas ocasiones las suposiciones no son válidas. Es usual que la normalidad asintótica sea utilizable pero esto requiere de grandes gastos, dado el tamaño de muestra requerido o la computación necesaria. Es usual que solo se pueda trabajar con muestras pequeñas y que por lo tanto la convergencia a la normal no sea aceptable. Para lograr la aceptación de un modelo normal son necesarias condiciones de regularidad. Esto puede ser logrado considerando uno de los mecanismos siguientes: • Los datos se pueden transformar de tal manera que sigan una distribución normal. • Se puede acudir a métodos estadísticos que no requieran de suposiciones no corroboradas. Consideremos los métodos no paramétricos estos van a no depender de la distribución de las variables. Estos son también denominadas en ocasiones como "libres de distribución" (distribution free) ya que, mientras que ellos no requiere de suposiciones sobre la distribución de probabilidad de los datos. Usándole podremos hacer estimaciones y pruebas de hipótesis. Usando los principios de este enfoque podemos analizar y modelar fenómenos estocásticos. Es notable que los métodos no paramétricos son útiles pues: • Requieren de menos hipótesis que las los métodos paramétricos, generalmente asociados a la normalidad. • Son usualmente sencillos de aplicar. • Brindan una solución cuando el enfoque clásico no puede ser utilizado. • No requieren de tamaños de muestra grandes para su aplicación. • Su eficiencia respecto al método clásico correspondiente puede ser similar. Veremos primeramente algunos resultados teóricos generales que permitirán tener herramientas que soporten el desarrollo de diferentes pruebas no paramétricas. 2. La Función de Distribución Empírica. Un resultado de gran importancia es establecer la distribución de la función de distribución como variable aleatoria. El siguiente teorema establece que toda función de distribución es una variable aleatoria (VA) X con distribución uniforme en el intervalo (0,1), es decir. Teorema (Transformación de la Integral de Probabilidad) Sea X una va cuya función de distribución de probabilidad F X es continua. La variable Y=F X (X) es una VA con distribución Uniforme en el intervalo ] [ Demostración
Consideremos que tenemos k tratamientos diferentes. Es decir bajo condiciones diferentes generar... more Consideremos que tenemos k tratamientos diferentes. Es decir bajo condiciones diferentes generaremos k var Xj, j=1,…,k. Cada una de ellas es descrita por una función de distribución. continuas Fj .Hacemos mediciones del mismo fenómeno bajo condiciones diferentes. Así, si evaluamos la producción de azúcar en k centrales , la velocidad de reacción a un antibiótico ante k diferentes dosis etc. nos encontramos ante tales casos.
1. Introducción al muestreo Algunas veces es posible y práctico examinar a cada persona o element... more 1. Introducción al muestreo Algunas veces es posible y práctico examinar a cada persona o elemento de la población que deseamos describir. A esto lo llamamos enumeración completa o censo. Utilizamos el muestreo cuando no es posible contar o medir todos los elementos de la población. Por población nos referimos a un conjunto de elementos que han sido elegidos para un estudio,. Muestra es una porción de la población. La muestra debe satisfacer las siguientes condiciones: Homogeneidad: debe ser extraída de la misma población. Independencia: las observaciones no deben estar mutuamente condicionadas entre sí. Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual proviene. Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones como la media, la mediana, la moda y la desviación estándar. Estos describen características notables de una población. Una población queda caracterizada a través de ciertos valores denominados parámetros, que describen las principales propiedades del conjunto. Un parámetro es un valor fijo (no aleatorio) que caracteriza a una población en particular. En general, una parámetro es una cantidad desconocida y rara vez se puede determinar exactamente su valor, por la dificultad práctica de observar todas las unidades de una población. Se utilizan casi siempre letras griegas o latinas mayúsculas para representar parámetros de población. Tratamos de estimar el valor de los parámetros desconocidos a través del empleo de muestras. Las cantidades usadas para describir una muestra se denominan estimadores o estadísticos muestrales. Generalmente se emplean letras latinas minúsculas para denotarles. Población Muestra Definición Colección de elementos considerados Parte o porción de la población seleccionada para su estudio Características Parámetros Estadísticos
En estas notas intentamos poner en orden algunas ideas sobre los modelos superpoblacionales. Esta... more En estas notas intentamos poner en orden algunas ideas sobre los modelos superpoblacionales. Estas deben ser de utilidad para estudiantes que se involucran con su uso.
Palabras clave: superpoblación, enfoque predictivo, esperanza bajo el modelo, Teoría Clásica, Teoría Unificada
Estas notas tienen por intención dar un panorama de los contenidos de un curso optativo para estu... more Estas notas tienen por intención dar un panorama de los contenidos de un curso optativo para estudiantes de matemática que tratan de complementar su formación. El formalismo matemático se prioriza y los temas se visitan en forma no usual en los textos.
The determination of optimal allocation in stratified sampling is studied considering the use of ... more The determination of optimal allocation in stratified sampling is studied considering the use of Mathematical programming. The optimization problem is posed and its solution is considered. Different numerical procedures for solving it are derived. The behavior of the procedures in terms of efficacy and costs is evaluated through the analysis of real life data.
Nowadays statistical evidence, sustained by probabilistic reasoning, plays an important role in c... more Nowadays statistical evidence, sustained by probabilistic reasoning, plays an important role in common life. It is expanding its area of applications to criminal investigations, prosecutions and trials.
En la vida el hombre se enfrenta a la necesidad de tomar
constantemente decisiones. Este utiliza... more En la vida el hombre se enfrenta a la necesidad de tomar constantemente decisiones. Este utiliza reglas que fijan su comportamiento tras observar, repetidamente, los fenómenos del mundo circundante. El éxito de ellas es evaluado al considerar en que proporción estas han sido acertadas. Las ciencias del comportamiento modelan este, y establecen la cordura de los individuos, al considerar su aptitud para fijar reglas que le lleven a ser racional y exitoso. Esto ha conllevado la necesidad de establecer teorías que modelen la toma de decisiones en diversas ciencias particulares.
We present a review of the most popular statistical tools employed in the analysis of Data Qualit... more We present a review of the most popular statistical tools employed in the analysis of Data Quality in life studies. We considered mainly those of interest if ECA cancer longitudinal studies. Introducción La Organización Mundial de la Salud (OMS) definió hace ya varias décadas la salud como un estado de completo bienestar físico, mental y social, y no simplemente la ausencia de enfermedad o discapacidad (World Health Organization 1952). El modelo " biosicosocial " en medicina enmarca aspectos referidos al bienestar del paciente, como sus relaciones como persona, su comportamiento, el entorno en el que se desenvuelve y sus relaciones sociales, en lo que se conoce con el nombre de Calidad de Vida (CV) (Sanz 1991). Si bien el concepto de CV no es nuevo, en la década de los 80 se produjo un creciente e inusitado interés popular y médico por la CV, especialmente en los pacientes con cáncer. En 1973 eran únicamente 5 los artículos que aparecían en la base de datos Medline con la palabra clave " quality of life ". Este número se incrementó de forma casi exponencial, siendo durante los siguientes periodos de cinco años 195, 273, 490 y 1.252 los artículos localizados mediante el mismo criterio. Lo que significa CV es una cuestión personal. Así, el sentido subjetivo de bienestar de cada persona derivado de la experiencia diaria de su vida, se abre camino entre la medicina y las ciencias sociales. La evaluación de la CV debe incluir todas las áreas de la vida impactadas por la enfermedad o su tratamiento: la física, la psicológica, la social y la espiritual. El problema para medir la CV estaba en la falta de un instrumento único y global capaz de acomodar todas las componentes que definen el concepto de CV. Desde mediados del siglo pasado, existen múltiples pruebas psicométricas objetivas que incluyen las diferentes categorías funcionales del paciente y calculan una puntuación global de CV. La más antigua es el índice funcional de Karnofsky (Karnofsky y Burchernal 1949), que es aplicado por el médico y sólo mide capacidad física. En 1976 Katz y Akpom describen el Activities Daily Living (ADL) Index que mide las actividades sociobiológicas de la vida diaria: bañarse, vestirse, alimentarse, etc. Durante la década de los años 80 se desarrollaron múltiples instrumentos para medir la CV en pacientes con cáncer, buscando el cumplimiento de las siguientes características: (i) evaluar la morbilidad subjetiva e impacto del tratamiento sobre el enfermo en sus aspectos físicos, psíquicos y sociales; (ii) basarse en el paciente como fuente de información, reflejando su opinión; y (iii) ser válido, sensible, sencillo y convincente. La calidad de vida es un tema importante en oncología y se utiliza como una variable principal en muchos ensayos clínicos aleatorios (ECA) de cáncer. Permite que las percepciones y los puntos de vista del paciente se integren al evaluar el estado de salud o la calidad de la atención. El análisis de los datos de calidad de vida puede ser bastante complejo, siendo los principales aspectos relacionados con la multidimensionalidad de la calidad de vida (QoL) (el número de subescalas de los cuestionarios utilizados para su evaluación) y el manejo de los datos perdidos. En la actualidad no existen recomendaciones formales sobre los métodos estadísticos para analizar los datos de calidad de vida en el marco de referencia de los ECA. Por lo tanto, podemos esperar una alta variabilidad de los planes de análisis de QoL. Esta variabilidad no refleja la gran disparidad de las situaciones clínicas estudiadas. Más bien, demuestra la confusión que los investigadores / estadísticos experimentan al analizar tales datos. Para comprender las razones de estas elecciones y sus respectivos intereses y límites es necesario conocer los métodos estadísticos utilizados comúnmente en ese contexto. Dicho estudio debería ayudar a
Nowadays we deal with Big-Data commonly. The users of statistics rely on having a large sample si... more Nowadays we deal with Big-Data commonly. The users of statistics rely on having a large sample size n for using the statistical methods based on normality. Fixing an appropriate sample size generally depends upon the size of the population studied. The usual idea is that “collecting more data is better”. It is supported by the idea that the statistical power is improved by increasing the sample size. To think in the “power of computer” for dealing with Big Data is a simplicity as dealing with an indefinitely large data is not intelligent as any research must consider the consumption of time and which is the point in which it becomes unproductive.
The concept of derivative comes initially from
Econometric applications. Take 𝐷 𝑚 𝑥Ԧ as the local... more The concept of derivative comes initially from Econometric applications. Take 𝐷 𝑚 𝑥Ԧ as the local slope. The Average Derivative is defined as . ] 𝑥Ԧ 𝑓 𝑥Ԧ 𝑑 𝑥Ԧ = 𝐸 [ 𝐷 𝑚 𝑥Ԧ 𝑚 = 𝛿 𝑚 𝑥Ԧ is the regression function and the support of the density (S) of 𝑥Ԧ is considered as compact. By partitioning S the local slope 𝐷 𝑚 𝑥Ԧ may be estimated within these bins by computing ordinary least squares, say 𝐷[𝑚 𝑥 ȁ𝑏].
We will study the use of RSS as alternative to SRSWR design when Saha´s RR is implemented. Estima... more We will study the use of RSS as alternative to SRSWR design when Saha´s RR is implemented. Estimators of the mean are derived under 3 alternative ranking criteria. The expected variances are obtained and used for comparing their accuracy. The RSS alternatives are superior in terms of having a smaller sampling error than the SRSWR design..
In stratified sampling the main aim is obtaining estimators of the population parameters for the ... more In stratified sampling the main aim is obtaining estimators of the population parameters for the variable of interest obtaining the minimum error minimum precision at a minimum cost. The precision depends on the sample size. Therefore, obtaining optimal sample sizes is one of the key element of the theory. The pioneering work of Neyman (On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. J. R. Stat. Soc.97, 558–606 (1934)) on optimal allocation opened the acceptance of sampling as a viable and effective statistical method. Stratification in sample surveys is a well-known device to increase the precision of the estimators. Is clear that the stratified sampling efficiency depends on several factors, but allocating optimally the sample sizes to different strata is one of the more important issues.
In stratified sampling the main aim is obtaining estimators of the population parameters for the ... more In stratified sampling the main aim is obtaining estimators of the population parameters for the variable of interest obtaining the minimum error minimum precision at a minimum cost. The precision depends on the sample size. Therefore, obtaining optimal sample sizes is one of the key element of the theory. The pioneering work of Neyman (On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. J. R. Stat. Soc.97, 558–606 (1934)) on optimal allocation opened the acceptance of sampling as a viable and effective statistical method. Stratification in sample surveys is a well-known device to increase the precision of the estimators. Is clear that the stratified sampling efficiency depends on several factors, but allocating optimally the sample sizes to different strata is one of the more important issues.
Actualmente tratamos con mucha frecuencia con poblaciones que tan conectadas.
Considere el caso d... more Actualmente tratamos con mucha frecuencia con poblaciones que tan conectadas. Considere el caso de los grafos sociales (Facebook, Twitter etc.) Ejemplos de su uso ver Wilson et al. (2009), Wang et al. (2010). Las poblaciones son grandes y están interconectadas entonces el grafo que les describe es “grande” Se hace necesario tomar una muestra y usar la estructura de grafos con estos fines Cada muestra aleatoria genera un grafo Si evaluamos la conexión entre la unidades en la muestra definimos la variable
The existence of non-response suggests that the population U is divided into two strata: U1, wher... more The existence of non-response suggests that the population U is divided into two strata: U1, where are grouped the units that give a response at the first visit, and U2, which contains the rest of the individuals. This is the so called ‘response strata’ model and was the framework proposed by Hansen-Hurwitz (1946), see Cochran (1977) and Singh (2003).
Nos propusimos:
1.Analizar las variables causales y establecer clases latentes en la caracterizac... more Nos propusimos: 1.Analizar las variables causales y establecer clases latentes en la caracterización de la agresividad intrafamiliar. 2.Analizar la agresividad en los ambientes familiares. 3.Proyectar la evidencia empírica en las regularidades de este tipo de violencia
In practice the decision maker does not know P and if it admits a probability density function f ... more In practice the decision maker does not know P and if it admits a probability density function f we deal with the approximate solution of the general stochastic programming model
Consider a large population where the units are interconnected in some way. The corresponding gra... more Consider a large population where the units are interconnected in some way. The corresponding graph may be large also if the population is not so large. The interest of studying a graph fixes the need of selecting a sample. A random graph is generated by each sample, if it is random one. Assume that we evaluate the connections among the sampled units. Each unit is a node and the existence of a connection of unit i with another unit j is measured by the random variable
The importance of ecological studies is being increased due to their role in environmental managi... more The importance of ecological studies is being increased due to their role in environmental managing. In field surveys, ecologists and biologists usually make observations at different spatial locations.
Optimal Post-stratification for the study of the sustainability: an application to the monitoring... more Optimal Post-stratification for the study of the sustainability: an application to the monitoring of diversity in Sierra de Guerrero
First things first:
Eran los Objetivos principales de la Investigación
Analizar el efecto de la... more First things first: Eran los Objetivos principales de la Investigación Analizar el efecto de las promociones de ventas en la difusión de la prensa diaria en Galicia, Mostrar que la promoción de ventas explica el comportamiento de la difusión de los diarios gallegos en el periodo 1991-2000.
Los dueños de los periódicos tenían claras Motivaciones de la Promoción y el Marketing La promoción de ventas ha alcanzado una notable relevancia en los últimos tiempos como elemento fundamental en los planes de comunicación comercial de las empresas.
ESTRUCTURACIÓN ↓ DEL PROBLEMA IDENTIFICAR ALTERNATIVAS ↓ DETERMINAR CRITERIOS ↓ ANALIZAR EVALUAR ... more ESTRUCTURACIÓN ↓ DEL PROBLEMA IDENTIFICAR ALTERNATIVAS ↓ DETERMINAR CRITERIOS ↓ ANALIZAR EVALUAR ALTERNATIVAS EL PROBLEMA ↓ ELEGIR MEJOR ALTERNATIVA 5 FLUJOS EN EL PROCESO DE IDENTIFICAR LAS HERRAMIENTAS A UTILIZAR DETERMINAR CRITERIOS ANALISIS CUANTITATIVO ANALISIS CUALITATIVO RESUMEN Y EVALUACIÓN TOMAR LA DECISIÓN CUALITATIVO = Experiencia problemas similares o simple CUANTITATIVO= Poca experiencia problema complejo
EL PROYECTO DE INVESTIGACIÓN
TIPOS Y NIVELES DE INVESTIGACIÓN
POBLACIÓN Y MUESTRA
TRATAMIENTO EST... more EL PROYECTO DE INVESTIGACIÓN TIPOS Y NIVELES DE INVESTIGACIÓN POBLACIÓN Y MUESTRA TRATAMIENTO ESTADÍSTICO
Al leer el material que presenta por esta ocasión “La red Iberoamericana de Estudios Cuantitativo... more Al leer el material que presenta por esta ocasión “La red Iberoamericana de Estudios Cuantitativos Aplicados” (RIDECA), bajo el título “Modelos y métodos matemáticos para la toma de decisiones: Aplicaciones post pandemia”, resalta la sobriedad y madures del trabajo que se ha consolidado con los años, se muestra la diversidad de aplicaciones posibles de los modelos matemáticos para explicar, comprender y describir fenómenos reales y simulados, a partir de cuyos resultados es posible tomar mejores decisiones. Así podemos encontrar propuestas innovadoras para el estudio de la pandemia de Covid-19 en américa latina; estudios sobre el impacto de esta enfermedad en sectores con cierto nivel de vulnerabilidad, como los grupos de mujeres, por ejemplo; modelos para la clasificación de riesgos en distintos entornos; aplicaciones específicas de temas estadísticos a datos reales; estudios de validación de instrumentos de recogida de información para evaluar calidad de vida en enfermos; estudios sobre problemas diversos en los procesos educativos, tales como rendimiento estudiantil, deserción escolar y el uso de herramientas tecnológicas durante la pandemia y actualización docente; en fin, son múltiples las aplicaciones que desde la modelación matemática pueden emprenderse para intentar comprender realidades tan complejas como una pandemia, un proceso de producción o el proceso educativo.
Me place felicitar a la Red Iberoamericana de Estudios Cuantitativos Aplicados (RIDECA) y a su coordinador, Dr. Carlos N. Bouza Herrera, profesor de la Universidad de la Habana, por la encomiable labor que despliegan en favor de las aplicaciones de la matemática para la comprensión de este tipo de fenómenos.
his book analyses the threats the COVID-19 pandemic poses and the need for managing healthcare re... more his book analyses the threats the COVID-19 pandemic poses and the need for managing healthcare resources carefully. Focusing on the impact Lower and middle-income countries experience due to the lack of medical personal, bed in hospitals and medical supplies.In the chapters, non-medical researchers together with epidemiologists contribute studies which aim to improve decision making processes when dealing with pandemic dynamics. The book also presents challenging models for post-pandemic studies and the continuation of post-pandemic treatments. This text develops an analysis of COVID-19 data and provides evidence on the increase of social inequalities with Latin American countries, and particularly on the effect of a new medicament in improving the quality of life of recovered patients with lung damage. This book would be of interest to all medical researchers and academics interested in the effects of both the pandemic and post pandemic fallout.
Durante los momentos más aciagos de la pandemia de coronavirus que padeció México y el mundo, los... more Durante los momentos más aciagos de la pandemia de coronavirus que padeció México y el mundo, los distintos grupos de investigación académica continuaron con su meritoria actividad, aún con las limitaciones que el entorno les imponía, o aun utilizando la pandemia como una oportunidad para contribuir a la solución o comprensión del problema. La red Iberoamericana de Estudios Cuantitativos Aplicados (RIDECA), entrega a la comunidad académica del mundo el tomo 2 del libro “Desarrollo de nuevos modelos y métodos matemáticos para la toma de decisiones”, en él se puede apreciar la creatividad y la aplicación de distintos modelos a distintos casos. Regresión logística y curva de Gompertz para el estudio de covid-19, Nuevo escenario de vulnerabilidad y pobreza a causa de covid-19, bajo el enfoque de Planeación estratégica para el impulso del desarrollo local en México, la selección de muestra de poblaciones con estructura de red: modelos alternativos para evaluar aspectos de una pandemia, Vinculación del programa r con googlemap para análisis espaciales de covid19, Algunos elementos sobre las curvas roc: teoría y herramientas, que puedes ser utilizadas en el estudios de las secuelas de los recuperados por Covid19, Método para determinar las fases minerales del clínker y su influencia en reducir los daños al medio ambiente, Caracterización de los indicadores agrarios de la producción de limón persa y Diagnóstico de depresión en adultos mayores en el nivel primario de atención mediante el uso de un modelo de regresión logística binaria..
Al leer este libro, uno puede apreciar la potencialidad de la modelación matemática para la comprensión de fenómenos, tales como la pandemia del coronavirus y otros tantos que puedes ser susceptibles de modelación, dadas las regularidades de su comportamiento.
Me place felicitar a la Red Iberoamericana de Estudios Cuantitativos Aplicados (RIDECA), por su esfuerzo y contribución para la comprensión de este tipo de fenómenos, como son las pandemias. Enhorabuena.
Dra. Aidé Ibárez Castro
Secretaria de Salud del Estado de Guerrero, México
Modelling Experiences of the COVID-19 Pandemic in Ibero-America , 2023
The COVID-19 pandemic has posed a set of unprecedented challenges to humanity. The management of ... more The COVID-19 pandemic has posed a set of unprecedented challenges to humanity. The management of healthcare resources should be based on quantitative studies as it has generated a lot of epidemic data. Quantitative modelling allows generalizing which can guide the decision makers. The impact of COVID-19 in healthcare resources is particularly affecting lower and middle-income countries. Latin American countries are disadvantaged due to the lack of medical personal, beds in hospitals and medical supplies. Nonmedical specialists are contributing to the development of quantitative models, which are aiding the study of the COVID-19 pandemic dynamics. Some countries have structured public policies using some mathematical models.
Nowadays, quantitative models, mathematical and simulation mainly, are used for planning and/or evaluating health issues. Recommendations based on quantitative studies improves strategic, tactical, and operational aspects of preparedness planning in the management of the pandemic.
The recommendations derived from the research that generated the chapters of this oeuvre are a significative sample of studies developed in Latin America on the COVID-19 pandemic during 2020.
Chapter I is concerned with the development of an ordinary differential equation model and formulates the expression of Basic Reproductive Number ሻR ଵ ሼ for the subpopulation of undetected infected individuals. The authors modelled risk perception through proposed functions and simulated governmental actions and individual attitudes, with a contagion variable rate over time. Real data were used for predicting the behaviour of the pandemic.
Chapter II proposes, discusses and illustrates Agent-Based Modelling to handle complexity and its consequent uncertainty in decision-making processes, based on the law of the dynamic equilibrium of markets and the unlimited rationality of both social and economic agents. They explored and estimated how the establishment of rules for the social behaviour of a community affects the dynamics of an epidemic. An application was developed, in NetLogo, that allows the construction of a model of a city Modelling Experiences of the COVID-19 Pandemic in Ibero-America
from its basic demographic information: size, population, inhabitants per house, number of closed public areas and amount of free area.
Chapter III is devoted to describing the behaviour of COVID-19 in Mexico from the first confirmed cases on February 28, 2020, until May 2021. This characterization of COVID-19 in Mexico was made through positive cases, cases with comorbidities, number of deaths, mortality rate, incidence rate and fatality rate; represented by state, sex and age group. The analysis of the behaviour of the pandemic in Mexico used the correlation coefficients among three relevant variables against two indices-summaries, for the data of the states. The relevant COVID-19 variables considered were incidence, mortality rate, and fatality rate. The relations analysed were the Marginalization Index and the Human Development Index studied under the conditions of the pandemic, considering the socioeconomic conditions of the states of Mexico.
Chapter IV has considered a supervised multilayer neural network Artificial Neural Network – for fitting the data of estimated cases of COVID-19 in the State of Puebla. However, this model was inefficient in several cases. The authors developed alternatively a “vectorial” neural network with an unvarying step function activity. A positive defined matrix allowed training the variable learning rate model, using the existing data on the disease, from week 10 of 2020 to week 35 of 2021.
Chapter V has proposed models for post-pandemic studies and the sequels of the treatments. Theoretical models for epidemic graphs were characterized for aiding the epidemiologists in evaluating the effect of treatments (sequels, correlations with demographic variables, etc.). The modelling in the context of COVID-19 was developed.
Chapter VI has
considered problems on sampling in the presence of
missing
observations.
The
authors
established
regularities
of
the
expectations under a particular non-response mechanism, considering some
issues present in real life statistical research in COVID-19. Imputation
procedures and superpopulation modelling have provided a theoretical
frame for dealing with missing observations within the framework of
sampling, looking for identifying contacts with infected people.
Chapter VII poses a discussion on the effects
of the COVID-19 pandemic in increasing the visible inequality in Latin American countries. The authors have developed a study in an especially vulnerable sector of indigenous Mexican students. xii
Chapter VIII presents a study on hospital-staying in surviving individuals from COVID-19 of Cuban recovered patients living in Havana. The article proposes future lines of research.
In Chapter IX, a prospective pilot study is developed for establishing the behaviour of recovered COVID-19 patients with lung damage treated with a new medicament.
This book provides a good example of the research developed by Latin American scientists for dealing with the challenges posed by the COVID19 pandemic.
When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasingl... more When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasingly be the focus of methodological research. This type of sampling is an alternative to simple random sampling and can offer substantial improvements in precision and efficient estimation. There are different methods within RSS that can be further explored and discussed. On top of being efficient, RSS is cost-efficient and can be used in situations where sample units are difficult to obtain. With new results in modeling and applications, and a growing importance in theory and practice, it is essential for modeling to be further explored and developed through research.
Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling.
When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasing... more When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasingly be the focus of methodological research. This type of sampling is an alternative to simple random sampling and can offer substantial improvements in precision and efficient estimation. There are different methods within RSS that can be further explored and discussed. On top of being efficient, RSS is cost-efficient and can be used in situations where sample units are difficult to obtain. With new results in modeling and applications, and a growing importance in theory and practice, it is essential for modeling to be further explored and developed through research. Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling. eas covered in this publication include, but are not limited to: • Bootstrap Method • Complex Systems • Data Analysis • Data Collection • Fuzzy-Weight Ranked Set Sampling (FRSS) • Hypothesis Testing • Item Count • Ranked Set Sampling (RSS) • RSS Methods • RSS Models • Statistics • Stratified Ranked Set Sampling (SRSS)
Description:
When it comes to data collection and analysis, ranked set sampling (RSS) continues t... more Description: When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasingly be the focus of methodological research. This type of sampling is an alternative to simple random sampling and can offer substantial improvements in precision and efficient estimation. There are different methods within RSS that can be further explored and discussed. On top of being efficient, RSS is cost-efficient and can be used in situations where sample units are difficult to obtain. With new results in modeling and applications, and a growing importance in theory and practice, it is essential for modeling to be further explored and developed through research. Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling. Coverage: The many academic areas covered in this publication include, but are not limited to: • Bootstrap Method • Complex Systems • Data Analysis • Data Collection • Fuzzy-Weight Ranked Set Sampling (FRSS) • Hypothesis Testing • Item Count • Ranked Set Sampling (RSS) • RSS Methods • RSS Models • Statistics • Stratified Ranked Set Sampling (SRSS)
Desarrollo de nuevos modelos y métodos matemáticos para la toma de decisiones, 2021
Esta obra representa de una manera concisa, cómo las disciplinas aportan desde diferentes focos d... more Esta obra representa de una manera concisa, cómo las disciplinas aportan desde diferentes focos de atención resultados metodológicos aplicados al contexto social, que mediante modelos matemáticos generan nuevos conocimientos y oportunidades de solución orientados a la toma de decisiones.
Ranked set sampling (RSS) gives a new approach to dealing with sample selection. It was proposed ... more Ranked set sampling (RSS) gives a new approach to dealing with sample selection. It was proposed in the seminal paper of McIntyre (1952. A method for unbiased selective sampling using ranked sets. Australian Journal of Agricultural Research 3, 385À390). His experience in agricultural application provoked a challenge to the usual simple random sampling (SRS) design introducing a previous ordering of the units. The practical studies suggested that it produces more accurate estimators of the mean. This proposal was taken into account by other practitioners dealing with agricultural studies. They also obtained better results using RSS. The mathematical validity of the claim was sustained by the work of Takahasi and Wakimoto (1968. On unbiased estimates of the population mean based on the sample stratified by means of ordering. Annals of the Institute of Statistical Mathematics 20, 1À31).
That fact also remained unnoticed by the majority of the statistical community but some interesting results were developed for establishing the mathematical reasons sustaining having better results when using RSS.
Nowadays, the results obtained by RSS still seem to be somewhat “magical” to some colleagues and they are doubtful of the accuracy of the reported improvements due to using RSS. They may be simply explained. Ranking changes the working with “pure” random variables to dealing with order statistics (OS). OS have nice properties coming from the basics of statistical inferences. This supports the individual variances of observations (now OSs) being smaller than the variance of the random variables. Doubts arose in discussions, because in practice the variable of interest is not possible to rank. The fact that ranking a correlated and known variable allows ranking the units at a low cost, providing “adequate” ranking, was proved. The original ranking in McIntyre’s experiences was made on the basis of “eye estimation” of pasture availability.
Algoritmos, estrategias y modelos en las aplicaciones de métodos cuantitativos
Tomo 1
Editores: C... more Algoritmos, estrategias y modelos en las aplicaciones de métodos cuantitativos Tomo 1 Editores: Carlos N. Bouza Herrera José Félix García Rodríguez Agustín Santiago Moreno María del Mar Rueda García
Actualmente, muchos profesionales y gente que escriben sus propios códigos, para implementar lo h... more Actualmente, muchos profesionales y gente que escriben sus propios códigos, para implementar lo hacen, para obtener una idea sobre los datos a su alcance, no para construir herramientas del tipo web, aplicaciones móviles etc. Quienes se dedican a hacer programas desde hace mucho tiempo, al emerger el término Ciencia de los Datos, ven que su labor está claramente dentro de ella. La labor de la mayor parte de los estadísticos es analizar datos y esta función está también encapsulada en la actividad esperada realicen los científicos de los datos. Que deben ser capaces de hacer tales científicos se determina ahora, a partir del perfil que ha ido perfilándose por las necesidades expresas de la industria.
Tratamos de enrumbar las discusiones a la luz de las expectativas existentes sobre el papel de un científico de los datos. Ellos trabajan con “big data,” y desarrollan “analytics” . En este reporte se presentan las herramientas univariadas de mayor utilidad practica partiendo de la experiencia en la docencia y la aplicación. El papel de ellas es discutido y se hacen ilustraciones a partir de estudios numéricos y gráficos.
Las nociones de la inferencia en poblaciones finitas fueron expresadas hace más de 60 años en muc... more Las nociones de la inferencia en poblaciones finitas fueron expresadas hace más de 60 años en muchos libros clásicos como Cochran, Hansen, Hurwitz y Madow, Deming, Muthy, Des Raj y otros. La teoría de muestreo era aplicada desde la perspectiva misma de la selección aleatorizada de posibles muestras en la población finita. Dependiendo de las circunstancias prácticas, la selección se hacía de distintas maneras: muestreo aleatorio simple, muestreo aleatorio estratificado, muestreo de conglomerados, muestreo en dos etapas, etc. El muestreo era considerado como la actividad primaria y la estimación nunca fue considerada como una práctica separada sino como una consecuencia automática. Lo anterior se debía a que cada tipo de diseño de muestreo inducía un estimador cuyas propiedades estadísticas como el insesgamiento y la varianza eran establecidas de antemano con el diseño y así, la varianza era calculable y estimable.
Se hace una sucinta presentación del desarrollo de las tablas de contingencia, así como los el... more Se hace una sucinta presentación del desarrollo de las tablas de contingencia, así como los elementos básicos de las tablas de contingencia discutiendo algunos detalles que, al no considerarlos invalidan, las generalizaciones que se hacen usando los métodos que comúnmente se introducen en los cursos de estadística. Se presentan los elementos básicos de las medidas de asociación y se analizan algunos coeficientes que caracterizan las propiedades de las relaciones que aparecen entre las variables.
KEYWORDS: Tablas de contingencia, medidas de asociación, pruebas
Abstract:
These monograph aims to give a vision of the problematic of the ROC curves. The differ... more Abstract:
These monograph aims to give a vision of the problematic of the ROC curves. The different elements on them are disperse in the literature and there are not many materials dealing with the mathematical, interpretation of graphs , measures etc., in a unified way. Examples are presented and their interpretation are discussed. It is expected this material will be useful for analyzing data in the areas where ROC curves are of common use.
Serie de Reportes Técnicos MODELOS CUANTITATIVOS PARA APLICACIONES EN ESTUDIOS DE SALUD HUMANA Y EL MEDIO-AMBIENTE, 2021
Esquema del problema
El problema es analizar el comportamiento de los pasajeros que tenga un PCR-... more Esquema del problema El problema es analizar el comportamiento de los pasajeros que tenga un PCR-positivo al llegar del extranjero. Hagamos una modelación del problema. Consideremos un día y las evaluaciones de los pasajeros serán las variables Bernoulli: 𝑋" = $1 𝑠𝑖 𝑒𝑙 𝑃𝐶𝑅 𝑒𝑠 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 Denotemos por nd el número de pasajeros evaluados en un día. La probabilidad de que un pasajero sea positivo es desconocida. Denotémosla por P. Esta probabilidad toma un valor pequeño y nd es grande. El total de positivos es: 𝑇8 =9𝑋" :; "<= Formalmente esta es una variable con distribución binomial (B(N,P)). Dado que el número de observaciones es grande y P pequeño se tipifica que podemos usar como aproximación una distribución de Poisson P(NP). Para ello se aceptará que: 1. La probabilidad de observar exactamente un éxito en el segmento, periodo de tiempo o tamaño de muestra constante. 2. El evento debe considerarse un suceso raro (p pequeño). 3. El evento debe ser aleatorio e independiente de otros eventos
Serie de Reportes Técnicos MODELOS CUANTITATIVOS PARA APLICACIONES EN ESTUDIOS DE SALUD HUMANA Y EL MEDIO-AMBIENTE, 2020
Abstract We intend to re-construct some of the existent structures of thinking on data scientists... more Abstract We intend to re-construct some of the existent structures of thinking on data scientists. The emerging Science called Data Science deals with the pre-processing, recuperation, storing, analysis y visualization of data. How and who may become data scientists, is the discussed problem.
KEYWORDS: Data Sciences, Big Data, Statistics, Comping Sciences.
Resumen Se pretende desmontar algunas estructuras de pensamiento los científicos que de datos La nueva ciencia llamada Data Science evidentemente se encarga del pre-procesamiento, recuperación, almacenamiento, análisis y visualización de los datos. Como y quienes pueden convertirse en científicos de los datos, es una problemática sobre la que se discute.
Estas notas tienen por objeto presentar los elementos as importantes utilizados en el desarrollo ... more Estas notas tienen por objeto presentar los elementos as importantes utilizados en el desarrollo de aglomeraciones en clústeres. Se hace una presentación de los principios y algoritmos. Dejamos fuera la discusión a partir de salidas de softwares pues los interesados deberán entrenarse ante sus computadoras
Uploads
Papers by Carlos Bouza
The use of agglomeration methods is discussed and how these were used in a study of the study is illustrated.
The use of agglomeration methods is discussed and how these were used in a study of the study is illustrated.
Es la forma de presentación de los datos típica de la investigación en ciencias sociales, que se caracteriza por un uso predominante de variables (o atributos) definidas en los niveles de medición nominal y ordinal.
La tabla de contingencia consiste en un cierto número de celdas en las que, como resultado de un proceso de tabulación, se vuelcan las frecuencias (número de casos) correspondientes a cada combinación de valores de varias variables
ESTO LO DENOMINAMOS TRATAMIENTO DE DATOS ESTE PUEDE SER INTUITIVO (NOS FALTA ESTADÍSTICA Y TIEMPO) O
PRÁCTICO (QUEREMOS TRABAJAR EN EL “LABORATORIO”)
Por población nos referimos a un conjunto de elementos que han sido elegidos para un estudio,. Muestra es una porción de la población. La muestra debe satisfacer las siguientes condiciones:
• Homogeneidad: debe ser extraída de la misma población.
• Independencia: las observaciones no deben estar mutuamente condicionadas entre sí.
• Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual proviene.
Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones como la media, la mediana, la moda y la desviación estándar. Estos describen características notables de una población. Una población queda caracterizada a través de ciertos valores denominados parámetros, que describen las principales propiedades del conjunto. Un parámetro es un valor fijo (no aleatorio) que caracteriza a una población en particular. En general, una parámetro es una cantidad desconocida y rara vez se puede determinar exactamente su valor, por la dificultad práctica de observar todas las unidades de una población. Se utilizan casi siempre letras griegas o latinas mayúsculas para representar parámetros de población.
Tratamos de estimar el valor de los parámetros desconocidos a través del empleo de muestras. Las cantidades usadas para describir una muestra se denominan estimadores o estadísticos muestrales
motivado por la necesidad de paliar el efecto de
violaciones en las hipótesis que soportan los métodos.
• Por ejemplo el no cumplimiento de seguir una
distribución dada exactamente, existir outliers etc.
prof
Su pionero fue, como en tantas otras cosas de la estadística, Sir. R. Fisher.
Este método soporta muchos procedimientos que utilizan criterios de convergencia para usar modelos inferenciales basados en la normalidad asintótica.
A pesar de sus propiedades este no es una panacea pues no siempre provee de métodos aceptables.
Este puede ser ineficiente comparado con otras alternativas. Sin embargo bajo ciertas condiciones de regularidad se puede aceptar la normalidad asintótica y provee de óptimos en diversos procedimientos existentes
constantemente decisiones. Este utiliza reglas que fijan su
comportamiento tras observar, repetidamente, los
fenómenos del mundo circundante. El éxito de ellas es
evaluado al considerar en que proporción estas han sido
acertadas.
La racionalidad de los individuos se mide de acuerdo a
ciertos modelos de comportamiento desarrollados en estas
ciencias.
Al considerar el problema general, el punto de vista
matemático ha conllevado a desarrollar modelos que
conforman la Teoría de Decisión.
Esta se imbrica con la Teoría de Juegos por lo que un campo
fértil de su uso está en la variopinta de problemas que se
planteada en el diseño de sistemas inteligentes para los
videojuegos y en la Economía.
construyeron un marco de referencia
consistente para la toma de decisiones
bajo incertidumbre.
Los espacios de mezcla son
transformables en un espacio de utilidad
al imponerle condiciones adicionales
Esta idea es la consecuencia del concepto popular que existe sobre el término y que cada vez está más extendido debido a la influencia de nuestro entorno, ya que hoy día es casi imposible que cualquier medio de difusión, periódico, radio, televisión, etc, no nos aborde diariamente con cualquier tipo de información estadística sobre accidentes de tráfico, índices de crecimiento de población, turismo, tendencias políticas, etc.
Palabras clave: superpoblación, enfoque predictivo, esperanza bajo el modelo, Teoría Clásica, Teoría Unificada
constantemente decisiones. Este utiliza reglas que fijan su
comportamiento tras observar, repetidamente, los fenómenos del
mundo circundante. El éxito de ellas es evaluado al considerar en que
proporción estas han sido acertadas. Las ciencias del comportamiento
modelan este, y establecen la cordura de los individuos, al considerar
su aptitud para fijar reglas que le lleven a ser racional y exitoso. Esto
ha conllevado la necesidad de establecer teorías que modelen la
toma de decisiones en diversas ciencias particulares.
Econometric applications. Take 𝐷 𝑚 𝑥Ԧ as the local slope. The Average Derivative is defined as
. ] 𝑥Ԧ 𝑓 𝑥Ԧ 𝑑 𝑥Ԧ = 𝐸 [ 𝐷 𝑚 𝑥Ԧ 𝑚 = 𝛿
𝑚 𝑥Ԧ is the regression function and the support of the
density (S) of 𝑥Ԧ is considered as compact.
By partitioning S the local slope 𝐷 𝑚 𝑥Ԧ may be
estimated within these bins by computing ordinary least
squares, say 𝐷[𝑚 𝑥 ȁ𝑏].
The precision depends on the sample size. Therefore, obtaining optimal sample sizes is one of the key element of the theory.
The pioneering work of Neyman (On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. J. R. Stat. Soc.97, 558–606 (1934)) on optimal allocation opened the acceptance of sampling as a viable and effective statistical method.
Stratification in sample surveys is a well-known device to increase the precision of the estimators. Is clear that the stratified sampling efficiency depends on several factors, but allocating optimally the sample sizes to different strata is one of the more important issues.
The precision depends on the sample size. Therefore, obtaining optimal sample sizes is one of the key element of the theory.
The pioneering work of Neyman (On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. J. R. Stat. Soc.97, 558–606 (1934)) on optimal allocation opened the acceptance of sampling as a viable and effective statistical method.
Stratification in sample surveys is a well-known device to increase the precision of the estimators. Is clear that the stratified sampling efficiency depends on several factors, but allocating optimally the sample sizes to different strata is one of the more important issues.
Considere el caso de los grafos sociales (Facebook, Twitter etc.)
Ejemplos de su uso ver Wilson et al. (2009), Wang et al. (2010).
Las poblaciones son grandes y están interconectadas entonces el grafo que les describe es “grande” Se hace necesario tomar una muestra y usar la estructura de grafos con estos fines
Cada muestra aleatoria genera un grafo
Si evaluamos la conexión entre la unidades en la muestra definimos la variable
This is the so called ‘response strata’ model and was the framework proposed by Hansen-Hurwitz (1946), see Cochran (1977) and Singh (2003).
1.Analizar las variables causales y establecer clases latentes en la caracterización de la agresividad intrafamiliar.
2.Analizar la agresividad en los ambientes familiares.
3.Proyectar la evidencia empírica en las regularidades de este tipo de violencia
Eran los Objetivos principales de la Investigación
Analizar el efecto de las promociones de ventas en la difusión de la prensa diaria en Galicia,
Mostrar que la promoción de ventas explica el comportamiento de la difusión de los diarios gallegos en el periodo 1991-2000.
Los dueños de los periódicos tenían claras Motivaciones de la Promoción y el Marketing
La promoción de ventas ha alcanzado una notable relevancia en los últimos tiempos como elemento fundamental en los planes de comunicación comercial de las empresas.
TIPOS Y NIVELES DE INVESTIGACIÓN
POBLACIÓN Y MUESTRA
TRATAMIENTO ESTADÍSTICO
Me place felicitar a la Red Iberoamericana de Estudios Cuantitativos Aplicados (RIDECA) y a su coordinador, Dr. Carlos N. Bouza Herrera, profesor de la Universidad de la Habana, por la encomiable labor que despliegan en favor de las aplicaciones de la matemática para la comprensión de este tipo de fenómenos.
Al leer este libro, uno puede apreciar la potencialidad de la modelación matemática para la comprensión de fenómenos, tales como la pandemia del coronavirus y otros tantos que puedes ser susceptibles de modelación, dadas las regularidades de su comportamiento.
Me place felicitar a la Red Iberoamericana de Estudios Cuantitativos Aplicados (RIDECA), por su esfuerzo y contribución para la comprensión de este tipo de fenómenos, como son las pandemias. Enhorabuena.
Dra. Aidé Ibárez Castro
Secretaria de Salud del Estado de Guerrero, México
Nowadays, quantitative models, mathematical and simulation mainly, are used for planning and/or evaluating health issues. Recommendations based on quantitative studies improves strategic, tactical, and operational aspects of preparedness planning in the management of the pandemic.
The recommendations derived from the research that generated the chapters of this oeuvre are a significative sample of studies developed in Latin America on the COVID-19 pandemic during 2020.
Chapter I is concerned with the development of an ordinary differential equation model and formulates the expression of Basic Reproductive Number ሻR ଵ ሼ for the subpopulation of undetected infected individuals. The authors modelled risk perception through proposed functions and simulated governmental actions and individual attitudes, with a contagion variable rate over time. Real data were used for predicting the behaviour of the pandemic.
Chapter II proposes, discusses and illustrates Agent-Based Modelling to handle complexity and its consequent uncertainty in decision-making processes, based on the law of the dynamic equilibrium of markets and the unlimited rationality of both social and economic agents. They explored and estimated how the establishment of rules for the social behaviour of a community affects the dynamics of an epidemic. An application was developed, in NetLogo, that allows the construction of a model of a city Modelling Experiences of the COVID-19 Pandemic in Ibero-America
from its basic demographic information: size, population, inhabitants per house, number of closed public areas and amount of free area.
Chapter III is devoted to describing the behaviour of COVID-19 in Mexico from the first confirmed cases on February 28, 2020, until May 2021. This characterization of COVID-19 in Mexico was made through positive cases, cases with comorbidities, number of deaths, mortality rate, incidence rate and fatality rate; represented by state, sex and age group. The analysis of the behaviour of the pandemic in Mexico used the correlation coefficients among three relevant variables against two indices-summaries, for the data of the states. The relevant COVID-19 variables considered were incidence, mortality rate, and fatality rate. The relations analysed were the Marginalization Index and the Human Development Index studied under the conditions of the pandemic, considering the socioeconomic conditions of the states of Mexico.
Chapter IV has considered a supervised multilayer neural network Artificial Neural Network – for fitting the data of estimated cases of COVID-19 in the State of Puebla. However, this model was inefficient in several cases. The authors developed alternatively a “vectorial” neural network with an unvarying step function activity. A positive defined matrix allowed training the variable learning rate model, using the existing data on the disease, from week 10 of 2020 to week 35 of 2021.
Chapter V has proposed models for post-pandemic studies and the sequels of the treatments. Theoretical models for epidemic graphs were characterized for aiding the epidemiologists in evaluating the effect of treatments (sequels, correlations with demographic variables, etc.). The modelling in the context of COVID-19 was developed.
Chapter VI has
considered problems on sampling in the presence of
missing
observations.
The
authors
established
regularities
of
the
expectations under a particular non-response mechanism, considering some
issues present in real life statistical research in COVID-19. Imputation
procedures and superpopulation modelling have provided a theoretical
frame for dealing with missing observations within the framework of
sampling, looking for identifying contacts with infected people.
Chapter VII poses a discussion on the effects
of the COVID-19 pandemic in increasing the visible inequality in Latin American countries. The authors have developed a study in an especially vulnerable sector of indigenous Mexican students. xii
Chapter VIII presents a study on hospital-staying in surviving individuals from COVID-19 of Cuban recovered patients living in Havana. The article proposes future lines of research.
In Chapter IX, a prospective pilot study is developed for establishing the behaviour of recovered COVID-19 patients with lung damage treated with a new medicament.
This book provides a good example of the research developed by Latin American scientists for dealing with the challenges posed by the COVID19 pandemic.
Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling.
Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling.
eas covered in this publication include, but are not limited to:
• Bootstrap Method
• Complex Systems
• Data Analysis
• Data Collection
• Fuzzy-Weight Ranked Set Sampling (FRSS)
• Hypothesis Testing
• Item Count
• Ranked Set Sampling (RSS)
• RSS Methods
• RSS Models
• Statistics
• Stratified Ranked Set Sampling (SRSS)
When it comes to data collection and analysis, ranked set sampling (RSS) continues to increasingly be the focus of methodological research. This type of sampling is an alternative to simple random sampling and can offer substantial improvements in precision and efficient estimation. There are different methods within RSS that can be further explored and discussed. On top of being efficient, RSS is cost-efficient and can be used in situations where sample units are difficult to obtain. With new results in modeling and applications, and a growing importance in theory and practice, it is essential for modeling to be further explored and developed through research.
Ranked Set Sampling Models and Methods presents an innovative look at modeling survey sampling research and new models of RSS along with the future potentials of it. The book provides a panoramic view of the state of the art of RSS by presenting some previously known and new models. The chapters illustrate how the modeling is to be developed and how they improve the efficiency of the inferences. The chapters highlight topics such as bootstrap methods, fuzzy weight ranked set sampling method, item count technique, stratified ranked set sampling, and more. This book is essential for statisticians, social and natural science scientists, physicians and all the persons involved with the use of sampling theory in their research along with practitioners, researchers, academicians, and students interested in the latest models and methods for ranked set sampling.
Coverage:
The many academic areas covered in this publication include, but are not limited to:
• Bootstrap Method
• Complex Systems
• Data Analysis
• Data Collection
• Fuzzy-Weight Ranked Set Sampling (FRSS)
• Hypothesis Testing
• Item Count
• Ranked Set Sampling (RSS)
• RSS Methods
• RSS Models
• Statistics
• Stratified Ranked Set Sampling (SRSS)
That fact also remained unnoticed by the majority of the statistical community but some interesting results were developed for establishing the mathematical reasons sustaining having better results when using RSS.
Nowadays, the results obtained by RSS still seem to be somewhat “magical” to some colleagues and they are doubtful of the accuracy of the reported improvements due to using RSS. They may be simply explained. Ranking changes the working with “pure” random variables to dealing with order statistics (OS). OS have nice properties coming from the basics of statistical inferences. This supports the individual variances of observations (now OSs) being smaller than the variance of the random variables. Doubts arose in discussions, because in practice the variable of interest is not possible to rank. The fact that ranking a correlated and known variable allows ranking the units at a low cost, providing “adequate” ranking, was proved. The original ranking in McIntyre’s experiences was made on the basis of “eye estimation” of pasture availability.
Tomo 1
Editores: Carlos N. Bouza Herrera José Félix García Rodríguez Agustín Santiago Moreno María del Mar Rueda García
Primera edición. Marzo del 2018.
© Universidad de la Habana, Cuba.
Universidad de Granada, España
Universidad Juárez Autónoma de Tabasco, México Universidad Autónoma de Guerrero, México
ISBN: 978-607-9440-36-7
Tratamos de enrumbar las discusiones a la luz de las expectativas existentes sobre el papel de un científico de los datos. Ellos trabajan con “big data,” y desarrollan “analytics” . En este reporte se presentan las herramientas univariadas de mayor utilidad practica partiendo de la experiencia en la docencia y la aplicación. El papel de ellas es discutido y se hacen ilustraciones a partir de estudios numéricos y gráficos.
KEYWORDS: Tablas de contingencia, medidas de asociación, pruebas
These monograph aims to give a vision of the problematic of the ROC curves. The different elements on them are disperse in the literature and there are not many materials dealing with the mathematical, interpretation of graphs , measures etc., in a unified way. Examples are presented and their interpretation are discussed. It is expected this material will be useful for analyzing data in the areas where ROC curves are of common use.
Keywords: ROC curves, mathematic modeling, graphs , statistical measures.
El problema es analizar el comportamiento de los pasajeros que tenga un PCR-positivo
al llegar del extranjero. Hagamos una modelación del problema.
Consideremos un día y las evaluaciones de los pasajeros serán las variables Bernoulli:
𝑋" = $1 𝑠𝑖 𝑒𝑙 𝑃𝐶𝑅 𝑒𝑠 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Denotemos por nd el número de pasajeros evaluados en un día. La probabilidad de que
un pasajero sea positivo es desconocida. Denotémosla por P. Esta probabilidad toma
un valor pequeño y nd es grande. El total de positivos es:
𝑇8 =9𝑋"
:;
"<=
Formalmente esta es una variable con distribución binomial (B(N,P)). Dado que el
número de observaciones es grande y P pequeño se tipifica que podemos usar como
aproximación una distribución de Poisson P(NP). Para ello se aceptará que:
1. La probabilidad de observar exactamente un éxito en el segmento, periodo
de tiempo o tamaño de muestra constante.
2. El evento debe considerarse un suceso raro (p pequeño).
3. El evento debe ser aleatorio e independiente de otros eventos
KEYWORDS: Data Sciences, Big Data, Statistics, Comping Sciences.
Resumen Se pretende desmontar algunas estructuras de pensamiento los científicos que de datos La nueva ciencia llamada Data Science evidentemente se encarga del pre-procesamiento, recuperación, almacenamiento, análisis y visualización de los datos. Como y quienes pueden convertirse en científicos de los datos, es una problemática sobre la que se discute.
Palabras clave: clústeres, algoritmos, distancias, similarid