domingo, 27 de mayo de 2018

¿Qué es la concordancia y la correlación?

Correlación paramétrica: Pearson. Correlación no paramétrica: Spearman. 

¡¡¡Muy buenas chicos!!! Éste es el último tema que explicaré, así que vamos a ello.


En primer lugar mencionamos que un estudio conjunto de dos variables... 
  • Es mejor representarlo en una tabla, en la que las filas presentan los datos de un individuo y las columnas reflejan los valores que toma una variable sobre ellos.
  • Estas observaciones se pueden plasmar en un diagrama de dispersión, en el que los puntos son los individuos, y las coordenadas son los valores de las variables.
  • El objetivo será reconocer si hay relación entre las variables, de qué tipo es y predecir el valor de una en función de la otra.
Un ejemplo...



Hay distintos modelos de análisis de regresión:
Pero nosotros vamos a trabajar con el modelo de regresión lineal simple, en el que se trata de estudiar la asociación lineal entre dos variables cuantitativas. Y para ello hay que tener en cuenta... 
  • Modelos lineales deterministas: la variable independiente determine el valor de la variable dependiente. Entonces para cada valor de la variable independiente sólo habría un valor de la dependiente.
  • Modelos lineales probabilísticos: Para cada valor de la variable independiente existe una distribución de probabilidad de valores de la dependiente, con una probabilidad entre 0 y 1. 
  • La recta a determinar es aquélla con la menor distancia de cada punto a ella.


¿Qué es el análisis de correlación?
Se utiliza con el propósito de de disponer de un indicador cuantitativo que permite sintetizar el grado de la asociación entre variables. 

           El coeficiente de correlación r de Pearson sirve para medir el grado de la relación de dependencia que existe entre las variables (x,y), cuyos valores van desde –1, correspondiente a una correlación negativa perfecta, hasta 1, correspondiente a una correlación positiva perfecta.

           El coeficiente de Correlación por Rango de o rho de Spearman es una medida de asociación que requiere que ambas variables en estudio sean medidas por lo menos en una escala ordinal. En él...

También es importante saber como...

           El Coeficiente de determinación es un número adimensional (entre 0 y 1) que da idea de la relación entre las variables relacionadas linealmente. Es r2.

Y buenos chicos, hasta aquí ha llegado el último tema de la asignatura ETICs. Es un poco dura y difícil de entender, pero como siempre digo, con esfuerzo y trabajo todo es posible así que... ¡a por el segundo cuatrimestre!

miércoles, 23 de mayo de 2018

¿Cuáles son las pruebas no paramétricas más usadas en enfermería?

La prueba de Chi Cuadrado. Corrección de Yates. Prueba exacta de Fisher. Prueba de McNemar.

¡¡¡Buenas tardes queridos lectores!!!
El tema de hoy es un poquito complicado, así que voy a intentar explicarlo lo más claro posible.

Primero nos centraremos en una prueba no parámetrica, el test de hipótesis Chi-cuadrado. Éste sirve para comparar dos variables cualitativas, y consiste en suponer la hipótesis cierta y estudiar cómo es de probable que siendo iguales los dos grupos a comparar, se obtengan resultados como los obtenidos o haber encontrado diferencias más grandes por grupos.

¿Qué son las tablas de contingencia-frecuencias absolutas
Se emplean para registrar y analizar la asociación entre dos o más variables de naturaleza cualitativa (nominales u ordinales).

Se emplean para registrar y analizar la asociación entre dos o más variables, de naturaleza cualitativa (nominales u ordinales).

Prueba de Chi-cuadrado.
La prueba o estadístico Chi cuadrado se utiliza para comprobar si la diferencia en los datos que observamos: 
  • Es debida al azar 
    • Recordemos que la Ho establece que no hay diferencia, que hay igualdad. Aceptamos la Ho 
  • Es debida a algo más, por ejemplo una asociación entre las variables que estudiamos. 
    • Rechazamos la H0. Aceptamos la H1
¿Cuándo se utiliza Chi-cuadrado?
  1. Las observaciones deben ser independientes. Es decir, al clasificar los sujetos en cada casilla, debe haber sujetos distintos; no puede haber sujetos repetidos en más de una casilla. Ni los sujetos se pueden clasificar en más de un lugar. 
  2. Utilizar en variables cualitativas.
  3. Más de 50 casos.
  4. Las frecuencias teóricas o esperadas en cada casilla de clasificación no deben ser inferiores a 5. Si son menores que 5, no podemos sacar conclusiones del contraste de hipótesis con Chi-cuadrado. Algunos autores señalan como tolerable que un 20% de las casillas tengan una frecuencia teórica inferior a 5, pero no deben ser muy inferiores.
Esta prueba...
Permite determinar si dos variables cualitativas están o no asociadas. Es decir si son dependientes (H1) o independientes (Ho). 
Para su cómputo calculamos: 
  • Frecuencias esperadas (FE): aquellas que deberían haberse observado si la Ho fuese cierta, ie, si ambas variables fueran independientes 
  • Frecuencias observadas (FO) en nuestro estudio. 
Las comparamos para calcular el valor del estadístico chi-cuadrado (𝑋 2 ):  
Cuanto mayor sea la diferencia (y, por tanto, el valor del estadístico), mayor es la asociación/dependencia entre ambas variables.
Por otra parte, como las diferencias entre las frecuencias observadas y esperadas están elevadas al cuadrado, esto hace que el valor de 𝑋 2 siempre sea positivo.

Para obtener los valores esperados , éstos se calculan a través del producto de los valores totales marginales dividido por el número total de casos (n). 


Si los requisitos de Chi-cuadrado no se cumplen, se usan pruebas paramétricas:
  1. Utilizar el estadístico de Fisher 
  2. Corrección de continuidad de Yates
Hasta aquí ha llegado el tema de hoy, si tenéis alguna duda sobre esto no dudéis en preguntar, y...... ¡nos vemos en el último tema!

domingo, 13 de mayo de 2018

¿Estimación y/o significación estadística?

Distribuciones muestrales para medias y datos continuos. Distribuciones muestrales para proporciones y datos categóricos. 

¡Ya estamos aquí de nuevo chicos! Ya queda muy poquito para terminar todo el temario, así que... ¡vamos a ello con ganas!

¿Qué es la estadística?
Es una de las dos formas de inferencia estadística; permite contrastar hipótesis y relacionarlo con el método científico; se parte de la hipótesis nula, frente a la hipótesis alternativa; permite calcular el nivel de significación; nos permite tomar decisiones, cuantificando el error. 

El conocimiento científico. 


¿Qué es una hipótesis estadística?
Es una creencia sobre los parámetros de una o más poblaciones; una proposición sobre la distribución de probabilidad de una variable. 
Siempre son proposiciones sobre la población, no sobre la muestra; son conjeturas que se hacen antes de empezar el muestreo. 
Pretenden comprobar si las diferencias encontradas en la muestra del estudio se pueden generalizar a la población. Para ello se construye un modelo teórico en el que se formula una hipótesis: 
  • Hipótesis nula (H0 ): contempla la no existencia de diferencias entre los parámetros que se comparan.
  • Hipótesis alternativa (H1 ): contempla la existencia de diferencias entre los parámetros que se comparan.
Contrastes de hipótesis.
Para controlar los errores aleatorios, además del cálculo de intervalos de confianza, contamos con una segunda herramienta en el proceso de inferencia estadística: los tests o contrastes de hipótesis.
Con los intervalos nos hacemos una idea de un parámetro de una población dando un par de números entre los que confiamos que esté el valor desconocido.
Con los contrastes (tests) de hipótesis la estrategia es la siguiente: 
  1. Establecemos a priori una hipótesis acerca del valor del parámetro. 
  2. Realizamos la recogida de datos.
  3. Analizamos la coherencia de entre la hipótesis previa y los datos obtenidos
Son herramientas estadísticas para responder a preguntas de investigación: permite cuantificar la compatibilidad entre una hipótesis previamente establecida y los resultados obtenidos.
Se utiliza la prueba estadística correspondiente y se mide la probabilidad de error al rechazar la hipótesis nula, asociada al valor de p.
Según el nivel de significación que hayamos preestablecido (habitualmente un 95%) las soluciones pueden ser: 
  • p>0,05: en este caso no podemos rechazar la hipótesis nula (no podemos decir que sea cierta, sino que no podemos rechazarla). 
  • p<0,05: en este caso rechazamos la hipótesis nula, por lo que debemos aceptar la hipótesis la hipótesis alternativa.
Errores de hipótesis.
Con una misma muestra podemos aceptar o rechazar la hipótesis nula, todo depende de un error, al que llamamos α.
El error α es la probabilidad de equivocarnos al rechazar la hipótesis nula. El error α más pequeño al que podemos rechazar H0 es el error p. 
Habitualmente rechazamos H0 para un nivel α máximo del 5% (p<0,05). Es lo que llamamos “significación estadística”

Tipos de errores.

Método de contraste de hipótesis.
  1. Expresar el interrogante de la investigación como una hipótesis estadística:
      1. H0. no hay diferencia
      2. H1. hay diferencia
  2. Decidir sobre la prueba estadística adecuada (según la población y las variables): 
     
  3. Seleccionar grado de significación para la prueba estadística. (grado de significación = alfa = probabilidad de rechazar de manera incorrecta H0 cuando sea cierta)
  4. Realizar los cálculos y exponer conclusiones.
Y esto es todo lo que hay que saber sobre la significación estadística. ¡Nos vemos en el próximo tema!

martes, 8 de mayo de 2018

¿Qué es la inferencia estadística?

Estimación de parámetros. Hipótesis estadísticas. Contraste de hipótesis. Error tipo I y error tipo II. Contrastes por intervalos de confianza. 

¡¡Buenas tardes!! El tema que vamos a dar hoy está relacionado con uno de los que se han dado en los seminarios y que se encuentra en la página titulada: ¿qué es la estadística descriptiva e inferencial? Por ello, aunque es uno de los temas más complicados, al tener doble apoyo resultará más fácil entenderlo. Así que... ¡vamos allá!

¿Qué es la inferencia estadística?
Es el conjunto de procedimientos estadísticos que permiten pasar de lo particular (la muestra), a lo general (la población). Hay dos formas:

  • Estimación del valor en la población (parámetro) a partir de un valor de la muestra (estimador). Puede ser:
    • Puntual. Consiste en considerar al valor del estadístico muestral como una estimación del parámetro poblacional.
    • Por intervalos. Consiste en calcular dos valores entre los cuales se encuentra el parámetro poblacional que queremos estimar con una probabilidad determinada, habitualmente el 95%. Cuanto más "estrecho" sea, mejor.
  • Contraste de hipótesis, a partir de valores de la muestra, se concluye si hay diferencias entre ellos en la población. Hay:
    • Métodos paramétricos
      • T-student
      • Anova
      • Fisher
      • Pearson
    • Métodos no paramétricos
      • U-Mann Whitney
      • K-W
      • Tablas de contingencia
¿Qué es el error estándar?
Es la medida que trata de captar la variabilidad de los valores del estimador (en este caso la media de los días de curación de la úlcera).
El error estándar de cualquier estimador mide el grado de variabilidad en los valores del estimador en las distintas muestras de un determinado tamaño que pudiésemos tomar de una población. 
Cuanto más pequeño es el error estándar de un estimador, más nos podemos fiar del valor de una muestra concreta. 

Su cálculo depende de cada estimador: 

¿Qué es el teorema central del límite?
Para estimadores que pueden ser expresados como suma de valores muestrales, la distribución de sus valores sigue una distribución normal con media de la de la población y desviación típica igual al error estándar del estimador de que se trate. 
Si sigue una distribución normal, sigue los principios básicos de ésta: 
  • ± 1S 68,26% de las observaciones 
  • ± 2S 95,45% de las observaciones 
  • ± 1,95S 95% de las observaciones 
  • ± 3S 99,73% de las observaciones 
  • ± 2,58S 99% de las observaciones 
¿Qué son intervalos de confianza?
Son un medio de conocer el parámetro en una población midiendo el error que tiene que ver con el azar (error aleatorio).
Se trata de un par de números tales que, con un nivel de confianza determinados, podamos asegurar que el valor del parámetro es mayor o menor que ambos números. 
Se calcula considerando que el estimador muestral sigue una distribución normal, como establece la teoría central del límite.
Mientras mayor sea la confianza que queramos otorgar al intervalo, éste será más amplio, es decir el extremo inferior y el superior del intervalo estarás más distanciados y, por tanto, el intervalo será menos preciso.

¿Cómo se contrastan hipótesis?
Para controlar los errores aleatorios, además del cálculo de intervalos de confianza, contamos con una segunda herramienta en el proceso de inferencia estadística: los tests o contrastes de hipótesis. 
Con los intervalos nos hacemos una idea de un parámetro de una población dando un par de números entre los que confiamos que esté el valor desconocido. 
Con los contrastes (tests) de hipótesis la estrategia es la siguiente: 
  • Establecemos a priori una hipótesis acerca del valor del parámetro.
  • Realizamos la recogida de datos.
  • Analizamos la coherencia de entre la hipótesis previa y los datos obtenidos permite cuantificar la compatibilidad entre una hipótesis previamente establecida y los resultados obtenidos.
Estas son las pautas básicas para entender este tema. ¡Nos vemos el próximo día!

martes, 1 de mayo de 2018

¿Cuál es la teoría de las muestras?

Tipos de muestreo. Teoría de la estimación. Tamaño de la muestra. 

¡¡Buenas tardes queridos lectores!! Ya queda poco para terminar toda la materia, ¡y los nervios aumentan conforme se aproxima la fecha del examen! El tema de hoy es cortito y sencillo, así que vamos allá.

¿Qué son técnicas de muestreo? 
Es un conjunto de procedimientos que permiten elegir muestras de tal forma que éstas reflejen las características de la población. 

Siempre que trabajamos con muestras hay que asumir un cierto error.
Si la muestra se elige por un procedimiento de azar, se puede evaluar ese error. La técnica de muestreo en ese caso se denomina muestreo probabilístico o aleatorio y el error asociado a esa muestra elegida al azar se llama error aleatorio. 
En los muestreos no probabilísticos no es posible evaluar el error. En los muestreos probabilísticos, el error aleatorio es inevitable pero es evaluable.

¿Qué es un procedimiento muestral?
Un muestreo es un método tal que al escoger un grupo pequeño de una población podamos tener un grado de probabilidad de que ese pequeño grupo posea las características de la población que estamos estudiando.

Tipos de muestreo:
  • No probabilístico. No sigue el Proceso Aleatorio. No puede considerarse que la muestra sea representativa de una población.
    • Por convenencia. En el que el investigador decide, los elementos que integrarán la muestra, considerando las unidades “típicas” de la población que desea conocer.
    • Por cuotas. En el que el investigador selecciona la muestra considerando algunas variables a estudiar (Sexo, raza, religión...) 
    • Accidental. Consiste en utilizar para el estudio las personas disponibles en un momento dado, según lo que interesa estudiar.
  • Probabilístico. Todos y cada uno de los ELEMENTOS tienen una probabilidad calculable y, por lo tanto, conocida, de ser elegidos para la muestra. 
    • Conglomerados. Se usa cuando no se dispone de una lista detallada y enumerada de cada una de las unidades que conforman el universo y resulta muy complejo elaborarla. En la selección de la muestra en lugar de escogerse cada unidad se toman los subgrupos o conjuntos de unidades “conglomerados”. 
    • Estratificados. Se caracteriza por la subdivisión de la población en subgrupos o estratos, debido a que las variables principales que deben someterse a estudio presentan cierta variabilidad o distribución conocida que puede afectar a los resultados.
    • Aleatorio sistemático. Similar al aleatorio simple, en donde cada unidad del universo tiene la misma probabilidad de ser seleccionada. 
    • Aleatorio simple. Se caracteriza porque cada unidad tiene la probabilidad equitativa de ser incluida en la muestra
      • De sorteo o rifa. Desventaja de este método es que no puede usarse cuando el universo es grande.
      • Tabla de números aleatorios. Más económico y requiere menor tiempo.
Por último, mencionar el tamaño de la muestra. Va a depender de:
  1. El error aleatorio (estándar).
  2. De la mínima diferencia entre los grupos de comparación que se considera importante en los valores de la variable a estudiar.
  3. De la variabilidad de la variable a estudiar (varianza en la población).
  4. El tamaño de la población de estudio.
Hasta aquí el post de hoy y... ¡hasta la próxima!

domingo, 22 de abril de 2018

¿Qué es la teoría de la probabilidad?

Conceptos básicos. Distribución y reglas básicas de la probabilidad. Teorema de Bayés. Distribución de probabilidad discreta: binomial y de Poisson. Distribución de probabilidad continua: normal o campana de Gauss. 

¡Muy buenas a todos de nuevo! 

Hoy nos centramos en la probabilidad, y os pregunto... ¿qué es la probabilidad? Pues bien, es un concepto que se utiliza frecuentemente para poder comunicarnos y entendernos. Se expresa bien con número entre 0 y 1, o con porcentajes. En los casos de probabilidad no existe la certeza de que ocurran los hechos, si no una esperanza. 

Hay tres tipos de probabilidades:

  • Subjetiva o personalística. Mide la confianza que el individuo tiene sobre la certeza de una proposición determinada. Este concepto a dado lugar a la "estadística Bayesiana".
  • Clásica o "a priori"Data del siglo XVIII (Laplace, Pascal, Fermat), desarrollada para resolver problemas relacionados con los juegos de azar (dados, monedas, ruletas…) Las probabilidades se calculan con un razonamiento abstracto. Aquí cabe destacar:
    • Ley de los grandes números. Inicialmente, una probabilidad real puede no cumplirse, pero si repetimos muchas veces el experimento, la frecuencia relativa de un suceso cualquiera tiende a estabilizarse en torno al valor "a priori".
  • Relativa o "a posteriori". Si el número de repeticiones de un experimento aleatorio es grande, podemos esperar que la probabilidad esperada se acerque a la probabilidad teórica. 
¿Qué son los eventos o sucesos?
Cuando se realiza un experimento aleatorio diversos resultados son posibles. El conjunto de todos los resultados posibles es el espacio muestral. Y un subconjunto de dichos resultados es el suceso o evento.
  • Evento complementario de un suceso A, es aquel que está formado por los elementos que no se encuentran en A. 
  • Evento unión de A y B, A u B, aquel que está formado por los resultados experimentales que se encuentran en A o B. 
  • Evento intersección de A y B, A n B, aquel que está formado por los elementos que se encuentran en A y en B. 
Teniendo esto en cuenta, para hacer ejercicios de probabilidades, hay que aplicar las siguientes propiedades:
  • P(A u B).
    • Cuando los sucesos A y B se excluyen mutuamente. P(A u B) = P(A) + P(B) 
    • Cuando los sucesos A y B no se excluyen mutuamente. P(A u B) = P(A) + P(B) - P(A n B)
  • P(A n B). A y B son sucesos independientes, la ocurrencia de uno no influye en la ocurrencia del otro. P(A n B) = P(A) · P(B)
¿Qué es el Teorema de Bayes?
El teorema de Bayes vincula la probabilidad de A dado B con la probabilidad de B dado A. Por ejemplo, sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. 

Distribución de probabilidad en variables discretas:
  1. Distribución binomial. La distribución binomial es un modelo matemático de distribución teórica de variables discretas. Mediante esta distribución se resuelven los problemas que plantean: Si al hacer un experimento hay una probabilidad p de que ocurra un suceso ¿Cuál es la probabilidad de que en N experimentos el suceso ocurra X veces?.
  2. Distribución de Poisson. También se llama la distribución de probabilidad de casos raros. Esta distribución se utiliza cuando los sucesos son impredecibles o de ocurrencia aleatoria, no se sabe el total de los posibles resultados.
Distribución normal. 

      Tipificación de valores en una normal: 
Extrapolando aparecen los principios básicos de las distribuciones normales y podemos tipificar valores de una normal: 
± 1S -> 68,26% de las observaciones 
± 2S -> 95,45% de las observaciones 
± 1,95S -> 95% de las observaciones 
± 3S -> 99,73% de las observaciones 
± 2,58S -> 99% de las observaciones
La media siempre coincide con el punto más alto de la campana.

Espero que hayáis comprendido mejor la probabilidad con este post. ¡¡Hasta la próxima chicos!!

sábado, 7 de abril de 2018

¿Cómo se representan variables?

Representación de variables cualitativas y cuantitativas.

¡¡¡Buenas tardes a todos!!!

El tema de hoy es menos complicado y aburrido que los anteriores, así que ¡vamos allá!

Primero hay que tener claro qué es una representación gráfica y qué utilidad tiene. Es una imagen de ideas claras que comunica información numérica de forma rápida. Hay muchos tipos de representaciones según qué variables estamos teniendo en cuenta:
  • Variables cualitativas. 
    • Gráficos de sectores. Recomendado para representar pocas categorías. 
    • Gráficos de barras. Se pueden representar muchas categorías. Las barras deben estar separadas. 
    • Pictogramas. Son iguales que los gráficos de barras, sólo que en vez de representarse con una barra se representa con una imagen. 
  • Variables cuantitativas.
    • Gráfico de barras. Se pueden representar varias categorías. Las barras deben de estar separadas.
    • Histogramas. Es parecido a los gráficos de barras, pero éstas se encuentran juntas. 
    • Polígonos de frecuencia. Se representa encima del histograma. 
    • Gráfico de troncos y hojas. Es una forma de representación menos frecuente. Consiste en colocar en el tronco las unidades de las cifras, y en las hojas las decenas. Aquí os dejo un cuadro con los datos, y como han sido ordenados según este tipo de representación. 
        
  • Datos bidimensionales y multidimensionales.
    • Tendencias temporales. 
    • Nubes de puntos. En este gráfico, los datos se representan como puntos, y dependiendo de la disposición y la cercanía o lejanía de ellos, tendremos:
      • Correlación positiva: 
      • Correlación negativa: 
      • Ninguna asociación: 
    • Diagramas de estrellas. Aquí, cada variable representa un vértice de la estrella; y con ello se pueden comparar varias unidades de análisis, como se puede observar en la imagen. 

Hasta aquí el post de hoy. Cómo veis no es muy complicado, sólo hay que tener varios conceptos claros. ¡Nos vemos el próximo día!