- Barajar
ActivarDesactivar
- Alphabetizar
ActivarDesactivar
- Frente Primero
ActivarDesactivar
- Ambos lados
ActivarDesactivar
- Leer
ActivarDesactivar
Leyendo...
Cómo estudiar sus tarjetas
Teclas de Derecha/Izquierda: Navegar entre tarjetas.tecla derechatecla izquierda
Teclas Arriba/Abajo: Colvea la carta entre frente y dorso.tecla abajotecla arriba
Tecla H: Muestra pista (3er lado).tecla h
Tecla N: Lea el texto en voz.tecla n
Boton play
Boton play
185 Cartas en este set
- Frente
- Atrás
las variables cualitativas ordinales también se llaman...
|
cuasicuantitativas
|
tipo de escala de medida que tienen el origen (0) como ausencia
|
cuantitativa de razón
|
en las escalas de medida cuantitativas de INTERVALO, el origen es...
|
arbitrario (0 arbitrario, no como ausencia de)
|
para los tests contraste de hipótesis paramétricas se utilizan variables...
|
cuantitativas
y siguen distribución normal |
índice más utilizado para medir intensidad de una relación lineal entre variables
|
correlación de Pearson
para dos vv cuantitativos |
límites de la covarianza
|
-infinito y +infinito
por eso se utiliza Pearson, con límites -1 y +1 |
el índice de correlación de Pearson se calcula con las...
|
puntuaciones típicas
es la raíz cuadrada de la varianza común (coeficiente de determinación). porque coeficiente de determinación es pearson al cuadrado |
si se realiza transformación lineal de alguna de las vv y las constantes multiplicadoras son del mismo signo, pearson...
|
no se altera.
si son de signos diferentes, pearson también lo será |
cuanta más variabilidad (en una o las dos variables), la correlación de pearson...
|
aumenta (Su valor absoluto)
cuanta mayor restricción de rango, menos valor absoluto de Pearson |
si la relación entre dos variables no es lineal, el índice para calcular la relación es...
|
la razón de correlación
|
coeficiente de correlación derivado de Pearson:
para dos variables dicotómicas |
coef de correlación Phi
|
coeficiente de correlación derivado de Pearson: para dos variables, una dicotómica y la otra cuantitativa
|
biserial puntual
|
coeficiente de correlación derivado de Pearson: dos variables cuantitativas, una de ellas dicotomizada artificialmente
|
correlación biserial
|
coeficiente de correlación derivado de Pearson: para dos variables cuantitativas artificialmente dicotomizadas
|
correlación tetracórica
|
correlación sin tener en cuenta el efecto de una tercera variable
|
correlación parcial
reduce más la varianza de error que la semiparcial |
correlación entre x y otras variables consideradas conjuntamente
|
correlación múltiple
|
correlación quitando el efecto de la variable extraña sobre la variable predictora, no sobre la criterio
|
correlación semiparcial
el valor de la semiparcial siempre será menor que el de la parcial |
la correlación parcial, semiparcial y múltiple es para variables...
|
cuantitativas
|
coeficiente de correlación para vv ordinales, ningun empate
|
coef. de correlación de Kendall
|
coeficiente de correlación para vv ordinales, escasos empates
|
coef. de correlación de Spearman
|
coeficiente de correlación para vv ordinales, muchos empates
|
coeficiente de correlación gamma de Goodman y Kruskal
|
relación entre variables nominales, con más de dos modalidades cada una
|
coeficiente chi-cuadrado
|
a mayor (f empírica - f teórica) en chi-cuadrado,...
|
mayor relación o dependencia entre variables
|
si "n" es grande, el coeficiente chi-cuadrado sigue una distribución...
|
Chi-cuadrado
|
en la práctica, para utilizar chi-cuadrado se tolera un máximo de ...% de f teórica menor que 5
|
20%
porque las frecuencias teóricas son un indicador indirecto del tamaño muestral y nos interesa que la muestra sea grande para que el estadístico siga distribución chi-cuadrado |
se utiliza para tablas 2x2 (dos variables nominales dicotómicas)
|
corrección de Yates en la utilización de chi-cuadrado
|
se utiliza en variables dicotómicas, para "n" pequeñas, con alguna f teórica menor de 5 o sumas marginales desiguales
|
test exacto de Fisher
|
es sensible a "n", por lo que si aumenta "n" también aumentará su valor, sin implicar mayor asociación de variables
|
coeficiente chi-cuadrado
|
la f teorica en chi-cuadrado representa...
|
las frecuencias que obtendriamos si hubiera independencia entre las dos variables que estamos relacionando.
por ejemplo: género (h/m) y supervivencia (si/no) en el titánic. también se aplicaría corrección de Yates porque son 2 variables dicotómicas |
índices de tamaño del efecto que no se ven afectados por la ley de los grandes números
|
- coeficiente de contingencia: para 2 vv dicotómicas o politómicas, entre 0 y <1 (nunca alcanza valor 1). alcanza su valor máximo si número de filas = a número de columnas
- Phi: para 2 vv dicotómicas, va de 0 a 1 y para ver la dirección de la relación hay que revisar la tabla de frecuencias - V de Cramer: 2 vv dicotómicas o politómicas, y va de 0 a 1 |
herramienta estadística que te dice como de grande es la magnitud entre tu relación de variables, o diferencias entre medias de grupos
|
índices de tamaño del efecto
|
índice de tamaño del efecto aplicable a 2 variables dicotómicas, y valores entre 0 a 1
|
Phi
|
índice de tamaño del efecto que se aplica a 2 variables dicotómicas o politómicas
|
Coeficiente de contingencia, y no llega al valor 1
V de Cramer, valores entre 0 y 1 |
siempre hay que complementar la información de Chi-cuadrado con índice de tamaño del efecto porque...
|
puede dar un valor inflado por tener una "n" muy grande, y dar estadísticamente significativo sin verlo (alto ERROR TIPO I)
o bien dar un valor no estadísticamente significativo por tener una "n" pequeña y que realmente el tamaño del efecto sea grande (BAJA POTENCIA ESTADÍSTICA) |
mide relación entre dos variables nominales y dicotómicas, en presencia de una tercera variable nominal
|
prueba cochran-mantel-haenszel
|
su resultado se expresa en common odds ratio
(hipótesis nula = 1) |
prueba cochran-mantel-haenszel
es una técnica de control estadístico como ANCOVA, correlación parcial y semiparcial |
diferencia entre cochran-mantel-haenszel y correl. parcial, semiparcial y ancova
|
cochran-mantel-haenszel sirve para variables nominales
correl parcial y semiparcial para vv cuantitativas ancova para vv cuantitativas |
en la regresión lineal, la variable criterio siempre es...
|
cuantitativa
tanto en RL simple como múltiple sino sería regresión logística |
en la regresión lineal, la variable predictora es...
|
cuanti o cuali
tanto en RL simple o múltiple |
supuestos del modelo lineal general en regresión
|
linealidad
normalidad independencia de los errores homocedasticidad no colinealidad outliers / valores extremos |
supuesto del modelo lineal general en regresión:
si no se cumple, incremento de error tipo II. se evalúa con gráfico de dispersión de puntos |
linealidad
|
la linealidad se evalúa con...
|
gráfico de dispersión de puntos
|
supuesto del modelo general lineal:
los errores han de ajustarse a una distribución normal. se evalúa con la cuantificación de la asimetría y curtosis, mediante histogramas y mediante gráficos P-P |
normalidad
|
mediante qué se evalua el supuesto de normalidad?
|
histogramas y gráficos P-P, valor de asimetría, valor de curtosis
|
supuestos del modelo lineal general:
los errores (residuales adyacentes) asociados a una observación no deben estar correlacionados con los errores de otra observación |
independencia de los errores
se evalúa mediante Durbin-watson oscila entre 0 y 4, y los valores entorno a 2 indican que se ha cumplido el supuesto |
ante incumplimiento de la independencia de los errores...
|
se podría usar modelos lineales multinivel
|
supuestos del modelo lineal general
la varianza de una variable debe ser estable en todos los valores de la otra variable. su violación aumentaría el error tipo I |
homocedasticidad
|
para comprobar el supuesto de homocedasticidad en regresión, se utiliza...
|
gráficos de dispersión
prueba Levene |
supuesto del modelo lineal general en regresión
que las variables predictoras no estén altamente correlacionadas entre ellas (dependencia lineal) |
no colinealidad
se evalúa con índices de tolerancia o factor de inflación de la varianza (FIV) |
supuesto del modelo lineal de la regresión que se evalúa mediante indices de tolerancia y el factor de inflación de la varianza (VIF)
|
no colinealidad
(QUE ENTRE LAS VARIABLES PREDICTORAS NO HAYA CORRELACIÓN, esto quiere decir q no se solapen) |
supuesto del modelo lineal:
las variables predictoras VVII y las criterio VVDD deben ser medidas con instrumentos fiables |
no errores de medida (hace referencia a fiabilidad)
|
transformación logarítmica
transformación de raíz cuadrada transformación recíproca transformación de puntuaciones invertidas se usa para el incumplimiento de... |
supuesto de normalidad
las tres primeras para asimetría positiva la última para asimetría negativa LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos) |
transformación logarítmica
transformación de raiz cuadrada transformación recíproca se usan para el incumplimiento de... |
supuesto de normalidad para asimetría positiva (+ la transf. de puntuaciones invertidas en caso de asimetría negativa)
y para el supuesto de homocedasticidad LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos) |
la transformación de mínimos cuadrados ordinarios se utiliza para el incumplimiento de...
|
independencia de los errores
LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos) |
la representación gráfica de la regresión simple es...
|
recta de regresión (criterio de mínimos cuadrados)
|
la representación gráfica de la regresión múltiple es...
|
es un plano: se añade una dimensión por variable predictora suplementaria
(criterio de mínimos cuadrados) |
el coeficiente de determinación (Valores entre 0 y 1) en la regresión simple es...
|
la proporción de varianza común. la proporción de variable del criterio que queda explicada por el modelo lineal
(coeficiente de correlación de Pearson al cuadrado) |
el coeficiente de determinación múltiple (en la regresión múltiple) (Valores entre 0 y 1) es...
|
pronóstico de variable criterio a partir de las variables predictoras
la herramienta es la correlación parcial/Semi a más variables no puede disminuir su valor (coeficiente de correlación de Pearson al cuadrado) |
coeficiente de correlación ajustado en función del número de variables predictoras incluidas en el modelo
|
coeficiente de determinación corregido
|
para determinar la ecuación que comete menos error al predecir, se utiliza...
|
el criterio de los mínimos cuadrados
|
es el promedio de los errores elevados al cuadrado
|
criterio de mínimos cuadrados
|
en la regresión lineal múltiple, B0 es...
|
una constante, Y cuando los predictores son 0
|
métodos para identificar el mejor modelo predictivo con el menor número de predictores posibles, en regresión lineal múltiple
|
- basados en literatura:
*introducir (simultáneo) o de entrada forzada: todos a la vez. es el peor. *jerárquico (se añaden los predictores en distintos pasos) basándose en el criterio del analista - basados en criterios estadísticos: *hacia delante (forward) en que se añaden y se retienen los más predictivos *escalonado (stepwise) en que se añaden y se retienen, pero se van eliminando los menos predictivos a la vez *hacia atrás (backward) que parte con todos y elimina el menos predictivo en cada paso. |
la herramienta estadística en el coeficiente de determinación de la regresión simple es...
|
coef. de correlación de Pearson al cuadrado
|
la herramienta estadística en el coeficiente de determinación múltiple es...
|
correl. parcial o semiparcial
|
el coeficiente de regresión tipificado o estandarizado B1 equivale a...
|
correl de pearson entre X e Y (porque pearson se calcula con puntuaciones típicas)
|
la constante en la regresión simple es...
|
la a, intercepto o beta0
|
si tus datos son puntuaciones tipificadas o estandarizadas, al calcular la pendiente (b) va a coincidir con...
|
la correlación entre VI y VD (pearson)
|
si tus datos son puntuaciones diferenciales, la pendiente (b) va a coincidir con...
|
la misma pendiente que obtendríamos con las puntuaciones directas
|
el coeficiente de correlación de pearson se calcula con puntuaciones...
|
típicas
|
el mejor método basado en criterios estadístico para identificar el mejor modelo predictivo es...
|
hacia atrás (backward)
|
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se retienen los más predictivos en cada paso
|
hacia delante o forward
|
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se van añadiendo y reteniendo pero a la vez eliminando el menos predictivo en cada paso
|
escalonado o stepwise
|
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se parte con todos los predictores y elimina el menos predictivo en cada paso
|
hacia atrás o backward
|
método basado en literatura científica para identificar el mejor modelo predictivo, en que se introducen todos los predictores a la vez
|
introducir (simultáneo)
|
método basado en literatura científica, en que se introducen predictores en diferentes pasos para identificar el mejor modelo predictivo (los más importantes primero)
|
jerárquico
|
bondad de ajuste es sinónimo de...
|
índice de tamaño del efecto
para regresión simple: coef. de determinación para regresión múltiple: coef. de determinación múltiple |
- hipótesis que se refieren a un parámetro poblacional
- requieren el cumplimiento de al menos dos supuestos ppales: variables con nivel de intervalo como mínimo (cuanti), y n>30 sujetos y/o distribuirse normalmente |
pruebas paramétricas
|
- hipótesis que no se refieren a un parámetro poblacional
- muestras que no cumplen los supuestos para pruebas paramétricas |
pruebas no paramétricas
|
estadístico que se utiliza para hipótesis sobre una media, cuando se conoce la varianza de la pob.
|
estadístico Z
|
estadístico que se utiliza para hipótesis sobre 1 media, cuando NO se conoce la varianza de la población
|
estadístico T
|
el estadístico T se distribuye según
|
la cura t de Student
|
el estadístico z se distribuye según
|
la curva normal
|
estadístico que se utiliza para comparar las medias de dos grupos diferentes
|
estadístico T para medias independientes
|
estadístico que se utiliza para comparar medias de dos variables del mismo grupo
|
estadístico T para medias relacionadas
|
análisis de varianza de medias independientes
|
ANOVA
La nalidad del análisis de la varianza (ANOVA) radica en comprobar si alguno de los parámetros del modelo se desvía su cientemente de cero y, por ende, si alguno de los tratamientos experimentales ejerce una in fluencia signi ficativa sobre el fenómeno objeto de estudio. Para realizar tal comprobación se siguen una serie de etapas que conducen a la estimación de la razón F, razón en la que se fundamenta la prueba de la hipótesis |
la ANOVA vs varias t de Student para comparar más de 2 medias tiene la ventaja de...
|
no tener tasa de error por familia de comparaciones
|
para comprobación de la hipótesis nula con ANOVA se examina
|
la variabilidad de las observaciones
|
las categorías en las que se dividen los factores en ANOVA se denominan...
|
niveles
|
pruebas para comprobar supuesto de normalidad en análisis de varianza de medias independientes
|
kolmogorov-smirnov o Shapiro-Wilk
la hipótesis nula es que se hay normalidad. queremos que se cumpla H0 |
.... es la corrección que se aplica a Kolmogorov-Smirnov ante N>....?
(y Kolmogorov-smirnov se utiliza para verificar...) |
Corrección de Lilliefors ante n>50
se utiliza para verificar el supuesto de normalidad |
la independencia de los errores en el análisis de varianza para medias independientes se garantiza con...
|
la aleatorización de los sujetos a las condiciones experimentales
|
la independencia de las observaciones en el análisis de la varianza se puede comprobar con...
|
- durbin-watson
- box-Ljung - Rachas |
el supuesto de igualdad de varianzas en ANOVA es el supuesto de...
|
homocedasticidad
|
el supuesto de homocedasticidad en ANOVA se comprueba con...
|
prueba de Levene
Brown-Forsythe Barlett* poco rebusta si se incumple normalidad C de Cochran Fmax de Hartley *en regresión se utiliza prueba de Levene y gráficos de dispersión |
la prueba de Bartlett es recomendada para comprobar el supuesto de Homocedasticidad V o F
|
F, es una de las pruebas que se puede utilizar pero es poco robusta ante el incumplimiento de normalidad
|
en caso de incumplimiento de la independencia de las observaciones en ANOVA, recurrimos a...
|
mínimos cuadrados
|
en caso de incumplimiento de homocedasticidad en ANOVA recurrimos a...
|
pruebas conservadoras como Welch
otra prueba Brown-Forsythe transformaciones como: - trans. logaritmica neperiana - transf. de raíz cuadrada - transf. recíproca procedimiento de O'biren |
las pruebas omnibus son...
|
para ver si hay diferencias entre medias una vez comprobados los supuestos pero SIN SABER ENTRE QUÉ GRUPOS HAY DIFERENCIAS
|
la ratio de la varianza es...
|
Fmax de Hartley, una prueba para el SUPUESTO DE HOMOCEDASTICIDAD para cuando las "n" o tamaños muestrales son muy grandes.
coge la varianza mayor de todos los grupos y la menor de todos los grupos y calcula una ratio |
PRUEBA ROBUSTA significa...
|
que no se perturba por el incumplimiento de supuestos
|
comparaciones a posteriori una vez cumplido el supuesto de homocedasticidad
|
bonferroni
HSD de tukey scheffé sidak dunnett student-newman-keuls* duncan* fisher* *siendo estas 3 poco robustas |
si la prueba omnibus no sale estadísticamente significativa quiere decir...
|
que no hay diferencias entre grupos
|
pruebas conservadoras son para cuando...
|
no se ha cumplido el supuesto
ponen más difícil rechazar hipotésis nula por ejemplo Welch o Brown-Forsythe cuando no se cumple homocedasticidad |
si la prueba conservadora Welch o Brown Forsythe son estadísticamente significativas...
|
habrá que hacer comparaciones a posteriori:
- games-howell - c de dunnett - T3 de Dunnett - T2 de Tamhane |
bonferroni
tukey scheffé sidak dunnett student-newman-keuls* duncan* fisher* son pruebas para... |
para comparaciones a posteriori habiéndose comprobado el supuesto de homocedasticidad
*siendo estas poco robustas |
herramienta estadística del ANOVA, prueba omnibus para cuando se cumple el supuesto de homocedasticidad
|
F de fisher-snedecor
|
- Dunn-sidak
- dunn o desigualdad de bonferroni (Dunn-bonferroni) - comparación de desviación de cada nivel con la media de los restantes - comparación simple: cada nivel con una categoría de referencia - Helmert: cada nivel con promedio de los posteriores - Diferencia: Helmert invertidos - Polinómicos: análisis de tendencias - Repetidos: cada categoría, excepto la primera, se compara con la categoría anterior son... |
comparaciones a priori o planificadas
|
la prueba de Helmert es...
|
prueba de comparaciones a priori o planificadas
|
la prueba de Games-Howell es...
|
prueba de comparaciones a posteriori o no planificadas, en caso de medias heterocedásticas una vez Welch o brown-forsythe indican diferencias entre medias
|
supuestos que hay que cumplir en ANOVA de medias relacionadas
|
normalidad
homocedasticidad indep. de los errores esfericidad/circularidad aditividad |
las varianzas de las diferencias entre cada par deniveles de VI son iguales en la población
|
esfericidad o circularidad
|
se podría prescindir del supuesto de esfericidad o circularidad si se emplean pruebas multivariantes para el contraste de hipótesis como...
|
lambda de wilks, traza de Pillai, traza de Hotelling y raíz mayor de Roy
|
supuesto que supone que no existe una interacción entre los diferentes factores y los sujetos.
|
aditividad
buscamos aceptar H0 por lo que queremos que NO haya interacción entre variables extrañas y los factores |
si la VI solo tiene dos niveles, el supuesto de esfericidad...
|
siempre se cumple
|
la variabilidad total en ANOVA I se descompone en
|
varianza intersujetos: diferentes respuestas de sujetos distintos al mismo tto: es la variabilidad controlada en las medias relacionadas (son los mismos sujetos entre ttos)
varianza intrasujetos: respuesta de cada sujeto a los distintos tratamientos sucesivos. se descompone en: - varianza intertratamiento: debida a los ttos - varianza residual o error: parte de la varianza intrasujeto debida a variables ajenas |
en el test de contraste de hipótesis para medias relacionadas en ANOVA:
- F esfericidad asumida, épsilon será... - F ajustadas con épsilon es cuando... |
- esfericidad se asume cuando épsilon = 1
- cuando la esfericidad no es perfecta o no se asume, se utilizan F ajustadas: greenhouse-geisser, límite inferior, Huynh-feldt |
épsilon es...
|
un complemento a la W de Mauchly. te dice si la esfericidad es perfecta (cerca de 1) o no
|
prueba omnibus una vez se ha cumplido el supuesto de esfericidad
|
F de fisher-snedecor
|
pruebas omnibus si no hay esfericidad
|
F ajustadas con épsilon:
- greenhouse-geisser: es la más conservadora - límite-inferior - Huynh-Feldt: es la menos conservadora |
Huynh-feldt es...
|
una prueba omnibus de f ajustada con épsilon por no haberse cumplido esfericidad.
es la menos conservadora de las 3 que se pueden usar |
comparaciones posthoc cumpliéndose esfericidad
|
bonferroni: es la más conservadora
sidak WSD de tukey |
prueba más conservadora para las comparaciones posthoc habiéndose cumplido esfericidad
|
bonferroni
|
pruebas posthoc despues de f ajustadas con épsilon (no esfericidad)
|
bonferroni
roy-bose |
- dunn o desigualdad de bonferroni (Dunn-bonferroni)
- comparación de DESVIACIÓN de cada nivel con la media de los restantes - comparación SIMPLE: cada nivel con una categoría de referencia - Helmert: cada nivel con promedio de los posteriores - Diferencia: Helmert invertidos - Polinómicos: análisis de tendencias - Repetidos: cada categoría, excepto la primera, se compara con la categoría anterior son... |
COMPARACIONES A PRIORI QUE SE PUEDEN UTILIZAR PARA MEDIAS REPETIDAS Y MEDIAS NO RELACIONADAS
LA ÚNICA QUE SOLO ES PARA MEDIAS NO RELACIONADAS, Y NO SE PUEDE UTILIZAR PARA MEDIAS REPETIDAS ES: - Dunn-sidak |
en las comparaciones a priori o planificadas se utilizan las pruebas omnibus V o F
|
Falso, al realizar las comparaciones planificadas o a priori ya sabemos que hay diferencias entre medias y no utilizaremos omnibus ni comp. a posteriori
|
la variabilidad total en ANOVA II se descoompone en
|
variabilidad debida al factor A
variabilidad debida al factor B variabilidad debida a la interacción AxB variabilidad de error |
en ANOVA II, si la proporcion de cada una de las variabilidades (debidas a cada factor o a la interacción entre factores) es elevada en relación a la variabilidad error, se puede concluir que...
|
las variaciones en el factor A y/o en el factor B y/o en la interacción son estadisticamente significativas
|
influencia de cada factor aislado sobre la VD en ANOVA II
|
prueba F para el efecto ppal
esta prueba F omnibus se ha de descomponer en efectos diferenciales: diferencia entre dos niveles de un mismo factor o entre más de dos niveles de un factor |
efecto específico de un factor al ser combinado con otro en ANOVA II
|
prueba F para el efecto de interacción
esta prueba F omnibus se ha de descomponer en las siguientes comparaciones por pares: - efecto simple: efecto de un nivel de un factor bajo cada nivel del otro |
como se interpretan los efectos interactivos en ANOVA II?
|
- gráficos
- análisis estadístico en todo efecto simple - contrastes planificados |
contesta a las preguntas "como" y "por qué" de los efectos interactivos entre X e Y
|
mediación
|
contesta a las preguntas "cuando" y "para quien" de los efectos interactivos entre X e Y
|
moderación
|
es un aNOVA realizado sobre unas puntuaciones corregidas mediante una recta de regresión
|
ANCOVA
Al igual que el ANOVA, el ANCOVA es un procedimiento de análisis robusto a la violación de la normali- dad y de la homogeneidad de las varianzas, cuando se trabaja con diseños equilibrados. Sin embargo, no es una técnica robusta frente al incumplimiento del supuesto de independencia. Es un procedimiento estadístico que permite eliminar la heterogeneidad causada en la variable depen- diente por la in uencia de una o más variables extrañas (covariables: cuantitativas). Se utiliza, por tanto, para controlar estadísticamente parte del error experimental. |
procedimiento estadístico que permite eliminar la heterogeneidad causada en la VD por la influencia de una o más VV extrañas
|
ANCOVA
|
Las covariables en ANCOVA siempre serán...
|
CUANTITATIVAS
porque la herramienta estadística es correl. parcial o semi |
concepto que hace referencia a la igualdad de las varianzas
|
homocedasticidad
|
categorías en las que se dividen los factores en análisis de varianza
|
niveles
|
como ANCOVA pero para vv nominales
|
CMH
Mantel haenzel |
cuantas más comparaciones entre grupo, más error...
|
tipo I
|
la tasa de error tipo I es....
|
la tasa de error por familia de comparaciones
para controlarla se utilizan las pruebas omnibus |
para controlar la tasa de error tipo I se utilizan...
|
las pruebas omnibus
y luego las comparaciones entre medias |
se aplican a contrastes que no plantean hipótesis sobre parámetros y que generalmente no cumplen los requisitos para realiz. de pruebas paramétricas
|
contrastes NO paramétricos
|
los contrastes no paramétricos son robustos a la violación de los supuestos de las pruebas paramétricas V o F
|
Verdadero
son más flexibles que los contrastes paramétricos pero tienen menos potencia y no contemplan determinada información (solo orden y numero de observaciones versus la info de las variables cuantitativas) |
las pruebas no paramétricas requieren que las muestras utilizadas cumplan supuesto de normalidad V o F
|
F, no lo requieren y se pueden aplicar a vv que se definen a nivel nominal y ordinal además de intervalo y razón
|
pruebas de contrastes que se pueden utilizar en muestras pequeñas
|
contrastes no paramétricos
|
prueba no paramétrica para 2 grupos de medias independientes
|
Mann-whitney
su equivalente paramétrico sería t de student |
prueba no paramétrica para más de dos grupos de datos independientes
|
Kruskal-wallis
su equivalente sería ANOVA |
prueba no paramétrica para 2 grupos de medias dependientes
|
Wilcoxon
equivalente: t student |
prueba no paramétrica para más de dos grupos de medias dependientes
|
Friedman
equivalente: ANOVA |
prueba no paramétrica para vv nominales (grupos de datos independientes)
|
Chi-cuadrado
corrección de yates si 2x2 |
si tamaño de efecto r es 0.40 el tamaño del efecto es...
|
tamaño de efecto es de CORRELACIÓN y es mediano
a partir de 0.10 pequeño a partir de 0.30 mediano a partir de 0.50 grande |
si tamaño de efecto R^2 es de 0.10 el tamaño del efecto es...
|
de REGRESIÓN MÚLTIPLE y es pequeño.
a partir de 0.02 pequeño a partir de 0.13 mediano a partir de 0.26 grande |
si tamaño de efecto f^2 es 0.40 el tamaño del efecto es...
|
de REGRESIÓN MÚLTIPLE, y será un efecto GRANDE
a partir de 0.02 pequeño a partir de 0.15 mediano a partir de 0.35 grande |
si la d de Cohen da un tamaño del efecto de 0.10, el tamaño del efecto es...
|
de comparación entre 2 grupos y no es efecto significativo
a partir de 0.20 pequeño a partir de 0.50 mediano a partir de 0.80 grande |
si la omega cuadrado tiene un valor de 0.20, el tamaño del efecto es....
|
referente a ANOVA (grupos indep y dep.), y es tamaño del efecto GRANDE
a partir de 0.01 pequeño a partir de 0.06 mediano a partir de 0.14 grande |
la d de Cohen se utiliza para...
|
dos grupos de medias dependientes o independientes.
para t student (paramétricas), t wilcoxon (no paramétricas, grupos dependientes), y mann-whitney (no paramétricas, datos independientes). es la diferencia de medias estandarizada |
es la diferencia de medias estandarizada
|
d de Cohen (Es el índice de tamaño del efecto para comparación entre 2 grupos, ya sea de medias dependientes o indep.)
|
la F conservadora consiste en...
|
corrección de los grados de libertad de la prueba F
serían Welch y Brown-forsythe en el caso de incumplimiento de homocedasticidad, y greenhouse-geisser, límite inferior o Huynh-feldt para incumplimiento de esfericidad (siendo greenhouse la más conservadora y Huynh-feldt la menos) |
eta cuadrado es un estimador sesgado del tamaño del efecto V o F
|
V
|
para interpretar una interacción estadísticamente significativa, se debe analizar...
|
los efectos SIMPLES (la interpretación de los efectos ppales supone error de interpretación)
|
tipo de muestreos no aleatorios o no probabilísticos similar al muestreo aleatorio estratificado, pero sin elección probabilística. sujetos seleccionados según conocimiento del peso de cada valor de una característica de la población
|
por cuotas
|
tipo de muestreos no aleatorios o no probabilísticos en la muestra seleccionada según criterios prefijados por los investigadores
El investigador selecciona la muestra con un propósito en mente, es decir, según su idea sobre qué o quién debe formar la muestra. |
intencional, opinático, de juicio o selección experta
|
tipo de muestreos no aleatorios o no probabilísticos en que se seleccionan los casos que están disponibles en el momento del estudio
|
incidental, casual, subjetivo o de conveniencia
|
tipo de muestreos no aleatorios o no probabilísticos en que se recurre a los contactos de los primeros participantes en el estudio
|
bola de nieve
|
muestreos
- por cuotas - intencional, opinático, de juicio o selección experta - incidental, casual, subjetivo o de conveniencia - bola de nieve son... |
muestreos no aleatorios o no probabilísticos
|
tipo de muestreo probabilístico o aleatorio, en que se da elección de sujetos individuales, que han de tener igual probabilidad
|
simple
|
tipo de muestreo probabilístico o aleatorio, en que se da selección de una o varias de las aglomeraciones naturales
|
conglomerados
|
tipo de muestreo probabilístico o aleatorio, en que se da una característica de interés en la población dividida en varios estratos, y se extrae aleatoriamente una muestra aleatoria simple de cada uno.
|
estratificado
suma de submuestras obtenidas = muestra total. |
la afijación en el muestreo estratificado puede ser...
|
simple o uniforme: igual número de participantes en cada estrato
proporcional: selección en función del peso de cada estrato en la población óptima: menos individuos de los estratos más homogéneos y más individuos de los estratos heterogéneos (tiene en cuenta la VARIABILIDAD) |
tipo de muestreo probabilístico o aleatorio, en que se da división de la población (N) por el n deseado en la muestra.
N/n=K dentro de los K primeros elementos, se selecciona al azar uno de ellos (el primer elemento). para la selección del segundo elemento, se sumará el valor de K al primer elemento seleccionado; para la selección del tercer elemento, se sumará el valor de K al segundo, etc... hasta obtener n. |
sistemático
|
tipo de muestreo probabilístico o aleatorio, en que se da muestreos distintos en sucesivas etapas
|
polietápico
|
tipo de muestreo en que la probabilidad de los elementos a seleccionar es conocida y hay más validez externa
|
muestreo aleatorio o probabilístico
|
tipo de muestreo en que no se conoce la probabilidad de los elementos a seleccionar y hay menos validez externa
|
muestreo no aleatorio o no probabilístico
las muestras no son representativas |
Si la variable predictora es politómica, se deberá transformar en variables dicotómicas (dummy). Para n niveles de la variable predictora politómica, obtendremos ... variables dicotómicas: presencia (1), ausencia (0).
|
n-1 variables dicotómicas
Por ejemplo, la variable régimen (régimen hospitalario) de nuestro archivo: Tratamiento adicción alcohol, que tiene K = 3 categorías, puede convertirse en K-1 = 2 variables dicotómicas |
Supuesto de homogeneidad de las varianzas
|
homocedasticidad
|
Influencia específica ejercida por los factores sobre las respuestas de los sujetos en la VD.
|
efectos factoriales
Mediante el Análisis de la varianza se puede comprobar la in uencia de los factores aisladamente, así como la in uencia de su interacción. No obstante, existe otro procedimiento de contraste-veri cación de hipótesis en un diseño factorial: el análisis de los efectos factoriales Permite inferir la in uencia de factores aislados y sus interacciones con cada una de las modalidades Es con rmatorio (si la F procedente de un factor o interacción resultó signi cativo; por lo que este análi- sis tendrá que con rma o contradecir este punto) y complementario (nos añade información = especi ca la in uencia de cada nivel en la fuente de variabilidad) al ANOVA. A partir de la comparación de medias Existen 2 bloques de efectos: - efectos producidos por los factores aisladamente (ppales, diferenciales) - efectos que hacen referencia a la acción combinada de dos o más factores: son más relevantes (Efectos de interacción). mediante gráficos o ef. simples. |
n uencia especí ca de un factor cuando actúa en combinación con otro. Puede ser de 1r orden (acción combinada de dos factores), 2o orden (acción combinada de tres factores), 3r or- den (acción combinada de cuatro factores), y así sucesivamente
|
efectos de interacción.
Hay dos procedimientos para comprobar la interacción: - Grá ficamente: situamos los valores de la VD (medias) en el eje de ordenadas y el valor de uno de los niveles del factor en el eje de abscisas. Línea paralelas: no hay interacción Líneas que se cruzan o se distancian en algún extremos: A veces la grá ca no ofrece información tan clara, y no se puede ver si hay interacción o no. En estes casos usaremos el segundo método, alternativo: - Efectos simples: Efectos de un factor en cada uno de los niveles del resto de factores. Ya1b1 – Ya1b2 Para un CI bajo... ¿qué tal le va cada terapia?, ¿ y para un CI alto? Comparamos, p.ej, para CI bajo, puntua- ciones entre pares de terapias. |
Efectos de un factor en cada uno de los niveles del resto de factores.
Ya1b1 – Ya1b2
Para un CI bajo... ¿qué tal le va cada terapia?, ¿ y para un CI alto? Comparamos, p.ej, para CI bajo, puntua- ciones entre pares de terapias |
efectos simples
es una de las formas de comprobar la interacción |
comparo medias de diferentes niveles de un mismo factor; lo que biene a ser la diferencia entre los efectos diferenciales de dos niveles de ese factores = la diferencia entre los efectos principales
|
efectos diferenciales
recordar que existen dos bloques de efectos: 1. los que hacen referencia a los efectos producidor por los ff aisladamente (efectos ppales y diferenciales) 2. los que hacen referencia a la acción combinada de dos o más factores: son más relevantes. |
diferencia entre a media de un nivel de un factor y la media general de este factor ≈
efecto medio de ese factor bajo todos los niveles del otro |
efectos principales
recordar que existen dos bloques de efectos: 1. los que hacen referencia a los efectos producidor por los ff aisladamente (efectos ppales y diferenciales) 2. los que hacen referencia a la acción combinada de dos o más factores: son más relevantes. |
Una ventaja de los diseños de dos factores sobre los diseños de un factor es que necesitan ... sujetos para alcanzar la misma potencia.
|
menos
|
Los efectos que interesa analizar en un modelo de dos factores completamente aleatorizados son ...
|
tres: los dos efectos principales (los efectos de cada factor individualmente considerado) y el efecto de la interacción entre ambos factores (el efecto conjunto o combinado de ambos factores)
El concepto de interacción entre factores admite varias formulaciones, todas ellas equivalentes. Desde un punto de vista no formal, decimos que existe interacción entre dos factores cuando el efecto de uno de ellos sobre la variable dependiente no es el mismo en todos los 2 niveles del otro factor. Esto equivale a a rmar que existe interacción cuando el resultado de la combinación de dos factores di ere de la suma de los efectos principales de esos factores. |
qué reflejan las sumas de cuadrados en el ANOVA?
|
re flejan las diferentes variaciones que tienen lugar en un experimento y constituyen un elemento fundamental para el cálculo de las varianzas. Los términos de esta ecuación corresponden a lo que se conoce, respectivamente, como suma cuadrática total, suma cuadrática intergrupos y suma cuadrática intragrupo.
|
qué examina las diferencias entre medias poblacionales de los distintos grupos en dos o más variables dependientes simultáneamente?
|
el MANOVA
|