Upload
trandung
View
236
Download
1
Embed Size (px)
Citation preview
TEMA VI
Definición general
ClasificaciónCaso paramétrico: análisis estadísticos aplicablesFormato del diseño multigrupo completamente al azar, modelo estructural y componentes de variación
DISEÑOS EXPERIMENTALES MULTIGRUPO
ESQUEMA GENERAL
Concepto
Los diseños multigrupo, de uso frecuente en ciencia psicológica y social, son estructuras de una sola variable independiente a tres o más valores o niveles. Al seleccionar más de dos valores de la variable independiente o causal, es posible extraer la relación funcional entre la variable independiente y dependiente del experimento. Por dicha razón, estas estructuras se conocen por experimentos funcionales o paramétricos (Plutchik, 1968)
Clasificación
Aleatorización Diseño multigrupo (de tres o más grupos completamente al azar
Constancia Diseño de Bloques de grupos al azarDiseño de Cuadrado LatinoDiseño Jerárquico
El sujeto como control propio
Diseño de medidas repetidas con tres o más tratamientos (Sujetos x Tratamientos)
Técnica de control Diseño
Diseño multigrupo al azar
Diseño multigrupo al azar
El diseño multigrupo totalmente al azar requiere la asignación aleatoria de los sujetos de la muestra a los distintos grupos, sin restricción alguna. Se trata de una extensión del diseño de dos grupos, ya que en esta situación se eligen de la variable de tratamiento más de dos valores o condiciones.
Formato del diseño de multigrupo al azar
Muestra experimental
Asignación aleatoria
Tratamientos
.…………
A1 A2 … Aj … Aa
Sujetos
Sujetos
Sujetos
Análisis aplicables
Prueba de significación general
Si la V. Independiente es categórica
Si la V. Independiente es cuantitativa
ANOVA unidireccional
Comparaciones múltiples
Análisis de tendencias
Caso paramétrico. Ejemplo 1
Supóngase que se pretende probar si la cantidad de repasos es una variable decisiva en la retención (memoria de recuerdo), para un conjunto de palabras monosílabas de igual valor asociativo. De la variable independiente o variable repaso se seleccionan los siguientes valores: presentación de la lista sin repaso (condición A1), dos presentaciones de la lista, siendo la segunda presentación un repaso (condición A2), tres presentaciones y dos repasos (condición A3) y, por último, cuatro presentaciones y tres repasos (condición A4) ..//..
Se instruye a los sujetos que lean en voz alta cada uno de los ítems presentados, a un ítem por segundo. Al terminar las lecturas, los sujetos realizan una prueba de memoria de recuerdo consistente en restituir o recuperar de la memoria la mayor cantidad de ítems. La medida de la variable dependiente es la cantidad de respuestas o ítems correctamente recordados. Asumiendo que cada ítem tiene la misma dificultad de recuerdo, se considera que la escala de medida es de intervalo.
Modelo de prueba estadística Paso 1. La hipótesis de nulidad asume que las medias
de los grupos experimentales proceden de una misma población y, por consiguiente, son idénticas:
H0: μ1 = μ2 = μ3 = μ4
Paso 2. La hipótesis experimental asume que la
cantidad media de palabras recordadas variará positivamente en función de la cantidad de repasos. En términos estadísticos:
H1: μ1 < μ2 < μ3 < μ4
Paso 3. Se aplica una prueba de significación general o prueba ómnibus, cuyo estadístico es la F de Snedecor. El nivel de significación de α = 0.05.
El tamaño de la muestra experimental y las submuestras de tratamiento son:
N = 20 y n = 5. F0.95(3/16) = 3.24
Paso 4. Tras la ejecución del experimento, se
calcula el valor empírico de F, a partir de la matriz de datos.
Matriz de datos del diseño
41 8.2
33 6.6
25 5
12 2.4
97898
67875
43576
21342
A4A3A2A1
TRATAMIENTOSDISEÑO MULTIGRUPO
Totales:Medias:
1115.5
ANOVA unidireccional
Modelo estructural del ANOVA: Diseño multigrupo
ijjijY
Especificación de modelo del ANOVA
Yij = la puntuación del i sujeto bajo la j condición experimental o tratamiento.
μ = la media global de los datos del experimento.
αj = μj - μ, es el efecto o impacto del j nivel de la variable de tratamiento A.
εij = Yij - μj, es el error experimental asociado al i sujeto bajo el j tratamiento.
Para que el modelo sea válido, se especifican las siguientes condiciones:
Σαj = 0 y εij NID(0, σ²)
Cuadro resumen del ANOVA: Diseño multigrupo
F0.95(3/16) = 3.24
an-1=19 114.95Total (T)
<0.0521.0830.58 1.45
(a-1)=3a(n-1)=16
91.7523.20
Trat (A)Error (S/A)
pFCMg.lSCF.V.
Modelo de prueba estadística
Paso 5. Dado que el valor observado de F es mayor que el valor teórico al 5% y en función de los grados de libertad correspondientes, se rechaza la hipótesis de nulidad y se acepta la hipótesis alternativa o hipótesis experimental a este nivel de significación.
Supuesto de homogeneidad
Igualdad de las variancias de los grupos:
H0: σ1² = σ2² = ... = σj²
Prueba de la homogeneidad
Hartley: cuando n por grupo es constante
mayor de las variancias s²mayor
Fmax = ----------------------------------- = -------------
menor de las variancias s²menor
Prueba del supuesto de homogeneidad de las variancias
60.20)4/4(
42.37.05.2
95.0
max
max
F
F
70
31
52
31
24
23
22
21
.s
.s
.s
.s
j/(n-1)
2
2
menor
mayormax s
sF
Resultado de la prueba
Entrando en la tabla de Fmax, con los parámetros correspondientes y a un nivel de significación de 0.05, el valor teórico de Fmax
0.95(4/4) es 20.60. Dado que el valor observado del estadístico es más pequeño que el de las tablas, se acepta la hipótesis de nulidad o supuesto de homogeneidad de las variancias.
Comparaciones múltiples
Contrastes de medias
Las comparaciones o contrastes se efectúan, por lo general, entre las medias de los grupos de tratamiento. Genéricamente, una comparación entre k medias es la combinación lineal o suma ponderada de medias. Antes de examinar los distintos procedimientos de comparaciones múltiples, proponemos una clasificación práctica para su descripción.
Comparaciones múltiples
A priori o planificadas
No ortogonales
Ortogonales
A posteriori o no planificadas
FisherDuncanTukeySchefféDunnetNewman-Keuls
Contrastes a priori o planificados
Las comparaciones a priori o planificadas se formulan de acuerdo con los intereses previos o teóricos del investigador, y se plantean antes de obtener los resultados del experimento. Según su naturaleza, las comparaciones planificadas son no ortogonales y ortogonales.
Contrastes no ortogonales
Suma algebraica de las medias de los tratamientos ponderadas por unos coeficientes que cumplen la condición de linealidad:Σaj = 0
_ _ _ _ c = a1Y.1 + a2Y.2 + ... + ajY.j = ΣajY.j
Cinco hipótesis de nulidad para los contrastes no ortogonales
1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no difiere de una sola lectura (condición A1)
2. H0 = μ3 - μ1 = 0
Se asume la igualdad entre la condición tres (A3) y uno (A1) ..//..
3. H0 = μ4 - μ1 = 0
Se asume la igualdad entre cuatro lecturas (condición A4) y una sola lectura (condición A1) ..//..
4. H0 = μ3 - 1/2(μ1 + μ2) = 0
Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.
5. H0 = μ4 - 1/3(μ1 + μ2 + μ3) = 0
Se define la igualdad entre cuatro lecturas y el promedio de las restantes.
Reformulación de las hipótesis nulas en combinaciones lineales
1. (-1)μ1 + (1)μ2 + (0)μ3 + (0)μ4 = 0
2. (-1)μ1 + (0)μ2 + (1)μ3 + (0)μ4 = 0
3. (-1)μ1 + (0)μ2 + (0)μ3 + (1)μ4 = 0
4. (-1/2)μ1 + (-1/2)μ2 + (1)μ3 + (0)μ4 = 0
5. (-1/3)μ1 + (-1/3)μ2 + (-1/3)μ3 + (1)μ4 = 0
Comparaciones múltiples a priori: no ortogonales
1.331-1/3-1/3-1/3c5
1.501-1/2-1/2c4
2100-1c3
2010-1c2
2001-1c1
a4a3a2a1Contraste
Coeficientes
Σa²j
Prueba de las hipótesis de nulidad
Paso 1. Cálculo del valor empírico del contraste. c1 = (-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2 = 2.6 c2 = (-1)2.4 + (0)5.0 + (1)6.6 + (0)8.2 = 4.2
c3 = (-1)2.4 + (0)5.0 + (0)6.6 + (1)8.2 = 5.8
c4 = (-1/2)2.4 + (-1/2)5.0 + (1)6.6 + (0)8.2 = 2.9
c5 = (-1/3)2.4 + (-1/3)5.0 + (-1/3)6.6 + (1)8.2 = 3.53
Paso 2. Cálculo del error estándar del contraste.
a²1 a²2 a²j
σc sc = s²e (------ + ------ + ... + ------)
n n n
CMe = -----------Σa²j
n
..//..
donde s²e = CMe es la variancia del error o Cuadrado Medio del error del Análisis de la Variancia. Así, se obtienen los errores estándar de los distintos contrastes que se muestran en la siguiente pantalla. ..//..
(1.45)2sc1 = -------------- = 0.76 5 (1.45)2sc2 = -------------- = 0.76 5 (1.45)2sc3 = --------------- = 0.76 5 (1.45)1.5sc4 = --------------- = 0.66 5 (1.45)1.33sc5 = ---------------- = 0.62 5
Paso 3. A continuación, se prueba la significación del contraste mediante el estadístico t o F. Cuando se utiliza este segundo estadístico, es necesario calcular las Sumas de Cuadrados de los contrastes, aplicando la siguiente expresión:
c² SCc = --------- Σ(a²j/n)
..//..
El valor de los respectivos estadísticos de la prueba se obtienen de las ecuaciones siguientes: c t = -------, y
sc CMc F = --------- CMe Puesto que cada contraste tiene un solo grado de libertad, el valor del Cuadrado Medio es la correspondiente Suma de Cuadrados. ..//..
69.562.053.3
39.466.09.2
65.776.08.5
53.576.02.4
42.376.06.2
62.05
33.1)45.1(
66.05
5.1)45.1(
76.05
2)45.1(
76.05
2)45.1(
76.05
2)45.1(
5
4
3
2
1
Sc
Sc
Sc
Sc
Sc
csct 2
jerror
c an
CMs
1
1
1
1
1
g.l
3.3245.184.46
33.1945.103.28
5845.1
1.84
41.3045.1
1.44
66.1145.19.16
8446331
5335
032851
925
1842
855
1442
245
9162
625
2
5
2
4
2
3
2
2
2
1
..
).)((SCc
..
).)((SCc
.).)((SCc
.).)((SCc
.).)((SCc
error
c
CMCMF 2
2
jc a
ncSC
Cuadro resumen de los valores de t y F
Cuadro resumen del cálculo de las Sumas de Cuadrados y de los valores de t y F
Valores t Valores F 2.6 16.9
c1 = -------- = 3.42 -------- = 11.66 0.76 1.45 4.2 44.1 c2 = -------- = 5.53 -------- = 30.41
0.76 1.45
5.8 84.1 c3 = -------- = 7.65 -------- = 58 0.76 1.45 ..//..
Valores t Valores F
2.9 28.03 c4 = --------- = 4.39 --------- = 19.33 0.66 1.45 3.53 46.84 c5 = --------- = 5.69 --------- = 32.3
0.62 1.45
Paso 4. Entrando en la tabla de t, con los grados de libertad asociados al término de error del ANOVA y a un nivel de significación del 5%, se tiene
t0.95 (16) = 2.12
De igual modo, entrando en la tabla de F, se tienen
F0.95(1/16) = 4.49
De esto se concluye que todos los contrastes son significativos.
Contrastes ortogonales
La propiedad básica de las comparaciones ortogonales es que reflejan piezas de información independientes y que el resultado de una comparación no tiene relación alguna con el resultado de cualquier otra. Bajo el supuesto de ortogonalidad, dos comparaciones son independientes cuando la suma de los productos cruzados de los coeficientes es cero, es decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción:
(Σajak = 0)
Tres hipótesis de nulidad para los contrastes ortogonales
1. H0 = μ2 - μ1 = 0Dos lecturas de la lista (condición A2) no difiere de una sola lectura (condición A1)
3. H0 = 2μ3 – (μ1 + μ2) = 0Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.
5. H0 = 3μ4 - (μ1 + μ2 + μ3)= 0Se define la igualdad entre cuatro lecturas y el promedio de las restantes.
Coeficientes de los contrastes ortogonales
123-1-1-1c3
60 2-1-1c2
20 0 1-1c1
a4a3a2a1Contraste
Coeficientes 2ja
Supuesto de ortogonalidad entre dos contrastes
Ejemplo: entre el contraste uno y dos:
(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0
Suma de cuadrados del contraste
nc² SCC = --------
Σa²j
Razones F
16.90 F1 = ------------ = 11.66 1.45
28.03F2 = ------------ = 19.33 1.45 46.28F3 = ----------- = 32.39 1.45
Valor teórico de F
Entrando en la tabla de la distribución F, el valor teórico del estadístico es F0.95(1/16) = 4.49
Características de los contrastes ortogonales
Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma de Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes) como grados de libertad de esa fuente de variación (se dispone de un grado de libertad por componente)Siguiendo con el ejemplo propuesto, la Suma de Cuadrados de tratamientos, SCA, tiene a - 1 grados de libertad y, como consecuencia, tres componentes ortogonales (siendo a igual a cuatro)
Propiedades de los contrastes ortogonales
SCC1 1g.l. (16.9)
SCA SCC2 1g.l.(28.03)
(91.75)
SCC3 1g.l.(46.82)
Desventajas de los contrastes a priori o planificados
Se corre el riesgo de cometer más errores de Tipo I al asumir como verdadera la hipótesis de nulidad; es decir, hay la posibilidad de realizar más rechazos falsos de la hipótesis de nulidad o de no efectos. En línea con esa problemática, es conveniente distinguir dos tipos de errores: Error de Tipo I por comparación (PC) y tasa de error por familia (PF). El error PC, simbolizado por α, es la probabilidad de cometer un error de Tipo I por comparación. ..//..
Si α es 0.05, la probabilidad es 0.05. Por el contrario, la tasa de error PF, αPF, es la probabilidad de cometer uno o más errores de Tipo I en un conjunto de comparaciones. La relación entre estos dos errores y la probabilidad de cometer al menos un error de Tipo I es
αPF = 1 - (1 - α)c
Cálculo del error PF
Así, con cinco comparaciones (c = 5), y un α de 0.05, la probabilidad de cometer un error PF es 1 - 0.955 = 0.23. De forma aproximada, esa probabilidad se calcula por (c)(α), 5(0.05) = 0.25. En el caso de las comparaciones ortogonales estudiadas, la probabilidad de rechazar una de las hipótesis de nulidad siendo verdadera es 1 - (0.95)3 = 0.14. Esta probabilidad tiende a aumentar con el número de comparaciones independientes. ..//..
Así, para un conjunto de comparaciones independientes, es posible que algunas sean significativas como resultado de la propia metodología. Para evitar esas dificultades se aplican las comparaciones a posteriori, post hoc, o comparaciones simultáneas.
Cantidad de contrastes planificados
La cantidad de comparaciones planificadas a partir de un número dado de tratamientos, a, es
(3a - 1) 1 + ------------- - 2a
2 ..//..
Si, como en el experimento propuesto, a = 4 (cuatro tratamientos), entonces hay 1 + (34 - 1)/2 - 24 = 25 comparaciones. De las cuales, [4(4 - 1)]/2 = 6, son comparaciones entre pares y 19 son comparaciones de combinaciones de tratamientos. En la práctica, no se formulan las 25 comparaciones posibles, sino tan sólo las que tienen interés teórico. Dado que existe una probabilidad calculada de cometer un falso rechazo de la hipótesis de nulidad, en una de esas comparaciones, es posible controlar el error por conjunto o familia de comparaciones a un nivel aceptable.
Corrección de Bonferroni o de Dunn
Supóngase, como hipótesis de trabajo, que se efectúan cinco comparaciones planificadas, con un α de 0.05. La tasa de error PF es, en este caso, 5(0.05) = 0.25. Para reducir este error, se escoge simplemente un valor más pequeño de α, por ejemplo 0.01. De este modo, la tasa de error PF es ahora de 5(0.01) = 0.05. Esta corrección, conocida como prueba de Bonferroni o prueba Dunn, consiste en dividir tasa de error PF deseada por la cantidad de comparaciones (0.05/5 = 0.01)
Contrastes no planificados o a posteriori
El objetivo de los contrastes no planificados es obtener el máximo de información de los datos de un experimento. Los contrastes no planificados son procedimientos para efectuar comparaciones a posteriori. Estos procedimientos poseen, de otra parte, la ventaja de mantener constante la probabilidad de cometer errores de Tipo I cuando se toma la decisión estadística. ..//..
Los métodos propuestos se conocen por comparaciones simultáneas.
Con comparaciones no planificadas, a posteriori o post hoc, los pruebas estadísticas citadas van encaminados a reducir el tamaño de la región crítica, y controlan el error PF mediante el ajuste del valor alfa. ..//..
Con comparaciones no planificadas o post hoc, hay técnicas encaminadas a reducir el tamaño de la región crítica, que controlan el error PF mediante el ajuste del valor alfa.Entre los distintos métodos, se encuentran las pruebas de Scheffé (1959), Tukey (1953), Newman-Keuls (Newman, 1939 y Keuls, 1952), Duncan (1953), y Dunnett (1955).
Análisis de tendencias
Concepto
Una de las técnicas de análisis de tendencias es el método de polinomios ortogonales. En virtud de ese procedimiento, es posible dividir la variación o Suma de Cuadrados de tratamientos en una serie de componentes independientes de tendencia como, por ejemplo, lineal, cuadrado, cúbico, etc. Cada componente ortogonal aporta información particular sobre una clase de tendencia o relación entre la variable independiente y la variable dependiente. Al mismo tiempo, este procedimiento permite verificar estadísticamente la significación de cada componente de tendencia.
Análisis de tendencias: Descomposición polinómica ortogonal de la Suma de Cuadrados
“Entre tratamientos” o “Entre grupos”.
Fuentes de variación Grados de libertad Sumas de cuadrados
Entre Tratamientos k-1 SCA
Lineal 1 SCLin
Cuadrático 1 SCCuad
Cúbico 1 SCCub
……….……………………………………………………………
k-1 1 SCk-1
Coeficientes de los contrastes polinómicos ortogonales
Coeficientes de polinomios ortogonales, k = 4 Coeficientes
Contraste a1 a2 a3 a4 Σa²j
Lineal -3 -1 1 3 20 Cuadrático 1 -1 -1 1 4 Cúbico -1 3 -3 1 20
Cálculo de las suma de cuadrados
El cálculo de la Suma de Cuadrados de cada uno de estos componentes se obtiene de la expresión,
nc² SCC = --------
Σa²j
Cuadro resumen del análisis de tendencias
Componente SC g.l. CM F p
Lineal 90.25 1 90.25 62.24 <0.05Cuadrático 1.25 1 1.25 0.86 >0.05Cúbico 0.25 1 0.25 0.17 >0.05
Error 23.20 16 1.45
F0.95(1/16) = 4.49
Gráfico de medias
0123456789
A1 A2 A3 A4
V.D.
Caso paramétrico. Ejemplo 2
Se pretende estudiar si el ruido ambiental afecta el rendimiento en un tarea cognitiva. Se lleva a cabo un experimento en que los sujetos tienen que verificar cálculos aritméticos simples (por ejemplo, multiplicaciones del tipo a x b = c). Para ello, una muestra de 120 individuos son asignados al azar a los grupos: el primero realiza la tarea en un sala insonorizada; el segundo realiza la tarea con un ruido de 20 dB; el tercero con un ruido de 40 dB y el último con ruido de 60 dB. Cada individuo verifica un total de 50 operaciones aritméticas. La variable dependiente es el tiempo de reacción. ..//..
Estadísticos descriptivos
Descriptivos
tr
30 566.4227 51.43192 9.39014 547.2178 585.6277 421.85 650.9930 597.9409 48.58777 8.87087 579.7980 616.0839 480.37 717.3230 651.4794 55.99825 10.22383 630.5693 672.3895 572.16 772.8030 806.2980 50.80912 9.27643 787.3256 825.2705 708.69 926.26
120 655.5353 105.76248 9.65475 636.4179 674.6526 421.85 926.26
0 db20 db40 db60 dbTotal
N MediaDesviación
típica Error típico Límite inferiorLímite
superior
Intervalo de confianza parala media al 95%
Mínimo Máximo
Prueba de homogeneidad de las variancias
Prueba de homogeneidad de varianzas
tr
.364 3 116 .779
Estadísticode Levene gl1 gl2 Sig.
ANOVA
ANOVA
tr
1020120.4 3 340040.120 126.841 .000310978.126 116 2680.8461331098.5 119
Inter-gruposIntra-gruposTotal
Suma decuadrados gl
Mediacuadrática F Sig.
Comparaciones múltiplesCoeficientes de los contrastes
1 -1 0 01 0 -1 01 0 0 -1
Contraste123
0 db 20 db 40 db 60 dbruido
Pruebas para los contrastes
-31.5182 13.36873 -2.358 116 .020-85.0567 13.36873 -6.362 116 .000
-239.8753 13.36873 -17.943 116 .000-31.5182 12.91771 -2.440 57.813 .018-85.0567 13.88170 -6.127 57.585 .000
-239.8753 13.19951 -18.173 57.991 .000
Contraste123123
Asumiendo igualdadde varianzas
No asumiendoigualdad de varianzas
tr
Valor delcontraste Error típico t gl Sig. (bilateral)
Análisis de tendencias
ANOVA
tr
1020120.4 3 340040.120 126.841 .000896674.682 1 896674.682 334.475 .000
123445.677 2 61722.838 23.024 .000
114022.497 1 114022.497 42.532 .0009423.180 1 9423.180 3.515 .0639423.180 1 9423.180 3.515 .063
310978.126 116 2680.8461331098.5 119
(Combinados)ContrasteDesviación
Término lineal
ContrasteDesviación
Término cuadrático
ContrasteTérmino cúbico
Inter-grupos
Intra-gruposTotal
Suma decuadrados gl
Mediacuadrática F Sig.
Gráfico de medias
Ventajas y desventajas
El diseño multigrupo completamente al azar permite examinar, desde una perspectiva amplia, las distintas estrategias de análisis aplicables a los datos experimentales. En primer lugar, el análisis unidimensional de la variancia o indicador general de variación de las medias de los grupos. ..//..
En segundo lugar, las estrategias que prueban las microhipótesis de investigación; es decir, las comparaciones múltiples entre medias. Por último, para aquellas situaciones donde la variable independiente es cuantitativa y con valores equidistantes, el análisis de tendencias mediante el procedimiento de modelación polinómica ortogonal.