Correlación, análisis factorial y análisis de regresión
El término correlación recoge el grado en que 2 variables se relacionan o varían conjuntamente. Los coeficientes de correlación irían de -1 a +1, pasando por el cero:
-
un coeficiente de +1 significa que hay una relación perfecta positiva entre las 2 variables medidas (X e Y). La persona con la puntuación más alta en X tendrá también la puntuación más alta en Y
-
un coeficiente de -1 indica una relación perfecta negativa de forma que la persona que tiene la puntuación más alta en X, tendrá la puntuación más baja en Y
-
una correlación de cero indicará que no hay ninguna relación entre ambas variables.
Las correlaciones positivas mostrarían relaciones directas (a mayor X mayor Y) y las negativas, relaciones inversas (a mayor X, menor Y). Cuanto más se acerque el coeficiente a +1 y -1, más fuertemente relacionadas están las variables.
En psicología en general las correlaciones no son perfectas, ni están próximas a serlo. Suelen moverse en torno a 0,30 y 0,50 (positivas y negativas). Estas correlaciones, cuando son estadísticamente significativas, nos permiten concluir que la asociación entre las variables consideradas supera la que podría deberse al azar.
Las correlaciones no indican relaciones de causa y efecto. Así si 2 variables están relacionadas cabrían 3 posibilidades:
-
que la variable X causa la variable Y
-
que la variable Y cause la X
-
que haya una tercera variable Z que cause X e Y, por lo que no habría relación causal entre X e Y
No obstante, pueden ser útiles para hacer predicciones, de forma que si 2 variables están asociadas, cuando conocemos una de ellas se pueden hacer predicciones o estimaciones con respecto a la otra.
El análisis factorial (AF) resume las relaciones entre muchas variables agrupando aquellas que se relacionan más entre sí en unos pocos factores. Ejemplo: el cuestionario de medida de la personalidad NEO-PI-R. El AF constituye una técnica fundamental en el estudio de los rasgos de personalidad ya que este tipo de constructo deriva del análisis de conductas que están muy relacionadas entre sí.
Otra de sus aplicaciones sería en el análisis de escalas o inventarios de medida de distintas variables personales.
El AF permite organizar y sintetizar la información, siendo una estrategia ampliamente usada en la investigación en personalidad.
La regresión es una técnica de análisis de datos muy flexible que permite ir un paso más allá de la correlación, estudiando las relaciones entre una o más variables independientes o predoctoras a la vez y una variable dependiente o de criterio.
Hay muy distintos procedimientos para realizar análisis de regresión y un tratamiento diferente del mismo según las variables sean continuas o discretas.
En la investigación sobre personalidad, los 3 datos más relevantes a considerar serían:
-
si el modelo es significativo o no (a partir del valor de la F que proporciona)
-
qué porcentaje de varianza queda explicada por el modelo
-
qué betas (coeficientes estandarizados) son significativas en dicho modelo. Estas betas estandarizadas se interpretan como los coeficientes de correlación, pudiendo tomar valores de -1 a +1.
Otra aplicación del análisis de regresión sería en los estudios longitudinales donde interesa saber en qué medida las variables evaluadas en la primera ocasión o Tiempo 1 influyen en los resultados obtenidos en el segundo momento de medida o Tiempo 2.
Contraste de grupos (pruebas de T y análisis de varianza)
Las pruebas de T permiten analizar si 2 medias son significativamente diferentes o no. Qué prueba concreta se aplique dependerá del número de sujetos de cada grupo, de si las variables están o no normalmente distribuidas y de los diferentes requisitos que cada técnica estadística exige.
Lo importante de este tipo de contraste es saber si entre los distintos niveles de una VI hay diferencias en la VD medida.
Junto con este tipo de prueba, están los análisis de varianza que pueden ser de uno, dos o más factores independientes. Además, los factores pueden ser entre-sujetos (no todos los sujetos pasan por todas las condiciones) o intrasujeto o de medidas repetidas (todos los sujetos pasan por todas las condiciones).
Lo más relevante de cara a la interpretación en personalidad del análisis de varianza es que nos permite obtener efectos principales de los factores o variables independientes consideradas, y efectos de interacción resultado de la combinación de las mismas.
Efectos de moderación y de mediación entre variables
Un efecto de moderación especifica una condición o condiciones que pueden impactar (aumentar, disminuir o cambiar) la relación entre una VI y una VD, entre un predictor y un criterio. Los modelos de moderación dan una respuesta científica del tipo “esto depende”.
Un efecto de moderación generalmente se expresa estadísticamente en una interacción entre la variable predictora y la variable moderadora.
La evaluación estadística de una hipótesis de moderación puede hacerse también con un modelo de regresión jerárquico:
-
en el primer paso entrarían como variables independientes la variable personal y la moderadora
-
en el segundo paso, a esas dos (del primer paso) se añadiría el producto entre ambas
Para hacer este análisis primero se transforman las variables personal y moderadora y después se hace el producto entre ambas. Estos nuevos valores serán los usados en la regresión.
Si cuando hablamos de moderación la respuesta era “esto depende de”, en el análisis del efecto de mediación lo que se trata de responder es “¿por qué?”, a qué se debe la relación entre 2 variables, las que se han llamado VI y VD.
Los modelos mediacionales se representan generalmente a partir de diagramas de pasos. Desde estos modelos se supone que la VI afecta a la variable mediadora (M) y ésta a su vez influye en la VD. Así, la variable mediadora representa el mecanismo a través del cual una VI influye en otra VD. Una vez realizados los análisis para ver si hay mediación, debe calcularse la significación de ésta usando alguna prueba estadística adecuada, siendo una de las más frecuentes el test de Sobel.
Las variables de personalidad pueden tener distintos roles en los análisis mediacionales. Pueden ser la VI, la variable mediadora o la VD. Cuando hablamos de VI, pueden ser los grandes rasgos (extraversión, neuroticismo, apertura, afabilidad y tesón) o los rasgos de nivel medio (autoeficacia, optimismo, percepción de control, estilo de afrontamiento…) Sin embargo, cuando hablamos de las variables de personalidad como mediadoras (M), se consideran las de nivel medio o los estados (autoeficacia específica, estado de ansiedad…).
Según el modelo de Baron y Kenny para analizar la mediación es necesario que se cumplan las siguientes condiciones:
-
que las 3 variables VI o predictora, M o mediadora y VD o criterio estén significativamente relacionadas entre sí
-
que al incluir la variable mediadora la relación entre la VI y la VD disminuya
-
que al considerar conjuntamente ambas variables, VI y M, la relación de esta última (M) con la VD o criterio siga siendo significativa
Se realizan 3 análisis de regresión:
-
en el primero se toma como predictora la VI y como criterio la VD
-
en el segundo se toma como predictora la VI y como criterio la variable M o mediadora
-
en el tercero se toma como predictoras las variables independiente y mediadora (VI y M) y como criterio la VD
Para comprobar el papel de varios mediadores a la vez resultaría más interesante usar otro tipo de análisis como el modelo de ecuaciones estructurales.
Aunque se han considerado la mediación y la moderación por separado, pueden darse conjuntamente en modelos combinados más complejos de moderación mediada o de mediación moderada. Se trataría de situaciones en las que, por ejemplo, la mediación sólo se de en un grupo.
Ni la mediación ni la moderación demuestran relaciones de causalidad entre variables. Para ello, serían necesarios diseños experimentales adecuados. No obstante, el uso de la regresión en estudios longitudinales, analizando efectos tanto de mediación como de moderación, entre variables medidas en distintos momentos temporales, permiten un mayor acercamiento al establecimiento de relaciones causales.
Modelo de ecuaciones estructurales
La utilización del modelo de ecuaciones estructurales o SEM permite poner en relación múltiples variables, además de proponer unas como independientes y otras como dependientes.
Se trata de un patrón de relaciones que uno pone a prueba entre las variables mediadoras y las llamadas variables latentes, o constructos hipotéticos que no pueden ser directamente medidos, pero que son estimados a partir de las variables medidas. Puede ser usado en diseños correlacionales y experimentales, transversales y longitudinales.
Permitiría probar cualquiera de las hipótesis susceptibles de ser analizadas con pruebas de t, análisis de varianza, AF, correlaciones, o análisis de regresión múltiple, aunque tiene algunos requisitos técnicos, además de otra serie de condiciones y requisitos estadísticos.