Estructura de TESIS

ESTRUCTURA DE TESIS
1.                  PLANTEAMIENTO DEL PROBLEMA.
Su rol preponderante es generar preguntas, incertidumbre y curiosidad, Por lo generar se hace revisión de monografías, estas monografías deben darnos alcances, enfoques sobre el tema o modelos del tema en discusión, También nos debe de proporcionar conceptos o categorías conceptuales que se maneja en el tema.
En el caso de las investigaciones cualitativas la elaboración se fundamenta en la grounded theory de la teoría de la construcción o fundamentada. Este tipo de investigación tiene tres etapas de aplicación de encuestas, en este caso en la primera aplicación sirve para recopilar información y obtener conceptos y así elaborar las preguntas con los conceptos legos.
a.                  Pregunta de Investigación.
Plantea la incertidumbre o curiosidad en preguntas sobre un tema que se desconoce, se elabora una pregunta específica por cada categoría conceptual (ósea por cada variable) y en la pregunta general se precisa el tema general. Generalmente se plantea sobre los conceptos que se han trabajado en el planteamiento del problema.
Es necesario elaborar la matriz de consistencia de la investigación para ir relacionando con los objetivos e Hipótesis de investigación.
Si se hace una investigación Mixta Aplicar primero las entrevistas obtener los conceptos legos, en paralelo revisar la monografía y precisar las categorías conceptuales y redactar las preguntas.
2.                  OBJETIVOS DE INVESTIGACIÓN.
Por definición se redacta en infinitivo sobre los preguntas planteadas, esta transcripción debe representar lógicamente los objetivos de la Investigación, ósea cual será el resultado de la investigación.
Es importante tener cuidado al usar cada verbo, ya que unos describen (ejem. Caracterizar o analizar la Informalidad) otros relacionan (determinar la relación de la Informalidad) y otros señalan explicación (explicar las causas de la Informalidad)
a.                  Justificación de la investigación.
Es el motivo por el que se hace la investigación, se considera tres opciones: el aporte teórico, el aporte metodológico y el aporte a la sociedad.
3.                  MARCO TEÓRICO O REFERENCIAL.
Se hace una monografía o discusión que han desarrollado los diversos autores sobre el tema, sobre todos los planteamientos, modelos, explicaciones, leyes o teorías del tema o que involucre al tema, también debe estudiar las categorías conceptuales (variables) y la relación entre ellas o darnos alcances de la relación entre ellas, además también el muestreo y el diseño de investigación.
Si es cualitativo se hace el mismo procedimiento para construir el Marco Referencial y ayudará a dar forma a los conceptos legos y preguntas de la segunda etapa de la aplicación de la entrevista, selección de la muestra socio estructura y de los entrevistados.
4.                  HIPÓTESIS.
Responde a las preguntas de Investigación y su redacción tiene una estructura lógica, donde se detalla las variables a estudiar y su relación entre ellos.
Si es una investigación cualitativa o cuantitativa se hace las hipótesis o si los objetivos lo demandan, si es exploratorio o descriptivo no es necesario y si es correlacionar o explicativo si es necesario.
5.                  DISEÑO DE INVESTIGACIÓN.
Se precisa las unidades de análisis, y el Diseño de investigación (experimentales, transeccional o transversal, causales-correlaciónales, descriptivas, exploratorios, estudios de casos), se precisa si la investigación es Cuantitativa o cualitativa o quizás mixta o hibrida. Inductiva-deductiva o análisis síntesis.
6.                  MUESTREO.
Se precisa la población y sus características relevantes en relación al estudio (ósea se establece el marco muestra), de esto se hará un muestreo cuantitativo (Estadístico) o Cualitativo (Socio estructural).
Cuando el muestreo es Cuantitativo se aplica medidas estándar para estimar la muestra Como el nivel de confianza 95% y margen de error de 0.05, ya que las técnicas de análisis están diseñados para medidas de tendencia central estandar, como la dispersión, prueba chi2, Pearson, Quendal, etc.
7.                  TÉCNICAS DE RECOLECCIÓN DE DATOS.
Se debe de precisar todas las técnicas que nos ayudaran a obtener los indicadores por cada variable (son cuestionarios, entrevistas, historias de casos, focus group, observacional y otros)
Si son técnicas cuantitativas, serán los cuestionarios, si son cualitativas serán las entrevistas, grupos focales, Historias de vida y otros, si la investigación es mixta, se aplican las diversas tecnicas
8.                  TÉCNICAS DE ANÁLISIS.
Está en relación al nivel de análisis de la Investigación (Exploratorio, descriptivo, Correlacional -Explicativo, experimental).
Al procesar los datos sea cuantitativos o lingüísticos muestran para ambos casos una sábana de datos, por ítem y entrevistado en detalle, sea por SPSS o Atlas Ti.
En los trabajos exploratorios o descriptivos se usan habitualmente, análisis de frecuencias o análisis lingüístico.
En los trabajos correlaciónales se usan el de análisis de la moda, media y mediana, el análisis de dispersión, rango o varianza, para comparar medidas, además también las razones o tasas.
Para estimar la confiabilidad o valides se usa el coeficiente de correlación de Pearson, Spearman o de Kendall.
En los estudios Explicativos y experimentales, se usa cuando la medición de variables es por intervalos o razones, se aplica el Coeficiente de correlación de Pearson y regresión lineal, la Prueba t, o Análisis de varianza unidireccional (ANOVA)
Cuando la medición es Multivariado, se aplica la Chi X2, o Análisis de varianza unidireccional (ANOVA), cuando es por intervalos o razones se usa el coeficiente de Pearson, y si son ordinales se aplica el coeficiente de Spearman o de Kendall o el de Eta. Y se explica con los siguientes valores:

–0.90 = Correlación negativa muy fuerte.
–0.75 = Correlación negativa considerable.
–0.50 = Correlación negativa media.
–0.25 = Correlación negativa débil.
–0.10 = Correlación negativa muy débil.
0.00 = No existe correlación alguna entre las variables.
+0.10 = Correlación positiva muy débil.
+0.25 = Correlación positiva débil.
+0.50 = Correlación positiva media.
+0.75 = Correlación positiva considerable.
+0.90 = Correlación positiva muy fuerte.

En los estudios lingüísticos el análisis es de lo particular a lo general, cada unidad conceptual se organiza en una unidad conceptual mayor, hasta llegar a sistematizar en una categoría conceptual mayor.

A.                 Distribución de frecuencias.
Son puntuaciones alcanzados en cada ítem en su respectiva categoría, también se puede presentar porcentualmente, este se apoya de gráficos como histogramas, barras o círculos. Su finalidad es describir la variable.
·         Los datos pueden ser Nominales (Hombre y Mujer), ordinal (1gdo, 2gdo, 3gdo, etc) y Escalar (escala de Likert)
·         Polígonos de frecuencias. Es propio de medición de intervalos o razones, estos representan a la distribución de frecuencias con curvas elípticas, nos indican hacia donde se concentran los casos. Junto a esto se debe de calcular la medida de tendencia central y la dispersión.

B.                  Medida de tendencia Central.
Son los valores medios o centrales de la distribución de frecuencias. Son la moda, mediana y media.
·         La moda, es la categoría que ocurre con mayor frecuencia.
·         La mediana es el valor que divide la distribución por la mitad, esto es la mitad de los casos, la mitad de casos caen por debajo de la mediana y la otra por enciama, refleja la posición intermedia. Se usa para datos ordinales, en intervalos o razones.
·         La media. Es el promedio aritmético de una distribución. Se aplica a mediciones por intervalo o razón.

C.                  Las medidas de variabilidad.
Indican la dispersión de los datos en la escala de medición, son intervalos que designan distancias o un números de unidades en la escala de medición o dentro de un rango y responde a la pregunta donde están diseminados los puntos. Son Rango, desviación, estándar y varianza.
·         El rango. Es la diferencia entre la puntuación mayor y la puntuación menos, ejemplo en una escala sobre la nota de aprobación al seria de 5 a20 es decir si empieza los datos en 5 y terminan en 20, el rango será 20-5=15 que es rango donde se encuentra los casos.
·         La desviación estándar o típica. Es el promedio de desviación de las puntuaciones con respecto a la media, cuando mayor sea la dispersión de los datos alrededor de la media, mayor será la desviación estándar, se interpreta como cuanto se desvia en promedio de la media un conjunto de puntuaciones.
·         La varianza. es la desviación estándar elevada al cuadrado.
Como se interpreta.
Moda: 10
Mediana: 11
Media: 11
Desviación estándar: 0.6
Puntuación más alta observada. 16
Puntuación más baja observada: 07
Rango: 09

La actitud hacia la gestión del presidente es de regular a mala la mayoría, de la aprobación califica su gestión con 10, el 50% de la población aprueba con nota mínima a su gestión, ya que la mayor población se desvía de la media solo un 0.6 de nota.

·         La asimetría. Es una distribución teórica para saber cuánto se parece nuestra curva a una distribución normal y constituye un indicador del lado de la curva donde se ubican las frecuencias, si es =0 es asimetría la curva o distribución es simétrica cuando es positivo en función a la media.
·         La curtosis. Es un indicador de lo plana o picuda de la curva, cuando es =0 puede tratarse de una curva normal, si es positiva el polígono es más picuda, si es negativa indica que es más plana la curva.
    
                                                 

D.                 Puntuación Z.
son transformaciones que se pueden hacer a los valores o puntuaciones obtenidas, nos indica la dirección o el rango en el que un valor individual obtenido se aleja de la media tenemos razones y tasas.

o   La razón es una relación entre dos categorías ejemplo sexo (Hombre = 6 y Mujer = 3), la razón es 6/3 = 2, por cada mujer dos hombres.
o   La Tasa. Es la relación entre el número de casos y el número total de observaciones ejemp. (Personas = 100 y Nacidos vivos = 9) y se multiplica por múltiplos de 10 (100, 1000), tenemos 9/100*10 = 9

E.                  Confiabilidad del instrumento de medición.

·         Coeficientes de correlación. si la escala de mi variable es.

o   por intervalos, puedo utilizar el coeficiente de correlación de Pearson;
o   pero si es ordinal podré utilizar el coeficiente de Spearman o de Kendall; y
o   si es nominal otros coeficientes.
o   si obtengo 0.25 en la correlación o coeficiente, esto indica baja confiabilidad; si el resultado es 0.50, la fiabilidad es media o regular. Encambio, si supera el 0.75 es aceptable, y si es mayor a 0.90 es elevada.

·         La validez. La evidencia de valides se obtiene mediante el análisis de factores

F.                   Analizar las hipótesis mediante pruebas estadísticas.
a.                  Estadística inferencial.
Se pretende probar Hipótesis y generalizar los resultados obtenidos.
·         El nivel de significancia. Wiersma u jurs, la posibilidad de que un evento ocurra es de 0 a 1, ejemplo en una moneda la probabilidad de que caiga sello o cruz es 0.5 -0.5, si es en un dado es de 1/6 = 1667, para probar hipótesis inferenciales respecto a la medida, el investigador debe de evaluar si es alta o baja la probabilidad de que la media de la muestra este cerca de la media de la distribución muestral, es aquí donde entra el nivel de significación.
Ejemplo si fuera a apostar en la carrera de caballos y tuviera la probabilidad del 95% de atinarle contra un 5% ¿apostaría?, la mayoría de las puntuaciones se concentran en el centro de la distribución, en tanto que en los extremos solo encontramos algunos debido a ello se creó un modelo de probabilidad llamado curva normal o distribución normal, como el ssgg.
ü    El 68.26% de la curva normal es cubierta entre -1s y +1s,
ü    El 95.44% del aria de esta curva es cubierta entre -2s y +2s y
ü    El 99.74% se cubre con -3s y +3s
ü    Es unimodal, la media, la moda y la mediana coinciden en el mismo punto.
ü    La base esta dada en unidades de desviación estándar (puntuasiones Z) destacando los puntos -1s, -2s, -3s, +1s, +2s, +3s (que equivalen respectivamente -1.00z, -2.00z, -3.00z, +1.00z, +2.00z, +3.00z)
ü    Es mesocúrtica (curtosis de = 0)
¿con que nivel de confianza el investigador generaliza, para suponer que la cercanía es real y no por error de muestreo? Existen 2 niveles
El nivel de significancia de 0.05. el cual implica que el investigador tiene un 95% de seguridad para generalizar sin equivocarse y solo 5% en contra.
El nivel de significancia de 0.01. el cual implica que el investigador tiene 99% en su favor y 1%  en contra para generalizar sin temor.



G.                 PRUEBA DE HIPOTESIS.
a)   Análisis paramétricos. Tenemos los siguientes supuestos.

·      La distribución  poblacional  de la variable dependiente es normal.
·      El nivel de medición de las variables es por intervalos (Escalas) o razones.
·      Cuando dos o más poblaciones son estudiados, tienen una varianza homogénea.
Las pruebas estadísticas paramétricas más utilizadas.
        Coeficiente de correlación de Pearson y regresión lineal.
        Prueba t.
        Prueba de contraste de la diferencia de proporciones.
        Análisis de varianza unidireccional (ANOVA en un sentido o one way).
        Análisis de varianza factorial (ANOVA).
        Análisis de covarianza (ANCOVA).

                    i. Coeficiente de correlación de Pearson (r). Analiza la relación entre dos variables medidas en un nivel por intervalos o razones. La prueba no considera a uno como dependiente y a la otra como independiente ya que no evalúa la causalidad.
El coeficiente es útil para relaciones liniales pero no para relaciones curvilíneas, en este caso se suele usar Spearman rho (rs).
Cuando queremos correlacionar simultáneamente más de dos variables (ejemplo: motivación, Satisfacción en el trabajo, moral y autonomía), se utiliza el coeficiente de correlación múltiple o R
La relación es altos valores en “X” están asociados con altos valores en “Y”, altos valores en “X” se asocian con bajos valores en “Y” la hipótesis señala que la correlación es significativa.

SPSS – Ventana gráficos – cuadros de diálogos antiguos – Dispersión/puntos.

El coeficiente de Pearson puede varias de -1.00 a +1.00, donde -1.00 = correlación negativa perfecta (a mayor “X” Menor “Y”, cada vez que X aumenta, Y disminuye), y +1.00 = correlación positiva perfecta (a mayor “X” Mayor “Y”, a menor “X” menor “Y”, cada vez que X aumenta, Y aumenta)

–0.90 = Correlación negativa muy fuerte.
–0.75 = Correlación negativa considerable.
–0.50 = Correlación negativa media.
–0.25 = Correlación negativa débil.
–0.10 = Correlación negativa muy débil.
0.00 = No existe correlación alguna entre las variables.
+0.10 = Correlación positiva muy débil.
+0.25 = Correlación positiva débil.
+0.50 = Correlación positiva media.
+0.75 = Correlación positiva considerable.
+0.90 = Correlación positiva muy fuerte.

SPSS – Analizar – correlaciones – (Bivariadas, parciales, distancias) – Cuadro menú.
El coeficiente de determinación se determina elevando al cuadrado al coeficiente de Pearson (r), el resultado indica la varianza de factores comunes, es el porcentaje de variación de una variable debido a la variación de la otra.

Por ejemplo, si la correlacion entre productividad y asistencia al trabajo es de 0.80.
r = 0.80
r2 = 0.64
La productividad constituye a, o explica, 64% de la variación de la asistencia al trabajo, la asistencia al trabajo explica 64% de la productividad.

Si r = es 0.72
Y r2 = 0.52
Quiere decir que poco mas de la mitad de la variabilidad de un constructo o variable esta explicada por la otra.

Creswell 2005 señala que un coeficiente de correlacion r2 entre 0.66 y 0.85 ofrese una buena predicción de una variable respecto a la otra variable.

                  ii. Regresión Lineal.
Es un modelo estadístico para estimar el efecto de una variable sobre otra, está asociado al coeficiente r de Pearson, brinda la oportunidad de predecir las puntuaciones de una variable, tomando las puntuaciones de la otra variable, entre mayor sea la correlación entre las variables, mayor capacidad de predicción.
Dos variables, una se considera como variable dependiente y la otra como variable independiente, pero para poder hacerlo debe de tener un buen sustento teórico.
Nivel de medición de las variables, intervalos o razones.
SPSS – Analizar – Comparar Medidas – Prueva T.

Interpretación y procedimiento, la regresión lineal se determina con base en el diagrama de dispersión, este consiste en una gráfica donde se relacionan las puntuaciones de una muestra en dos variables.


Ejemplo de 8 casos en calificaciones en estadísticas y filosofía de 0 a 10.


Puntuaciones
sujetos
Filosofía (X)
Estadística (Y)
1
3
4
2
8
8
3
9
8
4
6
5
5
10
10
6
7
8
7
6
7
8
5
5


El diagrama de dispersión son una manera de visualizar gráficamente una correlación.

Se ha demostrado que una estrategia persuasiva con niveles altos de apelación  al temor, ejemplo un comercial televisivo muy dramático, provoca una baja persuasibilidad, lo mismo que una estrategia persuasiva con niveles muy bajos de apelación al temor, la estrategia persuasiva más adecuada es la que utiliza niveles medios de apelación al temor, esta relación es curvilínea.


Esta línea es la recta de regresión y se expresa mediante la ecuación  de regresión lineal.
Y = a + bX
Y = el valor de la variable dependiente que se desea predecir.
a = la ordenada en el origen.
b = la pendiente o inclinación.
X = es el valor que fijamos en la variable independiente.

Para predecir los valores de Y se sustituye los valores en X,

Ejemplo = H1 = la autonomía laboral es una variable que predice la motivación intrínseca en el trabajo.
Ambas variables fueron medidas en una escala de 1 a 5.
a(intercept) = 0.42
b(slope) = 0.65

1.07 = 0.42 + 0.65(1)
1.72 = 0.42 + 0.65(2)
2.37 = 0.42 + 0.65(3)
3.02 = 0.42 + 0.65(4)
3.67 = 0.42 + 0.65(5)

Las variables de a y b los da el paquete estadístico del SPSS
La regresión lineal es útil con relaciones lineales no con relaciones curvilíneas.

                iii. La prueba t (t).
es una prueba estadística para evaluar si dos grupos difieren entre sí de manera significativa respecto a sus medias en una variable.
La hipótesis de investigación propone que los grupos difieren de manera significativa entre si y la Hipótesis nula plantea que los grupos no difieren significativamente (para su análisis se usan dos muestras ejemplo 2 escuelas).
Variables: la comparación se realiza sobre una variable (regularmente y de manera teórica: dependiente). Si hay diferentes variables, se efectuarán varias pruebas t (una por cada par de variables)
La razón que motiva la creación de los grupos puede ser una variable independiente. Por ejemplo, un experimento con dos grupos, donde a uno se le aplica el estímulo experimental y al otro no, es de control.

Nivel de medición de la variable de comparación: intervalos o razón.
La prueba t se basa en una distribución muestra o poblacional de diferencia de medias conocida como la distribución t de Student que se identifica por los grados de libertad, los cuales constituyen el número de maneras en que los datos pueden variar libremente dependiendo del tamaño de los grupos que se comparan
Cuanto mayor número de grados de libertad se tengan, la distribución t de Student se acercará más a ser una distribución normal y usualmente, si los grados de libertad exceden los 120, la distribución normal se utiliza como una aproximación adecuada de la distribución t de Student

Se calcula.                  gl = (n1 + n2) – 2

los resultados, ésta debe ser menor a 0.05 o 0.01, lo cual depende del nivel de confianza seleccionado. Lo más importante es visualizar el valor t y su significancia.

Consideraciones: La prueba t se utiliza para comparar los resultados de una preprueba con los resultados de una posprueba en un contexto experimental. Se comparan las medias y las varianzas del grupo en dos momentos diferentes: X1 × X2 . O bien, para comparar las prepruebas o pospruebas de dos grupos que participan en un experimento:


Los autores realizamos un análisis por prueba t con poco menos de medio millón de alumnos de una institución pública, con la finalidad de comparar el desempeño entre mujeres y hombres respecto al promedio general de la carrera, el valor obtenido fue de 22.802, signifi cancia = 0.000 (menor al 0.01). El promedio de los estudiantes fue de 6.58 (n = 302 272) y el de las estudiantes de 7.11 (n = 193 436). Ante la interrogante: ¿se observaron diferencias en el desempeño académico por género? Se puede decir que las mujeres obtienen mayor promedio que los hombres en una diferencia de 0.53 puntos, la cual es significativa al nivel del 0.01.

El tamaño de efecto, es importante determinar, ya que es una medida de la fuerza de las diferencias de las medias u otros valores considerados.


Se calcula. El tamaño del efecto es justo la diferencia estandarizada entre las medidas de los dos grupos.

            Tamaño total del efecto        =         media del G1 – media del G2
                                                           Desviación estándar esperada.

                iv. Prueba de diferencia de proporciones.
Es una prueba estadística para analizar si dos proporciones o porcentajes difieren significativamente.
Hipótesis, de diferencia de proporciones en dos grupos.
Variable, la comparación se realiza sobre una variable, si hay más, la prueba se realiza por cada variable.
Procedimiento e interpretación, se selecciona diferencia de dos proporciones independientes. Se asigna el número de respuestas y porcentaje estimado.

                  v. Análisis de varianza unidireccional o de un factor (ANOVA one way)
Es una prueba estadística para saber si más de dos grupos difieren, significativamente entre sí en cuanto a sus medias y varianzas. La prueba t se usa para dos grupos y el análisis de varianza unidireccional se usa para tres, cuatro o mas grupos.
Hipótesis, La hipótesis propone que los grupos difieren significativamente entre si y la Hipótesis nula propone que no difieren.
Variable, una variable dependiente y una variable independiente.
Nivel de medición de las variables, la variable independiente es categoría y la variable dependiente es por intervalos o razones.

El análisis de varianza unidireccional produce un valor conocido como F o razón F, que se basa en una distribución muestral, conocida como distribución F, el cual es otro miembro de la familia de distribución muestral. La razón F compara las variaciones en las puntuaciones debidas a dos diferentes fuentes: variaciones entre los grupos que se comparan y variaciones dentro de los grupos.

Si el valor F es significativo implica que los grupos difieren entre sí en sus promedios, Entonces se acepta la hipótesis de investigación y se rechaza la nula (según el nivel de confianza 0.05 o 0.01).

SPSS- Analizar – comparar medidas – ANOVA de un Factor.


b)   Estadísticas Multivariadas análisis no paramétrico.
Esta prueba estadístico es para el enfoque multivariado, cuando tenemos diversas variables independientes y una dependiente, varias independientes y dependientes.
Entonces requerimos de otros métodos métodos estadísticos como los que se muestran a continuación.
Método
Propósitos fundamentales
Análisis de varianza factorial (ANOVA de varios factores)
Evaluar el efecto de dos o más variables independientes sobre una variable dependiente.
Análisis de covarianza (ANCOVA)
Analizar la relación entre una variable dependiente y dos o más independientes, al eliminar y controlar el efecto de al menos una de estas variables independientes.
Regresión múltiple
Evaluar el efecto de dos o más variables independientes sobre una variable dependiente, así como predecir el valor de la variable dependiente con una o más variables independientes, y estimar cuál es la independiente que mejor predice las puntuaciones de la variable dependiente. Se trata de una extensión de la regresión lineal.
Análisis multivariado de varianza (MANOVA)
Analizar la relación entre dos o más variables independientes y dos o más variables dependientes.
Análisis lineal de patrones (PATH)
Determinar y representar interrelaciones entre variables a partir de regresiones, así como analizar la magnitud de la influencia de algunas variables sobre otras, influencia directa e indirecta. Es un modelo causal.
Análisis discriminante
Construir un modelo predictivo para pronosticar el grupo de pertenencia de un caso a partir de las características observadas de cada caso (predecir la pertenencia de un caso a una de las categorías de la variable dependiente, sobre la base de dos o más independientes).
Distancias euclidianas
Evaluar la similitud entre variables (en unidades de correlación).

Las Presunciones de la estadística no paramétrica.
·                    La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la distribución poblacional. Aceptan distribuciones no normales.
·                    Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o de razón; pueden analizar datos nominales u ordinales. De hecho, si se quieren aplicar análisis no paramétricos a datos por intervalos o razón, éstos necesitan resumirse a categorías discretas (a unas cuantas). Las variables deben ser categóricas.

Las pruebas no paramétricas mas usadas.
·                    La chi cuadrada o χ2.
·                    Los coeficientes de correlación e independencia para tabulaciones cruzadas.
·                    Los coeficientes de correlación por rangos ordenados de Spearman y Kendall.

i) La chi cuadrada (X2).

Es una variable estadística para evaluar Hipótesis acerca de la relación entre dos variables categóricas.
Hipótesis a probar, correlaciones.
Variables involucradas, son dos, No considera relaciones causales.
Nivel de medición de las variables. Nominales u ordinales.
Procedimiento. Se calcula por medio de una tabla de contingencia o tabulación cruzada, que es un cuadro de dos dimensiones y cada dimensión contiene una variable. A su vez una variable se subdivide en dos o más categorías.

En esencia, la chi cuadrada es una comparación entre la tabla de frecuencias observadas y la denominada tabla de frecuencias esperadas, la cual constituye la tabla que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas (Wright, 1979). Es una prueba que parte del supuesto de “no relación entre variables.

La chi cuadrada se puede obtener a través de los programas estadísticos o mediante STATS. En los programas se solicita el análisis: Estadísticas (y usando las opciones “básicas” y “tablas”) en Minitab y en SPSS/SPAW: Analize (analizar) Descriptive Statistics (Estadísticas descriptivas) Crosstabs (tabulaciones cruzadas).

El programa también proporciona el valor de la chi cuadrada junto con otras pruebas, el valor de la Chi cuadrada es significativo al nivel de 0.01, se acepta la Hipótesis de investigación de la relación entre entre variables, si la significancia es mayor que 0.05 se rechaza la Hipótesis.

Coeficiente de correlaciones e independencia para tabulaciones cruzadas.





ii)                 El coeficiente de correlación de Pearson.

Es una estadística apropiada para variables medidas por intervalos o razón y para relaciones lineales.

iii)               Coeficiente de Spearman (rs). y de tau Kendall (t).

Son medidas de correlación para variables en un nivel de medición ordinal (ambas) de tal modo que los individuos u objetos de la muestra puedan ordenarse por rangos (jerarquías). Ejemplo pedir a un grupo de ciudadanos que enumere en orden de prioridad sus necesidades. O pedir que evalúen 10 marcas de refresco y la ordene del 1 al 10, en tanto que 1 es la categoría o rango máximo.


Todos los refrescos o categorías, tienen que jerarquizarse por rangos que contienen las propiedades de una escala ordinal (se ordena de mayor a menor)

Ambos coeficientes varían de -1.0 (correlación negativa perfecta) a +1.0 (correlación positiva perfecta), considerando el 0 como ausencia de correlación.
SPSS – Análisis- estadística descriptiva _ tablas de contingencia – entrar a estadísticos.

es explicada, el coeficiente de Kendall (t) resulta un poco más significativo cuando los datos contienen un número considerable de rangos empatados.
El coeficiente de Spearman (rho) parece ser una aproximación cercana al coeficiente r de Pearson, cuando los datos son continuos (por ejemplo, no caracterizados por un número considerable de empates en cada rango).

iv)               Coeficiente Eta (eta).

Es interpretada como el porcentaje de la varianza en la variable dependiente explicado por la independiente.

Puede calcular eta de las dos maneras: al cambiar la definición de la independiente y dependiente, luego promediar los dos coeficientes y obtener uno simétrico. Eta puede trabajarse en tablas de contingencia.

9.                  REDACCIÓN DEL INFORME FINAL.

En el primer capítulo se redacta la metodología usada los objetivos de la investigación y el cuerpo teórico usado.
Después viene la discusión del tema, donde se desarrolla por cada objetivo un capitulo y se describe cada ítem o concepto dentro de la variable o categoría conceptual en referencia.
En cada objetivo también se desarrolla la discusión teórica, que lo contextualiza dentro de la teoría desarrollada hasta el momento, ejemplo si el tema es informalidad, se relaciona con el concepto y las explicaciones que dan otros autores de este tema.
Des pues se precisa las conclusiones a la que llega el autor a modo de leyes o descripciones sobre el tema o el fenómeno estudiado.
Se precisa las fuentes referenciales que se han usado en la investigación, que debe precisar su fácil ubicación del lector.
Se debe de realizar una introducción, resumen y el abtrac que va al principio generalmente, y si es necesario el o los agradecimientos.

Al final los anexos

Comentarios

Entradas populares de este blog

POBREZA EN LA CIUDAD DE SUCRE:

PARADIGMAS POLÍTICOS

POLÍTICA GUBERNAMENTAL