Estructura de TESIS
ESTRUCTURA DE TESIS
1.
PLANTEAMIENTO DEL PROBLEMA.
Su rol preponderante es generar preguntas, incertidumbre y
curiosidad, Por lo generar se hace revisión de monografías, estas monografías
deben darnos alcances, enfoques sobre el tema o modelos del tema en discusión,
También nos debe de proporcionar conceptos o categorías conceptuales que se
maneja en el tema.
En el caso de las investigaciones cualitativas la elaboración
se fundamenta en la grounded theory de la teoría de la construcción o
fundamentada. Este tipo de investigación tiene tres etapas de aplicación de
encuestas, en este caso en la primera aplicación sirve para recopilar
información y obtener conceptos y así elaborar las preguntas con los conceptos
legos.
a.
Pregunta
de Investigación.
Plantea la incertidumbre o curiosidad en preguntas sobre un
tema que se desconoce, se elabora una pregunta específica por cada categoría
conceptual (ósea por cada variable) y en la pregunta general se precisa el tema
general. Generalmente se plantea sobre los conceptos que se han trabajado en el
planteamiento del problema.
Es necesario elaborar la matriz de consistencia de la
investigación para ir relacionando con los objetivos e Hipótesis de
investigación.
Si se hace una investigación Mixta Aplicar primero las
entrevistas obtener los conceptos legos, en paralelo revisar la monografía y
precisar las categorías conceptuales y redactar las preguntas.
2.
OBJETIVOS DE INVESTIGACIÓN.
Por definición se redacta en infinitivo sobre los preguntas
planteadas, esta transcripción debe representar lógicamente los objetivos de la
Investigación, ósea cual será el resultado de la investigación.
Es importante tener cuidado al usar cada verbo, ya que unos
describen (ejem. Caracterizar o analizar la Informalidad) otros relacionan
(determinar la relación de la Informalidad) y otros señalan explicación (explicar
las causas de la Informalidad)
a.
Justificación
de la investigación.
Es el motivo por el que se hace la investigación, se
considera tres opciones: el aporte teórico, el aporte metodológico y el aporte
a la sociedad.
3.
MARCO TEÓRICO O REFERENCIAL.
Se hace una monografía o discusión que han desarrollado los
diversos autores sobre el tema, sobre todos los planteamientos, modelos,
explicaciones, leyes o teorías del tema o que involucre al tema, también debe estudiar
las categorías conceptuales (variables) y la relación entre ellas o darnos
alcances de la relación entre ellas, además también el muestreo y el diseño de
investigación.
Si es cualitativo se hace el mismo procedimiento para construir
el Marco Referencial y ayudará a dar
forma a los conceptos legos y preguntas de la segunda etapa de la aplicación de
la entrevista, selección de la muestra socio estructura y de los entrevistados.
4.
HIPÓTESIS.
Responde a las preguntas de Investigación y su redacción
tiene una estructura lógica, donde se detalla las variables a estudiar y su
relación entre ellos.
Si es una investigación cualitativa o cuantitativa se hace
las hipótesis o si los objetivos lo demandan, si es exploratorio o descriptivo
no es necesario y si es correlacionar o explicativo si es necesario.
5.
DISEÑO DE INVESTIGACIÓN.
Se precisa las unidades de análisis, y el Diseño de
investigación (experimentales, transeccional o transversal, causales-correlaciónales,
descriptivas, exploratorios, estudios de casos), se precisa si la investigación
es Cuantitativa o cualitativa o quizás mixta o hibrida. Inductiva-deductiva o
análisis síntesis.
6.
MUESTREO.
Se precisa la población y sus características relevantes en
relación al estudio (ósea se establece el marco muestra), de esto se hará un
muestreo cuantitativo (Estadístico) o Cualitativo (Socio estructural).
Cuando el muestreo es Cuantitativo se aplica medidas estándar
para estimar la muestra Como el nivel de confianza 95% y margen de error de
0.05, ya que las técnicas de análisis están diseñados para medidas de tendencia
central estandar, como la dispersión, prueba chi2, Pearson, Quendal, etc.
7.
TÉCNICAS DE RECOLECCIÓN DE DATOS.
Se debe de precisar todas las técnicas que nos ayudaran a
obtener los indicadores por cada variable (son cuestionarios, entrevistas,
historias de casos, focus group, observacional y otros)
Si son técnicas cuantitativas, serán los cuestionarios, si
son cualitativas serán las entrevistas, grupos focales, Historias de vida y
otros, si la investigación es mixta, se aplican las diversas tecnicas
8.
TÉCNICAS DE ANÁLISIS.
Está en relación al nivel de análisis de la Investigación
(Exploratorio, descriptivo, Correlacional -Explicativo, experimental).
Al procesar los datos sea cuantitativos o lingüísticos
muestran para ambos casos una sábana de datos, por ítem y entrevistado en
detalle, sea por SPSS o Atlas Ti.
En los trabajos exploratorios o descriptivos se usan
habitualmente, análisis de frecuencias o análisis lingüístico.
En los
trabajos correlaciónales se usan el de análisis de la moda, media y mediana, el
análisis de dispersión, rango o varianza, para comparar medidas, además también
las razones o tasas.
Para estimar
la confiabilidad o valides se usa el coeficiente de correlación de Pearson,
Spearman o de Kendall.
En los estudios Explicativos
y experimentales, se usa cuando la medición de variables es por intervalos o
razones, se aplica el Coeficiente de correlación de Pearson y regresión lineal,
la Prueba t, o Análisis de varianza unidireccional (ANOVA)
Cuando la medición es
Multivariado, se aplica la Chi X2, o Análisis de varianza unidireccional
(ANOVA), cuando es por intervalos o razones se usa el coeficiente de Pearson,
y si son ordinales se aplica el coeficiente de Spearman o de Kendall o el de Eta. Y se explica con los
siguientes valores:
–0.90 = Correlación negativa muy
fuerte.
–0.75 = Correlación negativa
considerable.
–0.50 = Correlación negativa media.
–0.25 = Correlación negativa débil.
–0.10 = Correlación negativa muy
débil.
0.00 = No existe correlación alguna
entre las variables.
+0.10 = Correlación positiva muy
débil.
+0.25 = Correlación positiva débil.
+0.50 = Correlación positiva media.
+0.75 = Correlación positiva
considerable.
+0.90
= Correlación positiva muy fuerte.
En los estudios lingüísticos el análisis es de lo
particular a lo general, cada unidad conceptual se organiza en una unidad
conceptual mayor, hasta llegar a sistematizar en una categoría conceptual
mayor.
A.
Distribución de frecuencias.
Son puntuaciones alcanzados en cada ítem en su respectiva categoría,
también se puede presentar porcentualmente, este se apoya de gráficos como
histogramas, barras o círculos. Su finalidad es describir la variable.
·
Los
datos pueden ser Nominales (Hombre y Mujer), ordinal (1gdo, 2gdo, 3gdo, etc) y
Escalar (escala de Likert)
·
Polígonos de frecuencias. Es propio de medición de intervalos
o razones, estos representan a la distribución de frecuencias con curvas
elípticas, nos indican hacia donde se concentran los casos. Junto a esto se
debe de calcular la medida de tendencia central y la dispersión.
B.
Medida de tendencia Central.
Son los valores medios o centrales de
la distribución de frecuencias. Son la moda,
mediana y media.
·
La moda, es la categoría que ocurre con
mayor frecuencia.
·
La mediana es el valor que divide la
distribución por la mitad, esto es la mitad de los casos, la mitad de casos
caen por debajo de la mediana y la otra por enciama, refleja la posición
intermedia. Se usa para datos ordinales, en intervalos o razones.
·
La media. Es el promedio aritmético de una
distribución. Se aplica a mediciones por intervalo o razón.
C.
Las medidas de variabilidad.
Indican la dispersión
de los datos en la escala de medición, son intervalos que designan distancias o
un números de unidades en la escala de medición o dentro de un rango y responde
a la pregunta donde están diseminados los puntos. Son Rango, desviación, estándar y varianza.
·
El rango. Es la diferencia entre la
puntuación mayor y la puntuación menos, ejemplo en una escala sobre la nota de
aprobación al seria de 5 a20 es decir si empieza los datos en 5 y terminan en
20, el rango será 20-5=15 que es rango donde se encuentra los casos.
·
La desviación estándar o típica. Es el promedio de desviación de las
puntuaciones con respecto a la media, cuando mayor sea la dispersión de los
datos alrededor de la media, mayor será la desviación estándar, se interpreta
como cuanto se desvia en promedio de la media un conjunto de puntuaciones.
·
La varianza. es la desviación estándar elevada
al cuadrado.
Como se interpreta.
Moda: 10
Mediana: 11
Media: 11
Desviación estándar: 0.6
Puntuación más alta observada. 16
Puntuación más baja observada: 07
Rango: 09
La actitud hacia la gestión del
presidente es de regular a mala la mayoría, de la aprobación califica su
gestión con 10, el 50% de la población aprueba con nota mínima a su gestión, ya
que la mayor población se desvía de la media solo un 0.6 de nota.
·
La asimetría. Es una distribución teórica para
saber cuánto se parece nuestra curva a una distribución normal y constituye un
indicador del lado de la curva donde se ubican las frecuencias, si es =0 es
asimetría la curva o distribución es simétrica cuando es positivo en función a
la media.
·
La curtosis. Es un indicador de lo plana o
picuda de la curva, cuando es =0 puede tratarse de una curva normal, si es
positiva el polígono es más picuda, si es negativa indica que es más plana la
curva.
D.
Puntuación Z.
son transformaciones que se pueden hacer a los valores o
puntuaciones obtenidas, nos indica la dirección o el rango en el que un valor
individual obtenido se aleja de la media tenemos razones y tasas.
o
La razón es una relación entre dos categorías
ejemplo sexo (Hombre = 6 y Mujer = 3), la razón es 6/3 = 2, por cada mujer dos
hombres.
o
La Tasa. Es la relación entre el número de
casos y el número total de observaciones ejemp. (Personas = 100 y Nacidos vivos
= 9) y se multiplica por múltiplos de 10 (100, 1000), tenemos 9/100*10 = 9
E.
Confiabilidad del instrumento de
medición.
·
Coeficientes de correlación. si la escala de mi variable es.
o
por intervalos,
puedo utilizar el coeficiente de correlación de Pearson;
o
pero si es
ordinal podré utilizar el coeficiente de Spearman o de Kendall; y
o
si es nominal
otros coeficientes.
o
si obtengo 0.25
en la correlación o coeficiente, esto indica baja confiabilidad; si el
resultado es 0.50, la fiabilidad es media o regular. Encambio, si supera el
0.75 es aceptable, y si es mayor a 0.90 es elevada.
·
La validez.
La evidencia de valides se obtiene mediante el análisis de factores
F.
Analizar las hipótesis mediante
pruebas estadísticas.
a.
Estadística inferencial.
Se pretende probar Hipótesis y
generalizar los resultados obtenidos.
·
El nivel de significancia. Wiersma u jurs, la posibilidad de que un evento ocurra
es de 0 a 1, ejemplo en una moneda la probabilidad de que caiga sello o cruz es
0.5 -0.5, si es en un dado es de 1/6 = 1667, para probar hipótesis
inferenciales respecto a la medida, el investigador debe de evaluar si es alta
o baja la probabilidad de que la media de la muestra este cerca de la media de
la distribución muestral, es aquí donde entra el nivel de significación.
Ejemplo si fuera a
apostar en la carrera de caballos y tuviera la probabilidad del 95% de atinarle
contra un 5% ¿apostaría?, la mayoría de las puntuaciones se concentran en el
centro de la distribución, en tanto que en los extremos solo encontramos
algunos debido a ello se creó un modelo de probabilidad llamado curva normal o
distribución normal, como el ssgg.
ü El 68.26% de la curva normal es
cubierta entre -1s y +1s,
ü El 95.44% del aria de esta curva es
cubierta entre -2s y +2s y
ü El 99.74% se cubre con -3s y +3s
ü Es unimodal, la media, la moda y la
mediana coinciden en el mismo punto.
ü La base esta dada en unidades de
desviación estándar (puntuasiones Z) destacando los puntos -1s, -2s, -3s, +1s,
+2s, +3s (que equivalen respectivamente -1.00z, -2.00z, -3.00z, +1.00z, +2.00z,
+3.00z)
ü Es mesocúrtica (curtosis de = 0)
¿con que nivel de confianza el
investigador generaliza, para suponer que la cercanía es real y no por error de
muestreo? Existen 2 niveles
El nivel de significancia de 0.05. el
cual implica que el investigador tiene un 95% de seguridad para generalizar sin
equivocarse y solo 5% en contra.
El nivel de significancia de 0.01. el
cual implica que el investigador tiene 99% en su favor y 1% en contra para generalizar sin temor.
G.
PRUEBA DE HIPOTESIS.
a)
Análisis paramétricos. Tenemos los siguientes supuestos.
· La distribución poblacional
de la variable dependiente es normal.
· El nivel de medición de las variables
es por intervalos (Escalas) o razones.
· Cuando dos o más poblaciones son
estudiados, tienen una varianza homogénea.
Las pruebas estadísticas paramétricas
más utilizadas.
•
Coeficiente
de correlación de Pearson y regresión lineal.
•
Prueba
t.
•
Prueba
de contraste de la diferencia de proporciones.
•
Análisis
de varianza unidireccional (ANOVA en un sentido o one way).
•
Análisis
de varianza factorial (ANOVA).
•
Análisis
de covarianza (ANCOVA).
i. Coeficiente de correlación de Pearson (r). Analiza la relación entre dos
variables medidas en un nivel por intervalos o razones. La prueba no considera
a uno como dependiente y a la otra como independiente ya que no evalúa la
causalidad.
El coeficiente es útil para
relaciones liniales pero no para relaciones curvilíneas, en este caso se suele
usar Spearman rho (rs).
Cuando queremos correlacionar simultáneamente
más de dos variables (ejemplo: motivación, Satisfacción en el trabajo, moral y
autonomía), se utiliza el coeficiente de correlación múltiple o R
La relación es altos valores en “X”
están asociados con altos valores en “Y”, altos valores en “X” se asocian con
bajos valores en “Y” la hipótesis señala que la correlación es significativa.
SPSS – Ventana gráficos – cuadros de
diálogos antiguos – Dispersión/puntos.
El coeficiente de Pearson puede
varias de -1.00 a +1.00, donde -1.00 = correlación negativa perfecta (a mayor
“X” Menor “Y”, cada vez que X aumenta, Y disminuye), y +1.00 = correlación
positiva perfecta (a mayor “X” Mayor “Y”, a menor “X” menor “Y”, cada vez que X
aumenta, Y aumenta)
–0.90 = Correlación negativa muy
fuerte.
–0.75 = Correlación negativa
considerable.
–0.50 = Correlación negativa media.
–0.25 = Correlación negativa débil.
–0.10 = Correlación negativa muy
débil.
0.00 = No existe correlación alguna
entre las variables.
+0.10 = Correlación positiva muy
débil.
+0.25 = Correlación positiva débil.
+0.50 = Correlación positiva media.
+0.75 = Correlación positiva
considerable.
+0.90
= Correlación positiva muy fuerte.
SPSS – Analizar – correlaciones –
(Bivariadas, parciales, distancias) – Cuadro menú.
El coeficiente de determinación se
determina elevando al cuadrado al coeficiente de Pearson (r), el resultado
indica la varianza de factores comunes, es el porcentaje de variación de una
variable debido a la variación de la otra.
Por ejemplo, si la correlacion entre
productividad y asistencia al trabajo es de 0.80.
r = 0.80
r2 = 0.64
La productividad constituye a, o
explica, 64% de la variación de la asistencia al trabajo, la asistencia al
trabajo explica 64% de la productividad.
Si r = es 0.72
Y r2 = 0.52
Quiere decir que poco mas de la mitad
de la variabilidad de un constructo o variable esta explicada por la otra.
Creswell 2005 señala que un
coeficiente de correlacion r2 entre 0.66 y 0.85 ofrese una buena
predicción de una variable respecto a la otra variable.
ii. Regresión Lineal.
Es un modelo estadístico para estimar el efecto de una
variable sobre otra, está asociado al coeficiente r de Pearson, brinda la
oportunidad de predecir las puntuaciones de una variable, tomando las
puntuaciones de la otra variable, entre mayor sea la correlación entre las
variables, mayor capacidad de predicción.
Dos variables, una se considera como
variable dependiente y la otra como variable independiente, pero para poder
hacerlo debe de tener un buen sustento teórico.
Nivel
de medición de las variables, intervalos o razones.
SPSS
– Analizar – Comparar Medidas – Prueva T.
Interpretación y procedimiento, la
regresión lineal se determina con base en el diagrama de dispersión,
este consiste en una gráfica donde se relacionan las puntuaciones de una
muestra en dos variables.
Ejemplo de 8 casos en calificaciones
en estadísticas y filosofía de 0 a 10.
Puntuaciones
|
||
sujetos
|
Filosofía (X)
|
Estadística (Y)
|
1
|
3
|
4
|
2
|
8
|
8
|
3
|
9
|
8
|
4
|
6
|
5
|
5
|
10
|
10
|
6
|
7
|
8
|
7
|
6
|
7
|
8
|
5
|
5
|
El diagrama de dispersión son una
manera de visualizar gráficamente una correlación.
Se ha demostrado que una estrategia
persuasiva con niveles altos de apelación
al temor, ejemplo un comercial televisivo muy dramático, provoca una
baja persuasibilidad, lo mismo que una estrategia persuasiva con niveles muy
bajos de apelación al temor, la estrategia persuasiva más adecuada es la que
utiliza niveles medios de apelación al temor, esta relación es curvilínea.
Esta línea es la recta de regresión y
se expresa mediante la ecuación de
regresión lineal.
Y = a + bX
Y = el valor de la variable dependiente que se desea
predecir.
a = la ordenada en el origen.
b = la pendiente o inclinación.
X = es el valor que fijamos en la variable independiente.
Para predecir los valores de Y se
sustituye los valores en X,
Ejemplo = H1 = la autonomía laboral es una variable que
predice la motivación intrínseca en el trabajo.
Ambas variables fueron medidas en una escala de 1 a 5.
a(intercept) = 0.42
b(slope) = 0.65
1.07 = 0.42
+ 0.65(1)
1.72 = 0.42
+ 0.65(2)
2.37 = 0.42
+ 0.65(3)
3.02 = 0.42
+ 0.65(4)
3.67 = 0.42
+ 0.65(5)
Las
variables de a y b los da el paquete estadístico del SPSS
La
regresión lineal es útil con relaciones lineales no con relaciones curvilíneas.
iii. La prueba t (t).
es una prueba estadística para evaluar si dos grupos difieren
entre sí de manera significativa respecto a sus medias en una variable.
La hipótesis de investigación propone
que los grupos difieren de manera significativa entre si y la Hipótesis nula
plantea que los grupos no difieren significativamente (para su análisis se usan
dos muestras ejemplo 2 escuelas).
Variables: la
comparación se realiza sobre una variable (regularmente y de manera teórica:
dependiente). Si hay diferentes variables, se efectuarán varias pruebas t (una por
cada par de variables)
La razón que
motiva la creación de los grupos puede ser una variable independiente. Por
ejemplo, un experimento con dos grupos, donde a uno se le aplica el estímulo
experimental y al otro no, es de control.
Nivel
de medición de la variable de comparación: intervalos o razón.
La prueba t se basa en una distribución muestra o
poblacional de diferencia de medias conocida como la distribución t de Student
que se identifica por los grados de libertad, los cuales constituyen el número
de maneras en que los datos pueden variar libremente dependiendo del tamaño de
los grupos que se comparan
Cuanto mayor número de grados de libertad se
tengan, la distribución t de Student se acercará más a ser una distribución
normal y usualmente, si los grados de libertad exceden los 120, la distribución
normal se utiliza como una aproximación adecuada de la distribución t de
Student
Se
calcula. gl = (n1
+ n2) – 2
los resultados, ésta debe ser menor a 0.05
o 0.01, lo cual depende del nivel de confianza seleccionado. Lo más importante
es visualizar el valor t y su significancia.
Consideraciones: La prueba t se utiliza
para comparar los resultados de una preprueba con los resultados de una
posprueba en un contexto experimental. Se comparan las medias y las varianzas
del grupo en dos momentos diferentes: X1 × X2 . O bien, para comparar las
prepruebas o pospruebas de dos grupos que participan en un experimento:
Los autores realizamos un análisis por prueba t con poco
menos de medio millón de alumnos de una institución pública, con la finalidad
de comparar el desempeño entre mujeres y hombres respecto al promedio general
de la carrera, el valor obtenido fue de 22.802, signifi cancia = 0.000 (menor
al 0.01). El promedio de los estudiantes fue de 6.58 (n = 302 272) y el de las
estudiantes de 7.11 (n = 193 436). Ante la interrogante: ¿se observaron
diferencias en el desempeño académico por género? Se puede decir que las
mujeres obtienen mayor promedio que los hombres en una diferencia de 0.53
puntos, la cual es significativa al nivel del 0.01.
El tamaño de efecto, es importante determinar, ya que es
una medida de la fuerza de las diferencias de las medias u otros valores
considerados.
Se calcula. El tamaño del efecto es justo la diferencia
estandarizada entre las medidas de los dos grupos.
Tamaño
total del efecto = media del G1 – media del G2
Desviación
estándar esperada.
iv. Prueba de diferencia de proporciones.
Es una prueba estadística para
analizar si dos proporciones o porcentajes difieren significativamente.
Hipótesis, de
diferencia de proporciones en dos grupos.
Variable, la
comparación se realiza sobre una variable, si hay más, la prueba se realiza por
cada variable.
Procedimiento e interpretación, se
selecciona diferencia de dos proporciones independientes. Se asigna el número
de respuestas y porcentaje estimado.
v. Análisis de varianza unidireccional o de un factor (ANOVA one way)
Es una prueba estadística para saber
si más de dos grupos difieren, significativamente entre sí en cuanto a sus
medias y varianzas. La prueba t se usa para dos grupos y el análisis de
varianza unidireccional se usa para tres, cuatro o mas grupos.
Hipótesis, La
hipótesis propone que los grupos difieren significativamente entre si y la
Hipótesis nula propone que no difieren.
Variable, una
variable dependiente y una variable independiente.
Nivel de medición de las variables, la variable independiente es categoría y la variable
dependiente es por intervalos o razones.
El
análisis de varianza unidireccional produce un valor conocido como F o razón F,
que se basa en una distribución muestral, conocida como distribución F, el cual
es otro miembro de la familia de distribución muestral. La razón F compara las
variaciones en las puntuaciones debidas a dos diferentes fuentes: variaciones
entre los grupos que se comparan y variaciones dentro de los grupos.
Si el valor F es
significativo implica que los grupos difieren entre sí en sus promedios,
Entonces se acepta la hipótesis de investigación y se rechaza la nula (según el
nivel de confianza 0.05 o 0.01).
SPSS- Analizar – comparar medidas – ANOVA de un Factor.
b)
Estadísticas Multivariadas análisis
no paramétrico.
Esta
prueba estadístico es para el enfoque multivariado, cuando tenemos diversas
variables independientes y una dependiente, varias independientes y
dependientes.
Entonces
requerimos de otros métodos métodos estadísticos como los que se muestran a continuación.
Método
|
Propósitos fundamentales
|
Análisis
de varianza factorial (ANOVA de varios factores)
|
Evaluar
el efecto de dos o más variables independientes sobre una variable dependiente.
|
Análisis
de covarianza (ANCOVA)
|
Analizar
la relación entre una variable
dependiente y dos o más independientes, al eliminar y controlar el efecto
de al menos una de estas variables independientes.
|
Regresión
múltiple
|
Evaluar
el efecto de dos o más variables independientes sobre una variable dependiente, así como predecir el valor de la
variable dependiente con una o más variables independientes, y estimar
cuál es la independiente que mejor predice las puntuaciones de la
variable dependiente. Se trata de una extensión de la regresión lineal.
|
Análisis multivariado
de varianza (MANOVA)
|
Analizar
la relación entre dos o más variables independientes y dos o más variables dependientes.
|
Análisis
lineal de patrones (PATH)
|
Determinar
y representar interrelaciones entre
variables a partir de regresiones, así como analizar la magnitud de la
influencia de algunas variables sobre otras, influencia directa e
indirecta. Es un modelo causal.
|
Análisis
discriminante
|
Construir
un modelo predictivo para
pronosticar el grupo de pertenencia de un caso a partir de las características
observadas de cada caso (predecir la pertenencia de un caso a una de las
categorías de la variable dependiente, sobre la base de dos o más
independientes).
|
Distancias
euclidianas
|
Evaluar
la similitud entre variables (en unidades de correlación).
|
Las
Presunciones de la estadística no paramétrica.
·
La mayoría de estos análisis no requieren de
presupuestos acerca de la forma de la distribución poblacional. Aceptan
distribuciones no normales.
·
Las variables no necesariamente tienen que
estar medidas en un nivel por intervalos o de razón; pueden analizar datos
nominales u ordinales. De hecho, si se quieren aplicar análisis no paramétricos
a datos por intervalos o razón, éstos necesitan resumirse a categorías
discretas (a unas cuantas). Las
variables deben ser categóricas.
Las
pruebas no paramétricas mas usadas.
·
La chi cuadrada o χ2.
·
Los coeficientes de correlación e
independencia para tabulaciones cruzadas.
·
Los coeficientes de correlación por rangos
ordenados de Spearman y Kendall.
i) La chi cuadrada (X2).
Es una variable estadística para
evaluar Hipótesis acerca de la relación entre dos variables categóricas.
Hipótesis
a probar,
correlaciones.
Variables
involucradas,
son dos, No considera relaciones causales.
Nivel
de medición de las variables. Nominales u ordinales.
Procedimiento. Se calcula por medio
de una tabla de contingencia o tabulación cruzada, que es un cuadro de dos
dimensiones y cada dimensión contiene una variable. A su vez una variable se
subdivide en dos o más categorías.
En esencia, la chi cuadrada es
una comparación
entre
la tabla
de frecuencias observadas y la denominada tabla de frecuencias esperadas, la cual
constituye la tabla que esperaríamos encontrar si las variables fueran
estadísticamente independientes o no estuvieran relacionadas (Wright, 1979). Es
una prueba que parte del supuesto de “no relación entre variables.
La chi
cuadrada
se puede obtener a través de los programas estadísticos o mediante STATS. En
los programas se solicita el análisis: Estadísticas (y usando las opciones “básicas” y “tablas”) en Minitab y
en SPSS/SPAW: Analize
(analizar)
→ Descriptive Statistics (Estadísticas descriptivas) → Crosstabs (tabulaciones cruzadas).
El programa también proporciona el valor de la chi
cuadrada junto con otras pruebas, el valor de la Chi cuadrada es significativo
al nivel de 0.01, se acepta la Hipótesis de investigación de la relación entre
entre variables, si la significancia es mayor que 0.05 se rechaza la Hipótesis.
Coeficiente de correlaciones e independencia para
tabulaciones cruzadas.
ii)
El
coeficiente de correlación de Pearson.
Es una estadística apropiada para variables medidas por
intervalos o razón y para relaciones lineales.
iii)
Coeficiente
de Spearman (rs). y de tau Kendall (t).
Son medidas de correlación para variables en un nivel de medición
ordinal (ambas) de tal modo que los individuos u objetos de la muestra
puedan ordenarse por rangos (jerarquías). Ejemplo pedir a un grupo de
ciudadanos que enumere en orden de prioridad sus necesidades. O pedir que
evalúen 10 marcas de refresco y la ordene del 1 al 10, en tanto que 1 es la
categoría o rango máximo.
Todos los refrescos o categorías, tienen que
jerarquizarse por rangos que contienen las propiedades de una escala ordinal
(se ordena de mayor a menor)
Ambos coeficientes varían de -1.0 (correlación negativa
perfecta) a +1.0 (correlación positiva perfecta), considerando el 0 como
ausencia de correlación.
SPSS – Análisis- estadística descriptiva _ tablas de
contingencia – entrar a estadísticos.
es explicada, el coeficiente de Kendall (t) resulta un
poco más significativo cuando los datos contienen un número considerable de
rangos empatados.
El coeficiente de Spearman (rho) parece ser una aproximación
cercana al coeficiente r de Pearson, cuando los datos son continuos (por
ejemplo, no caracterizados por un número considerable de empates en cada rango).
iv)
Coeficiente
Eta (eta).
Es interpretada como el porcentaje
de la varianza en la variable dependiente explicado por la independiente.
Puede calcular eta de las dos
maneras: al cambiar la definición de la independiente y dependiente, luego
promediar los dos coeficientes y obtener uno simétrico. Eta puede
trabajarse en tablas de contingencia.
9.
REDACCIÓN DEL INFORME FINAL.
En el primer capítulo se
redacta la metodología usada los objetivos de la investigación y el cuerpo
teórico usado.
Después viene la discusión
del tema, donde se desarrolla por cada objetivo un capitulo y se describe cada
ítem o concepto dentro de la variable o categoría conceptual en referencia.
En cada objetivo también se
desarrolla la discusión teórica, que lo contextualiza dentro de la teoría
desarrollada hasta el momento, ejemplo si el tema es informalidad, se relaciona
con el concepto y las explicaciones que dan otros autores de este tema.
Des pues se precisa las
conclusiones a la que llega el autor a modo de leyes o descripciones sobre el
tema o el fenómeno estudiado.
Se precisa las fuentes
referenciales que se han usado en la investigación, que debe precisar su fácil
ubicación del lector.
Se debe de realizar una
introducción, resumen y el abtrac que va al principio generalmente, y si es
necesario el o los agradecimientos.
Al final los anexos
Comentarios
Publicar un comentario