1.17k likes | 1.86k Views
Investigación en educación. Ps. Mg. Víctor Cabrera Vistoso. El diseño de la investigación. Con las hipótesis definidas se concibe la manera práctica de responder a las preguntas. Se hace el diseño, (plan o estrategia) de la investigación. Hay investigación experimental y no experimental.
E N D
Investigación en educación Ps. Mg. Víctor Cabrera Vistoso
El diseño de la investigación • Con las hipótesis definidas se concibe la manera práctica de responder a las preguntas. Se hace el diseño, (plan o estrategia) de la investigación. Hay investigación experimental y no experimental. • El experimento requiere la manipulación de una acción para analizar sus posibles efectos. • La variable independiente se manipula, la dependiente se mide para ver si varía o no. • Si se expone a un grupo a la presencia de la variable independiente y al otro no, el primero se llama grupo experimental y el segundo grupo de control.
Diseño Experimental • Un experimento aplica un estímulo a un individuo o grupo de individuos y ve el efecto de ese estímulo en alguna(s) variable(s) del comportamiento de estos. La observación se puede realizar en condiciones de mayor o menor control. • Se deduce que un estímulo afectó cuando observamos diferencias en las variables que serían supuestamente las afectadas entre un grupo al que se le administró dicho estímulo y uno al que no se le administró, siendo ambos iguales en todo excepto en esto último. • La asignación al azar es el método preferible para lograr que los grupos del experimento sean comparables.
Validez Interna y Externa • Los grupos que se comparen deben ser iguales en todo menos en el estímulo experimental. Se debe controlar la influencia de otras variables extrañas en las variables dependientes. (Purificación de la relación X---Y) • La validez interna refiere a la confianza que tenemos sobre los resultados. Elimina explicaciones rivales. • Lograr la validez interna (mantener equivalentes a los grupos controlando la fuente de invalidez)es el objetivo metodológico y principal de todo experimento. • Una vez que se consigue se busca la validez externa o sea la posibilidad de generalizar los resultados a la población no experimental.
Fuentes de Invalidez • Fuentes que invalidan internamente el experimento: • Historia: eventos que ocurren durante el experimento y afectan la variable dependiente. • Maduración: procesos internos de los participantes por el paso del tiempo que afectan resultados (Cansancio). • Inestabilidad:poca o nula confiabilidad en la mediciones. • Administración de pruebas que afectan las puntuaciones de pruebas subsecuentes. • Instrumentación o cambios en los instrumentos de medición o en los observadores participantes.
Fuentes de Invalidez • La regresión estadística o valores extremos en una prueba que tienden al promedio en otras mediciones. • La selección que al elegir sujetos genera grupos no equiparables. • La mortalidad experimental al perder participantes entre los grupos que se comparan. • Interacción entre selección y maduración, que hace que la selección de origen a diferentes tasas de maduración. • Otras Interacciones entre las fuentes de invalidación.
El Control y la Validez • El control y la validez interna se logra con: 1) Varios grupos de comparación. (2 mínimo) y 2) Equivalencia de los grupos en todo excepto la manipulación de las variables independientes. • Con un solo grupo no hay certeza que resultados se deban al estímulo experimental o a otras razones. • Los grupos (no los individuos) deben ser inicialmente equivalentes (sexo, edad,etc). La equivalencia inicial se logra asignando sujetos al azar. La técnica de emparejamiento no es la ideal. • Los grupos debe ser equivalentes durante todo el experimento (instrucciones, entrevistadores, etc).Los instrumentos de medición deben ser iguales y aplicados de la misma manera.
Simbología en el Diseño • R = asignación al azar • G = grupos de sujetos • X = Tratamiento, estímulo, condición experimental • O = Una medición a los sujetos de un grupo • - = Ausencia de estímulo • RG1 O X O Asignación Medición Administración Medición Azar sujetos Previa Estímulo Posterior Grupo 1
Pre Experimento • El pre-experimento tiene un grado de control mínimo. • Aplica tratamiento y luego una medición para observar el nivel del grupo en la variable = G X O • No hay manipulación de la variable independiente (no hay niveles de ella, no se explica como se afecta) • No hay control previo del nivel de la variable dependiente ni grupo de comparación. • No controla las fuentes de invalidez interna. • Si se hace una pre-prueba se agrega un punto de referencia = G O1 X O2 • No son adecuados para establecer relaciones entre variables y puede ser para prueba piloto (explorar).
Otros Diseños • Diseño con post prueba y grupo de control RG1 X O 1 RG2 - O2 Si O1=O2 no hubo efecto significativo del tratamiento experimental. Suele usarse la prueba estadística “t” para grupos correlacionados. • Si no hay grupo de control se llama diseño con grupos aleatorizados y post prueba unicamente= RG1 X O1 • Diseño con pre-prueba-post prueba y grupo de control RG1 O1 X1 O2 RG2 O3 X2 O4 RG3 O5 - O6 En este caso O1, O3 y O5 puede ser el conocimiento sobre un tema, X1 un video didactico , X2 lecura de folleto y O2 04 y 06 el conocimiento sobre el mismo tema anterior.
Las Comparaciones RG1 O1 X1 O2 RG2 O3 X2 O4 RG3 O5 - O6 • Las posibles comparaciones son: a) Pre-pruebas entre sí, b) post-pruebas entre sí, c) el puntaje ganancia de cada grupo ej. O1 vs 02 d) el puntaje ganancia de los grupos entre sí. • Esto puede dar por ejemplo efectos de los tratamientos experimentales pero diferentes, o que sólo uno o ninguno tenga efectos etc.
Pruebas Estadísticas • Para comparar entre pre-pruebas y entre las dos post pruebas se usa la prueba “t” para grupos correlacionados. • Igual para analizar el puntaje ganancia de cada grupo O1 vs O2 y O3 vsO4 • Análisis de varianza (ANOVA) para grupos relacionados si se comparan simultáneamente las cuatro pruebas. • Cuando se quiere analizar efectos en el largo plazo se adoptan diseños con varias post pruebas. (Diseños de series de tiempo o cronológicas que toman de un individuo u otro ente muchas observaciones)
Estudios Factoriales • Los experimentos pueden incorporar más de una sola variable independiente. • Los diseños factoriales manipulan dos o más variables independientes e incluyen dos o más niveles de presencia en cada una de las variables independientes. • Un ejemplo de diseño factorial de 2 X 2 sería método de enseñanza (tradicional oral y por video) y sexo (masculino-femenino). • Permiten evaluar los efectos de cada variable independiente sobre la dependiente por separado y los efectos de las variables independientes conjuntamente.
Validez Externa • La validez externa refiere a que tan generalizables son los resultados a otros sujetos. Hay fuentes de invalidez: • El efecto de interacción entre pruebas (sujetos son afectados en su reacción a la variable experimental por la pre prueba). • Errores de selección que al elegir personas con ciertas características el tratamiento produzca un efecto que no se daría en otras personas sin esas características. • La artificialidad de las condiciones experimentales que vuelven atípica la experiencia. • La interferencia de tratamientos múltiples si no tienen efectos reversibles. • Imposibilidad de replicar los experimentos en otras condiciones.
Estudio de Campo • En el experimento el efecto (la variancia) de las variables independientes influyentes posibles no pertinentes al problema se mantiene reducida en un mínimo. • El estudio de campo se hace en una situación realista en la que una o más variables independientes son manipuladas por el experimentador en condiciones tan controladas como lo permite la situación. • La diferencia es el grado en que el ambiente es natural para los sujetos. Los experimentos tienen más control que los estudios de campo pero estos tienen más validez externa.
Cuasi- Experimentos • En los cuasi experimentos no se asignan los sujetos a grupos experimentales sino que se trabaja con grupos intactos (formados aparte del experimento ej. habitantes de una zona de la ciudad) = G X O (falta la R junto a la G de la asignación aleatoria de sujetos) • Alcanzan validez interna en la medida en que demuestran la equivalencia inicial de los grupos participantes y la equivalencia en el proceso de experimentación. • Los experimentos verdaderos constituyen estudios explicativos, los pre-experimentos son exploratorios y descriptivos y los cuasi-experimentos son correlacionales aunque pueden llegar a ser explicativos.
EJEMPLO • Hipótesis: “Los pacientes que reciban mayor retroalimentación de sus médicos de cómo se están comportando en el tratamiento prescrito, obedecerán más a dicho tratamiento”. • Se toman dos grupos de pacientes. Un grupo recibe retroalimentación sobre su conducta en el tratamiento (G1) y el otro grupo no (G2). G1 X O1 G2 - O2 • Se evalúa la obediencia o apego al tratamiento. • Si el resultado es O1>O2 deducimos que la hipótesis fue confirmada. Pero podría ser que la mayor sensibilidad de G1 se deba a que lee más sobre su problema. No hay certeza si grupos no son inicialmente equivalentes.
Pasos Comunes a Seguir • Decidir las variables independientes y dependientes. • Elegir niveles de manipulación de var. independientes y convertir concepto en operaciones prácticas (tratamiento experimental) • Desarrollar instrumento para medir las variables dependientes. • Seleccionar la muestra de personas. • Reclutar sujetos del experimento (o cuasi-experimento) • Seleccionar diseño apropiado para muestras, hipótesis, objetivos y preguntas de investigación. • Planear actividad de los sujetos, dividirlos al azar o analizar propiedades de grupos intactos. • Aplicar pre-pruebas, los tratamientos y las post-pruebas.
Investigación no Experimental • Se realiza sin manipular variables y sin asignación al azar. Los sujetos ya pertenecían a un grupo dado. • Se observan fenómenos tal y como se dan en su contexto natural para después analizarlos. No hay estímulos a los cuales se expongan los sujetos del estudio. • No se construye ninguna situación sino que se observan situaciones existentes no provocadas intencionalmente • Es investigación sistemática y empírica en la que las variables independientes no se manipulan porque ya han sucedido. • Experimento: Hacer enojar intencionalmente a una persona para ver sus reacciones. No experimental: Ver las reacciones de esa persona cuando llega enojada.
Diseños Transeccionales • Los Diseños no experimentales se clasifican en transeccionales (ver el nivel de una variable o la relación entre varias en un punto del tiempo) y longitudinales (como evolucionan o cambian variables o sus relaciones) • Los transeccionales o transversales recolectan datos en un sólo momento. Ej. Investigar el número de empleados, desempleados y subempleados en un momento dado. • Se dividen en descriptivos y correlacionales/causales. • Los descriptivosindagan los valores de una o más variables (Ej. Nivel de empleo en 3 ciudades) • Los correlacionales/causales describen relaciones entre dos o más variables ej. (relación entre urbanización y analfabetismo para ver que variables mediatizan esa relación.)
Diseños Longitudinales • Los diseños longitudinales juntan datos a través del tiempo en períodos especificados, infieren sobre al cambio, sus determinantes y consecuencias. Por ej. como evolucionan los niveles de empleo durante cinco años en una ciudad. • Son:de tendencia, de evolución de grupo (cohort) y diseños panel. • Los de tendencia analizan cambios en el tiempo en variables o sus relaciones en una población. Ej. cambio de actitud hacia el aborto anualmente por 10 años. • Los de grupos analizan cambios en sub-poblaciones. Ej. Actitudes hacia el aborto en Argentinos nacidos en 1983. • Los de panel similares a los anteriores pero el mismo grupo de sujeto es medido en todos los momentos. Ej. analizar la evolución de enfermos de cancer de mama cada 6 meses en 2 años. • Hipótesis son de diferencia de grupos, correlacionales y causales.
Mayor control Manipula variables Se replican facilmente Las variables independientes son menos realistas Menor control No manipula variables Observan lo dado. Las variables independientes son realistas y genera más validez externa Experimental Vs No experimental
Resumen Diseño No Experimental • La investigación no experimental no manipula variables, se basa en realidades que ya ocurrieron sin intervención del investigador. • Es un enfoque retrospectivo. Observa variables en su contexto natural. • Estudia variables en un momento del tiempo en forma descriptiva o correlacional/causal o las estudia a lo largo del tiempo en tendencias y evolución dentro de grupos. • El tipo de diseño a elegir está condicionado por el problema, el contexto, el tipo de estudio y las hipótesis.
RESUMEN SEGUNDA PARTE La investigación puede ser experimental o no experimental. En el primer caso se manipula la variable independiente y se mide la dependiente controlando las fuentes de invalidez. La validez interna refiere a la confianza en los resultados y la externa a su posible generalización. Cuando la manipulación es de varias variables independientes de varios niveles cada uno el estudio es factorial. El pre-experimento no manipula la variable independiente. El cuasi-experimento utiliza grupos intactos. El diseño no experimental observa escenarios existentes no provocados intencionalmente. Pueden ser transeccionales que a su vez se dividen en descriptivos y correlacionales/causales o longitudinales de tendencia, de evolución de grupo y diseño panel.
Selección de la Muestra • La muestra es un sub-grupo de la población. • Hay que definir la unidad de ánálisis o quienes van a ser medidos (personas, organizaciones, periódicos etc.) • Luego se definen las características de la población o parámetros muestrales en contenido, lugar y tiempo (ej enfermos de cáncer de la ciudad X sin tratamiento). • Hay muestras probabilísticas y no probabilísticas. • En la probabilística todos los elementos de la población tienen la misma posibilidad de ser elegidos. En la segunda, la elección de elementos depende del investigador . • Que tipo de muestra se elige depende de los objetivos del estudio, del esquema de investigación y de la contribución que se piensa hacer.
Muestra Probabilística • En la muestra probabilística puede medirse el tamaño del error en la predicción. • El principalobjetivo de una muestra probabilística es reducir al mínimo este error llamado error estándar que dependerá del número de elementos muestreados. • Es esencial en diseños por encuestas que buscan estimaciones de variables medidas con instrumentos de medición y analizados con pruebas estadísticas. • Los valores muestrales serán parecidos a los de la población • La precisión de dichos estimados depende del error en el muestreo.
Tamaño de la Muestra • Se establece el error estándar (ej.0.05 o 0.01) o sea se sugiere que de 100 casos 95 o 99 veces el estimado sea correcto y que su valor se sitúe en un intervalo de confianza que comprenda el valor del parámetro poblacional. • El tamaño de la muestra se determina en dos pasos : 1) Se saca el tamaño provisional de la muestra dividiendo la varianza de la muestra/varianza de la población. La varianza de la población es el cuadrado del error estándar y la varianza de la muestra S = p (1-p). 2) Se ajusta la muestra provisional (n”) si se conoce el tamaño de la población (N) de forma tal que n = n”/ 1+n”/N • Luego se decide como y de donde seleccionar los sujetos de la muestra del tamaño n
Muestra Estratificada y Por Racimo • La muestra es estratificada si se la divide en estratos o categorías en que se divide la población y que son relevantes para los objetivos del estudio. • Se divide a la población en sub poblaciones (estratos) y se selecciona una muestra para cada estrato. • Aumenta precisión en la muestra pues se usan diferentes tamaños de muestra para cada estrato a fin de reducir la varianza de cada unidad de la media muestral. • El muestreo por racimos se hace cuando las unidades de análisis se encuentran encerradas en determinados lugares físicos o geográficos (ej. niños en colegios). • Unidad de análisis indica quienes serán medidos.La unidad muestral el racimo por el cual se llega a la unidad de análisis
Selección Aleatoria Muestra Probabilística • Los elementos de una muestra probabilística siempre se eligen aleatoriamente (ej. tabla de números random o elección sistemática) para asegurar que cada elemento tenga la misma probabilidad de ser elegido. • Todo procedimiento de selección depende de listados, sea existentes o construidos ad hoc. • Listados pueden ser la guía telefónica, lista de escuelas oficiales etc. • Cuando no hay listas se usan otros marcos con descripciones del material (archivos, mapas)
Muestras no Probabilísticas (dirigidas) • Las muestras no probabilísticas (dirigidas) dependen del criterio del investigador para la elección de los sujetos u objetos de estudio. • Selecciona casos típicos con la esperanza que sean representativos (para muestra basta un botón). Los elementos no tienen la misma posibilidad de ser elegidos. • Es informal y un poco arbitraria. No se puede calcular con precisión el error estándar (nivel de confianza con que se hace una estimación). • Pueden ser 1) muestras con sujetos voluntarios 2) muestras de expertos (estudios exploratorios), 3) muestras de sujetos tipo o estudios de casos (estudios cualitativos y motivacionales) y 4) muestreo por cuotas (estudios de opinión y mercadotecnia). • Las muestras dirigidas son válidas en cuanto a que un determinado diseño de investigación así lo requiere, pero los resultados no son generalizables a una población sino apenas a la muestra en sí o muestras similares.
Normalidad y Probabilidad • El teorema central del límite sugiere que una muestra de más de cien casos, será una muestra con una distribución normal en sus características. • Distinguir normalidad de probabilidad. • La normalidad es necesaria para efectuar pruebas estadísticas (inferenciales). • Lo segundo es requisito indispensable para hacer inferencias correctas sobre una población.
Recolección de Datos • Seleccionado el diseño apropiado y la muestra adecuada al problema e hipótesis el próximo paso es recolectar los datos sobre las variables seleccionadas. • Hay que seleccionar primero un instrumento de medición o desarrollar uno válido y confiable. • Aplicar el instrumento en la medición. • Preparar las mediciones obtenidas o sea codificar los datos.
Medición de Conceptos Abstractos • Medir significa asignar números a objetos (cosas que pueden verse o tocarse) y eventos (resultado, consecuencia o producto) de acuerdo con reglas. • En ciencias sociales varios de los fenómenos que son medidos no pueden caracterizarse como objetos o eventos porque son muy abstractos para ello (ej. disonancia cognitiva, alienación, PBI, credibilidad). • Por eso es mejor definir medición como la vinculación de conceptos abstractos con indicadores empíricos. • Esto se hace conun plan organizado para clasificar y cuantificar los datos disponibles (indicadores) en términos del concepto que el investigador tiene en mente
Valores Observables de Conceptos Abstractos • El centro de atención es la respuesta observable. • El interés se sitúa en el concepto subyacente no observable que es representado por la respuesta. • Los registros del instrumento de medición representan valores observables de conceptos abstractos. • Un instrumento adecuado es el que registra los datos observables que representan bien los conceptos o variables que el investigador tiene en mente. • No hay medición perfecta. Es imposible representar fielmente ciertas variables (ej.motivación) pero hay que acercarse lo más posible a la representación fiel de las variables a observar.
Confiabilidad y Validez del Instrumento • La confiabilidad del instrumento significa que su aplicación repetida al mismo sujeto u objeto produce iguales resultados. • La validez refiere al grado en que un instrumento realmente mide la variable que se pretende medir (ej. si se quiere medir inteligencia que mida inteligencia y no memoria) • La validez responde a la pregunta ¿ Se esta midiendo lo que se cree que está midiendo?. • La validez refiere a evidencia relacionada con el contenido, con el criterio y con el constructo.
La Validez de Contenido • La validez de contenido del instrumento de medición refiere al dominio específico de contenido de lo que se mide. • El instrumento debe contener representados a todos los ítems del dominio de contenido de las variables a medir. • Una prueba de conocimiento sobre canciones de los Beatles no tendrá validez si sólo incluye canciones de un par de sus discos o una prueba de operaciones aritméticas no tendrá validez de contenido si sólo incluye problemas de resta y excluye la suma.
La Validez de Criterio • La validez de criterio establece la validez de un instrumento de medición comparándola con algún criterio externo. • Es un estándar. Por ej. un exámen sobre manejo de aviones, mostrando la exactitud con que el examen predice que tan bien un grupo de pilotos puede operar un aeroplano. • Si el criterio se fija en el presente se habla de validez concurrente (preferencias del electorado por partidos contendientes unos días antes de la elección). • Si el criterio se fija en el futuro se habla de validez predictiva (resultados de una prueba de capacidad administrativa de gerentes comparandolos con los resultados del futuro desempeño)
Validez de Constructo (Concepto) • La validez de constructo (concepto) refiere al grado en que una medición se relaciona consistentemente con otras mediciones de acuerdo con hipótesis derivadas teóricamente referidas a los conceptos medidos. • Ej. Teoría (investigaciones hechas) encontraron que A correlaciona positivamente con B,C y D y negativamente con W. Si el instrumento mide realmente A sus resultados deben correlacionarse positivamente con los resultados obtenidos en las mediciones de B,C,D y negativamente con los resultados de W. • Ej. Al medir motivación laboral se mide persistencia (tiempo adicional que trabaja alguien al terminar su horario. • Hay que especificar 1) Una relación teórica entre conceptos desde el marco teórico. La validez de constructo se vincula con la teoría. 2) Correlacionar ambos conceptos y analizar la correlación. 3) Interpretar la evidencia empírica de acuerdo con el nivel en que clarifica la validez de concepto de una medición en particular.
Validez y Confiabilidad • La validez total del instrumento de medición se hace sobre la base de los tres tipos de evidencia (contenido, criterio y constructo) • Mayor la validez, mayor la aproximación de la representación a la variable que se pretende medir. • Un instrumento puede ser confiable pero no válido cuando genera resultados consistentes pero no mide lo que se pretende. • Los instrumentos pueden ser afectados en su confiabilidad y validez por 1) la improvisación 2) el desarrollo en culturas, grupos y tiempos distintos 3) su falta de adaptación a las personas a las que se aplica (ej. no empatía por lenguaje elevado para niños) 4) por las condiciones en que se aplica el instrumento (cuestionario largo, tedioso, en la puerta de calle con ruido etc.) 5) aspectos mecánicos (no comprender instrucciones, falta de espacio para contestar, no se lee bien lo que dice etc. • En la práctica es imposible la medición perfecta.
Cálculo de la Confiabilidad • La medición se conceptualiza: X = t + e donde X son los valores observados t son los valores verdaderos y e es el grado de error de la medición. • El error se mide calculando la confiabilidad y la validez. • El coeficiente de confiabilidad puedo oscilar entre 0 y 1. Los procedimientos utilizados para medir la confiabilidad son • Medida de Estabilidad aplica un mismo instrumento dos o mas veces a un mismo grupo después de cierto período. Si la correlación de los resultados de las diferentes aplicaciones es altamente positiva, el instrumento se considera confiable. • Método de formas alternativas o paralelas: aplica versiones equivalentes del instrumento (no el mismo). La correlación debe ser significativamente positiva. • Método de mitades: Se aplica una sóla medición pero se dividen en dos los items. Los valores deben correlacionar fuerte • Coeficientes de cronbach y coeficiente KR-20
Cálculo de la Validez • Para revisar la validez de contenido hay que mirar primero como usaron otros investigadores la variable. • Sobre esa base se elabora un universo de items posibles para medir la variable y sus dimensiones. • Se consulta luego investigadores familiarizados con la variable para ver si el universo es exhaustivo. • Se seleccionan los items y una muestra probabilística de ellos. • Se administran los items, se correlacionan las puntuaciones entre sí y se hacen estimaciones estadísticas para ver si la muestra es representativa. • La validez de criterio se estima correlacionando su medición con el criterio • La validez de constructo se hace mediante programas estadísticos de análisis de factores.
Construcción del Instrumento • Listar las variables. Revisar su definición conceptual y comprender su significadoRevisar como han sido definidas operacionalmente las variables • Comparar instrumentos, su confiabilidad, validez, sujetos a los que se aplicó, facilidad de administración, veces que medición resultó exitosa • Elegir el instrumento favorecido y adaptarlo al contexto propio • Indicar nivel de medición de cada variable: 1) Nominal: sin jerarquía ej, sexo m o f. Puede incluir variables dicotómicas ej escuela publica o privada a la asiste.2) Ordinal: hay categorías y jerarquía. Ej. mayor puntaje a una profesión que a otra. 3) Medición por intérvalos: Hay jerarquía entre categorías e intérvalos iguales en la medición ej.escala de 0 a 10. 4) Medición de razón (el cero de la escala es real o sea no existe la propiedad. Nivel medición afecta prueba estadística seleccionada • Indicar codificación de datos (valor númerico que los represente). Ej. masculino 1 y femenino 0 • Prueba piloto del instrumento,ajuste y mejora.
Instrumentos Disponibles : Escala de Likert • Escalas para medir actitudes que tienen dirección (positiva o negativa) e intensidad (alta o baja). • La escala de Likert presenta items en forma de afirmaciones o juicios (ej. la DGI informa bien a los contribuyentes) ante los cuales se pide la reacción de los sujetos (muy de acuerdo, de acuerdo, en desacuerdo etc.). Cada afirmación tiene el mismo peso en la escala. El número de juicios debe ser el mismo para todas las afirmaciones. • Todas las afirmaciones (items) miden la actitud hacia un único concepto subyacente (ej. la DGI). Si se miden actitudes hacia varios objetos se requiere una escala por cada objeto. • Cada frase tiene un puntaje y se suman sus valores por lo que se trata de una escala aditiva. (Ej. desde una actitud muy desfavorable hasta una actitud muy favorable) • Suponiendo una encuesta con 8 afirmaciones y 5 opciones cada una con un valor de 1 a 5, el mínimo posible es 8 y el máximo 40. • La escala de Likert se aplica autoadministradamente o por entrevista.
Diferencial Semántico-Cuestionarios • El diferencial semántico califica al objeto de actitud en un conjunto de adjetivos bipolares ej. justo-injusto; fuerte-débil; caro-barato • Entre cada par de adjetivos se presentan opciones ej. muy, bastante, regular, bastante y muy) y el sujeto elige la que refleja su actitud. • La escala final se califica igual a la de Likert sumando las puntuaciones obtenidas. Los resultados pueden ordenarse en una tabla • Los cuestionarios son un conjunto de preguntas cerradas (o con respuestas delimitadas) o abiertas respecto de las variables a medir. • Para codificar preguntas abiertas se selecciona un determinado número de cuestionarios por muestreo. Se observa la frecuencia con que aparece cada respuesta, se eligen las que tienen mayor frecuencia (patrones generales),se clasifican en temas o rubros de acuerdo a un criterio lógico, se le da un título a cada tema y se asigna un código a cada patrón general de respuesta
Análisis de Contenido • Es una técnica para analizar la comunicación de una manera objetiva, sistemática y cuantitativa. • Sirve para conocer actitudes de un grupo mediante análisis de sus discursos, analizar la personalidad de alguien evaluando sus escritos, describir tendencias en el contenido de la comunicación, develar diferencias en el mismo, comparar mensajes, auditar el contenido, medir la claridad de los mensajes, identificar intenciones, mensajes ocultos, revelar centros de interés, reflejar actitudes, valores etc • Se hace codificando las características relevantes del contenido del mensaje, para eso hay que definir el universo, las unidades de análisis y las categorías de análisis.
Universo, Unidades de Análisis, y Categorías • El Universo puede ser la obra de un autor, las emisiones de un noticiario televisivo durante un mes etc. • Las unidades de análisis constituyen segmentos del contenido de los mensajes. Pueden ser palabras, el tema, el item (programa, libro) el personaje, las medidas de espacio tiempo. • Las categorías son las casillas o cajones en las cuales son clasificadas las unidades de análisis. Ej. un discurso puede ser optimista, pesimista, liberal, conservador. Un personaje puede ser bueno o malo. • Las categorías pueden ser de asuntos (el tópico), de dirección (a favor, en contra, nacionalista, etc.) de valores (creencias, intereses) de receptores (a quien va dirigido) físicas (sección y página de prensa, horario en TV etc.) • Las categorías deben ser exhaustivas, mutuamente excluyentes, derivarse del marco teórico y de una evaluación de la situación.
Pasos en el Análisis de contenido • Definir el universo y sacar una muestra representativa • Definir las unidades de análisis • Definir las categorías que presenten a las variables • Seleccionar las personas que codificarán • Elaborar hojas de codificación • Entrenar a los codificadores • Calcular confiabilidad de los codificadores • Codificar y contar las frecuencias de repetición de las categorías. • Obtener totales para cada categoría • Realizar los análisis estadísticos apropiados
Observación • Es el registro sistemático, válido y confiable de comportamientos o conductas manifiestas. Es una forma de observación del contenido de comunicaciones. Puede ser participante o no. • La ventaja es que son técnicas de medición no obstructivas, aceptan material no estructurado y puede trabajar grandes volúmenes de datos. • Se debe definir el universo de eventos o conductas a observar, extraer una muestra, definir las unidades de observación y las categorías de observación.(Las subcategorías pueden ser escalas del tipo likert o diferencial semántico). • Se selecciona a los observadores, se elige el medio de observación, se elaboran las hojas codificadoras, se entrenan los codificadores y se calcula su confiabilidad. • Se codifica, se obtienen los totales y se hacen los análisis
Sesiones en Profundidad • Las sesiones en profundidad son otro método de recolectar datos. • Se reúne a un grupo de personas y se trabaja con éste en relación a las variables de la investigación. • Se define el tipo de personas. Se detectan ese tipo de personas y se las invita a las sesión. • Se lleva a cabo la reunión creando clima de confianza (rapport). • Se elabora el reporte de sesión. • Se codifica y se hace el análisis correspondiente
Resumen Tercera Parte La selección de la muestra depende de los objetivos y el tipo de investigación. Cuando es probabilística, se puede medir el error en la predicción, no así en la muestra dirigida. Hay muestras estratificadas y por racimos. La recolección de datos se hace con instrumentos que deben ser confiables y válidos. Cuando se miden conceptos abstractos, estos se vinculan con indicadores empíricos. La validez debe ser de contenido, de criterio y de concepto. Entre los instrumentos disponibles están las escalas (Likert, semántica diferencial) los cuestionarios, el análisis de contenido, la observación, las sesiones en profundidad, y otros como las pruebas estandarizadas y los archivos.