Fiabilidad y Validez en la Medición

Fiabilidad y Validez en la Medición

¿Qué es la medición?

La medición está en el corazón de cualquier disciplina científica. La función principal de la medición es asignar números a objetos o eventos de acuerdo con ciertas reglas. Es el proceso mediante el cual los datos empíricos se organizan en alguna relación sistemática con el concepto que se estudia.

Bryman identifica tres razones principales de la preocupación por la medición en la investigación cuantitativa:

  • La medición nos permite delinear finas diferencias entre personas con respecto a las características en cuestión.
  • La medición nos proporciona un dispositivo o criterio consistente para hacer tales distinciones.
  • La medición proporciona la base para estimaciones más precisas del grado de relación entre conceptos (por ejemplo, mediante análisis de correlación).

La teoría de la medición sostiene que, por muy precisos que sean nuestros instrumentos de medición y por muy cuidadosos que sean nuestros esfuerzos de observación, siempre se introducirán algunos errores en nuestra medición. Esto es lo que llamamos Error de medición.

La formulación central de la teoría de la medición establece que una medida observada (puntuación) es igual a la puntuación real más algún error (por encima o por debajo de la puntuación real), que necesariamente ocurre en el proceso de observación del fenómeno.

Así si X es una puntuación observada, t una puntuación verdadera y mi un error de medición, entonces la relación entre X,T, y mi Para el i-ésimo individuo se puede expresar como:

validez de confiabilidad en el ejemplo de medición 1

Así, para una medida especificada i, el error de medición e1 es la diferencia entre X y 7):

validez de confiabilidad en el ejemplo de medición 2

Siempre que se mide un atributo, es probable que se generen tres tipos de errores en el proceso de medición. Estos son (i) error aleatorio, (b) error sistemático y (c) error situacional.

Cualquiera error Aparece como una variación inexplicable. Ocurre al azar. Un error aleatorio no muestra ninguna tendencia sistemática a ser negativo o positivo.

Si los errores son verdaderamente aleatorios, se cancelarán entre sí y el promedio general de estos errores será cero.

Eso es;

validez de confiabilidad en el ejemplo de medición 3

A veces la gente no sabe su edad exacta. Al informar, algunas personas exagerarán su edad y otras la subestimarán. Esto producirá errores aleatorios.

La inexactitud de las mediciones que ocurre repetidamente y por las mismas razones se denomina error sistematico.

Las observaciones que sobreestiman o subestiman constantemente el valor real están sujetas a errores sistemáticos. Los errores sistemáticos ocurren con frecuencia como resultado de procedimientos de investigación inadecuados, tales como;

  • Conceptualización defectuosa del problema de investigación.
  • Un instrumento de investigación mal diseñado.
  • El sesgo del investigador. y
  • Operacionalización incorrecta de variables.

A diferencia del error aleatorio, la suma de los errores sistemáticos no suma cero.

En la medición del uso de anticonceptivos, por ejemplo, si las personas reportan consistentemente un mayor uso porque creen que el entrevistador o los administradores del programa lo apreciarían, se producirían errores sistemáticamente, dando una tasa falsamente alta de uso de anticonceptivos.

Asimismo, una báscula defectuosa o cualquier otro dispositivo de medición defectuoso probablemente produzca un error sistemático en el proceso de medición.

Errores situacionales Son aquellos que no ocurren de forma aleatoria ni sistemática, sino que ocurren como resultado de características personales particulares del individuo u otras circunstancias especiales que pueden influir en el proceso de medición.

El cansancio, por ejemplo, de los encuestados o una detracción ambiental inusual, pueden generar un error situacional.

Los investigadores sociales emplean principalmente dos criterios para evaluar la calidad de sus medidas.

Estos son;

  1. confiabilidad y
  2. validez.

Estos dos criterios buscan dar respuesta;

  • qué tan consistente o confiable (que se refiere a confiabilidad), y
  • ¿Es exacta (que se refiere a la validez) la información obtenida?

Analizaremos estos conceptos uno por uno en las siguientes secciones.

Confiabilidad y su medición

En pocas palabras, la confiabilidad es el grado en que un procedimiento de medición produce resultados similares, es decir, consistentes, cuando se repite en condiciones similares.

Un sastre que mide una tela con una cinta métrica obtiene un valor de longitud de la tela de 20 pulgadas.

Si el sastre toma repetidas medidas de la tela y cada vez obtiene el mismo largo, se dice que la cinta métrica es confiable.

Las condiciones esenciales en tal proceso de medición son que la administración repetida del mismo instrumento debe realizarse en condiciones esencialmente similares y que el objeto no cambiará con el tiempo.

Los instrumentos confiables son robustos; funcionan bien en diferentes momentos y en diferentes condiciones.

Sin embargo, si el objeto que se mide cambia de valor, la medida de confiabilidad indicará ese cambio.

¿Cómo puede ser que un instrumento de medición no sea confiable?

Si su peso se mantiene constante en 60 kilogramos, pero las mediciones repetidas en su báscula de baño muestran que su peso fluctúa, la falta de confiabilidad puede deberse a un resorte débil dentro de la báscula.

En el caso de investigación social, la falta de confiabilidad en el cuestionario como instrumento de medición puede surgir en la medición de cualquier concepto debido a que cosas como las categorías de preguntas o respuestas son tan ambiguas que el encuestado no está seguro de cómo debe responder.

En las circunstancias dadas, el encuestado no responde de manera consistente. Esto conduce a la falta de fiabilidad del instrumento de medición (aquí el cuestionario).

Por lo tanto, la credibilidad y comprobabilidad de cualquier teoría dependen principalmente de herramientas o dispositivos de medición adecuados en la investigación social.

La confiabilidad de una medida se puede describir en términos de tres conceptos interrelacionados:

  • Estabilidad;
  • Equivalencia; y
  • Consistencia interna.

Se dice que una medida es estable si puede obtener resultados consistentes con mediciones repetidas de los mismos individuos u objetos con los mismos instrumentos.

Un procedimiento de observación o dispositivo de medición es estable si da la misma lectura en un individuo u objeto cuando se repite una o más veces.

La segunda perspectiva sobre la confiabilidad, es decir, equivalencia, Considera cuánto error pueden introducir diferentes investigadores (en observación) o diferentes muestras de ítems estudiados (en preguntas o escalas).

Así, mientras que la estabilidad se ocupa de las fluctuaciones personales y situacionales de un momento a otro, la equivalencia se ocupa de las variaciones en un momento dado entre observadores y muestras de elementos.

Una buena manera de evaluar la equivalencia de las mediciones realizadas por diferentes observadores es comparar su puntuación o evaluación del mismo evento.

En la encuesta sobre prevalencia de TDY de 1993 en Bangladesh, por ejemplo, ocho médicos midieron el grado de bocio de una sola persona en un solo momento para evaluar el alcance del error incurrido en la medición debido a los médicos.

El tercer enfoque de la confiabilidad, es decir, la consistencia interna, Utiliza sólo una administración de un instrumento o prueba para evaluar la consistencia u homogeneidad entre los ítems.

Siempre hay que tener presente que la confiabilidad se refiere a un instrumento de medición específico aplicado a una población específica bajo una condición específica.

Para evaluar la confiabilidad de cualquier prueba basada al menos en datos de intervalo, podemos usar, en general, el coeficiente de correlación momento-producto de Pearson. r, y la correlación resultante será nuestra estimación del coeficiente de confiabilidad.

El coeficiente varía entre '0' (sin correlación y, por tanto, sin consistencia interna) a '1' (correlación perfecta y, por tanto, consistencia interna completa).

Generalmente se espera que un coeficiente de 0,8 o superior implique un nivel aceptable de confiabilidad.

La correlación debe ser estadísticamente significativa para establecer la confiabilidad, y la fuerza de la correlación proporciona información sobre la confiabilidad de las medidas involucradas.

Al estimar la confiabilidad, se pueden utilizar diferentes fuentes de variación en los valores de medición.

El enfoque más simple es el llamado enfoque de varianza, que utiliza la ecuación anterior [(a), a saber. Xt =Ti+ei. ]

El conjunto de las puntuaciones observadas tiene una varianza total Voh (decir). Asimismo, las puntuaciones verdaderas (Tj) y los errores de medición mi tendrá variaciones Ft y Vmi, respectivamente.

La varianza total es la suma de la varianza verdadera y la varianza del error, es decir;

validez de confiabilidad en el ejemplo de medición 4

La razón entre la varianza verdadera y la varianza total es la coeficiente de confiabilidadt. Eso es;

validez de confiabilidad en el ejemplo de medición 5

Desde Vt es menor o igual que Ko, el coeficiente de confiabilidad puede tomar un valor máximo de 1.

Cuando esto es así, decimos que las puntuaciones observadas son las mismas que las verdaderas llagas y, en ese caso, se supone que se logra una confiabilidad perfecta.

Se puede obtener una fórmula alternativa para el coeficiente de confiabilidad dividiendo ambos lados de la expresión (d) por Vq.

De este modo;

validez de confiabilidad en el ejemplo de medición 6

Después de algunos reordenamientos;

validez de confiabilidad en el ejemplo de medición 7

Hay varias otras técnicas populares disponibles para medir la confiabilidad. Estos son

  • Método de prueba-reprueba
  • Método de formas paralelas
  • Método de división por mitades,
  • Fórmula de Kuder-Richardson y
  • ANOVA

Las últimas tres técnicas se emplean para evaluar el aspecto de consistencia interna de la confiabilidad.

Cómo aumentar la confiabilidad

Las siguientes técnicas pueden aumentar la confiabilidad estimada de una prueba:

  • Aumente la duración de una prueba agregando más elementos. Cuanto más larga sea la prueba, mayor será la probabilidad de confiabilidad. Sólo se deben agregar elementos que hayan sido seleccionados de la misma población de elementos.
  • Puede lograr una mayor confiabilidad a través de una mayor coherencia de los investigadores utilizando únicamente personas bien capacitadas, supervisadas y motivadas para realizar la investigación.
  • Aumente la varianza haciendo que la prueba sea más discriminativa. Agregue ítems que separen a las personas a lo largo de un continuo, con algunos ítems en los que solo los puntajes más altos acertarán, en otros solo los peores puntajes acertarán, y así sucesivamente hacia arriba y hacia abajo. Deshágase de los elementos en los que todo el mundo acierta (así como de aquellos en los que todo el mundo se equivoca), ya que no proporcionan ningún poder para discriminar. Obviamente, una prueba de 2 ítems no puede producir tanta variación como una prueba de 100 ítems, ni la prueba de 2 ítems proporcionará mucha información sobre el poder de discriminación de los ítems, salvo, en el mejor de los casos, separar el promedio superior del inferior. -promedio.
  • Aumentar el tamaño de la muestra que se está analizando. No importa cuántos ítems tenga o qué tan bien discriminen sus ítems, si no hay suficientes sujetos con diferentes rangos de habilidad, la confiabilidad de la prueba puede subestimarse gravemente.

limites perceptivos.

Para que la prueba tenga algún uso práctico, no sólo debe ser confiable, sino que también debe ser válida. Una definición tradicional de la validez de un dispositivo de medición es la medida en que cual él mide lo que fue diseñado para medir.

Es decir, si una prueba ha sido diseñada para medir la aptitud musical, por ejemplo, una prueba válida mide precisamente eso y no alguna otra variable extraña.

Cuando te subes a la báscula, quieres saber tu peso, no tu coeficiente intelectual o alguna otra cualidad desconocida.

En el uso científico, una medición de un fenómeno determinado (según lo designado por un concepto determinado) se considera una medida válida si mide con éxito el fenómeno.

Parece claro que la definición de validez tiene dos partes;

  1. que el dispositivo de medición mide el concepto en cuestión y no otros conceptos;
  2. que el concepto se esté midiendo con precisión.

Se puede tener el primero sin el segundo, pero no al revés (el concepto no se puede medir con precisión si se mide algún otro concepto).

Para aclarar el concepto más claramente, supongamos que deseamos medir el coeficiente intelectual y que Afra ciertamente tiene algún nivel real de coeficiente intelectual (digamos 110).

Podemos construir una prueba que mida su coeficiente intelectual pero lo mida con cierto grado de error.

Es decir, mide su inteligencia como 100 cuando es 110.

Sin duda, una prueba de este tipo mide el concepto correcto (CI) y tiene cierto potencial para ser una medida válida si podemos refinarla para eliminar el error en la medición.

Por otro lado, si queremos medir la inteligencia de Afra, podemos idear una prueba que no mida la inteligencia en absoluto.

Una prueba de este tipo nunca puede ser una medida válida de inteligencia, ya que mide algún otro concepto (como su habilidad, o tal vez no mide nada en absoluto), en lugar de medir la inteligencia como habíamos planeado.

La dificultad es que esta prueba aún puede arrojar una puntuación numérica, y posiblemente incluso podría arrojar una puntuación de 110 para Afra.

Sin embargo, todavía no es válido porque no mide el fenómeno deseado.

Por lo tanto, resulta muy importante poder evaluar la validez de las pruebas, ya que todas ellas arrojarán algún tipo de puntuación, pero esto no significa necesariamente que la medición sea válida.

Por definición, si una medida es válida, será precisa en todo momento y, por tanto, también será fiable, pero lo contrario no es cierto. Esa es una medida confiable que puede no ser válida.

Otra forma de expresar la misma afirmación es que la confiabilidad es una condición necesaria pero no suficiente para la validez.

La validez de la medición se puede considerar en términos generales de dos maneras: validez interna y validez externa.

Validez interna busca responder si existe alguna diferencia en cualquier comparación dada. Se pregunta si una diferencia aparente puede atribuirse o no al mismo artefacto de medición.

Si no se encuentran contradicciones en los datos de un experimento determinado, se dice que el estudio tiene validez interna. Los hallazgos contradictorios señalan la ausencia de validez interna.

Validez externa Es el problema de interpretar la diferencia, el problema de generalización de la investigación experimental.

Incluso si hay validez interna, no se dice que los hallazgos tengan validez externa a menos que se consideren válidos para situaciones adicionales (externas) además del estudio original que generó los hallazgos.

En la literatura de investigación se mencionan muchas formas de validez, y el número crece a medida que ampliamos la preocupación por una medición más científica.

Una clasificación aceptada consta de cuatro formas principales;

  1. validez aparente.
  2. validez de contenido,
  3. validez relacionada con el criterio, y
  4. validez de constructo.

Los analizamos brevemente.

Validez aparente

El método más básico para comprobar la validez es examinar cuidadosamente la medida de un concepto a la luz de su significado y preguntarse seriamente si el dispositivo de medición parece estar midiendo el concepto subyacente. Esta forma de consideración y examen cuidadosos se conoce como validez aparente.

La validez aparente se basa en la apariencia general de la prueba; como tal, una prueba tendrá más validez aparente si su apariencia es consistente con el constructo bajo estudio.

Desde la perspectiva de las pruebas, es realmente importante tener una prueba que parezca superficialmente capaz de aprovechar la característica bajo estudio.

Esta apariencia superficial de la prueba puede motivar a quienes la toman, especialmente cuando la prueba produce una suposición de relevancia.

Por ejemplo, una prueba para medir la aptitud de una persona para bancario Podría ser más realista y motivador si plantea preguntas sobre balances y pagos de intereses, en lugar de, digamos, el promedio de bateo de un determinado jugador de críquet.

Lo importante del contexto de invalidez es que una prueba tiene validez aparente si los ítems están razonablemente relacionados con el propósito percibido de la prueba.

La validez aparente refleja el contenido en cuestión.

Simplemente se evalúa preguntando a otras personas si la medida parece llegar al concepto que es el foco de atención.

En otras palabras, se podría pedir a personas, posiblemente aquellas con experiencia o conocimientos en un campo, que actúen como jueces para determinar si, a primera vista, la medida parece reflejar el concepto en cuestión.

Por lo tanto, la validez aparente es esencialmente un proceso intuitivo que juzga si el instrumento de medición llega al concepto de manera adecuada.

Validez de contenido

Validez de contenido busca responder si los indicadores empíricos (pruebas, escalas, preguntas, etc.) representan completamente el dominio del concepto subyacente que se está estudiando.

En este sentido, la validez de contenido se refiere al grado en que el contenido de un conjunto de ítems representa adecuadamente el universo o dominio de todos los ítems relevantes bajo estudio.

En la medida en que los elementos reflejen todo el dominio del contenido, se puede decir que son válidos en cuanto a contenido.

La determinación de la validez del contenido es crítica y puede abordarse de varias maneras. Dos de los enfoques son:

  • El diseñador puede determinarlo definiendo cuidadosamente el tema de interés, los elementos a escalar y las escalas a utilizar. Este proceso lógico suele ser intuitivo y exclusivo de cada diseñador de investigación.
  • Se puede utilizar un panel de personas para juzgar qué tan bien el instrumento cumple con los estándares.

Los principales problemas con la validez del contenido surgen cuando

  • No existe consenso sobre la definición de los conceptos a medir.
  • El concepto es multidimensional y consta de varios subconceptos.
  • La medida es larga y compleja.

La validez de criterio, también llamada validez pragmática, validez concurrente o validez predictiva, implica múltiples mediciones del mismo concepto.

El término validez concurrente Se ha utilizado para describir una medida que es válida para medir un fenómeno particular al mismo tiempo que se administra la medición. A diferencia de, Validez predictiva se relaciona con el desempeño futuro del criterio. Por lo tanto, estas dos medidas sólo difieren en una perspectiva temporal.

La validez predictiva se refiere a qué tan bien una escala o instrumento puede pronosticar un criterio futuro y la validez concurrente a qué tan bien puede describir uno presente.

Mire los siguientes casos:

  • Un cuestionario de opinión está diseñado para pronosticar los resultados de una elección sindical de empleados bancarios. Nuestra preocupación es evaluar cuán correctamente el cuestionario pronostica los resultados de las elecciones. Cuanto más preciso sea el pronóstico de los resultados, más validez predictiva posee el cuestionario.
  • Se realiza un estudio observacional para clasificar a las familias en ingresos bajos, medios y altos. El grado en que el estudio puede clasificar correctamente a estas familias representa la validez concurrente.
  • Se diseña un cuestionario para identificar a las personas con trastornos psiquiátricos. La validez del cuestionario podría determinarse comparando sus diagnósticos con los realizados por un psiquiatra basándose en una investigación clínica. Los dos enfoques conducen respectivamente a la validez predictiva y la validez concurrente.

La opinión, los ingresos y las condiciones psiquiátricas en los ejemplos anteriores son los criterios que empleamos para medir la validez de los instrumentos de medición.

Las calificaciones de desempeño, las unidades producidas en un período determinado, la cantidad de ventas y la cantidad de errores cometidos en un documento mecanografiado son algunos ejemplos más de criterios.

Una vez que se realizan las especificaciones de la prueba y se obtienen las puntuaciones de los criterios, se pueden comparar. El enfoque habitual es correlacionarlos mediante la correlación momento-producto.

Por ejemplo, podríamos correlacionar los puntajes de las pruebas de un grupo de estudiantes universitarios y el promedio de calificaciones que obtuvieron estos estudiantes durante su primer año de universidad y considerar este coeficiente como un coeficiente de validez.

Los coeficientes de validez suelen ser mucho más bajos que el coeficiente de confiabilidad (en el rango de 0,40 a 0,60 con un valor mediano de 0,50).

Validez de constructo

La validez de criterio se basa en evidencia empírica (como puntuaciones, ingresos y calificaciones) que sirve como base para juzgar que lo que se mide mide lo que se supone que debe medir (capacidad predictiva).

Esta es una forma de validez con base empírica, en la que se puede utilizar alguna evidencia observable para confirmar la validez de una medida.

Sin embargo, cuando no existe un criterio ni un universo de contenido aceptado que defina la calidad que se mide, entonces la validez relacionada con el criterio no se puede utilizar para probar la validez.

La dificultad para aplicar pruebas de validez rigurosas y objetivas en la medición de actitudes, por ejemplo, surge del hecho de que dicha medición es invariablemente indirecta en el sentido de que la actitud se infiere de las declaraciones o respuestas verbales.

Una actitud es una abstracción y, en general, es imposible evaluar su validez directamente. Un enfoque para esta situación es el de validez de constructo.

Las pruebas de actitud, aptitud y personalidad generalmente se refieren a conceptos de esta categoría.

La validez de constructo se basa en formular hipótesis sobre los conceptos que se están midiendo y luego en probar estas hipótesis y correlacionar los resultados con la medida inicial.

Aquí está a Procedimiento de 3 pasos para probar la validez de constructo de las medidas:

  • Especifique primero la relación teórica entre los conceptos mismos.
  • Examinar la relación empírica entre las medidas de los conceptos.
  • Interpretar la evidencia empírica en términos de cómo aclara la validez de constructo de la medida particular.

Supongamos que desarrollamos dos índices para medir la clase social y los etiquetamos como índice-1 e índice-2.

Supongamos que tenemos una teoría que contiene una hipótesis que afirma que existe una relación inversa entre la clase social y el crimen: a medida que aumenta la clase social, el crimen disminuye.

Supongamos que esta hipótesis se ha probado midiendo la clase social mediante el índice 1 y se ha establecido mediante pruebas estadísticas.

La validez de constructo consiste en reemplazar el índice 1 por el índice 2 en teoría y volver a probar toda la teoría. Si obtenemos los mismos resultados para toda la teoría (especialmente para la hipótesis que contiene el índice 2) que cuando usamos el índice 1 para medir la clase social, entonces decimos que la nueva medida (índice 2) tiene validez de constructo.

Los tipos de validaciones discutidos hasta ahora pueden verse como una acumulación, y cada uno de los tipos de validación posteriores incluye todos los elementos de todos los tipos anteriores, junto con algunas características nuevas.

En otras palabras, la validación de constructo requiere más información que la validación de criterio, y la validación de criterio requiere más información que la validación de contenido o facial.

Por esta razón, a menudo se dice que la validación de constructo es el procedimiento de validación más sólido. Al resumir los diversos tipos de pruebas de validez para determinar su eficacia en la investigación social, Zeller y Carmines concluyen que la validez de constructo es la más útil y aplicable a las ciencias sociales.

Para concluir, cabe señalar que la confiabilidad y validez de la medición no son características invariantes. Siempre son específicos de una población, época y propósito en particular.

Por lo tanto, en cualquier situación dada, el investigador tiene que decidir qué grado de falta de fiabilidad e invalidez considerará aceptable.

Análisis de varianza en la estimación de la confiabilidad

Las conocidas técnicas de análisis de varianza se pueden aplicar para evaluar la confiabilidad de la prueba de consistencia interna. Esta técnica se puede emplear para establecer rTT uno para la situación en la que los ítems se puntúan de forma dicotómica (bien-mal, de acuerdo-en desacuerdo), y otro en el que los ítems se puntúan en una escala de intervalo. Ilustramos el método sólo con los datos dicotómicos.

El método que aquí se presenta se debe a Cyril Hoyt, un gran estadístico, y es conocido popularmente como Método Cyril Hoyt. Ilustramos este método mediante ejemplo.

Los siguientes pasos están involucrados en el cálculo del coeficiente de confiabilidad.

Ejemplo:-

Un especialista ha creado un test de timidez de cuatro ítems y se lo ha aplicado a una muestra aleatoria de cinco sujetos. La prueba se califica únicamente en función de si el ítem indica timidez o no. Se calificó como 1 para timidez y 0 para ninguna timidez (consulte los datos a continuación). Utilizando la técnica ANOVA, estime la confiabilidad de la consistencia interna de la prueba.

análisis de varianza en la estimación de la confiabilidad

Construyendo escalas de medición

Las escalas son fundamentales para el tema de la medición en la investigación social. Una escala se refiere a un ítem o conjunto de ítems (indicadores) para medir alguna característica o propiedad, como una actitud.

El escalado es un procedimiento para asignar números a una propiedad de objetos para impartir algunas de las características de los números a las propiedades en cuestión.

Por lo tanto, puede idear una escala para medir la durabilidad (propiedad) de la pintura.

En otro contexto, puede juzgar la capacidad (propiedad) de supervisión de una persona pidiendo a un grupo de pares que califique a esa persona en varias preguntas (indicadores) que usted cree.

También se puede medir el coeficiente intelectual (propiedad) de una persona haciéndole preguntas prediseñadas (indicadores).

Una escala generalmente representa un único concepto o constructo complejo que combina múltiples indicadores en una medida compuesta común.

La razón por la que las escalas se utilizan ampliamente en las ciencias sociales es que muchos de los conceptos que los investigadores sociales quieren estudiar no pueden medirse con un solo indicador.

Conceptos como la religiosidad son demasiado multidimensionales para medirlos con un solo elemento.

Cuando tales conceptos son de Por interés, se puede desarrollar una escala o un índice para intentar incorporar las múltiples facetas de la variable abstracta en un conjunto de indicadores que representen su definición operativa.

Las escalas son de dos tipos: calificación o ranking. Escalas de calificación Tienen múltiples categorías de respuesta y también se conocen como escalas de categorías.

Se utilizan cuando los encuestados califican un objeto o actitud sin compararlo directamente con otro objeto o actitud.

Por ejemplo, se puede pedir a los encuestados que califiquen el estilo de un zapato nuevo o la calidad de una prenda en una escala de cinco puntos: excelente, buena, regular, inferior al promedio y mala, o la frecuencia de las visitas de un trabajador de salud comunitario: siempre, a menudo, ocasionalmente, raramente y nunca.

Las escalas de clasificación hacen comparaciones entre dos o más actitudes u objetos. Los encuestados bajo este método comparan dos o más objetos y eligen entre ellos.

Por ejemplo, los encuestados pueden expresar sus actitudes eligiendo entre dos marcas de automóvil.

En dicha escala, también se puede seguir el orden de clasificación. Según este enfoque, se pide a los encuestados que clasifiquen sus elecciones según la importancia de los objetos.

Las escalas también pueden ser unidimensionales o multidimensionales. Con un escala unidimensional, Se intenta medir un atributo del encuestado u objeto.

Una medida del potencial de los empleados es la capacidad de ascenso. El gerente puede decidir identificar el desempeño técnico del empleado para su ascenso. Es una única dimensión.

Se pueden emplear varios elementos para medir esta dimensión y, al combinarlos en una sola medida, un gerente puede ubicar a los empleados a lo largo de un continuo lineal de ascenso.

Escalamiento multidimensional reconoce que un objeto puede describirse mejor en un atributo de norte dimensiones en lugar de en un continuo unidimensional.

La variable de promoción de los empleados podría expresarse mejor mediante tres dimensiones distintas: desempeño gerencial, desempeño técnico y trabajo en equipo.

Necesita conocer la confiabilidad y validez de la medición.

¿Cuál es la función principal de la medición en cualquier disciplina científica?

La función principal de la medición es asignar números a objetos o eventos de acuerdo con ciertas reglas. Organiza datos empíricos en una relación sistemática con el concepto que se está estudiando.

¿Cuáles son las tres razones principales de la preocupación por la medición en la investigación cuantitativa identificada por Bryman?

Las tres razones principales son:

  1. La medición nos permite delinear finas diferencias entre personas con respecto a las características en cuestión.
  2. La medición proporciona un dispositivo o criterio consistente para hacer distinciones.
  3. La medición ofrece la base para estimaciones más precisas de la relación entre conceptos, como a través del análisis de correlación.

¿Qué es el error de medición y cómo se expresa en relación con las puntuaciones observadas y las puntuaciones reales?

El error de medición se refiere a los errores introducidos en nuestra medición. La formulación central de la teoría de la medición establece que una medida observada (puntuación) es igual a la puntuación real más algún error, que ocurre durante el proceso de observación. Se expresa como: X (puntuación observada) = T (puntuación real) + e (error de medición).

¿Cuáles son los tres tipos de errores que probablemente se generen en el proceso de medición?

Los tres tipos de errores son:

  1. Error aleatorio: aparece como una variación inexplicable y ocurre de forma aleatoria.
  2. Error sistemático: sobreestima o subestima constantemente el valor real debido a factores como procedimientos de investigación defectuosos.
  3. Error situacional: Ocurre debido a características personales particulares o circunstancias especiales que influyen en el proceso de medición.

¿Cómo se define la confiabilidad en el contexto de la medición?

La confiabilidad es el grado en que un procedimiento de medición produce resultados similares o consistentes cuando se repite en condiciones similares.

¿Cuáles son las cuatro formas principales de pruebas de validez?

Las cuatro formas principales de prueba de validez son:

  1. Validez aparente,
  2. Validez de contenido,
  3. Validez relacionada con el criterio,
  4. Validez de constructo.

¿Cuál es la diferencia entre validez interna y validez externa?

La validez interna busca determinar si existe una diferencia en cualquier comparación dada y si la diferencia observada puede atribuirse al artefacto de medición. La validez externa se refiere a la generalización de los hallazgos de la investigación, determinando si son válidos para situaciones adicionales más allá del estudio original.