jueves, 22 de noviembre de 2012

OBJETO DE ESTUDIO VI: Prueba de hipótesis.


PRUEBA DE HIPOTESIS
Hipótesis Estadística:
Al intentar alcanzar una decisión, es útil hacer hipótesis (o conjeturas) sobre la población aplicada.
Tales hipótesis, que pueden ser o no ciertas, se llaman hipótesis estadísticas.
Son, en general, enunciados acerca de las distribuciones de probabilidad de las poblaciones.
Hipótesis Nula.
En muchos casos formulamos una hipótesis estadística con el único propósito de rechazarla o invalidarla. Así, si queremos decidir si una moneda está trucada, formulamos la hipótesis de que la moneda es buena (o sea p = 0,5, donde p es la probabilidad de cara).
Analógicamente, si deseamos decidir si un procedimiento es mejor que otro, formulamos la hipótesis de que no hay diferencia entre ellos (o sea que cualquier diferencia observada se debe simplemente a fluctuaciones en el muestreo de la misma población). Tales hipótesis se suelen llamar hipótesis nula y se denotan por Ho.
Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis nula.
La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.
Por ejemplo, supongamos que un investigador cree que si un grupo de radiologos se somete a un entrenamiento intensivo de radiología, éstos serán mejores radiologos que aquellos que no recibieron entrenamiento. Para demostrar su hipótesis toma al azar una muestra de jóvenes, y también al azar los distribuye en dos grupos: uno que llamaremos experimental, el cual recibirá entrenamiento, y otro que no recibirá entrenamiento alguno, al que llamaremos control. La hipótesis nula señalará que no hay diferencia en el desempeño de la radiologia entre el grupo de jóvenes que recibió el entrenamiento y el que no lo recibió.
Una hipótesis nula es importante por varias razones:
Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.
El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.
Otro ejemplo:
Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.
Hipótesis Alternativa.
Toda hipótesis que difiere de una dada se llamará una hipótesis alternativa. Por ejemplo: Si una hipótesis es p = 0,5, hipótesis alternativa podrían ser p = 0,7, p " 0,5 ó p > 0,5.
Una hipótesis alternativa a la hipótesis nula se denotará por H1.
Al responder a un problema, es muy conveniente proponer otras hipótesis en que aparezcan variables independientes distintas de las primeras que formulamos. Por tanto, para no perder tiempo en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como respuesta a un mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su comprobación.
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesto.
Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que todas las unidades de salud poseen algún centro nacional de salud, y dedicarnos a describir, cuantificando, las relaciones  entre ellas. También podemos hacer afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que una tecnología es capital - intensiva. En estos casos, describimos, clasificándolo, el objeto de nuestro interés, incluyéndolo en un tipo ideal complejo de orden superior.
Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde estaremos en presencia de una relación entre variables.


Errores de tipo I y de tipo II.
Si rechazamos una hipótesis cuando debiera ser aceptada, diremos que se ha cometido un error de tipo I.
Por otra parte, si aceptamos una hipótesis que debiera ser rechazada, diremos que se cometió un error de tipo II.
En ambos casos, se ha producido un juicio erróneo.
Para que las reglas de decisión (o no contraste de hipótesis) sean buenos, deben diseñarse de modo que minimicen los errores de la decisión; y no es una cuestión sencilla, porque para cualquier tamaño de la muestra, un intento de disminuir un tipo de error suele ir acompañado de un crecimiento del otro tipo. En la práctica, un tipo de error puede ser más grave que el otro, y debe alcanzarse un compromiso que disminuya el error más grave.
La única forma de disminuir ambos a la vez es aumentar el tamaño de la muestra que no siempre es posible.
Niveles de Significación.
Al contrastar una cierta hipótesis, la máxima probabilidad con la que estamos dispuesto a correr el riesgo de cometerán error de tipo I, se llama nivel de significación.
Esta probabilidad, denota a menudo por sé, suele especificar antes de tomar la muestra, de manera que los resultados obtenidos no influyan en nuestra elección.
En la práctica, es frecuente un nivel de significación de 0,05 ó 0,01, si bien se une otros valores. Si por ejemplo se escoge el nivel de significación 0,05 (ó 5%) al diseñar una regla de decisión, entonces hay unas cinco (05) oportunidades entre 100 de rechazar la hipótesis cuando debiera haberse aceptado; Es decir, tenemos un 95% de confianza de que hemos adoptado la decisión correcta. En tal caso decimos que la hipótesis ha sido rechazada al nivel de significación 0,05, lo cual quiere decir que tal hipótesis tiene una probabilidad 0,05 de ser falsa.

OBJETO DE ESTUDIO V: Probabilidad


PROBABILIDAD
Teoría de conjuntos
CONJUNTO: La palabra conjunto denota una colección de elementos claramente entre sí, que guardan alguna característica en común. Ya sean números, personas, figuras, ideas y conceptos.
La característica esencial de un conjunto es la de estar bien definido, es decir que dado un objeto particular, determinar si este pertenece o no al conjunto. Por ejemplo si se considera el conjunto de los números dígitos, sabemos que el 3 pertenece al conjunto, pero el 19 no.
Los objetos que forman un conjunto son llamados miembros o elementos. Por ejemplo el conjunto de las letras de alfabeto; a, b, c, ..., x, y, z. que se puede escribir así:

{ a, b, c, ..., x, y, z}

Como se muestra el conjunto se escribe entre llaves ({}) , o separados por comas (,).

El detallar a todos los elementos de un conjunto entre las llaves, se denomina forma tabular, extensión o enumeración de los elementos.

Dos conjuntos son iguales si tienen los mismos elementos, por ejemplo:
El conjunto { a, b, c } también puede escribirse:
{ a, c, b }, { b, a, c }, { b, c, a }, { c, a, b }, { c, b, a }

En teoría de conjuntos se acostumbra no repetir a los elementos por ejemplo:
El conjunto { b, b, b, d, d } simplemente será { b, d }.
MEMBRESIA
Los conjuntos se denotan por letras mayúsculas : A, B, C,... por ejemplo:
A={ a, c, b }
B={ primavera, verano, otoño, invierno }

SUBCONJUNTO
Sean los conjuntos A={ 0, 1, 2, 3, 5, 8 } y B={ 1, 2, 5 }
En este caso decimos que B esta contenido en A, o que B es subconjunto de A. En general si A y B son dos conjuntos cualesquiera, decimos que B es un subconjunto de A si todo elemento de B lo es de A también.

UNIVERSO O CONJUNTO UNIVERSAL
El conjunto que contiene a todos los elementos a los que se hace referencia recibe el nombre de conjunto Universal, este conjunto depende del problema que se estudia, se denota con la letra U y algunas veces con la letra S (espacio muestral).
Por ejemplo si solo queremos referirnos a los 5 primeros números naturales el conjunto queda:
U={ 1, 2, 3, 4, 5 }

Forma alternativa para indicar conjuntos de gran importancia:
  • Conjunto de números naturales (enteros mayores que cero) representados por la letra N donde
N={ 1, 2, 3, .... }
  • Conjunto de números enteros positivos y negativos representados por la letra Z donde
Z={..., -2, -1, 0, 1, 2, ... }
  • Conjunto de números racionales (números que se representan como el cociente de dos números enteros {fracciones }). Estos números se representan por unaQ
  • Conjunto de números irracionales (números que no puedan representarse como el cociente de dos números enteros) representados por la letra I.
  • Conjunto de los números reales que son los números racionales e irracionales es decir todos, representados por R.

Todos estos conjuntos tienen un número infinito de elementos, la forma de simbolizarlos por extensión o por enumeración es de gran utilidad cuando los conjuntos a los que se hace referencia tienen pocos elementos para poder trabajar con ellos se emplean la notación llamada comprehensión.
UNION
La unión de dos conjuntos A y B la denotaremos por A È B y es el conjunto formado por los elementos que pertenecen al menos a uno de ellos ó a los dos. Lo que se denota por:
A È B = { x/x Î A ó x Î B }

Ejemplo: Sean los conjuntos A={ 1, 3, 5, 7, 9 } y B={ 10, 11, 12 }
A È B ={ 1, 3, 5, 7, 9, 10, 11, 12 }

INTERSECCION
Sean A={ 1, 2, 3, 4, 5, 6, 8, 9 } y B={ 2, 4, 8, 12 }
Los elementos comunes a los dos conjuntos son: { 2, 4, 8 }. A este conjunto se le llama intersección de A y B; y se denota por A Ç B, algebraicamente se escribe así:
A Ç B = { x/x Î A y x Î B }
Y se lee el conjunto de elementos x que están en A y están en B.

Ejemplo:
Sean Q={ a, n, p, y, q, s, r, o, b, k } y P={ l, u, a, o, s, r, b, v, y, z }
Q Ç P={ a, b, o, r, s, y }

CONJUNTO VACIO
Un conjunto que no tiene elementos es llamado conjunto vacío ó conjunto nulo lo que denotamos por el símbolo Æ .

Por ejemplo:
Sean A={ 2, 4, 6 } y B={ 1, 3, 5, 7 } encontrar A Ç B.
A Ç B= { }
El resultado de A Ç B= { } muestra que no hay elementos entre las llaves, si este es el caso se le llamará conjunto vacío ó nulo y se puede representar como:
A Ç B=Æ

CONJUNTOS AJENOS
Sí la intersección de dos conjuntos es igual al conjunto vacío, entonces a estos conjuntos les llamaremos conjuntos ajenos, es decir:
Si A Ç B = Æ entonces A y B son ajenos.


COMPLEMENTO
El complemento de un conjunto respecto al universo U es el conjunto de elementos de U que no pertenecen a A y se denota como A' y que se representa por comprehensión como:
A'={ x Î U/x y x Ï A }
 Ejemplo:
Sea U = { 1, 2, 3, 4, 5, 6, 7, 8, 9 }
A= { 1, 3, 5, 7, 9 } donde A Ì U
El complemento de A estará dado por:
A'= { 2, 4, 6, 8 }

DIFERENCIA
Sean A y B dos conjuntos. La diferencia de A y B se denota por A-B y es el conjunto de los elementos de A que no están en B y se representa por comprehensión como:
A - B={ x/x Î A ; X Ï B }

Ejemplo:
Sea A= { a, b, c, d } y
B= { a, b, c, g, h, i }
A - B= { d }
En el ejemplo anterior se observa que solo interesan los elementos del conjunto A que no estén en B. Si la operación fuera B - A el resultado es
B – A = { g, h, i }
E indica los elementos que están en B y no en A.

DIAGRAMAS DE VENN
Los diagramas de Venn que de deben al filósofo inglés John Venn (1834-1883) sirven para encontrar relaciones entre conjuntos de manera gráfica mediante dibujos ó diagramas.
La manera de representar el conjunto Universal es un rectángulo, ó bien la hoja de papel con que se trabaje.
Un ejemplo de la representación del conjunto universal se muestra como:
Los conjuntos se representan por medio de dibujos dentro del rectángulo, los aspectos de interés se resaltan sombreando las áreas respectivas. En el caso de este curso las indicaremos por medio de un color azul por ejemplo:



EVENTOS MUTUAMENTE EXCLUYENTES
Dos eventos son mutuamente excluyentes si no pueden ocurrir en forma simultánea, esto es, si y sólo si su intersección es vacía. Por ejemplo:
Pacientes que son insulinodependientes y pacientes que no lo son
Se dice que un evento A es independiente de un evento B, si la probabilidad de que A suceda no está influenciada porque B haya o no sucedido.

EVENTOS INDEPENDIENTES
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Por ejemplo:
Paciente que presenta aumento de su temperatura corporal, en relación a las horas que duerme.

EVENTOS DEPENDIENTES
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros).  Por ejemplo:
Paciente diabético que presenta hipoglucemia

VALIDEZ
La validez se define como la capacidad de un instrumento (por ejemplo, un cuestionario o una prueba de laboratorio) para medir lo que intenta medir, ésta sólo puede determinarse si existe un procedimiento de referencia, también conocido como estándar de oro, el cual, es considerado como un procedimiento definitivo para establecer si alguien tiene la característica de interés. Por ejemplo, una prueba que sólo puede un resultado positivo o negativo (i. e., binario; véase tabla 1).
Para tal situación, es necesario entender dos conceptos importantes como lo son la sensibilidad y la especificidad de una prueba.
La sensibilidad de una prueba responde a las siguientes preguntas:
• ¿Cuántos resultados positivos se obtendrán en los individuos enfermos?
• ¿Cuántos casos del total de casos en la población estudiada pueden identificarse por el resultado de la prueba?  
Por lo tanto, podemos definir la sensibilidad de una prueba como la proporción de los individuos clasificados como positivos por el estándar de oro que se identifican correctamente por la prueba en estudio.
 donde:  
          a= verdaderos positivos
          a+c= total de casos positivos (enfermos)
          VP/FN= verdaderos positivos/falsos negativos
El valor que puede asumir la sensibilidad varía del 0 al 1 (100%), es decir, cuanto más alto es elvalor, hay una mejor capacidad en la detección de enfermos por medio de la prueba.
Una sensibilidad baja produce pérdida de casos que pudieran ser tratados, siendo más seria la situación de que a mayor gravedad de padecimiento dejar a pacientes enfermos como fuente de infección en la comunidad representaría un costo alto.
No existe un nivel mágico de sensibilidad que determine que una prueba sea aceptable; por ejemplo, en cáncer de colon  75% (1 de cada 4 retrasará su diagnóstico).  
ESPECIFIDAD
La especificidad de una prueba en estudio se refiere a la proporción de los individuos clasificados como negativos por el estándar de oro que se identifican correctamente por la prueba en estudio.
Este parámetro responde a las siguientes preguntas:
• ¿Cuántos resultados negativos en personas sin la enfermedad?
• ¿Cuántos individuos sanos se confirmarán por el resultado de la prueba?
donde:  
          a= verdaderos negativos
          a+c= total de casos negativos (sanos)
          VN/FP= verdaderos negativos/falsos positivos
Al igual que la sensibilidad, el valor de la especificidad varía del 0 al 1 (100%), lo que significa que cuanto mayor sea el valor mayor capacidad de detección de sujetos sanos por la prueba. Además de la sensibilidad y la especificidad de una prueba, se han desarrollado otros parámetros para poder determinar qué tanta validez tiene ésta al ser utilizada como prueba diagnóstico. Entre estos parámetros se encuentra el valor predictivo. El valor predictivo positivo de la prueba responde a las siguientes preguntas:
• ¿De todos los resultados positivos, cuántos se han encontrado en persona que sufren la enfermedad?
• ¿Cuál es la probabilidad en el caso de un resultado positivo de la prueba de que la persona realmente esté enferma?
Este índice se calcula de la siguiente manera:
El valor obtenido representa la probabilidad de que alguien con un resultado positivo en la prueba en estudio, tenga la característica de interés.
Por otra parte, el valor predictivo negativo de la prueba responde las siguientes preguntas:
·         ¿Qué proporción de todos los resultados negativos corresponde a personas realmente sanas (sin la enfermedad)?
·         ¿Cuál es la probabilidad de que las personas con resultados negativos no tengan la enfermedad?
El cálculo se realiza de la siguiente forma:
Este valor representa la probabilidad de que alguien con un resultado negativo en la prueba en estudio no tenga la característica de interés.
También es posible obtener el valor predictivo global de la proporción de resultados válidos entre la totalidad de las pruebas efectuadas:
El valor predictivo de un resultado depende en gran parte de lo común que sea la enfermedad bajo estudio, esto es, cuando la prevalencia es baja, la obtención de un resultado negativo permitirá descartar con mayor seguridad la enfermedad, teniendo entonces un valor predictivo negativo mayor. Por el contrario, un resultado positivo no permitirá confirmar el diagnóstico, teniendo entonces un bajo valor predictivo positivo. Respecto a los valores óptimos o esperados que deben asumir los valores predictivos de una prueba, hasta ahora no se han propuesto niveles deseables en particular. Sin embargo, se asume que si el valor es menor al 50%, es más probable que realmente no se encuentre la enfermedad presente, lo significa que a más alto valor, el pronóstico es más valioso.
Es importante tener en cuenta que basar resultados en la prevalencia de una enfermedad a veces resulta complicado, por lo que es útil el uso de otros índices que nos permitan determinar cuánto más probable es un resultado concreto según la ausencia o presencia de enfermedad, por ello, se ha desarrollado el concepto de razón de verosimilitudes, razón de probabilidades o cociente de probabilidades.
DISTRIBUCION DE PROBABILIDAD
Una distribución de probabilidad la podemos concebir como una distribución teórica de frecuencia, es decir, es una distribución que describe como se espera que varíen los resultados. Dado que esta clase de distribuciones se ocupan de las expectativas son modelos de gran utilidad para hacer inferencias y tomar decisiones en condiciones de incertidumbre.
DISTRIBUCION BINOMIAL
La variable “y” debe tomar uno de dos posibles valores, estos resultados mutuamente excluyentes podrían representar vida y muerte, salud y enfermedad, hombre y mujer.
Para simplificar se les denomina fracaso y éxito.
Formula:
p(y=1) = p
p(y=0) = 1-p




DISTRIBUCION DE POISSON
    Esta distribución es una de las más importantes distribuciones de variable discreta. Sus principales aplicaciones hacen referencia a la modelización de situaciones en las que nos interesa determinar el número de hechos de cierto tipo que se pueden producir en un intervalo de tiempo o de espacio, bajo presupuestos de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes es la consideración límite de procesos dicotómicos reiterados un gran número de veces si la probabilidad de obtener un éxito es muy pequeña. 

DISTRIBUCION NORMAL
Una distribución normal de media  μ y desviación típica σ se designa por N(μ, σ). Su grafica es la campana de Gauss.
El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.
Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la izquierda y otra igual a 0.5 a la derecha.
La probabilidad equivale al área encerrada bajo la curva.
Y su fórmula es:




























miércoles, 21 de noviembre de 2012

OBJETO DE ESTUDIO IV: Muestreo



OBJETO DE ESTUDIO IV:
MUESTREO
MUESTREO
En ocasiones en que no es posible o conveniente realizar un censo (analizar a todos los elementos de una población),  se selecciona  una muestra, entendiendo por tal una parte representativa de la población.
El  muestreo es  por lo tanto  una herramienta de la investigación científica, cuya función básica es determinar que parte de una  población  debe examinarse,  con la finalidad de hacer inferencias sobre dicha población.
La  muestra  debe  lograr una  representación adecuada de la población,  en  la  que se reproduzca de  la mejor manera los  rasgos  esenciales de dicha población que son importantes para la investigación. Para que una muestra sea representativa, y por lo tanto útil, debe de reflejar las similitudes y diferencias encontradas en la población, es decir ejemplificar las características de ésta.
Los  errores más comunes que se pueden cometer son:
1.- Hacer conclusiones muy generales a partir de la observación de sólo una parte de  la Población, se denomina error de muestreo.
2.- Hacer  conclusiones hacia una Población mucho más grandes de la que originalmente se tomo la muestra. Error de Inferencia.
En la  estadística se usa la palabra población para referirse no sólo a personas si no a todos los elementos que han sido escogidos para su estudio y el término muestra  se usa  para describir una porción escogida de la población.
TIPOS DE MUESTREO
Existen  diferentes criterios de clasificación de los diferentes tipos de muestreo, aunque en general pueden dividirse en dos grandes grupos: métodos de muestreo probabilísticos y métodos de muestreo no probabilísticos.
I. Muestreo probabilístico
Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo probabilísticos encontramos los siguientes tipos:
1.- Muestreo aleatorio simple:
El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de números aleatorios, números aleatorios generados con una calculadora u ordenador, etc.) se eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido. Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la población que estamos manejando es muy grande.
2.- Muestreo aleatorio sistemático:
Este procedimiento exige, como el anterior, numerar todos los elementos de la población, pero en lugar de extraer n números aleatorios sólo se extrae uno.
3.- Muestreo aleatorio estratificado:
Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, etc.).
4.- Muestreo aleatorio por conglomerados:
Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población.
En el muestreo por conglomerados  la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado. Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son conglomerados naturales.
II. Métodos de muestreo no probabilísticos
A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no sirven para realizar generalizaciones (estimaciones inferenciales sobre la población), pues no se tiene certeza de que la muestra extraída sea representativa, ya que no todos los sujetos de la población tienen la misma probabilidad de se elegidos. En general se seleccionan a los sujetos siguiendo determinados criterios procurando, en la medida de lo posible, que la muestra sea representativa.
En algunas circunstancias los métodos estadísticos y epidemiológicos permiten resolver los problemas de representatividad aun en situaciones de muestreo no probabilístico, por ejemplo los estudios de caso-control, donde los casos no son seleccionados aleatoriamente de la población.
Entre los métodos de muestreo no probabilísticos más utilizados en investigación encontramos:
1.- Muestreo por cuotas:
También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más "representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad de aquél.
2.- Muestreo intencional o de conveniencia:
Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras "representativas" mediante la inclusión en la muestra de grupos supuestamente típicos. Es muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores votaciones han marcado tendencias de voto.
También puede ser que el investigador seleccione  directa e intencionadamente los individuos de la población. El caso más frecuente de este procedimiento el utilizar como muestra los individuos a los que se tiene fácil acceso (los profesores de universidad emplean con mucha frecuencia a sus propios alumnos).
3.- Bola de nieve:
Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se hacen estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos de enfermos, etc.
4.- Muestreo Discrecional ·
 A criterio del investigador los elementos son elegidos sobre lo que él cree que pueden aportar al estudio.
Ventajas e inconvenientes de los distintos tipos de muestreo probabilístico

OBJETO DE ESTUDIO III: Regresión y Correlación.



OBJETO DE ESTUDIO III:
Regresión y Correlación
La regresión y la correlación son dos técnicas estrechamente relacionadas y comprenden una forma de estimación.
En forma más especifica el análisis de correlación y regresión comprende el análisis de los datos muestrales para saber que es y como se relacionan entre si dos o mas variables en una población. El análisis de correlación produce un número que resume el grado de la correlación entre dos variables; y el análisis de regresión da lugar a una ecuación matemática que describe dicha relación.
El análisis de correlación generalmente resulta útil para un trabajo de exploración cuando un investigador o analista trata de determinar que variables son potenciales importantes, el interés radica básicamente en la fuerza de la relación. La correlación mide la fuerza de una entre variables; la regresión da lugar a una ecuación que describe dicha relación en términos matemáticos
Los datos necesarios para análisis de regresión y correlación provienen de observaciones de variables relacionadas.
Regresión lineal
La regresión lineal simple comprende el intento de desarrollar una línea recta o ecuación matemática lineal que describe la reacción entre dos variables.
La regresión puede utilizadas de diversas formas. Se emplean en situaciones en la que las dos variables miden aproximadamente lo mismo, pero en las que una variable es relativamente costosa, o, por el contrario, es poco interesante trabajar con ella, mientras que con la otra variable no ocurre lo mismo.
La finalidad de una ecuación de regresión seria estimar los valores de una variable con base en los valores conocidos de la otra.
Otra forma de emplear una ecuación de regresión es para explicar los valores de una variable en término de otra. Es decir se puede intuir una relación de causa y efecto entre dos variables. El análisis de regresión únicamente indica qué relación matemática podría haber, de existir una. Ni con regresión ni con la correlación se pude establecer si una variable tiene “causa “ciertos valores de otra variable.
Ecuación Lineal
Dos características importantes de una ecuación lineal
 La independencia de la recta
La localización de la recta en algún punto. Una ecuación lineal tiene la forma
y = a + bx
En la que a y b son valores que se determina a partir de los datos de la muestra; a indica la altura de la recta en x= 0, y b señala su pendiente. La variable y es la que se habrá de predecir, y x es la variable predictora.
En la regresión, los valores de y son predichos a partir de valores de x dados o conocidos. La variable y recibe le nombre variable dependiente y la variable x, el de variable independiente.
Correlación
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad
Mínimos cuadrados 
Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: variable independiente, variable dependiente, y una familia de funciones, se intenta encontrar la función, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los correspondientes valores en los datos.
Un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Markov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos recogidos estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas
Pendiente de una recta

Es el grado (medida) de inclinación de una recta, la razón de cambio en y con respecto al cambio en x.

Si una recta pasa por dos puntos dintintos (x1, y1) y (x2, y2), entonces su pendiente (m) está dada por:
Esto es:
  Ecuaciones de la forma pendiente-intercepto

Ecuaciones de la forma y = mx + b donde m representa la pendiente y b el intercepto en y se conocen como ecuaciones de la forma pendiente-intercepto

Por ejemplo,  la ecuación y = -3x + 5 está expresada de la forma pendiente-intercepto donde la pendiente (m) es -3  y el intercepto en y es (0, 5).

Nota: Una ecuación de la forma  y = mx  representa una recta que pasa por el origen.

Grado de inclinación

Dada una recta, gráficamente su pendiente nos da su grado de inclinación
Pendiente positiva
Cuando la recta es creciente (al aumentar los valores de x aumentan los de y), su pendiente es positiva, en la expresión analítica m > 0
Pendiente negativa
Cuando la recta es decreciente (al aumentar los valores de x disminuyen los de y), su pendiente es negativa, en la expresión analítica m < 0
Pendiente nula o cero




Cuando la recta es constante se dice que tiene pendiente nula, en la expresión analítica m = 0
                                     
  EJERCICIO:
Con los datos proporcionados elabora un diagrama de dispersión, calcula la RMC, determinar e interprétala, estima el peso de un alumno de 15 años, estima los años que tendrá un alumno de 55kg.
                                            ESC. “EMILIANO ZAPATA

CLAVE 08DPR0255Q
El Verano, Mpio. De Matamoros, Chih.  a 5 de septiembre de 2012.


ASUNTO: PROPORCION DE DATOS RELACIONADO AL PESO DE ALUNMOS
El  que suscribe Director  Prof. César Torres Flores de la Escuela “Emiliano Zapata” con C.C.T. 08DPR0255Q, ubicada en la comunidad de el Verano, mpio. De Matamoros, chih.  hace constar que los datos proporcionados son verídicos. 
AÑOS
PESO (Kg)
6
19
7
23
8
26
9
30
10
35
11
40