Elementos Básicos de Teoría de Probabilidades
Contenido
1. Elementos Básicos de Teoría de Probabilidades¶
Teoría de Probabilidades
Experimento, espacio muestral, evento
Definición Formal de Probabilidades
Probabilidades Condicionales, Independencia e Independecia Condicional
Ley de las Probabilidades Totales
Regla de Bayes
Teoría de Probabilidades
Modelamiento de fenómenos aleatorios (por ejemplo, lanzamiento de un dado, el tiempo)
Fundamento de la estadística: que es la recolección, organización, análisis, interpretación y presentación de datos.
Experimento, Espacio Muestral, Evento
Experimento: fenónemo aleatorio
Espacio Muestral: conjunto de todos los posibles valores que puede tomar un experimento.
Evento: cualquier subconjunto del espacio muestral “>8 caras en 10 lanzamientos de una moneda”, “mañana estará soleado en Valdivia”
1.1. Probabilidades¶
¿Qué tan posible es que un evento ocurra?
Dos perspectivas:
\(\textbf{Enfoque frecuentista:}\) frecuencias observadas al repetir muchas veces un experimento. La probablidad de obtener cara en el lanzamiento de una moneda es 0.5
\(\textbf{Enfoque Bayesiano:}\) incertidumbre subjetiva, grado de creencia (a priori) que es revisado por la observación (probabilidad a posteriori) Yo pienso que hay 0.1 de probabilidad de que un estudiante conozca este concepto.
1.1.1. Definición Formal de Probabilidad¶
Una Probabilidad \(P\) es una función que cumple:
que cumple lo siguiente:
\(\begin{array}{ll} 1. & \forall A \subset \Omega, P(A) \geq 0\\ 2. & P(\Omega) = 1\\ 3. & Sean \,\, A_1,...,A_n \subset \Omega: A_i \cap A_j =\phi, \forall i,j=1...n => P(A_1\cup...\cup A_n) = P(A_1)+...+P(A_n)\\ \end{array}\)
Propiedades
\(P(A) = 1 - P(A^C)\)
\( P(\phi) = 0\)
\(Si A \subset B => P(A) \leq P(B)\)
\( P(A) \leq 1 \)
\( \forall A,B \in \Omega\,\, P(A \cup B) = P(A) + P(B) - P(A \cap B)\)
¿Cómo asignamos valores de probabilidad?
\(\textbf{Enfoque frecuentista relativo:}\) Sea \(n\) el número de experimentos, y \(n(A)\) el número de veces que el evento \(A\) ocurre en la realización de esos experimentos, entonces \(P(A) = \frac{n(A)}{n}\)
\(\textbf{Enfoque frecuentista clásico:}\) Sea \(n(A)\) el número elementos en el evento \(A\), y \(n(\Omega)\) el número de elementos en el espacio muestral \(\Omega\), entonce \(P(A) = \frac{n(A)}{n(\Omega)}\)
\(\textbf{Enfoque Bayesiano:}\) Yo pienso que la probabilidad de que me gane un proyecto es \(0.9\) (probabilidad a priori).
1.1.2. Probabilidades condicionales¶
Sean \(A, B \subset \Omega\), si \(P(B)>0\), se define:
\(\begin{array}{lll} P(A\mid B) & = &\frac{P(A \cap B)}{P(B)} \end{array}\)
Si además se cumple que \(P(A)>0\), se tiene:
\(\begin{array}{lll} P(A\cap B)& = &P(A\mid B)P(B) = P(B\mid A)P(A) \end{array}\)
Esto se puede extender a mas eventos:
\(\begin{array}{lll} P(A\cap B \cap C)& = &P(A)P(B\mid A) P(C\mid A \cap B) \end{array}\)
siempre que \(P(A), P(A\cap B)> 0\)
1.1.3. Independencia¶
¿Cómo determinar que dos eventos son independientes?
Sean \(A, B \subset \Omega\) con \(P(A),P(B) >0\), si cualquiera de las siguientes condiciones se cumple:
\(P(A\cap B) = P(A)P(B)\)
\(P(A\mid B) = P(A)\)
\(P(B\mid A) = P(B)\)
se dice que \(A\) es independiente de \(B\).
1.1.4. Independencia Condicional¶
¿Cómo determinar que dos eventos \(A\) y \(B\) son independientes dados un tercer evento \(C\)?
Sean \(A, B, C \subset \Omega\) con \(P(A\cap C),P(B\cap C), P(C)>0\), si cualquiera de las siguientes condiciones se cumple:
\(P(A\cap B \mid C) = P(A\mid C)P(B\mid C)\)
\(P(A\mid B \cap C) = P(A \mid C)\)
\(P(B\mid A \cap C) = P(B \mid C)\)
se dice que \(A\) es independiente de \(B\) condicionalmente a \(C\).
Ejemplo: Altura, Vocabulario y Edad
1.1.5. Ley de las Probabilidades totales¶
Consideremos ahora una partición del espacio muestral \(\{B_i\}_{i=1,..n}\), es decir:
\(\begin{array}{lll} \bigcup_{i=1}^n \limits B_i = \Omega, & & B_i\cap B_j = \phi \qquad \forall i,j=1,..n, i\neq j \end{array}\)
entonces:
\(\begin{array}{lll} P(A) & = & \sum_{i=1}^n \limits P(A\mid B_i) P(B_i) \end{array}\)
Ejemplo: Sea \(A\) = {Pedro acepta trabajo en Chile} y \(B_i\) = {Oferta de trabajo para Pedro en region \(i\) }, \(i=1,...,15\)
1.1.6. Regla de Bayes¶
A partir de la defición de probabilidades condicionales se puede deducir la regla de Bayes:
Sean \(A, B \subset \Omega\) tales que \(P(A),P(B)>0\), entonces
\(\begin{array}{lll} P(B\mid A)& = & \frac{P(A\mid B) P(B)}{P(A)} \end{array}\)
\(P(B)\) se denomina probabilidad a priori, \(P(B \mid A)\) probabilidad a posteriori
1.1.7. Teorema de Bayes¶
Consideremos una partición del espacio muestral \(\{B_i\}_{i=1,..n}\), entonces:
\(\begin{array}{lll} P(B_i \mid A) & = & \frac{P(A\mid B_i) P(B_i)}{P(A)} & = & \frac{P(A\mid B_i) P(B_i)}{\sum_{i=1}^n \limits P(A\mid B_i) P(B_i)} \end{array}\)