1. Elementos Básicos de Teoría de Probabilidades

  • Teoría de Probabilidades

  • Experimento, espacio muestral, evento

  • Definición Formal de Probabilidades

  • Probabilidades Condicionales, Independencia e Independecia Condicional

  • Ley de las Probabilidades Totales

  • Regla de Bayes

Teoría de Probabilidades

  • Modelamiento de fenómenos aleatorios (por ejemplo, lanzamiento de un dado, el tiempo) ../../_images/daos.jpg

  • Fundamento de la estadística: que es la recolección, organización, análisis, interpretación y presentación de datos.

Experimento, Espacio Muestral, Evento

  • Experimento: fenónemo aleatorio

  • Espacio Muestral: conjunto de todos los posibles valores que puede tomar un experimento.

  • Evento: cualquier subconjunto del espacio muestral “>8 caras en 10 lanzamientos de una moneda”, “mañana estará soleado en Valdivia”

1.1. Probabilidades

  • ¿Qué tan posible es que un evento ocurra?

Dos perspectivas:

  • \(\textbf{Enfoque frecuentista:}\) frecuencias observadas al repetir muchas veces un experimento. La probablidad de obtener cara en el lanzamiento de una moneda es 0.5

  • \(\textbf{Enfoque Bayesiano:}\) incertidumbre subjetiva, grado de creencia (a priori) que es revisado por la observación (probabilidad a posteriori) Yo pienso que hay 0.1 de probabilidad de que un estudiante conozca este concepto.

1.1.1. Definición Formal de Probabilidad

Una Probabilidad \(P\) es una función que cumple:

\[\begin{split}\begin{array}{cc} P:& {\cal P}(\Omega) \to [0,1]\\ &A \to P(A) \end{array}\end{split}\]

que cumple lo siguiente:

\(\begin{array}{ll} 1. & \forall A \subset \Omega, P(A) \geq 0\\ 2. & P(\Omega) = 1\\ 3. & Sean \,\, A_1,...,A_n \subset \Omega: A_i \cap A_j =\phi, \forall i,j=1...n => P(A_1\cup...\cup A_n) = P(A_1)+...+P(A_n)\\ \end{array}\)

Propiedades

  1. \(P(A) = 1 - P(A^C)\)

  2. \( P(\phi) = 0\)

  3. \(Si A \subset B => P(A) \leq P(B)\)

  4. \( P(A) \leq 1 \)

  5. \( \forall A,B \in \Omega\,\, P(A \cup B) = P(A) + P(B) - P(A \cap B)\)

¿Cómo asignamos valores de probabilidad?

  • \(\textbf{Enfoque frecuentista relativo:}\) Sea \(n\) el número de experimentos, y \(n(A)\) el número de veces que el evento \(A\) ocurre en la realización de esos experimentos, entonces \(P(A) = \frac{n(A)}{n}\)

  • \(\textbf{Enfoque frecuentista clásico:}\) Sea \(n(A)\) el número elementos en el evento \(A\), y \(n(\Omega)\) el número de elementos en el espacio muestral \(\Omega\), entonce \(P(A) = \frac{n(A)}{n(\Omega)}\)

  • \(\textbf{Enfoque Bayesiano:}\) Yo pienso que la probabilidad de que me gane un proyecto es \(0.9\) (probabilidad a priori).

1.1.2. Probabilidades condicionales

Sean \(A, B \subset \Omega\), si \(P(B)>0\), se define:

\(\begin{array}{lll} P(A\mid B) & = &\frac{P(A \cap B)}{P(B)} \end{array}\)

Si además se cumple que \(P(A)>0\), se tiene:

\(\begin{array}{lll} P(A\cap B)& = &P(A\mid B)P(B) = P(B\mid A)P(A) \end{array}\)

Esto se puede extender a mas eventos:

\(\begin{array}{lll} P(A\cap B \cap C)& = &P(A)P(B\mid A) P(C\mid A \cap B) \end{array}\)

siempre que \(P(A), P(A\cap B)> 0\)

1.1.3. Independencia

¿Cómo determinar que dos eventos son independientes?

Sean \(A, B \subset \Omega\) con \(P(A),P(B) >0\), si cualquiera de las siguientes condiciones se cumple:

  1. \(P(A\cap B) = P(A)P(B)\)

  2. \(P(A\mid B) = P(A)\)

  3. \(P(B\mid A) = P(B)\)

se dice que \(A\) es independiente de \(B\).

1.1.4. Independencia Condicional

¿Cómo determinar que dos eventos \(A\) y \(B\) son independientes dados un tercer evento \(C\)?

Sean \(A, B, C \subset \Omega\) con \(P(A\cap C),P(B\cap C), P(C)>0\), si cualquiera de las siguientes condiciones se cumple:

  1. \(P(A\cap B \mid C) = P(A\mid C)P(B\mid C)\)

  2. \(P(A\mid B \cap C) = P(A \mid C)\)

  3. \(P(B\mid A \cap C) = P(B \mid C)\)

se dice que \(A\) es independiente de \(B\) condicionalmente a \(C\).

Ejemplo: Altura, Vocabulario y Edad

1.1.5. Ley de las Probabilidades totales

Consideremos ahora una partición del espacio muestral \(\{B_i\}_{i=1,..n}\), es decir:

\(\begin{array}{lll} \bigcup_{i=1}^n \limits B_i = \Omega, & & B_i\cap B_j = \phi \qquad \forall i,j=1,..n, i\neq j \end{array}\)

entonces:

\(\begin{array}{lll} P(A) & = & \sum_{i=1}^n \limits P(A\mid B_i) P(B_i) \end{array}\)

Ejemplo: Sea \(A\) = {Pedro acepta trabajo en Chile} y \(B_i\) = {Oferta de trabajo para Pedro en region \(i\) }, \(i=1,...,15\)

../../_images/chile.png

1.1.6. Regla de Bayes

A partir de la defición de probabilidades condicionales se puede deducir la regla de Bayes:

Sean \(A, B \subset \Omega\) tales que \(P(A),P(B)>0\), entonces

\(\begin{array}{lll} P(B\mid A)& = & \frac{P(A\mid B) P(B)}{P(A)} \end{array}\)

\(P(B)\) se denomina probabilidad a priori, \(P(B \mid A)\) probabilidad a posteriori

1.1.7. Teorema de Bayes

Consideremos una partición del espacio muestral \(\{B_i\}_{i=1,..n}\), entonces:

\(\begin{array}{lll} P(B_i \mid A) & = & \frac{P(A\mid B_i) P(B_i)}{P(A)} & = & \frac{P(A\mid B_i) P(B_i)}{\sum_{i=1}^n \limits P(A\mid B_i) P(B_i)} \end{array}\)