PROCESOS DE POISSON

 Proceso Yule

1

Es un proceso de Nacimiento lineal con λ=(n* λ) y n˃0

Este proceso puede definirse en los siguientes puntos:



Esto nos dice que las tasas de nacimiento son λn = λ*n. El tiempo de estancia en el estado n tiene una distribución 


en consecuencia el tiempo medio de estancia en ese estado es 

cada vez menor conforme n crece. El sistema de ecuaciones prospectivas para 

 se reduce a

 



1.    2 Breve biografía de Joseph Doob

Joseph Leo Doob (27 de febrero de 1910 en Cincinnati, Ohio, Estados Unidos - 7 de junio de 2004 en Clark-Lindsey Village, Urbana, Illinois, Estados Unidos) es un matemático estadounidense que trabajó en análisis y teoría de la probabilidad. Es uno de los fundadores de la teoría de las martingalas

3    Martingalas

Dado un subconjunto medible A de Ω, definimos su indicador IA : Ω → {0, 1} como la función que toma el valor 1 en ´ A y 0 en A c .

 Definimos la integral de X sobre A como E(X; A) = E(XIA), y la esperanza condicionada de X dado A como E(X|A) = E(X; A)/P(A).

 La esperanza condicionada es la esperanza con respecto a la distribución de probabilidad condicionada, dada por ´ P(·|A) = P(· ∩ A)/P(A).

Sea {Xn}n≥0 una sucesión de variables aleatorias. Constituyen ´ una martingala cuando

1. E(|Xn|) < ∞ para todo n.

2. E(Xn+1|Xn = xn, Xn−1 = xn−1, . . . , X0 = x0) = xn para todo

x0, . . . , xn.

La segunda condición es equivalente a ´ E(Xn+1 − Xn|Xn = xn, Xn−1 = xn−1, . . . , X0 = x0) = 0 para todo x0, . . . , xn.

Ejemplo: caminos aleatorios de media 0

Sea (ξn)n≥1 una sucesión de variables aleatorias ´

Independientes tal que E(ξi) = 0 para todo i. Definimos

Xn := X0 + ξ1 + · · · + ξn.

Entonces, {Xn}n constituye una martingala.

Por otro lado, si E(ξi) ≤ 0 para todo i, {Xn}n≥0 constituye una

Supe martingala, y si E(ξi) ≥ 0 para todo i, {Xn}n≥0 es una

Su martingala.

4 Proceso de renovación y confiabilidad

Modelos de confiabilidad: Los tiempos de vida de las unidades que fallan, tienen un patrón aleatorio. Para modelar los tiempos de vida o tiempos a la falla utilizamos variables aleatorias no negativas. Toda la información de una variable aleatoria se encuentra en su distribución. La materia prima en los estudios de confiabilidad son los tiempos de vida de las unidades estudiadas.

Funciones de confiabilidad:



Función de riesgo:




Procesos de poisson

 Proceso Poisson compuesto

 Asociamos ahora una variable aleatoria Yi a cada evento de un proceso de Poisson. Suponemos que las variables Yi, i ≥ 1, son i.i.d y también son independientes del proceso. Por ejemplo, el proceso puede representar los carros que llegan a un centro comercial y las variables asociadas, el número de pasajeros que hay en cada uno de ellos; o el proceso puede representar los mensajes que llegan a un computador central para ser transmitidos via internet y las variables Yi pueden representar el tamaño de los mensajes. Es natural considerar la suma de las variables Yi como una variable de interés: 

S(t) = Y1 + · · · + YN(t)

Donde ponemos S(t) = 0 si N(t) = 0. Ya hemos visto que para suma aleatorias, la media es el producto de las medias de N e Y , mientras que la varianza está dada por


Var(S(t)) = E[N(t)] Var(Yi) + Var(N(t))(E[Yi ])2 .

En nuestro caso, N(t) Pois (λt) y por lo tanto, E[N(t)] = Var(N(t)) = λt, de modo que la fórmula anterior es

Var(S(t)) = λt(Var(Yi) + (E[Yi ])2 ) = λtE[Y 2 i ].

Ejemplo: El número de clientes de una tienda durante el día tiene distribución de Poisson de media 30 y cada cliente gasta un promedio de $150 con desviación típica de $50. Por los cálculos anteriores sabemos que el ingreso medio por día es 30 · $150 = $4.500. La varianza del ingreso total es

30 · [($50)2 + ($150)2 ] = 750.000

Sacando la raíz cuadrada obtenemos una desviación típica de $ 866,02.

 La función de distribución para el proceso de Poisson compuesto S(t) puede representarse explícitamente si condicionamos por los valores de N(t). Recordemos que la distribución de una suma de variables independientes es la evolución de las distribuciones: Si Y tiene f.d. G,

Ejercicio: Sea N(t) el número de impactos que recibe un sistema mecánico hasta el instante t y sea Yk el daño o desgaste que produce el k-´eximo impacto. Suponemos que los daños son positivos: P(Yk ≥ 0) = 1, y que se acumulan aditivamente, de modo que S(t) = PN(t) k=1 Yk representa el daño total hasta el instante t. Supongamos que el sistema continua funcionando mientras el daño total sea menor que un valor critico a y en caso contrario falla. Sea T el tiempo transcurrido hasta que el sistema falla, entonces

{T > t} si y solo si {S(t) < a}.

Tengamos en cuenta lo que propusimos en el anterior ejercicio

Para obtener el tiempo promedio hasta que el sistema falle podemos integrar esta probabilidad:

Donde hemos intercambiado series e integrales porque todos los términos son positivos. Esta expresión se simplifica en el caso particular en el cual los daños tienen distribución exponencial de parámetro µ. Entonces la suma Y1 + · · · + Yn tiene distribución Γ(n, µ):

Por lo tanto, cuando Yi , i ≥ 1, tienen distribución exponencial de parámetro µ,

Proceso Poisson mixto

En esta generalización del proceso de Poisson se considera que el parámetro λ no es constante sino una variable aleatoria

Sea Λ una variable aleatoria positiva con función de distribución F pλq. Se dice que el proceso de conteo tXt : t ¥ 0u es un proceso de Poisson mixto con variable mezclarte Λ si para cada entero n ¥ 1, y cada sucesión de enteros no negativos k1, . . . , kn, y cualesquiera tiempos 0 ¤ a1 ¤ an ¤ bn se cumple la igualdad

 

Cuando la variable aleatoria mezclarte Λ es constante e igual a λ, el proceso de Poisson mixto se reduce al proceso de Poisson.

Proposición  El proceso de Poisson mixto cumple las siguientes propiedades.

1. Tiene incrementos estacionarios.

2. En general los incrementos no son independientes. Lo son en el caso del proceso de Poisson. 3. EpXtq  t EpΛq.

4. VarpXtq  t 2 VarpΛq t EpΛq.

5. CovpXt , Xts  Xtq  st VarpΛq, s, t ¥

Estas propiedades se obtienen condicionando sobre el valor de la variable aleatoria Λ y sus demostraciones se dejan como ejercicio al lector. Notas y referencias. El estudio del proceso de Poisson generalmente se incluye en los cursos elementales de procesos estocásticos.

Proceso de nacimiento y muerte 

La mayor parte de los modelos elementales de colas suponen que las entradas (llegadas de clientes) y las salidas (clientes que se van) del sistema ocurren de acuerdo con un nacimiento y muerte.

En el contexto de la teoría de colas, el termino nacimiento se refiere a la llegada de un cliente al sistema de colas, mientras que el termino muerte se refiere a la salida del cliente servido. El proceso de nacimiento y muerte describe en términos probabilísticos como cambia N(t) al aumentar t. En general, sostiene que los nacimientos y muertes individuales ocurren de manera aleatoria, y que sus tasas medias de ocurrencia dependen del estado del sistema actual. Los supuestos del proceso de nacimiento y muerte son los siguientes:

Supuesto 1. Dado N(t) = t, la distribución de probabilidad actual del tiempo que falta para el próximo nacimiento (llegada) es exponencial con parámetro λn n(n = 0, 1, 2, ...).

Supuesto 2. Dado N(t) = n, la distribución de probabilidad actual del tiempo que falta para la próxima muerte (terminación de servicio) es exponencial con parámetro µn(n = 1, 2, ...).

 Supuesto 3. La variable aleatoria del supuesto 1 (el tiempo que falta hasta el próximo nacimiento) y la variable aleatoria del supuesto 2 (el tiempo que falta hasta la siguiente muerte) son mutuamente independientes. La siguiente transición del estado del proceso es:

Un solo nacimiento n → n + 1

O una sola muerte n → n − 1

Lo que depende de cuál de las dos variables es más pequeña.

En el caso de un sistema de colas, λn y µn representan, respectivamente, la tasa media de llegada y la tasa media de terminaciones de servicio, cuando hay n clientes en el sistema. En algunos sistemas de colas, los valores de las λn serán las mismas para todos los valores de n, y las µn también serán las mismas para toda n excepto para aquella n tan pequeña que el servidor esté desocupado.

Excepto en algunos casos especiales, el análisis del proceso de nacimiento y muerte es complicado cuando el sistema se encuentra en condición transitoria. Se han obtenido algunos resultados sobre esta distribución de probabilidad de N(t) pero son demasiado complicados para darles un buen uso práctico. Por otro lado, es bastante directo derivar esta distribución después de que el sistema ha alcanzado la condición de estado estable (en caso de que pueda alcanzarla). Este desarrollo parte del diagrama de tasas, como se escribe a continuación.

Considere cualquier estado particular n (n = 0,1,2,...) del sistema. Suponga que en el tiempo 0 se inicia el conteo del número de veces que el sistema entra a este estado y el número de veces que sale de ´el, como se denota a continuación:

En (t) = número de veces que el proceso entra al estado n hasta el tiempo t.

Ln (t) = número de veces que el proceso sale del estado n hasta el tiempo t.

Como los dos tipos de eventos (entrar y salir) deben alternarse, estos dos números serán

Iguales o diferirán en solo 1; es decir, |En(t) − Ln(t)| ≤ 1.

- Proceso de Conteo.

- Proceso de incrementos independientes y estacionarios

- Verificando

Ejemplos de Procesos de Nacimiento y muerte

 

Proceso de nacimiento puro

Consideremos una sucesión de números positivos {lk}. Se define un proceso de nacimiento puro como un proceso de Markov que satisface los siguientes postulados:

X( t ) denota el valor de estado que puede tomar el proceso en el tiempo t. En lo que respecta a la teoría de confiabilidad el valor de estado denotará el estado de degradación en que incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos estados como etapas de degradación creciente, hasta llegar a un estado N que significará el estado de colapso, no obstante con el objeto de aplicar directamente la teoría de los procesos de nacimiento puro, consideraremos el espacio de estado infinito {0, 1, 2, ...}.

El término o1,k(h) y o2,k(h) son "infinitesimales" de orden h, esto es

Teorema. El proceso de nacimiento puro satisface el siguiente sistema de ecuaciones diferenciales:

La demostración se deja como ejercicio: Se utiliza la ley de la probabilidad completa, la propiedad de Markov y el postulado (iii).

La primera ecuación diferencial se puede resolver directamente, y esta es

Las restantes se calculan recurrentemente, y la expresión general está dada por

Ejemplo:

Suponga que los nacimientos en un país están separados en el tiempo, de acuerdo con una distribución exponencial, presentándose un nacimiento cada 7 minutos en promedio.

Como el tiempo promedio entre arribos (entre nacimientos) es de  7 minutos, la tasa de nacimiento en el país se calcula como:

El número de nacimientos en el país por año está dado por

λt  = 205.7 x 365 = 75080 nacimientos/año

La probabilidad de ningún nacimiento en cualquier día es

Proceso de muerte puro

En el modelo de muerte pura, el sistema se inicia con N clientes en el instante 0, sin llegadas nuevas permitidas. Las salidas ocurren a razón de m clientes por unidad de tiempo.

 Los clientes se retiran de un abasto inicial, ocurren de manera aleatoria.

Ejemplo: Una florería inicia cada semana con 18 docenas de rosas. En promedio, la florería vende 3 docenas al día (una docena a la vez), pero la demanda real sigue una distribución de Poisson. Siempre que el nivel de las existencias se reduce a 5 docenas, se coloca un nuevo pedido de 18 nuevas docenas para entrega al principio de la siguiente semana. Debido a la naturaleza de la mercancía, las rosas sobrantes al final de la semana se desechan. Determine lo siguiente: (a) La probabilidad de colocar un pedido cualquier día de la semana.

Markov y Poisson

Breve biografía de Markov

Nació específicamente el 14 de junio de 1856, Riazán, Rusia y falleció 20 de julio de 1922, San Petersburgo, Rusia.

Nombre completo: Andréi Andréyevich Márkov

Fue un matemático ruso, reconocido por desarrollar la moderna teoría de procesos estocásticos. “Cadenas de Markov”.

Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras. En 1874, ingresó en la Facultad de Física y Matemáticas de la Universidad de San Petersburgo. Markov se graduó en 1878 ganando la medalla de oro por presentar el mejor ensayo para el tema del premio fijado por la facultad en ese año.

Obtuvo su doctorado en 1884 por su disertación sobre ciertas aplicaciones de fracciones continuas.

Los primeros trabajos de Markov fueron principalmente en teoría y análisis de números, fracciones continuas algebraicas, límites de integrales, teoría de aproximaciones y la convergencia de series. Después de 1900, aplicó el método de fracciones continuas, iniciado por su maestro Pafnuty Chebyshev, a la teoría de la probabilidad.

Es particularmente recordado por su estudio de las cadenas de Markov, secuencias de variables aleatorias en las que la variable futura está determinada por la variable presente pero es independiente de la forma en que el estado actual surgió de sus creadores. Este trabajo fundó una rama completamente nueva de la teoría de la probabilidad y lanzó la teoría de los procesos estocásticos.

1.    Cadenas me Markov a tiempo continuo.

Se considera cadenas de Markov Xt :


en donde el tiempo es continuo, al ser el tiempo así es difícil definir la distribución condicionada, dados todos los valores Xr para 

por lo que decimos entonces que Xt : 

es una cadena de markov como se dijo al inicio para cualesquiera

Para cada


la probabilidad 

 Tenemos entonces que la probabilidad de ir de i en el tiempo s hasta j en el tiempo t+s solo depende de t, esto indica las diferencias de tiempos.

Ejemplo:

Una corporación solicita utilizar las cadenas de markov para analizar los cambios en las preferencias de sus usuarios debido a tres marcas diferentes de un determinado producto. El análisis previo ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de una marca a otra cada mes: 

Actualmente la participación del mercado es de 45%, 25% y 30%, ¿Cuáles serán las participaciones del mercado de cada marca en dos meses?

Solución:

Definimos la variable aleatoria que representa la marca que adquiere un usuario cualquiera en el mes “n”. Dicha variable puede adoptar los valores 1, 2,3 en el mes n = 0, 1, 2, 3,…

Ademas conocemos la distribución inicial y la matriz de transición en una etapa como se evidencia a continuación: 

Luego para conocer la distribución de las participaciones de mercado al cabo de 2 meses podemos utilizar la formula

 

En conclusión las participaciones de mercado en dos meses han cambiado de un 45% a un 40.59%; de un 25% a un 33.91% y de un 30% a un 25.50%, para las marcas 1, 2 y 3.

1.    Breve biografía de Poisson

Nació específicamente el 21 de junio de 1781 en Pithiviers, (Francia) y falleció el 25 Abril de 1840.

Nombre completo: Siméon Denis Poisson

Poisson fue un matemático francés conocido por su trabajo en integrales definidas, teoría electromagnética y probabilidades.

En 1808 fue nombrado astrónomo en la Oficina de Longitudes y, cuando se instituyó la Facultad de Ciencias en 1809, fue nombrado además profesor de matemáticas puras.

El trabajo más importante de Poisson se refería a la aplicación de las matemáticas a la electricidad y el magnetismo, la mecánica y otras áreas de la física. En 1812 proporcionó un tratamiento extenso de la electrostática, basado en los métodos de Laplace.

Poisson contribuyó a la mecánica celeste al extender el trabajo de Lagrange y Laplace sobre la estabilidad de las órbitas planetarias y al calcular la atracción gravitacional ejercida por los cuerpos esferoidales y elipsoidales.

Otras publicaciones de Poisson incluyen Théorie nouvelle de l'action capillaire (1831; "Una nueva teoría de la acción capilar") y Théorie mathématique de la chaleur (1835; "Teoría matemática del calor"), una investigación importante sobre las probabilidades, apareció por primera y única vez en su trabajo la distribución de Poisson. 

Las contribuciones de Poisson a la ley de los grandes números (para variables aleatorias independientes con una distribución común, el valor promedio de una muestra tiende a la media a medida que aumenta el tamaño de la muestra) también apareció en ellas. Aunque originalmente se derivó como una mera aproximación a la distribución binomial, la distribución de Poisson ahora es fundamental en el análisis de problemas relacionados con la radiactividad, el tráfico y la ocurrencia aleatoria de eventos en el tiempo o el espacio.

Proceso Poisson

También conocido como ley de los sucesos raros, es un proceso estocástico de tiempo continuo que consiste en “contar” eventos raros que ocurren a lo largo del tiempo. El tiempo entre cada par de eventos consecutivos tiene una distribución exponencial con parámetro λ; cada uno de tales tiempos es independiente del resto. Es llamado asi por el matemático Simeon Denis Poisson.

Propiedades

A partir de la definición, es posible demostrar que:

  •  Las variables aleatorias Nt tienen distribución Poisson con parámetro λt.
  • Si Tk denota el tiempo transcurrido desde el (k-1)-esimo evento hasta el k – esimo, entonces Tk es una variable aleatoria con distribución exponencial y parámetro λ.
  • Si Sn denota el tiempo transcurrido desde el inicio del conteo hasta el n-esimo evento, entonces Sn tiene distribución Gamma con parámetros (n, λ).
Ejercicio
El numero de de pinchazos en los cauchos de cierto vehículo industrial tiene una distribución de poisson con media 0.3 por cada 50000 km. Si el vehículo recorre 100000km, se pide:

1.    Probabilidad de que no tenga pinchazos

2.    Probabilidad de que tenga menos de tres pinchazos

Numero de km recorridos para que la probabilidad de que no tenga ningún pinchazo sea 0.4066.

Solución

Si  λ = 0.3 para 50000km, entonces para 100000km tendremos una xP0(0.6).

1.    P(X=0)=0.5488

2.    P(X<3)= P(X=0)+ P(X=1)+ P(X=2) = 0.5488+0.3292+0.09878=0.9767

3.    P(X=0)=е- λ=0.4066. Por lo tanto, ln е- λ = ln 0.4066 y λ=0.9

Si 0.3→50000km, 0.9→ x km, y por tanto x=150000km


LINK DE APORTE AL TEMA: 


 

PROCESOS DE POISSON

1    Proceso Yule 1 Es un proceso de Nacimiento lineal con λ =(n* λ ) y n˃0 Este proceso puede definirse en los siguientes puntos: Esto...