Es
un proceso de Nacimiento lineal con λ=(n*λ)
y n˃0
Este
proceso puede definirse en los siguientes puntos:
Esto nos dice que las tasas de nacimiento son λn
= λ*n. El tiempo de estancia en el estado n tiene una distribución
en consecuencia el tiempo medio de estancia en
ese estado es
cada vez menor conforme n crece. El sistema de
ecuaciones prospectivas para
se reduce a
1.2 Breve
biografía de Joseph Doob
Joseph Leo Doob (27
de febrero de 1910 en Cincinnati, Ohio, Estados Unidos - 7 de junio de 2004 en
Clark-Lindsey Village, Urbana, Illinois, Estados Unidos) es un matemático
estadounidense que trabajó en análisis y teoría de la probabilidad. Es uno de
los fundadores de la teoría de las martingalas
3Martingalas
Dado
un subconjunto medible A de Ω, definimos su indicador IA : Ω → {0, 1} como la función
que toma el valor 1 en ´ A y 0 en A c .
Definimos la integral de X sobre A como E(X;
A) = E(XIA), y la esperanza condicionada de X dado A como E(X|A) = E(X;
A)/P(A).
La esperanza condicionada es la esperanza con
respecto a la distribución de probabilidad condicionada, dada por ´ P(·|A) =
P(· ∩ A)/P(A).
Sea
{Xn}n≥0 una sucesión de variables aleatorias. Constituyen ´ una martingala
cuando
1.
E(|Xn|) < ∞ para todo n.
2.
E(Xn+1|Xn = xn, Xn−1 = xn−1, . . . , X0 = x0) = xn para todo
x0,
. . . , xn.
La
segunda condición es equivalente a ´ E(Xn+1 − Xn|Xn = xn, Xn−1 = xn−1, . . . ,
X0 = x0) = 0 para todo x0, . . . , xn.
Ejemplo:
caminos aleatorios de media 0
Sea
(ξn)n≥1 una sucesión de variables aleatorias ´
Independientes
tal que E(ξi) = 0 para todo i. Definimos
Xn
:= X0 + ξ1 + · · · + ξn.
Entonces,
{Xn}n constituye una martingala.
Por
otro lado, si E(ξi) ≤ 0 para todo i, {Xn}n≥0 constituye una
Supe
martingala, y si E(ξi) ≥ 0 para todo i, {Xn}n≥0 es una
Su
martingala.
4 Proceso
de renovación y confiabilidad
Modelos
de confiabilidad: Los tiempos de vida de las unidades que fallan, tienen un
patrón aleatorio. Para modelar los tiempos de vida o tiempos a la falla
utilizamos variables aleatorias no negativas. Toda la información de una
variable aleatoria se encuentra en su distribución. La materia prima en los
estudios de confiabilidad son los tiempos de vida de las unidades estudiadas.
Asociamos ahora una variable aleatoria Yi a cada evento de un proceso
de Poisson. Suponemos que las variables Yi, i ≥ 1, son i.i.d y también son
independientes del proceso. Por ejemplo, el proceso puede representar los
carros que llegan a un centro comercial y las variables asociadas, el número de
pasajeros que hay en cada uno de ellos; o el proceso puede representar los
mensajes que llegan a un computador central para ser transmitidos via internet
y las variables Yi pueden representar el tamaño de los mensajes. Es natural
considerar la suma de las variables Yi como una variable de interés:
S(t) = Y1 + · · · + YN(t)
Donde ponemos S(t) = 0 si N(t) =
0. Ya hemos visto que para suma aleatorias, la media es el producto de las
medias de N e Y , mientras que la varianza está dada por
Ejemplo: El número de clientes de
una tienda durante el día tiene distribución de Poisson de media 30 y cada
cliente gasta un promedio de $150 con desviación típica de $50. Por los
cálculos anteriores sabemos que el ingreso medio por día es 30 · $150 = $4.500.
La varianza del ingreso total es
30 · [($50)2 + ($150)2 ]
= 750.000
Sacando la raíz cuadrada
obtenemos una desviación típica de $ 866,02.
La función de distribución para el proceso de
Poisson compuesto S(t) puede representarse explícitamente si condicionamos por
los valores de N(t). Recordemos que la distribución de una suma de variables
independientes es la evolución de las distribuciones: Si Y tiene f.d. G,
Ejercicio: Sea
N(t) el número de impactos que recibe un sistema mecánico hasta el instante t y
sea Yk el daño o desgaste que produce el k-´eximo impacto. Suponemos que los
daños son positivos: P(Yk ≥ 0) = 1, y que se acumulan aditivamente, de modo que
S(t) = PN(t) k=1 Yk representa el daño total hasta el instante t. Supongamos
que el sistema continua funcionando mientras el daño total sea menor que un
valor critico a y en caso contrario falla. Sea T el tiempo transcurrido hasta
que el sistema falla, entonces
{T
> t} si y solo si {S(t) < a}.
Tengamos
en cuenta lo que propusimos en el anterior ejercicio
Para
obtener el tiempo promedio hasta que el sistema falle podemos integrar esta
probabilidad:
Donde
hemos intercambiado series e integrales porque todos los términos son
positivos. Esta expresión se simplifica en el caso particular en el cual los
daños tienen distribución exponencial de parámetro µ. Entonces la suma Y1 + · ·
· + Yn tiene distribución Γ(n, µ):
Por
lo tanto, cuando Yi , i ≥ 1, tienen distribución exponencial de parámetro µ,
Proceso Poisson mixto
En esta generalización del
proceso de Poisson se considera que el parámetro λ no es constante sino una
variable aleatoria
Sea Λ una variable aleatoria positiva con
función de distribución F pλq. Se dice que el proceso de conteo tXt : t ¥ 0u es
un proceso de Poisson mixto con variable mezclarte Λ si para cada entero n ¥ 1,
y cada sucesión de enteros no negativos k1, . . . , kn, y cualesquiera tiempos
0 ¤ a1 ¤ an ¤ bn se cumple la igualdad
Cuando la variable aleatoria
mezclarte Λ es constante e igual a λ, el proceso de Poisson mixto se reduce al
proceso de Poisson.
Proposición El proceso de Poisson mixto cumple las
siguientes propiedades.
1. Tiene incrementos
estacionarios.
2. En general los incrementos no
son independientes. Lo son en el caso del proceso de Poisson. 3. EpXtq t EpΛq.
4. VarpXtq t 2 VarpΛq t EpΛq.
5.
CovpXt , Xts Xtq st VarpΛq, s, t ¥
Estas propiedades se obtienen
condicionando sobre el valor de la variable aleatoria Λ y sus demostraciones se
dejan como ejercicio al lector. Notas y referencias. El estudio del proceso de
Poisson generalmente se incluye en los cursos elementales de procesos
estocásticos.
Proceso de nacimiento y
muerte
La mayor parte de los modelos
elementales de colas suponen que las entradas (llegadas de clientes) y las
salidas (clientes que se van) del sistema ocurren de acuerdo con un nacimiento
y muerte.
En el contexto de la teoría de
colas, el termino nacimiento se refiere a la llegada de un cliente al sistema
de colas, mientras que el termino muerte se refiere a la salida del cliente
servido. El proceso de nacimiento y muerte describe en términos probabilísticos
como cambia N(t) al aumentar t. En general, sostiene que los nacimientos y
muertes individuales ocurren de manera aleatoria, y que sus tasas medias de
ocurrencia dependen del estado del sistema actual. Los supuestos del proceso de
nacimiento y muerte son los siguientes:
Supuesto 1. Dado N(t) = t, la
distribución de probabilidad actual del tiempo que falta para el próximo
nacimiento (llegada) es exponencial con parámetro λn n(n = 0, 1, 2, ...).
Supuesto 2. Dado N(t) = n, la
distribución de probabilidad actual del tiempo que falta para la próxima muerte
(terminación de servicio) es exponencial con parámetro µn(n = 1, 2, ...).
Supuesto 3. La variable aleatoria
del supuesto 1 (el tiempo que falta hasta el próximo nacimiento) y la variable aleatoria
del supuesto 2 (el tiempo que falta hasta la siguiente muerte) son mutuamente
independientes. La siguiente transición del estado del proceso es:
Un solo nacimiento n → n + 1
O una sola muerte n → n − 1
Lo que depende de cuál de las dos
variables es más pequeña.
En el caso de un sistema de
colas, λn y µn representan, respectivamente, la tasa media de llegada y la tasa
media de terminaciones de servicio, cuando hay n clientes en el sistema. En
algunos sistemas de colas, los valores de las λn serán las mismas para todos
los valores de n, y las µn también serán las mismas para toda n excepto para
aquella n tan pequeña que el servidor esté desocupado.
Excepto en algunos casos
especiales, el análisis del proceso de nacimiento y muerte es complicado cuando
el sistema se encuentra en condición transitoria. Se han obtenido algunos
resultados sobre esta distribución de probabilidad de N(t) pero son demasiado
complicados para darles un buen uso práctico. Por otro lado, es bastante
directo derivar esta distribución después de que el sistema ha alcanzado la
condición de estado estable (en caso de que pueda alcanzarla). Este desarrollo
parte del diagrama de tasas, como se escribe a continuación.
Considere cualquier estado
particular n (n = 0,1,2,...) del sistema. Suponga que en el tiempo 0 se inicia
el conteo del número de veces que el sistema entra a este estado y el número de
veces que sale de ´el, como se denota a continuación:
En (t) = número de veces que el
proceso entra al estado n hasta el tiempo t.
Ln (t) = número de veces que el
proceso sale del estado n hasta el tiempo t.
Como los dos tipos de eventos
(entrar y salir) deben alternarse, estos dos números serán
Iguales o diferirán en solo 1; es
decir, |En(t) − Ln(t)| ≤ 1.
- Proceso de Conteo.
- Proceso de incrementos
independientes y estacionarios
- Verificando
Ejemplos de Procesos de Nacimiento y muerte
Proceso de nacimiento
puro
Consideremos una sucesión de
números positivos {lk}. Se define un proceso de nacimiento puro como
un proceso de Markov que satisface los siguientes postulados:
X( t ) denota el valor de estado
que puede tomar el proceso en el tiempo t. En lo que respecta a la teoría de
confiabilidad el valor de estado denotará el estado de degradación en que
incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos
estados como etapas de degradación creciente, hasta llegar a un estado N que
significará el estado de colapso, no obstante con el objeto de aplicar
directamente la teoría de los procesos de nacimiento puro, consideraremos el
espacio de estado infinito {0, 1, 2, ...}.
El término o1,k(h) y o2,k(h) son
"infinitesimales" de orden h, esto es
Teorema. El proceso de nacimiento
puro satisface el siguiente sistema de ecuaciones diferenciales:
La demostración se deja como
ejercicio: Se utiliza la ley de la probabilidad completa, la propiedad de
Markov y el postulado (iii).
La primera ecuación diferencial
se puede resolver directamente, y esta es
Las restantes se calculan
recurrentemente, y la expresión general está dada por
Ejemplo:
Suponga que los nacimientos en un
país están separados en el tiempo, de acuerdo con una distribución exponencial,
presentándose un nacimiento cada 7 minutos en promedio.
Como el tiempo promedio entre
arribos (entre nacimientos) es de 7
minutos, la tasa de nacimiento en el país se calcula como:
El número de nacimientos en el
país por año está dado por
λt = 205.7 x 365 = 75080 nacimientos/año
La probabilidad de ningún
nacimiento en cualquier día es
Proceso de muerte puro
En el modelo de muerte pura, el
sistema se inicia con N clientes en el instante 0, sin llegadas nuevas
permitidas. Las salidas ocurren a razón de m clientes por unidad de tiempo.
Los clientes se retiran de un abasto
inicial, ocurren de manera aleatoria.
Ejemplo: Una florería inicia cada
semana con 18 docenas de rosas. En promedio, la florería vende 3 docenas al día
(una docena a la vez), pero la demanda real sigue una distribución de Poisson.
Siempre que el nivel de las existencias se reduce a 5 docenas, se coloca un
nuevo pedido de 18 nuevas docenas para entrega al principio de la siguiente
semana. Debido a la naturaleza de la mercancía, las rosas sobrantes al final de
la semana se desechan. Determine lo siguiente: (a) La probabilidad de colocar
un pedido cualquier día de la semana.
Nació específicamente
el 14 de junio de 1856, Riazán, Rusia y falleció20
de julio de 1922, San Petersburgo, Rusia.
Nombre completo: Andréi Andréyevich Márkov
Fue un matemático
ruso, reconocido por desarrollar la moderna teoría de procesos estocásticos.
“Cadenas de Markov”.
Las cadenas de Márkov, hoy
día, se consideran una herramienta esencial en disciplinas como la economía, la
ingeniería, la investigación de operaciones y muchas otras. En 1874, ingresó en
la Facultad de Física y Matemáticas de la Universidad de San Petersburgo. Markov
se graduó en 1878 ganando la medalla de oro por presentar el mejor ensayo para
el tema del premio fijado por la facultad en ese año.
Obtuvo su doctorado en 1884
por su disertación sobre ciertas aplicaciones de fracciones continuas.
Los primeros trabajos de
Markov fueron principalmente en teoría y análisis de números, fracciones
continuas algebraicas, límites de integrales, teoría de aproximaciones y la
convergencia de series. Después de 1900, aplicó el método de fracciones
continuas, iniciado por su maestro Pafnuty Chebyshev, a la teoría de la
probabilidad.
Es particularmente recordado
por su estudio de las cadenas de Markov, secuencias de variables aleatorias en
las que la variable futura está determinada por la variable presente pero es
independiente de la forma en que el estado actual surgió de sus creadores. Este
trabajo fundó una rama completamente nueva de la teoría de la probabilidad y
lanzó la teoría de los procesos estocásticos.
1.Cadenas me Markov a tiempo continuo.
Se
considera cadenas de Markov Xt :
en
donde el tiempo es continuo, al ser el tiempo así es difícil definir la
distribución condicionada, dados todos los valores Xr para
por lo que decimos entonces que Xt :
es
una cadena de markov como se dijo al inicio para cualesquiera
Para
cada
la
probabilidad
Tenemos entonces que la probabilidad de ir de
i en el tiempo s hasta j en el tiempo t+s solo depende de t, esto indica las
diferencias de tiempos.
Ejemplo:
Una
corporación solicita utilizar las cadenas de markov para analizar los cambios
en las preferencias de sus usuarios debido a tres marcas diferentes de un
determinado producto. El análisis previo ha arrojado la siguiente estimación de
la matriz de probabilidades de cambiarse de una marca a otra cada mes:
Actualmente la
participación del mercado es de 45%, 25% y 30%, ¿Cuáles serán las
participaciones del mercado de cada marca en dos meses?
Solución:
Definimos
la variable aleatoria que representa la marca que adquiere un usuario
cualquiera en el mes “n”. Dicha variable puede adoptar los valores 1, 2,3 en el
mes n = 0, 1, 2, 3,…
Ademas
conocemos la distribución inicial y la matriz de transición en una etapa como
se evidencia a continuación:
Luego para conocer la distribución de las participaciones de mercado al
cabo de 2 meses podemos utilizar la formula
En conclusión las participaciones de
mercado en dos meses han cambiado de un 45% a un 40.59%; de un 25% a un 33.91%
y de un 30% a un 25.50%, para las marcas 1, 2 y 3.
1.Breve biografía de Poisson
Nació
específicamente el 21 de junio de 1781 en Pithiviers, (Francia) y falleció el 25
Abril de 1840.
Nombre
completo: Siméon Denis Poisson
Poisson
fue un matemático francés conocido por su trabajo en integrales definidas,
teoría electromagnética y probabilidades.
En
1808 fue nombrado astrónomo en la Oficina de Longitudes y, cuando se instituyó
la Facultad de Ciencias en 1809, fue nombrado además profesor de matemáticas
puras.
El
trabajo más importante de Poisson se refería a la aplicación de las matemáticas
a la electricidad y el magnetismo, la mecánica y otras áreas de la física. En
1812 proporcionó un tratamiento extenso de la electrostática, basado en los
métodos de Laplace.
Poisson
contribuyó a la mecánica celeste al extender el trabajo de Lagrange y Laplace
sobre la estabilidad de las órbitas planetarias y al calcular la atracción
gravitacional ejercida por los cuerpos esferoidales y elipsoidales.
Otras
publicaciones de Poisson incluyen Théorie nouvelle de l'action capillaire
(1831; "Una nueva teoría de la acción capilar") y Théorie
mathématique de la chaleur (1835; "Teoría matemática del calor"), una
investigación importante sobre las probabilidades, apareció por primera y única
vez en su trabajo la distribución de Poisson.
Las contribuciones de
Poisson a la ley de los grandes números (para variables aleatorias
independientes con una distribución común, el valor promedio de una muestra
tiende a la media a medida que aumenta el tamaño de la muestra) también
apareció en ellas. Aunque originalmente se derivó como una mera aproximación a
la distribución binomial, la distribución de Poisson ahora es fundamental en el
análisis de problemas relacionados con la radiactividad, el tráfico y la
ocurrencia aleatoria de eventos en el tiempo o el espacio.
Proceso Poisson
También conocido como
ley de los sucesos raros, es un proceso estocástico de tiempo continuo que
consiste en “contar” eventos raros que ocurren a lo largo del tiempo. El tiempo
entre cada par de eventos consecutivos tiene una distribución exponencial con
parámetro λ;
cada uno de tales tiempos es independiente del resto. Es llamado asi por el
matemático Simeon Denis Poisson.
Propiedades
A
partir de la definición, es posible demostrar que:
Las
variables aleatorias Nt tienen distribución Poisson con parámetro λt.
Si Tk
denota el tiempo transcurrido desde el (k-1)-esimo evento hasta el k –
esimo, entonces Tk es una variable aleatoria con distribución
exponencial y parámetro λ.
Si Sn
denota el tiempo transcurrido desde el inicio del conteo hasta el n-esimo
evento, entonces Sn tiene distribución Gamma con parámetros (n, λ).
Ejercicio
El
numero de de pinchazos en los cauchos de cierto vehículo industrial tiene una
distribución de poisson con media 0.3 por cada 50000 km. Si el vehículo recorre
100000km, se pide:
1.Probabilidad
de que no tenga pinchazos
2.Probabilidad
de que tenga menos de tres pinchazos
Numero de km
recorridos para que la probabilidad de que no tenga ningún pinchazo sea 0.4066.
Solución
Si λ = 0.3 para 50000km, entonces para 100000km
tendremos una x→P0(0.6).