É IMPORTANTE RESSALTAR QUE O SDCTIE GRACELI É UM SISTEMA QUE SE ENCAIXA EM TEORIAS DO PRESENTE, PASSADO E SE ENCAIXARÁ NAS DO FUTURO.
TERCEIRA QUANTIZAÇÃO PELO SDCTIE GRACELI
TRANS-QUÂNTICA SDCTIE GRACELI, TRANSCENDENTE, RELATIVISTA SDCTIE GRACELI, E TRANS-INDETERMINADA.
FUNDAMENTA-SE EM QUE TODA FORMA DE REALIDADE SE ENCONTRA EM TRANSFORMAÇÕES, INTERAÇÕES, TRANSIÇÕES DE ESTADOS [ESTADOS DE GRACELI], ENERGIAS E FENÔMENOS DENTRO DE UM SISTEMA DE DEZ OU MAIS DIMENSÕES DE GRACELI, E CATEGORIAS DE GRACELI.
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS =
TRANSFORMAÇÕES ⇔ INTERAÇÕES ⇔ TUNELAMENTO ⇔ EMARANHAMENTO ⇔ CONDUTIVIDADE ⇔ DIFRAÇÕES ⇔ estrutura eletrônica, spin, radioatividade, ABSORÇÕES E EMISSÕES INTERNA ⇔ Δ de temperatura e dinâmicas, transições de estados quântico Δ ENERGIAS, ⇔ Δ MASSA , ⇔ Δ CAMADAS ORBITAIS , ⇔ Δ FENÔMENOS , ⇔ Δ DINÂMICAS, ⇔ Δ VALÊNCIAS, ⇔ Δ BANDAS, Δ entropia e de entalpia, E OUTROS.
x
+ FUNÇÃO TÉRMICA. [EQUAÇÃO DE DIRAC].
+ FUNÇÃO DE RADIOATIVIDADE
, + FUNÇÃO DE TUNELAMENTO QUÂNTICO.
+ ENTROPIA REVERSÍVEL
+ FUNÇÃO DE CONDUÇÃO ELETROMAGNÉTICA
ENERGIA DE PLANCK
X
V [R] [MA] = Δe,M, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......ΤDCG
XΔe, ΔM, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM...... =
x
sistema de dez dimensões de Graceli + DIMENSÕES EXTRAS DO SISTEMA DECADIMENSIONAL E CATEGORIAL GRACELI.[como, spins, posicionamento, afastamento, ESTRUTURA ELETRÔNICA, e outras já relacionadas]..
- DIMENSÕES DE FASES DE ESTADOS DE TRANSIÇÕES DE GRACELI.
xsistema de transições de estados, e estados de Graceli, fluxos aleatórios quântico, potencial entrópico e de entalpia. [estados de transições de fases de estados de estruturas, quântico, fenomênico, de energias, e dimensional [sistema de estados de Graceli].x
número atômico, estrutura eletrônica, níveis de energia - TEMPO ESPECÍFICO E FENOMÊNICO DE GRACELI.
- X
- CATEGORIAS DE GRACELI
- T l T l E l Fl dfG l
N l El tf l P l Ml tfefel Ta l Rl Ll D
X [ESTADO QUÂNTICO]
xTODA E QUALQUER FORMA DE FUNÇÃO E EQUAÇÃO EM:
TRANSFORMAÇÕES ⇔ INTERAÇÕES ⇔ TUNELAMENTO ⇔ EMARANHAMENTO ⇔ CONDUTIVIDADE ⇔ DIFRAÇÕES ⇔ estrutura eletrônica, spin, radioatividade, ABSORÇÕES E EMISSÕES INTERNA ⇔ Δ de temperatura e dinâmicas, transições de estados quântico Δ ENERGIAS, ⇔ Δ MASSA , ⇔ Δ CAMADAS ORBITAIS , ⇔ Δ FENÔMENOS , ⇔ Δ DINÂMICAS, ⇔ Δ VALÊNCIAS, ⇔ Δ BANDAS, Δ entropia e de entalpia, E OUTROS.
+ FUNÇÃO TÉRMICA.
+ FUNÇÃO DE CONDUÇÃO ELETROMAGNÉTICA
V [R] [MA] = Δe,M, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......ΤDCG XΔe, ΔM, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM...... =
xsistema de dez dimensões de Graceli +DIMENSÕES EXTRAS DO SISTEMA DECADIMENSIONAL E CATEGORIAL GRACELI.[como, spins, posicionamento, afastamento, ESTRUTURA ELETRÔNICA, e outras já relacionadas]..- DIMENSÕES DE FASES DE ESTADOS DE TRANSIÇÕES DE GRACELI.xsistema de transições de estados, e estados de Graceli, fluxos aleatórios quântico, potencial entrópico e de entalpia. [estados de transições de fases de estados de estruturas, quântico, fenomênico, de energias, e dimensional [sistema de estados de Graceli].x
- TEMPO ESPECÍFICO E FENOMÊNICO DE GRACELI.
- X
- CATEGORIAS DE GRACELI
- DT l T l E l Fl dfG lN l El tf lP l Ml tfefelTa l RlLl
Sistema de partículas em interação
Na teoria da probabilidade, um sistema de partículas em interação (IPS) é um processo estocástico em algum espaço de configuração dado por um espaço de sítio, um grafo infinito contável e um espaço de estado local, um espaço métrico compacto .[1] Mais precisamente, IPSs são processos de Marvok de tempo contínuo que descrevem o comportamento coletivo de componentes estocasticamente em interação. IPSs são os análogo de tempo contínuo dos autômatos celulares estocásticos. Entre os principais exemplos são o modelo de eleições, o processo de contato, o processo de exclusão simples assimétrico (PESA), a dinâmica de Glauber e, em particular, o modelo Ising estocástico.[2]
IPS são geralmente definidos através de seus geradores de Markov dando origem a um processo de Markov único utilizando semigrupos de Markov e o teorema de Hille-Yosida. Novamente o gerador é dada através das denominadas taxas de transição onde é um conjunto finito de sítios e com para todo . As taxas descrevem tempos de espera exponenciais do processo para saltar da configuração para a configuração . Geralmente, as taxas de transição são dadas na forma de uma medida finita em .
O gerador de um IPS tem a seguinte forma: primeiro, o domínio de é um subconjunto do espaço de "observáveis", isto é, o conjunto de valores reais de funções contínuas no espaço de configuração . Em seguida, para qualquer observável no domínio de , tem-se
x
Na teoria da probabilidade, um sistema de partículas em interação (IPS) é um processo estocástico em algum espaço de configuração dado por um espaço de sítio, um grafo infinito contável e um espaço de estado local, um espaço métrico compacto .[1] Mais precisamente, IPSs são processos de Marvok de tempo contínuo que descrevem o comportamento coletivo de componentes estocasticamente em interação. IPSs são os análogo de tempo contínuo dos autômatos celulares estocásticos. Entre os principais exemplos são o modelo de eleições, o processo de contato, o processo de exclusão simples assimétrico (PESA), a dinâmica de Glauber e, em particular, o modelo Ising estocástico.[2]
IPS são geralmente definidos através de seus geradores de Markov dando origem a um processo de Markov único utilizando semigrupos de Markov e o teorema de Hille-Yosida. Novamente o gerador é dada através das denominadas taxas de transição onde é um conjunto finito de sítios e com para todo . As taxas descrevem tempos de espera exponenciais do processo para saltar da configuração para a configuração . Geralmente, as taxas de transição são dadas na forma de uma medida finita em .
O gerador de um IPS tem a seguinte forma: primeiro, o domínio de é um subconjunto do espaço de "observáveis", isto é, o conjunto de valores reais de funções contínuas no espaço de configuração . Em seguida, para qualquer observável no domínio de , tem-se
x
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
onde é a configuração igual a exceto que ela é invertida no sítio . é um novo parâmetro modelando a temperatura inversa.
onde é a configuração igual a exceto que ela é invertida no sítio . é um novo parâmetro modelando a temperatura inversa.
Teorema de Donsker
Em teoria da probabilidade, o teorema de Donsker (também conhecido como princípio da invariância de Donsker, ou teorema central do limite funcional), em homenagem ao matemático Monroe D. Donsker, é uma extensão funcional do teorema central do limite.[1]
Em teoria da probabilidade, o teorema de Donsker (também conhecido como princípio da invariância de Donsker, ou teorema central do limite funcional), em homenagem ao matemático Monroe D. Donsker, é uma extensão funcional do teorema central do limite.[1]
Índice
Definição formal
Seja uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com média 0 e variância 1. Seja . O processo estocástico
x
Seja uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com média 0 e variância 1. Seja . O processo estocástico
x
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
é conhecido como um passeio aleatório. Definindo o passeio aleatório escalado por
- x
é conhecido como um passeio aleatório. Definindo o passeio aleatório escalado por
- x
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
O teorema central do limite afirma que converge em distribuição para uma variável aleatória gaussiana padrão conforme . O princípio da invariância de Donsker[1][2] extende essa convergência para toda a função . Mais precisamente, em sua forma moderna, o princípio da invariância de Donsker afirma que: com variáveis aleatórias tomando valores no espaço de Skorokhod , a função aleatória converge em distribuição para um movimento browniano padrão conforme
Seja a função distribuição empírica da sequência das variáveis aleatórias i.i.d. com função de distribuição . Definindo a versão centrada e reduzida de por
- x
O teorema central do limite afirma que converge em distribuição para uma variável aleatória gaussiana padrão conforme . O princípio da invariância de Donsker[1][2] extende essa convergência para toda a função . Mais precisamente, em sua forma moderna, o princípio da invariância de Donsker afirma que: com variáveis aleatórias tomando valores no espaço de Skorokhod , a função aleatória converge em distribuição para um movimento browniano padrão conforme
Seja a função distribuição empírica da sequência das variáveis aleatórias i.i.d. com função de distribuição . Definindo a versão centrada e reduzida de por
- x
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
indexadas por . Pelo teorema central do limite clássico, para fixo, a variável aleatória converge em distribuição para uma variável aleatória gaussiana normal , com média zero e variância de conforme o tamanho da amostra cresce.
Teorema (Donsker, Skorokhod, Kolmogorov) — A sequência de Gn(x), como elementos aleatórios do espaço de Skorokhod , converge em distribuição para um processo gaussiano G com média zero e covariância dada por
x
indexadas por . Pelo teorema central do limite clássico, para fixo, a variável aleatória converge em distribuição para uma variável aleatória gaussiana normal , com média zero e variância de conforme o tamanho da amostra cresce.
Teorema (Donsker, Skorokhod, Kolmogorov) — A sequência de Gn(x), como elementos aleatórios do espaço de Skorokhod , converge em distribuição para um processo gaussiano G com média zero e covariância dada por
x
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
O processo pode ser escrito como , onde é uma ponte browniana padrão no intervalo unitário.
Em matemática, a variação quadrática é usada na análise de processos estocásticos, como o movimento browniano e outros martingales. A variação quadrática é só mais um tipo de variação de um processo.
O processo pode ser escrito como , onde é uma ponte browniana padrão no intervalo unitário.
Em matemática, a variação quadrática é usada na análise de processos estocásticos, como o movimento browniano e outros martingales. A variação quadrática é só mais um tipo de variação de um processo.
Índice
Definição
Suponha que é um processo estocástico de valores reais definido em um espaço de probabilidade e com um índice de tempo que varia entre os números reais não-negativos. Sua variação quadrática é o processo, escrito como , definido como
em que varia entre as partições do intervalo e a norma da partição P é a malha. Este limite, se existe, é definido usando a convergência de variáveis aleatórias. Note que um processo pode ser de variação quadrática finita no sentido da definição dada aqui e seus caminhos podem ser, não obstante, quase certamente de variação quadrática infinita para todo no sentido clássico de tomar o supremo da soma de todas as partições; este é particularmente o caso do movimento browniano.
Mais geralmente, a covariância (ou variância cruzada) de dois processos e é
A covariância pode ser escrita em termos de variação quadrática pela identidade de polarização:
Suponha que é um processo estocástico de valores reais definido em um espaço de probabilidade e com um índice de tempo que varia entre os números reais não-negativos. Sua variação quadrática é o processo, escrito como , definido como
em que varia entre as partições do intervalo e a norma da partição P é a malha. Este limite, se existe, é definido usando a convergência de variáveis aleatórias. Note que um processo pode ser de variação quadrática finita no sentido da definição dada aqui e seus caminhos podem ser, não obstante, quase certamente de variação quadrática infinita para todo no sentido clássico de tomar o supremo da soma de todas as partições; este é particularmente o caso do movimento browniano.
Mais geralmente, a covariância (ou variância cruzada) de dois processos e é
A covariância pode ser escrita em termos de variação quadrática pela identidade de polarização:
Processos de variação finita
Diz-se que um processo tem variação finita se tiver variação limitada para cada intervalo de tempo finito (com probabilidade 1). Tais processos são muito comuns e incluem, particularmente, todas as funções continuamente diferenciáveis. A variação quadrática existe para todos os processos de variação contínua e finita e é zero.
Esta afirmação pode ser generalizada a processos não-contínuos. Qualquer processo de variação finita càdlàg tem variação quadrática igual à soma dos quadrados dos saltos de . Para afirmar isto mais precisamente, o limite à esquerda de referente a é denotado por e o salto de no tempo pode ser escrito como . Então, a variação quadrática é dada por
A prova de que processos de variação finita e contínua têm variação quadrática zero segue da seguinte desigualdade. Aqui, é uma partição do intervalo e é a variação de sobre .
Pela continuidade de , este desaparece no limite conforme vai a zero.
Diz-se que um processo tem variação finita se tiver variação limitada para cada intervalo de tempo finito (com probabilidade 1). Tais processos são muito comuns e incluem, particularmente, todas as funções continuamente diferenciáveis. A variação quadrática existe para todos os processos de variação contínua e finita e é zero.
Esta afirmação pode ser generalizada a processos não-contínuos. Qualquer processo de variação finita càdlàg tem variação quadrática igual à soma dos quadrados dos saltos de . Para afirmar isto mais precisamente, o limite à esquerda de referente a é denotado por e o salto de no tempo pode ser escrito como . Então, a variação quadrática é dada por
A prova de que processos de variação finita e contínua têm variação quadrática zero segue da seguinte desigualdade. Aqui, é uma partição do intervalo e é a variação de sobre .
Pela continuidade de , este desaparece no limite conforme vai a zero.
Processos de Itō
A variação quadrática de um movimento browniano padrão existe e é dada por . Isto se generaliza a processos de Itō que, por definição, podem ser expressos em termos de integrais de Itō
em que é um movimento browniano. Qualquer processo como tal tem variação quadrática dada por
A variação quadrática de um movimento browniano padrão existe e é dada por . Isto se generaliza a processos de Itō que, por definição, podem ser expressos em termos de integrais de Itō
em que é um movimento browniano. Qualquer processo como tal tem variação quadrática dada por
Semimartingales
É possível mostrar que variações e covariâncias quadráticas de todos os semimartingales existem. Eles formam uma parte importante da teoria do cálculo estocástico, aparecendo no lema de Itō, que é a generalização da regra da cadeia da integral de Itō. A covariância quadrática também aparece na fórmula de integração por partes.
que pode ser usada para computar .
De outra forma, isto pode ser escrito como uma equação diferencial estocástica:
em que
É possível mostrar que variações e covariâncias quadráticas de todos os semimartingales existem. Eles formam uma parte importante da teoria do cálculo estocástico, aparecendo no lema de Itō, que é a generalização da regra da cadeia da integral de Itō. A covariância quadrática também aparece na fórmula de integração por partes.
que pode ser usada para computar .
De outra forma, isto pode ser escrito como uma equação diferencial estocástica:
em que
Martingales
Todos os martingales càdlàg e martingales locais têm variação quadrática bem definida, que segue do fato de que tais processos são exemplos de semimartingales. Pode ser mostrado que a variação quadrática de um martingale localmente quadrado integrável é o único processo contínuo à direita e crescente a partir de zero, com saltos , tal que é um martingale local. Uma prova da existência de (sem uso de cálculo estocástico) é dada em Karandikar-Rao.[2]
Um resultado útil para martingales quadrado integráveis é a isometria de Itō, que pode ser usada para calcular a variância de integrais de Itō,
Este resultado se mantém sempre que for um martingale quadrado integrável càdlàg e for um processo previsível limitado, sendo frequentemente usado na construção da integral de Itō.
Outro importante resultado é a desigualdade de Burkholder-Davis-Gundy, que dá limites ao máximo de um martingale nos termos da variação quadrática. Para um martingale local começando em zero, com máximo denotado por e qualquer número real , a desigualdade é
Aqui, são constantes que dependem da escolha de , mas não do martingale ou do tempo usado. Se for um martingale local contínuo, então a desigualdade de Burkholder-Davis-Gundy se mantém para qualquer .
Um processo alternativo, a variação quadrática previsível, é usado às vezes para martingales localmente quadrado integráveis. É escrita como e definida como sendo o único processo previsível contínuo à direita e crescente a partir de zero, tal que é um martingale local. Sua existência segue do teorema da decomposição de Doob-Meyer e, para martingales locais contínuos, é igual à variação quadrática.
Todos os martingales càdlàg e martingales locais têm variação quadrática bem definida, que segue do fato de que tais processos são exemplos de semimartingales. Pode ser mostrado que a variação quadrática de um martingale localmente quadrado integrável é o único processo contínuo à direita e crescente a partir de zero, com saltos , tal que é um martingale local. Uma prova da existência de (sem uso de cálculo estocástico) é dada em Karandikar-Rao.[2]
Um resultado útil para martingales quadrado integráveis é a isometria de Itō, que pode ser usada para calcular a variância de integrais de Itō,
Este resultado se mantém sempre que for um martingale quadrado integrável càdlàg e for um processo previsível limitado, sendo frequentemente usado na construção da integral de Itō.
Outro importante resultado é a desigualdade de Burkholder-Davis-Gundy, que dá limites ao máximo de um martingale nos termos da variação quadrática. Para um martingale local começando em zero, com máximo denotado por e qualquer número real , a desigualdade é
Aqui, são constantes que dependem da escolha de , mas não do martingale ou do tempo usado. Se for um martingale local contínuo, então a desigualdade de Burkholder-Davis-Gundy se mantém para qualquer .
Um processo alternativo, a variação quadrática previsível, é usado às vezes para martingales localmente quadrado integráveis. É escrita como e definida como sendo o único processo previsível contínuo à direita e crescente a partir de zero, tal que é um martingale local. Sua existência segue do teorema da decomposição de Doob-Meyer e, para martingales locais contínuos, é igual à variação quadrática.
Processo empírico
Em teoria das probabilidades, um processo empírico é um processo estocástico que descreve a proporção de objetos em um sistema em um dado estado. Para um processo em um espaço de estados discreto, uma cadeia de Markov populacional de tempo contínuo[1][2] ou modelo populacional de Markov[3] é um processo que conta o número de objetos em um dado estado (sem reescalonamento). Na teoria de campo médio, teoremas do limite (conforme o número de objetos se torna grande) são considerados e generalizam o teorema central do limite para medidas empíricas.[4] Aplicações da teoria dos processos empíricos surgem na estatística não paramétrica.[5]
Em teoria das probabilidades, um processo empírico é um processo estocástico que descreve a proporção de objetos em um sistema em um dado estado. Para um processo em um espaço de estados discreto, uma cadeia de Markov populacional de tempo contínuo[1][2] ou modelo populacional de Markov[3] é um processo que conta o número de objetos em um dado estado (sem reescalonamento). Na teoria de campo médio, teoremas do limite (conforme o número de objetos se torna grande) são considerados e generalizam o teorema central do limite para medidas empíricas.[4] Aplicações da teoria dos processos empíricos surgem na estatística não paramétrica.[5]
Definição
Para variáveis aleatórias independentes e identicamente distribuídas em com função distribuição acumulada comum , a função distribuição empírica é definida por:
em que é a função indicadora do conjunto .[6]
Para todo fixo, é uma sequência de variáveis aleatórias que converge a quase certamente pela lei forte dos grandes números, isto é, converge pontualmente a . O matemático ucraniano Valery Glivenko e o matemático italiano Francesco Paolo Cantelli fortaleceram este resultado ao provar a convergência uniforme de a pelo teorema de Glivenko–Cantelli.[7]
Uma versão centralizada e escalonada da medida empírica é a medida sinalizada:
Isto induz um mapa sobre as funções mensuráveis dado por:
Pelo teorema central do limite, converge em distribuição a uma variável aleatória normal para um conjunto mensurável fixo .[8] De forma semelhante, para uma função fixa , converge em distribuição a uma variável aleatória normal , desde que e .[9]
é um processo empírico indexado por , uma coleção de subconjuntos mensuráveis de .[10]
é um processo empírico indexado por , uma coleção de funções mensuráveis de a .[11]
Um resultado significante na área dos processos empíricos é o teorema de Donsker. Isto levou a um estudo das classes de Donsker: conjuntos de funções com a útil propriedade de processo empíricos indexados por estas classes que convergem fracamente a um certo processo gaussiano.[12] Ainda que se possa mostrar que classes de Donsker são classes de Glivenko–Cantelli, o contrário não é verdadeiro em geral.
Para variáveis aleatórias independentes e identicamente distribuídas em com função distribuição acumulada comum , a função distribuição empírica é definida por:
em que é a função indicadora do conjunto .[6]
Para todo fixo, é uma sequência de variáveis aleatórias que converge a quase certamente pela lei forte dos grandes números, isto é, converge pontualmente a . O matemático ucraniano Valery Glivenko e o matemático italiano Francesco Paolo Cantelli fortaleceram este resultado ao provar a convergência uniforme de a pelo teorema de Glivenko–Cantelli.[7]
Uma versão centralizada e escalonada da medida empírica é a medida sinalizada:
Isto induz um mapa sobre as funções mensuráveis dado por:
Pelo teorema central do limite, converge em distribuição a uma variável aleatória normal para um conjunto mensurável fixo .[8] De forma semelhante, para uma função fixa , converge em distribuição a uma variável aleatória normal , desde que e .[9]
é um processo empírico indexado por , uma coleção de subconjuntos mensuráveis de .[10]
é um processo empírico indexado por , uma coleção de funções mensuráveis de a .[11]
Um resultado significante na área dos processos empíricos é o teorema de Donsker. Isto levou a um estudo das classes de Donsker: conjuntos de funções com a útil propriedade de processo empíricos indexados por estas classes que convergem fracamente a um certo processo gaussiano.[12] Ainda que se possa mostrar que classes de Donsker são classes de Glivenko–Cantelli, o contrário não é verdadeiro em geral.
Exemplo
Como um exemplo, considere funções distribuição empírica. Para variáveis aleatórias independentes e identicamente distribuídas de valores reais , elas são dadas por:
Neste caso, processos empíricos são indexados por uma classe . Mostrou-se que é uma classe de Donsker em particular.[13]
converge fracamente em a uma ponte browniana .
Em probabilidade aplicada, um processo regenerativo é uma classe de processos estocásticos com a propriedade de que certas porções do processo podem ser tratadas como estatisticamente independentes umas das outras.[2] Esta propriedade pode ser usada na derivação de propriedades teóricas de tais processos.
Como um exemplo, considere funções distribuição empírica. Para variáveis aleatórias independentes e identicamente distribuídas de valores reais , elas são dadas por:
Neste caso, processos empíricos são indexados por uma classe . Mostrou-se que é uma classe de Donsker em particular.[13]
converge fracamente em a uma ponte browniana .
Em probabilidade aplicada, um processo regenerativo é uma classe de processos estocásticos com a propriedade de que certas porções do processo podem ser tratadas como estatisticamente independentes umas das outras.[2] Esta propriedade pode ser usada na derivação de propriedades teóricas de tais processos.
Índice
Histórico
Processos regenerativos foram definidos pela primeira vez pelo matemático britânico radicado nos Estados Unidos Walter L. Smith na Proceedings of the Royal Society A em 1955.[3][4]
Processos regenerativos foram definidos pela primeira vez pelo matemático britânico radicado nos Estados Unidos Walter L. Smith na Proceedings of the Royal Society A em 1955.[3][4]
Definição
Um processo regenerativo é um processo estocástico com pontos de tempo nos quais, a partir de um ponto de vista probabilístico, o processo se reinicia.[5] Estes pontos de tempo podem ser eles próprios determinados pela evolução do processo. Isto equivale a dizer que o processo é um processo regenerativo se existirem pontos de tempo , tal que o processo pós- :
- tem a mesma distribuição do processo pós- ;
- é independente do processo pré- .
para .[6] Intuitivamente, isto significa que um processo regenerativo pode ser dividido em ciclos independentes e identicamente distribuídos.[7]
Quando , é chamado de processo regenerativo não atrasado. De outro modo, o processo é chamado de processo regenerativo atrasado.[6]
Um processo regenerativo é um processo estocástico com pontos de tempo nos quais, a partir de um ponto de vista probabilístico, o processo se reinicia.[5] Estes pontos de tempo podem ser eles próprios determinados pela evolução do processo. Isto equivale a dizer que o processo é um processo regenerativo se existirem pontos de tempo , tal que o processo pós- :
- tem a mesma distribuição do processo pós- ;
- é independente do processo pré- .
para .[6] Intuitivamente, isto significa que um processo regenerativo pode ser dividido em ciclos independentes e identicamente distribuídos.[7]
Quando , é chamado de processo regenerativo não atrasado. De outro modo, o processo é chamado de processo regenerativo atrasado.[6]
Exemplos
- Processos de renovação são processos regenerativos, sendo a primeira renovação.[5]
- Processos de renovação alternantes, em que um sistema alterna entre um estado "ativo" e um estado "inativo", são processos regenerativos.[5]
- Uma cadeia de Markov recorrente é um processo regenerativo, sendo o tempo da primeira recorrência.[5] Isto inclui as cadeias de Harris.
- O movimento browniano refletido, em que se mede o tempo que as partículas levam para partir e voltar, é um processo regenerativo.[7]
- Processos de renovação são processos regenerativos, sendo a primeira renovação.[5]
- Processos de renovação alternantes, em que um sistema alterna entre um estado "ativo" e um estado "inativo", são processos regenerativos.[5]
- Uma cadeia de Markov recorrente é um processo regenerativo, sendo o tempo da primeira recorrência.[5] Isto inclui as cadeias de Harris.
- O movimento browniano refletido, em que se mede o tempo que as partículas levam para partir e voltar, é um processo regenerativo.[7]
Propriedades
- Pelo teorema da renovação com recompensa, com probabilidade 1,
- em que é o comprimento do primeiro ciclo e é o valor sobre o primeiro ciclo.[8]
- Uma função mensurável de um processo regenerativo é um processo regenerativo com o mesmo tempo de regeneração.[8]
Dado um espaço de probabilidade e um espaço mensurável , um processo estocástico de valor S é um conjunto de variáveis aleatórias de valor S em , indexadas por um conjunto totalmente ordenado T ("tempo"). Isto é, um processo estocástico X é um conjunto
onde cada é uma variável de aleatória de valor S em . O espaço S é então chamado de espaço de estados do processo.
- Pelo teorema da renovação com recompensa, com probabilidade 1,
- em que é o comprimento do primeiro ciclo e é o valor sobre o primeiro ciclo.[8]
- Uma função mensurável de um processo regenerativo é um processo regenerativo com o mesmo tempo de regeneração.[8]
Dado um espaço de probabilidade e um espaço mensurável , um processo estocástico de valor S é um conjunto de variáveis aleatórias de valor S em , indexadas por um conjunto totalmente ordenado T ("tempo"). Isto é, um processo estocástico X é um conjunto
onde cada é uma variável de aleatória de valor S em . O espaço S é então chamado de espaço de estados do processo.
Distribuições de dimensões finitas
Seja X um processo estocástico de valor S. Para cada sequência finita de , o k-ésimo é uma variável aleatória tendo valores em . A distribuição dessa variável aleatória é uma probabilidade medida em . Isso é chamado uma distribuição finita de X. Sob restrições topológicas adequadas, uma coleção “consistente” de distribuições de dimensões finitas pode ser usada para definir um processo estocástico.
Seja X um processo estocástico de valor S. Para cada sequência finita de , o k-ésimo é uma variável aleatória tendo valores em . A distribuição dessa variável aleatória é uma probabilidade medida em . Isso é chamado uma distribuição finita de X. Sob restrições topológicas adequadas, uma coleção “consistente” de distribuições de dimensões finitas pode ser usada para definir um processo estocástico.
Nenhum comentário:
Postar um comentário