(   ,      
θa+x-1(1-θ)n-x+b-1  0<θ<1         本科毕业设计说明书(论文)    第  4 页   共  22 页
此时用条件期望E{θ|x}作为θ 的估计值,得
这一结果有十分明显的统计意义,如同已经做了 a+b 次独立试验,事件 A发生
了a 次,在加上现在做的 n 此独立试验,事件 A发生了x次,一共做了 n+a+b 次试
验,而事件A一共发生了 a+x次,所以才有以上结果。所以共轭分布这一种方法,可
以很方便的将历史上做过的各次试验进行合理的综合,也可以为今后的试验结果分析
提供一个合理的前提[7]

1.3.3  Jeffreys 原则
所谓Jeffreys 原则包括两个部分:一是对先验分布有一合理的要求;另一部分
是给出一个具体的方法去求得合于要求的先验分布。 Jeffreys认为一个合理的决定先
验分布的准则应具有不变性。他利用 Fisher 信息阵的一个不变性找到了合于要求的
 (θ 。定义参数θ 的信息量
设  ,…,   是独立同分布的, xi~f(x; θ),i=1,2,…,n.则p(  ,…,     θ)=   (     θ   
    ,则 (1.8)
当θ 是一个参数向量时,则(1.8)就为一个信息阵,记θ
=( θ ,…, θ )’,则
Jeffreys原则的含义:θ 的先验分布应以信息阵 I(θ)的行列式的算术平方根为核,即
当然 Jeffreys 准则只是一个原则性的意见,用| (θ |
 定义先验分布只是一个具体
的方法,而并不是 Jeffreys 原则所规定的必须方法,对于具体问题我们还可以去寻
找适合与具体问题的方法[7]

1.3.4  最大熵原则
设随机变量 x 是离散的,它取  ,…,   ,…至多可列个值,且 P(x=ai)=pi,i=1,2,…,
则-  p l    p 称为x的熵,记作 H(x)。为了允许p =0,我们规定0ln0=0;对于连续性
的随机变量 x,若 x~p(x),且积分-  p(  l p(    有意义,则称它是 x 的熵,也记为
H(x)。当随机变量 x改为随机向量时,我们同样可以求得随机向量的熵。        
Bayes 假设提出的均匀分布是有一定根据的。“无信息”如果意着是不确定性最
大,那么无信息先验分布应是最大熵所相应的分布,在有限范围内定义的随机变量,
它的先验分布取为均匀分布时,由信息论的知识告诉我们熵才能达到最大值。进一步
想,Bayes 假设就相当于选最大熵相应的分布。所以最大熵原则可以概括为:无信息
先验分布应取参数 θ 的变化范围内熵最大的分布。
最大熵原则比起 Bayes假设来的确前进了不少,但是并不是在各种情况下都有最
大熵的分布,如在无限区间上就产生了各种各样的问题[7]。
将最大熵原则再推进一步,就可以导出 MDIP(Maximal Data Information Prior
Distributions)原则,而将 MDIP 原则再进一步演变可以得出广义最大熵原则。
1.3.5  Lindley,D.V.原则
     英国统计学家 Lindley 从共轭型分布进一步导出了无信息先验分布。我们这里继
续讨论例 1.1 的进一步结果,从这个例子中可以看出这一方法处理问题的具体步骤是
如何进行的。 【例 1.2】[7]
 θx(1-θ)n-x,用 β( ,b 作为先验分布时,后验分布就是
β( +x,n-x+b),得到的估计θ   (x)=         
上一篇:环上的线性方程组研究+文献综述
下一篇:整函数的阶型与零点+文献综述

微课在中学数学素质教育中的应用

中学数学教学中的模型思想与应用

层次分析法在决策中的分析及其应用

分支定界法在资源分配中的应用MATLAB仿真

矩阵在经济领域中的应用研究

Logistic回归分析模型的应用及R软件实现

常微分方程在金融工程中的若干应用

浅谈高校行政管理人员的...

酵母菌发酵生产天然香料...

AES算法GPU协处理下分组加...

STC89C52单片机NRF24L01的无线病房呼叫系统设计

压疮高危人群的标准化中...

从政策角度谈黑龙江對俄...

基于Joomla平台的计算机学院网站设计与开发

浅论职工思想政治工作茬...

提高教育质量,构建大學生...

上海居民的社会参与研究