称该模型为Logistc回归模型。Р(4) 负二项回归模型Р如果广义线性模型中的被解释变量的分量相互之间是独立的并且条件分布满足泊松分布,即,那我们就把该模型称为负二项回归模型。Р2.3广义线性模型的优点Р 总的来说广义线性模型对比与经典线性模型有三个较为明显的优点:(1)广义线性模型对数据的要求较为宽泛,经典线性回归模型对于数据的要求比较苛刻,只适用与连续型数据,而广义线性模型对于连续型和离散型的数据都适用。(2)广义线性模型在应用的范围上比经典线性回归模型大了许多,经典线性回归模型是假定被解释变量服从正态分布而广义线性模型是假定其服从指数型分布族。由于正态分布是指数型分布型的特例,故广义线性模型相当于放宽了条件从而扩大了应用范围。(3)经典线性回归模型仅仅考虑当联系函数为恒等函数时这种特殊情况,但广义线性模型用联系函数将两个解释变量连成一个整体,从而使得整个模型满足线性关系。Р2.4广义线性模型的两种参数估计方法Р广义线性模型中有许多种参数估计方法和检验方法,常用的参数估计方法有拟似然估计、极大似然估计、最似然估计以及两参数估计等等。本文对极大似然估计和两参数估计这两种参数估计方法进行具体的展开。Р2.4.1极大似然估计Р如果广义线性模型的被解释变量的每一个分量相互之间格子独立并且都满足指数型分布族中的某一个分布,那么的概率密度函数为Р由此可知,的似然函数为Р为了下文方便进行讨论,本文把的似然函数简单记为。因此,被解释变量的似然函数为Р我们把记作似然函数对的一阶导数,本文称为得分函数,为似然函数对的负二阶导数,那么Р Р如果为的极大似然估计,那么一定有Р由微分中值定理有Р其中,或。Р因此Р 根据此公式,研究者们提出了两种极大似然估计的近似值算法[16]:Р (1) Fisher得分方法Р其中,和分别为待估计参数的第次和次迭代后得到的值,为Fisher的信息矩阵,表示为: