本通过 Webkit 的解析和页面渲染Р后存在得到同一个页面效果的可能性较低,并且当初的网页渲染截图仅仅包含图像信息,因此,第 2 层向第 3 层Р的数据提取过程也是不可逆的.由于这两层信息提取不可逆关系的存在,导致只有低层次证据能恢复高层次的Р证据,而无法从高层次的信息恢复得到更加丰富的低层次数据. Р •假设只有第 3 层的数据被篡改,可以使用第 1 层的数据通过模拟数据包的解析与爬虫框架爬取,重新Р 得到第 2 层证据,再与第 2 层数据作对比.如果两者内容完全一样,则证明证据依旧有效.也可以经过Р 被还原的第 2 层证据或原始的第 2 层证据来恢复被篡改的第 3 层数据; Р •假设只有第 2 层的证据被篡改,可以使用第 1 层的证据先恢复出第 2 层的数据,再由恢复出的证据提Р 取出第 3 层的证据,再与原始的第 3 层数据作对比.如果两者内容一致,则证明证据有效; Р •假设只有第 1 层的证据被篡改,由于第 1 层证据提取的不可逆性,导致不能完全恢复第 1 层的证据.Р 只能使用第 2 层的证据提取后与第 3 层的证据做对比,如果两者内容一致,则证明证据有效. Р3 社交网页取证数据分析Р 社交网页相比一般的网页有着特定的访问权限与隐私设置,这意味着用户并不是简单地将自己的信息公Р开在网上,可以选择性地针对不同的人群进行公开.社交网页的限制主要有两种情况: Р (1) 网站本身的限制Р 需要用户登录后,才能(完整)看到用户公开的内容,例如新浪微博等.对于这种限制,网络爬虫可以模拟用户Р登录动作,获得登录后的会话,最终获取用户内容的访问权限. Р (2) 用户指定隐私限制Р 用户只对指定的浏览者开放浏览权限,普通浏览者无法获取这些内容,例如人人网、QQ 空间等,只有成为好Р友用户才能访问主页内容.这时候,如果需要固定这些内容,则需要取证网站提供相应的授权和权限.