博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
贝叶斯学习--极大后验假设学习
阅读量:4287 次
发布时间:2019-05-27

本文共 897 字,大约阅读时间需要 2 分钟。

我们假定学习器考虑的是定义在实例空间X上的有限的假设空间H,任务是学习某个目标概念c:X→{0,1}。如通常那样,假定给予学习器某训练样例序列〈〈x1d1,〉…〈xmdm〉〉,其中xiX中的某实例,dixi的目标函数值(即di=c(xi))。为简化讨论,假定实例序列〈x1xm〉是固定不变的,因此训练数据D可被简单地写作目标函数值序列:D=〈d1dm〉。

基于贝叶斯理论我们可以设计一个简单的算法输出最大后验假设

Brute-ForceMAP学习算法

1.对于H中每个假设h,计算后验概率:

2.输出有最高后验概率的假设hMAP:

此算法需要较大的计算量,因为它对H中每个假设都应用了贝叶斯公式以计算P(h|D)。

虽然对于大的假设空间这很不切实际,但该算法仍然值得关注,因为它提供了一个标准,以判断其他概念学习算法的性能。

下面为Brute-ForceMAP学习算法指定一学习问题,我们必须确定P(h)和P(D|h)分别应取何值(可以看出,P(D)的值会依这两者而定)。

我们可以以任意方法选择P(h)和P(D|h)的概率分布,以描述该学习任务的先验知识。但是先要满足下面的条件假设:

1.训练数据D是无噪声的(即di=c(xi));

2.目标概念c包含在假设空间H中;

3.没有任何理由认为某假设比其他的假设的可能性大。

一、如何确定P(h)的值

 对H中任一h:

               

二、如何选择P(D|h)的值

换言之,给定假设h,数据D的概率在其与假设h一致时值为1,否则值为0。

接下来考虑该算法的第一步,使用贝叶斯公式计算每个假设h的后验概率P(h|D):

1、考虑h与训练数据D不一致的情形

2、考虑hD一致的情况

其中:

VSH,DH中与D一致的假设子集(即VSH,D是相对于D的变型空间)

概而言之,贝叶斯公式说明在我们的P(h)和P(D|h)的定义下,后验概率P(h|D)为:

其中|VSH,D|是H中与D一致的假设数量。

在我们选定的P(h)和P(D|h)取值下,每个一致的假设后验概率为(1/|VSH,D|),每个不一致假设后验概率为0。因此,每个一致的假设都是MAP假设。

你可能感兴趣的文章
AngularJs控制器说明(一)
查看>>
Teleport Ultra网站静态资源下载工具
查看>>
C# 调用微信公众号接口生成带参数二维码、下载、合并
查看>>
C# 调用微信公众号接口发送客服消息示例
查看>>
C# 调用微信公众号接口获取会员信息示例
查看>>
mysql-5.7.xx-winx64服务无法启动解决方案
查看>>
Bootstrap 4重大更新,亮点解读
查看>>
Angular CLI ng常用命令整理
查看>>
Angular 路由使用整理(一)
查看>>
git回到指定版本命令
查看>>
cordova-plugin-splashscreen设置启动页面和图标
查看>>
cordova-plugin-camera相机插件使用
查看>>
cordova-plugin-media音频播放和录制
查看>>
Visual Studio 2017使用Emmet风格编写Html--ZenCoding
查看>>
Visual Studio Code v1.21发布
查看>>
C# Newtonsoft.Json JObject移除属性,在序列化时忽略
查看>>
Git移除版本控制操作
查看>>
Http缓存机制(转)
查看>>
C# 本地时间格式,UTC时间格式,GMT时间格式处理
查看>>
Windows系统搭建GitServer--Bonobo Git Server
查看>>