在与策略相关的产品功能(搜索、排序、推荐)中,往往都涉及机器学习算法,因此评估推荐效果就转化为评估机器学习算法模型的好坏。那如何评估最终推荐的效果呢?本文作者梳理分析了4种方法,供大家参考和学习。
我们一般以人工标注为准,即看做真实结果,用各种率去衡量机器预测和真实结果之间的差距。评估方式有很多种,各有各的优点。
R\P\A\F值用Recall、Precision、Accuracy、F值,评估单个机器学习算法的效果,是最常见、最基础的方法。
对象分类:
(1)二分类:每一个评估对象有唯一的标签,YES or NO。如低俗、标题党文章。
(2)多分类(机器需要识别的标签数包含3个及3个以上,一般情况下,每一种标签的识别结果都是我们的关注目标)
单标签,每一个评估对象有唯一的标签,选择大于等于3,如文章分类。多标签,每一个评估对象有多个标签,如文章兴趣点、文章关键词。1. 二分类人工标注结果为“真”的样本记做T(True),人工标注结果为“假”的样本记做F(False);
机器预测结果为“真”的样本记做P(Positive),机器预测结果为“假”的样本记做N(Negative)。
将其转化为矩阵,有四种结果:
TP:预测正确,预测情况是P,因此真实情况也是P。FP:预测错误,预测情况是P,因此实际情况是N。FN:预测错误,预测情况是N,因此实际情况是P。TN:预测正确,预测情况是N,因此实际情况也是N。
(混淆矩阵示意图)
召回率(Recall)=TP/(TP FN),机器正确识别出”真”的样本数总和/样本总数
精准率(Precison)=TP/(TP FP),机器正确识别出”真”的样本数总和/机器识别样本总数
准确率(Accuracy)=(TP TNP)/(TP FN FP TN),机器正确识别的样本总数/样本总数(备注:正确识别包含把“True”样本识别为“Positive”,把“False”样本识别为“Negative”两种情况)
虽然准确率可以判断总的正确率,但如果样本中T、F样本分布极度不平衡,准确率结果会含有很大的水分,基本失去参考价值。
如样本中T占95%,F占5%,我们将模型设置为所有样本均预测为P的策略,则准确率有95%那么高,但实际上毫无意义。更多经典例子来自疾病试纸和验孕试纸(有兴趣的朋友可以查阅一下),所以统计的时候需要注意统计的对象。
针对R\P\A的计算,举个栗子:
(以上数据仅做理论说明,不做实际参考)
图解一:
召回率(R)=140/(140 11)=92.72%精准率(P)=140/(140 40)=77.78%准确率(A)=(140 4809)/(140 4809 40 11)=98.98%
图解二:
召回率(R)=140/151=92.72%精准率(P)=140/180=77.78%准确率(A)=(5000-40-11)/5000=98.98%
对于同一策略模型,同一阈值,可以统计出一组确定的精准率和召回率。调整参数,遍历0-1之间的所有阈值,就可以画出每个阈值下的关系点,从而得到一条曲线,称之为P-R曲线。
(召回率也叫查全率,精确率也叫查准率)
通过曲线发现,召回率和精准率相互制约,此起彼伏,所以只能找二者之间的平衡点。这时需要引入F值评估:F-Score(也称F-Measure),它是Precision和Recall加权调和平均数,[0,1],值越大表示效果越好。
F1 Score:召回率和精确率同等重要
但往往我们对召回率和精准率的权重要求是不同的,这是我们需要用到 Fβ Score。
F2:召回率的重要程度是准确率的2倍F0.5:召回率的重要程度是准确率的一半(β大于0)
2. 多分类单标签M_i : 表示机器识别是 i 类别,同时是正确的样本数
C_i : 表示机器识别是 i 类别的总样本数
N_i : 表示 i 类别的实际总数(即人工标记为是 i 类别的样本数)
D :文章总数
K: 类别总数
精确率(A)=(M_0 M_1 …… M_K)/(C_1 C_2 …… C_K)召回率(R)=(M_0 M_1 …… M_K)/(N_1 N_2 …… N_K)=(M_0 M_1 …… M_K)/D覆盖率(Coverage)= 所有精确度符合要求的机器预测样本数/D对于覆盖率,举个栗子:
假设单个类别精度要求90%,没有满足要求的类别,覆盖率C=0;
假设单个类别精度要求85%,则满足要求的类别有a、c,则覆盖率C=(90 100)/(100 100 200)*100%=47.5%。
在实际的文本审核工作中,还需要加上“无需审核的文章量”=准确率达标的文章量,用于评估减少人工审核文章量。
3. 多分类多标签M_i : 表示 i 标签识别正确的总样本数;
C_i : 表示 i 标签出现的总样本数;
N_i : 表示 i 标签实际总样本数(即人工标记为是 i 标签的总样本数)
K:表示标签集合的大小(即不同标签的个数)
准确率(A)=(M_0 M_1 …… M_K)/(C_0 C_1 …… C_K)召回率(R)=(M_0 M_1 …… M_K)/(N_1 N_2 …… N_K)但在实际工作中,考虑到人工标注可行性,评估指标不考虑多标签结果的先后顺序;并且考虑到每一篇文章人工打全所有标签的成本较大,召回率指标仅作为参考,看情况提供。
ROC、AUC前文介绍了R\P\A\F值,但它仅能评估单点效果而无法衡量策略的整体效果,于是我们再引入ROC(Receiver Operating Characteristic)、AUC(Area Under Curve),它是一套成熟的整体策略评估方法。
先引入两个指标,这两个指标是ROC、AUC可以无视样本中T、F不平衡的原因。
真正率(TPR)=TP/(TP FN),在“真”样本里预测正确的样本;假正率(FPR)=FP/(FP TN),在“假”样本里预测错误的样本。
设横坐标是FPR、纵坐标是TPR,每个点都描绘了在某一确定阈值下模型中真正的P和错误的P之间的关系,遍历0-1的所有阈值,绘制一条连续的曲线,这就是ROC曲线。
如果我们遍历阈值,多次回归模型绘制出ROC曲线上的点,这种做法非常低效。因此我们可以用另外一种方法来代替ROC,即AUC,计算曲线下的面积。
如上图虚线,若我们将对角线连接,它的面积正好是0.5,代表模型完全随机判断,P/N概率均为50%。若ROC曲线越陡,AUC就越接近正方形,面积越接近1,代表效果越好。所以,AUC的值一般都介于0.5-1之间。
MAP除了考虑召回结果整体准确率之外,有时候还需要考虑召回结果的排序。于是我们要提起MAP(Mean Average Precision)。
先说说AP的计算,假设这N个样本中有M个正例,那么我们会得到M个Recall值(1/M, 2/M, …, M/M),如下图,N个样本里有6个正例,有6个Recall值:1/6, 2/6, …, 6/6,对于每个Recall值,我们可以计算出对于这个正例最大Precision,然后对这6个Precision取平均即得到最后的AP值。计算方法如下:
AP衡量的是学出来的模型在给定类别上的好坏,而MAP衡量的是学出的模型在所有类别上的好坏,得到AP后MAP的计算就变得很简单了,就是取所有AP的平均值。
CG/DCG/NDCG之前的指标大多是将目标值分为P和N两种情况,但用CG/DCG/NDCG(Normalized Discounted cumulative gain)算法可以用更多维度的指标来评估。
比如可以将目标值分为Good、Fair、Bad三类,也可以按照评分。CG->DCG->NDCG是一个考虑精度逐步复杂的演变,多用于搜索结果的评估,当规定相关分值越大表示越相关时,CG/DCG/NDCG值越大表示效果越好。
累计增益(CG),只考虑结果的相关性(reli),不考虑位置因素。公式:
举个栗子:
假设某次搜索返回5个结果,相关度分数分别是4、2、1、1、2
所以CG=4 2 1 1 2=10
折损累计增益(DCG),既考虑结果的相关性,也考虑位置因素:a. 高关联度的结果比一般关联度的结果更影响最终的指标得分;b. 有高关联度的结果出现在更靠前的位置的时候,指标会越高。DCG公式:
再举个栗子:
假设某次搜索返回5个结果,相关度分数分别是4、2、1、1、2
DCG=1.26 3 0.38 0 1.26=5.9
归一化折损累计增益(NDCG),由于搜索结果随着检索词的不同,返回的数量是不一致的,没法针对两个不同的搜索结果进行比较,因此需要归一化处理。NDCG公式:
IDCG为理想情况下(相关度降序排列)最大的DCG值:
再再再举个栗子:
假设某次搜索返回5个结果,相关度分数分别是4、2、1、1、2
假如我们实际召回了7个物品,除了上面的5个,还有两个结果,假设第6个相关性为3,第7个相关性为0。在理想情况下的相关性分数排序应该是:3、3、2、2、1
所以IDCG=3 3 1.26 1.26 0.38=8.9,NDCG=DCG/IDCG=5.9/8.9*100%=66.29%
参考文献:Willy_G《搜索:由流程框架到实现方法》,http://www.woshipm.com/pd/2866942.html胖喵~《搜索评价指标——NDCG》,https://www.cnblogs.com/by-dream/p/9403984.html残阳崔雪《性能指标(模型评估)之mAP》,https://blog.csdn.net/u014203453/article/details/77598997本文由 @张小喵Miu 原创发布于人人都是产品经理,未经作者许可,禁止转载。
题图来自Unsplash,基于CC0协议。
引导客户下单技术(这4种机器效果测评方法你应该知道)
2024-11-08 10:32:32 作者:傻丫头回来 网址:https://m.xinb2b.cn/life/ixi515914.html
- 亲子早教游戏2-3岁多人游戏(康幼家园连线游戏)
- 2024-11-08康幼家园连线游戏东营市广饶县康居幼儿园康幼家园连线“游戏”相伴宅在家里干什么?不如和爸爸妈妈一起玩一些有趣的亲子游戏呀!今天康幼吴老师为大家分享一个有趣的亲子律动小游戏——《布谷鸟》,律动游戏中小朋友可以通过手、脚、。
- 香皂花是什么意思
- 2024-11-08香皂花是什么意思香皂花是指一种新兴的时尚潮流,它强调以简洁、有创意、造型有趣的方式来表达个性它不仅要求服装款式精致,还要求打扮得漂亮而独特,能够彰显自己的个性香皂花把平凡中发现奇迹,在颜色,款式,搭配上都要留有可爱的。
- 琅琊榜之安定天下第四十章(琅琊榜之安定天下133章)
- 2024-11-08琅琊榜之安定天下133章第133章梦回南镜—聂铎“聂大哥,这里的水路到金陵码头还需要多久?”外面天色渐进,深秋的寒冷让霓凰打了几个寒颤“郡主,如若继续夜行,半夜时分即可到达,比陆地上要快一天多呢”聂铎喘着气笑着看着霓凰霓凰轻。
- 负压救护车是什么意思(什么是负压救护车)
- 2024-11-08什么是负压救护车负压救护车,即防护型救护车,它与普通救护车的最大区别就是能“负压隔离”,主要用于重大传染病人的安全隔离与转运它有一块独立的空间,在这一块空间里,它要完成车内车外的空气交换,而这里面是需要通过先消毒再过。
- 春风十里不如你歌词(歌曲春风十里不如你歌词)
- 2024-11-08歌曲春风十里不如你歌词歌词终于没守住寂寞让心悄悄开了锁心潮渐渐涌上来就像解冻的冰河梨花开雁归来可是你却不在不知如何找寻你芬芳还在我怀里紧抱双臂像守护一个秘密不知如何形容你温暖留在我心里紧闭双眼不放走一丝甜蜜还是没守住寂寞让。
- 读了夏洛的网后的感受 生命意义体验更深刻
- 2024-11-08读了夏洛的网后的感受 生命意义体验更深刻夏洛生命意义给到我的启发:1.倒逼自己成长当威尔伯歇斯底里地想活命,需要帮助时,夏洛说“我救你”,但当时夏洛并不知道如何救这一承诺逼迫着夏洛冥思苦想,虽然作者并没有细述夏洛是如何想的,但从“冥思苦想”。
- 快手最火的句子爱情(最近很火的爱情句子)
- 2024-11-08最近很火的爱情句子今生梦回,守候的明月已碎成千朵,一页心音,却逃不出永远的牵挂灯火阑珊处的来生与前尘,我们早已饮下了,千古花落花飞的凄美,三生石畔高山流水的悲凉喝成了狗你也没出现,我想不是我酒量太差,而是你从未爱过我后。
- excel如何设置四舍五入取整数(excel小技巧工资如何四舍五入取整数)
- 2024-11-08excel小技巧工资如何四舍五入取整数在企业工作中,工资表是最常见的数据表格,每个月都要做工资表,但我们知道工资表一般是按公式计算出来的,应发工资不一定是整数工资,对于发现金工资的企业来说一般会采取四舍五入的方法取整数发放,那么该怎么快速。
- 全孝盛good night kiss练习室(韩星全孝盛加盟Wanted)
- 2024-11-08韩星全孝盛加盟Wanted全孝盛【环球网综合报道】据韩联社5月25日报道,韩国女子组合Secret成员全孝盛将出演SBS电视台新水木剧《Wanted》全孝盛所属经纪公司TS娱乐25日宣布,全孝盛将饰演《Wanted》中的天才黑。
- 柏林电影节最年轻影后(演了24年配角终成柏林影后)
- 2024-11-08演了24年配角终成柏林影后德国柏林当地时间2019年2月16日,当中国女演员咏梅走上第69届柏林国际电影节的颁奖台时,中国的大部分人还在梦中沉睡凭借在王小帅的电影《地久天长》中的表演,咏梅获得最佳女演员银熊奖但在国内,关于“咏。
- word打印省纸技巧(word打印省纸技巧分享)
- 2024-11-08word打印省纸技巧分享要想省纸张,就先得将文档好好整理一翻,然后切换到【页面布局】,在“页边距”一栏中,将页边距改小一些然后在“纸张”的设置一般都是A4纸纵向或横向都随需要定,一般都不用改动然后是“分栏”,这个有必要设置一。
- iphone6sp显示电池百分比在哪(Plus电量百分比显示在哪里设置)
- 2024-11-08Plus电量百分比显示在哪里设置对于刚接触iPhone的小伙伴来说,使用起来不会像安卓手机那么方便,也不会那么顺手,需要一个适应的时间,比如去哪里设置一些参数?怎么下载软件等等?都是需要慢慢去摸索是了解才行,对于手机屏幕右上角的电池。