首页 > 其他分享 >resume points

resume points

时间:2023-07-11 22:34:33浏览次数:41  
标签:loss Shuffle resume 模型 样本 points 序列 向量

多任务模型:
1. 平行依赖-软共享: MMOE\PLE,顺序依赖-硬共享: ESMM\ESM2\AITM
2. MMOE就是embedding+多个专家网络,每个tower都有个gate控制专家网络的输出。
3. PLE多层特征抽取层,每层特征抽取层又分为共享专家网络和任务专家网络。
4. ESMM硬共享embedding后配合概率联乘构建tower(ctr和cvr), loss=ctr+ctr*cvr(ctcvr)。
5. ESM2引入中间复杂的行为概率分支路径,如购买可能来自收藏、心愿单、购物车等。
6. AITM是tower出来过AIT(self-attention),然后经过MLP info层,控制上层信息流入下游环节。

抗噪损失:
1. 抗噪损失的定义是:Loss能让模型在干净数据和混杂噪声标签的数据上分别取得相同的预测效果;
2. 对称损失函数能抗噪。而对称损失函数是指样本在所有类别下的损失之和固定为一个常数。而MAE是,CCE和MSE不是。
3. 广义交叉熵GCE改进了CE,加入q,(1-f(x)^q)/q,q为0时,即CE,q=1时MAE, 通过q能控制抗噪程度。
4. 对称CE是考虑现有分布并不一定代表真实的类分布,所以,对称ce=假定类分布真实的ce+假定类分布不真实的ce,同时用alpha和beta控制拟合和鲁棒的偏好。
5. L_dmi是基于行列式的互信息求损失,它是希望分类结果和标签的互信息大。互信息是联合分布p(x,y)与边缘分布p(x)p(y)的相对熵,sum_x sum_y p(x,y)log(p(x,y)/p(x)p(y))。
6. 主动被动损失 (Active Passive Loss, APL):主动损失(只关注目标类的损失,非目标类为0,如CE)+被动损失(非目标类的损失也关注,如MAE)。

样本选择:
- K折投票过滤法:k折,每折训练k个分类器,每个样本k个预测结果,若多数预测错误,认为是噪声标签;
- MentorNet: 老师MentorNet学习教学策略,给学生样本权重,学生StudentNet提供特征给老师(loss、epoch percentage、label和loss_diff;
- Curriculum: 算各样本的特征表征之间的欧式距离,然后基于样本之间的密度(统计样本i之间距离阈值范围内的点数量,作为样本i的密度),用Kmeans聚类,分为干净、难和噪声样本,然后课程学习;
- coteaching: 在每个mini-batch内采样较小训练损失的样本(认作干净样本)给它们peer network;
- coteaching+: coteaching会收敛成一个共识,为此引入分歧样本(预测不一致),再选择小损失数据;
- AUM: 正确样本的正确类logit更大,错标样本的错标类的logit比其他类小(因为模型没信心), margin=当前logit-其他类的logit,margin负为错标样本;
- JoCoR: 通过对称KL散度鼓励两个网络相近,主张把干净样本参与训练;
- colearning: 相比于CoJoR只在label上实现agreement,CoLearning在feature上也实现了agreement(通过加入特征维度的cosine_distance(组织正负pair数据,做数据增强)作为loss,还有特征和label之间的KL散度作为loss)。
心得:K折投票过滤法、CurriculumNet和AUM三种方法,在一定程度上是把样本选择和模型正式训练解耦开,而Mentornet、Co-teaching、Co-teaching+、JoCoR和Co-learning却是把样本选择的操作嵌入到模型训练流程当中。前者好处在于样本选择完成后,可以直接接入不同的模型结构做实验,但不是端对端的方案。后者是端对端,但依赖模型和内部参数的调试,因为都在担心训练初期模型过于复杂,或者训练后期,采样过多小损失样本会给后续mini batch流入过多的噪声样本,所以在模型结构上设计的相对不敢那么复杂,后期采样比例也不敢太大。在挑选样本的参照基准上,大多是在标签维度上花功夫,例如logits,预测的label,训练时的loss等。

模型融合:
- (b+alpha*x)^beta,其中alpha为线性变化、beta为非线性变化;
- 粒子群算法:鸟第d步的速度=上一步自身的速度惯性+自我认知部分(到第d次迭代为止,第i个粒子经过的最好的位置)+社会认知部分(到第d次迭代为止,所有粒子经过的最好的位置)。鸟第d+步所在的位置=第d步所在的位置+第d步的速度*t*v,t一般为1。

时间序列预测:
- ACF是自相关系数:不同lag下子序列之间的协方差/两条子序列的标准差乘积
- AR: xt=wxt-1,wxt-2等有关(看PACF定p,偏自相关系数提出了x_t与x_t-k之间变量的干扰)。MA: xt =mu+et - wet-1-wet-2 (看ACF定q,简单看x_t与x_{t-k}之间单纯的相关关系)。截尾阶数做定阶,拖尾用0。
- 平稳性:ACF衰减到0的速度很快,并且十分靠近0,并控制在2倍标准差内。
- ARMA的前提是时序平稳,若不平稳用差分。或者时序分解后对残差用ARMA。有时即使平稳化后预测效果也不好,是因为ARMA模型有方差齐性假定,一般看残差平方图(对1阶差分后的时序求平方)就能看出方差变化,因为按理说残差序列为零均值白噪声序列。若非方差齐性,可以log对数转换。
- DeepAR: LSTM+递归预测目标值概率分布(即mu和std),每时刻的对数似然连乘作为loss。用模型输出的mu和std,求每个点目标真实值y下P(y;mu,std)概率,多个概率连乘作为似然,即可能性,然后作为loss,希望模型输出的mu和std形成的分布和真实目标值y的连乘概率最大化。对数是为了方便求导。
- prophet: y=trend(非线性sigmoid-like模型/分段线性模型)+seasonality(傅里叶级数)+holiday(假期预测时的变化量服从正态分布)+error。
- NBeats有2个stacks, 分为预测趋势项和季节项,原始序列给到趋势stack后,将原序列-预测的趋势序列=残差项即季节项,给到季节项stack拟合,每个stack有3个block,每个block含FC,分别输出针对当前历史窗口和未来窗口的预测开启了2个独立分支,由浅入深,层次分解,下游block拟合残差序列;
- autoformer的两个创新点在设计序列分解模块和将原自注意力机制替换成自相关机制。Encoder-Decoder结构,Encoder经过auto correlation和series decompose后获取季节项编码结果,作为KV给到Decoder的auto correlation部分,Q为decoder上一个输出。Decoder输入是分解后的趋势项和周期项。auto correlation是挑选topk个滞后序列和原序列相关性最大的序列,基于相关性做softmax得到attention score。为了提高计算效率,用快速傅里叶变换(FFT)将信号转为频域 ,再通过频域算出自相关性。
- informer: 先验是:Transformer中attention分数是很稀疏的,呈长尾分布,只有少数是对模型有帮助的。经过推导,若q和k之间分布一致,即KL散度越小,说明attention score为均匀分布,不可能存在关注重点。所以采取随机采样QK点积对减少计算复杂度,另外用max替换点积对求和避免数值溢出。Encoder使用了stride=2的max pooling下采样一半,减少内存占用。
- TFT: 提出了分位数预测(分位数作为权重加权y真实值和y预测值的差值,若预测值小于真实值,分位数加权后,模型预测偏小,loss会增加的更多)和加入了未来已知变量的信息输入(作为decoder的输入)。还有就是配合静态变量喂入门控网络控制变量信息的流入。


项目:
- kdd: 对于前排顶端的团队,基本用了2种度量近邻风机的方法:空间距离和功率相关性。例如求功率相关性/地理位置后Kmeans聚类/人工划分获取风机cluster,把近邻风机的特征们求均值加入特征,或者分cluster建模预测,比如华为诺亚和阿里达摩院使用近邻风机预测值,去做模型预测值的融合。
- M6: rps=rank的mse,information ratio是累计收益/收益日标准差。投资组合权重用了马科维姿组合,找到资产组合收益和风险下有效前沿下的权重(风险最小,收益最大)。差分进化算法:初始化、变异、交叉和选择。种群内每个x就是资产的组合权重。随机选择两个向量做差分,得到差分向量,乘上缩放系数后,加上基向量得到变异向量。随机交叉变异向量和目标向量,得到试验向量,比较试验向量和目标向量,目标函数小的向量可留到下一代。

 

常见问题:

Q:Clickhouse为什么这么快?

A:1. 列式存储. 2. 不是逐行执行,而是按块执行. 3. 采用更好编码方式,压缩数据,读取更快,4. 有多索引,提高查询效率。

 

Q:spark的数据倾斜怎么带来的?

A:spark的数据倾斜主要是shuffle下,不同key对应数据量不同,导致不同task处理时间不同,从而任务要等待要处理最多数据的那个task才能结束。
解决方案:
1. 避免用shuffle算子,如reduceByKey, countByKey, groupByKey, join等。
2. key粒度粗一点,减少数据倾斜可能,增大每个task数据量。
3. 过滤导致倾斜的key。
4. 增加shuffle操作中的reduce并行度,即增加task数量,让每个task分配数量少点。

 

Q:spark支持shuffle的算子?

A:尽量避免使用Shuffle算子 Spark作业最消耗性能的部分就是Shuffle过程,应尽量避免使用Shuffle算子。Shuffle过程就是将分布在集群中多个节点上的同一个 key,拉取到同一个节点上,进行聚合或者join操作,在操作过程中可能会因为一个节点上处理的key过多导致数据溢出到磁盘。由此可见,Shuffle过程可能会发生大量的磁盘文件读写的 IO 操作,以及数据的网络传输操作,Shuffle过程如下图 所示。

Shuffle类算子有:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等,编写Spark作业程序时,应该尽量使用map类算子替代Shuffle 算子。

 

Q:大小表关联顺序?

A:Hive假定查询中最后一个表是最大的那个表,在对每行记录进行连接操作时,它会尝试将其它表缓存起来,然后扫描最后那个表进行计算。因此,用户需要保证连接操作中的表的大小从左到右时依次增加的。简单来说,join的顺序应该时从小到大的表连接。

 

Q:LSTM的原理?

A:cell state ct-1先point-wise的乘法,忘记一些不再有用的记忆,再经过一个point-wise加法,把xt中有用的信息加到记忆中。

  • 忘记旧记忆 靠的是 遗忘门:ft=sigmoid(ht-1和xt);
  • 新增新记忆 靠的是 输入门(也称记忆门):it=sigmoid(ht-1和xt),Ct=tanh(ht-1和xt)), ct=ft*Ct-1+it*Ct。
  • 输出预测值ot和隐藏ht 靠的是 输出门:ot=sigmoid(ht-1和xt),ht=ot*tanh(Ct)。

 

Q:(顺丰科技第3面)找到旋转数组中特定元素

A:

class Solution:
    def search(self, nums: List[int], target: int) -> int:
        # 在旋转后的序列中,找target的位置。旋转后的序列,肯定左边存在有序数组,而右边不一定有序。
        # 对于有序数组找元素问题,我们可以想到 二分法(两重判断:判断mid左右两边那个有序,判断target是否在有序一侧)

        # 整体思路参考HaominYuan:将数组一分为二,其中一定有一个是有序的,另一个可能是有序,也能是部分有序。
        # 此时有序部分用二分法查找。无序部分再一分为二,其中一个一定有序,另一个可能有序,可能无序。就这样循环. 

        # 判断特例
        if not nums:
            return -1

        # 定义左右指针
        l, r = 0, len(nums) - 1

        while l <= r:
            mid = (l + r) // 2 

            # 若mid上的元素为target,则直接返回mid
            if nums[mid] == target:
                return mid
            
            # 先判断mid左右那边肯定是有序数组
            # 若nums[0] <= nums[mid],左边肯定为有序数组
            if nums[0] <= nums[mid]:
                # target在左边,继续在左边搜索, 否则在右边搜索
                if nums[0] <= target < nums[mid]:
                    r = mid - 1
                else:
                    l = mid + 1

            # 若nums[0] > nums[mid],则右边肯定为有序数组
            else:
                # target在右边,继续在右边搜索, 否则在左边搜索
                if nums[mid] < target <= nums[len(nums) - 1]:
                    l = mid + 1
                else:
                    r = mid - 1
        return -1

 

Q:为什么Dlinear说比Transformer好?

A:自注意力机制本身是无序的(permutation-invariant)。虽然使用各种类型的位置编码技术可以保留一些排序信息,但在time series data上面应用自我注意后,时间信息仍然不可避免地丢失(自注意机制还是很难学习time order信息,因为本质上position embedding也是靠数据学出来的)。对于NLP等语义应用来说,这通常不是一个严重的问题,例如,即使我们对句子中的一些单词重新排序,句子的语义也基本上保持不变。然而,在分析时间序列数据时,数值数据本身通常缺乏语义,我们主要感兴趣的是建模连续点集之间的时间变化。也就是说,order本身起着最关键的作用。然而transformer的attention并没有考虑连续点集的变化,对时间信息的抽取能力弱。而且attention容易过拟合时序中的噪声,影响泛化性,所以想Dlinear通过时序分解,提前显示提取出时序信息来建模,模型表现会更好些。

 

标签:loss,Shuffle,resume,模型,样本,points,序列,向量
From: https://www.cnblogs.com/alvinai/p/17524382.html

相关文章

  • gym101573I Favorite Points
    gym101573IFavoritePoints纪念一下。#include<bits/stdc++.h>#defineLLlonglong#definePLLpair<LL,LL>#defineMPmake_pair#defineEBemplace_back#defineall(x)x.begin(),x.end()usingnamespacestd;template<typenameT>voidchkmn(T......
  • 1595. Minimum Cost to Connect Two Groups of Points] (Hard)
    Description1595.MinimumCosttoConnectTwoGroupsofPoints(Hard)Youaregiventwogroupsofpointswherethefirstgrouphassize1points,thesecondgrouphassize2points,andsize1>=size2.Thecostoftheconnectionbetweenanytwopointsar......
  • Ubuntu正常启动黑屏,但可以使用recovery resume启动
    硬件:huaweimatebookEi712代iT问题:安装Ubuntu系统grub正常工作,直接启动黑屏,需强制关机。尝试:grub使用recoveryresume启动成功,但分辨率、刷新率不可调整。分析:显卡兼容问题处理方法:百度解决决方案:首先recoveryresume启动,进入终端方案一:直接修改grub.cfgsudoge......
  • CF19D. Points
    感觉不难啊,为什么是*2800捏。先离散化。对每个横坐标开一个set存点,插入删除就能做了。查询的时候线段树二分就行了。更具体地,我们维护区间内纵坐标的最大值,在二分的时候能左就左,不能左就右。注意这里的右上角是严格大于。点击查看代码#include<bits/stdc++.h>#definei......
  • 如何查看在当前的ingress-controller中,有哪些backend?每个backend的endpoints是什么?
    通过kubectlingress-nginx命令,可以查看在ingresscontroller中,有哪些backends,每个backends的后端的endpoints信息和对应其他的参数设置 比如: kubectlingress-nginxbackends-ningress-nginx  [root@nccztsjb-node-23data]#kubectlingress-nginxbackends-n......
  • Visible Lattice Points 题解
    VisibleLatticePoints题目大意给定一个\(N×N×N\)的由若干点组成的立方体,点的坐标从\((0,0,0)\)到\((N,N,N)\),求从点\((0,0,0)\)处可以看见多少个点。思路分析我们将立方体上的点分成三类:在\(xy,yz,xz\)平面上的点。在\(x,y,z\)轴上的点。即不在平面,也不在......
  • Sep 2022-Prioritized Training on Points that are Learnable, Worth Learning, and
    摘要:对网络规模的数据进行训练可能需要数月时间。但大多数计算和时间都浪费在已经学习或无法学习的冗余和噪声点上。为加速训练,本文提出了ReducibleHoldoutLossSelection(RHOLOSS),一种简单但有原则的技术,近似地选择那些最能减少模型泛化损失的点进行训练。因此,rho损失缓解了现......
  • 牛客 55994 2023牛客五一集训派对day3 D Points Construction Problem
    D-PointsConstructionProblem_2023牛客五一集训派对day3(nowcoder.com)将图上恰好\(n\)个点染成黑色,使得图上相邻的黑白点对数量恰好为\(m\)考虑\(n\)个黑点如果不相邻,则两个点的贡献互不影响考虑相邻的情况,我们把相邻的点连边,则贡献为每一个连通块的贡献的和,我们用......
  • image as set of points
    ImageAsSetOfPointsAbstract提取图像特征的几种方法:ConvNets:将图像视为矩形中有组织的像素,并通过局部区域的卷积运算提取特征;VisionTransformers(ViTs):将图像视为一系列补丁,并通过全局范围内的注意力机制提取特征。ContextClusters(CoCs):上下文聚类将图像视为一组......
  • UVA How Many Points of Intersection?
      HowManyPointsofIntersection? a dotsonthetoprowand b dotsonthebottomrow.Wedrawlinesegmentsconnectingeverydotonthetoprowwitheverydotonthebottomrow.Thedotsarearrangedinsuchawaythatthenumberofinternalintersectio......