首页 > 其他分享 >吴恩达机器学习-第三课-第二周

吴恩达机器学习-第三课-第二周

时间:2024-05-06 19:24:00浏览次数:19  
标签:吴恩达 函数 评分 电影 用户 第二周 过滤 第三课 PCA

吴恩达机器学习

学习视频参考b站:吴恩达机器学习
本文是参照视频学习的随手笔记,便于后续回顾

推荐系统(Recommender System

提出建议

预测电影评分示例
用户给电影打1-5星,没看过不打分
n表示数量,r表示是否打分,y表示分数
image

使用每个特征

电影特征,例如更倾向于爱情电影还是动作电影
wx+b是某个用户对某个电影评分的预测(用户并没给出评分),像是下图的4.95是Alice对Cute puppies of love的预测
image

电影预测代价函数

只对用户给出评分的使用代价函数
m(j)是用户评分电影的数量,不加影响也不大
image
通过代价函数最小化得到参数w,b,就可以进行很好地评分预测了
image

协同过滤算法(Collaborative filtering algorithm

如果没有电影特征值
假设已经拥有了这些参数w,b,通过这些参数来预测x(线性代数)
如果只有一个用户(一维)无法预测特征值(二维)
image

特征值代价函数

image

协同过滤

将上面两个代价函数放在一起
通过用户已给出的评分预测没有给出的电影评分
image

梯度下降

image

二进制标签

1表示喜欢0表示不喜欢
image
一些标签的示例
image

回归解决二进制分类问题

类似逻辑回归
image
代价函数
image

均值归一化(Mean normalization

但对于没有进行预测的用户,如何更好的预测->均值归一化
image
求每个电影的平均评分:总分/评分人数
将每个评分值减去μ,线性函数上加上μ,然后计算参数w,b,这样会使未评分的用户评分初始值赋为平均值
image
如果只有一个或几个人给电影评分(新电影),就推荐给别人这样不好,平均值可能极高或极低

TensorFlow实现(实现协同过滤算法

image
使用一个简单的代价函数作为示例b=0,y=1
TensorFlow的强大功能Auto Diff、Auto Grad(自动获取导数这些东西)
下图实现梯度下降
image
下图实现协同过滤
image
附带过滤算法和成本函数不能很好地适用密集层(dense layer)

寻找相似特征

给定特征x,寻找相似的x值
image
如何对新电影或评价少的电影进行相关操作?(冷启动问题)
使用其他边信息(side information) 进行推测
image

协同过滤与基于内容过滤对比(Collaborative filtering VS Content-based filtering)

协同过滤:
根据相关用户评分进行推测
基于内容过滤:
根据用户的特点进行推荐(也会继续使用r用户是否评分和y评分值)
image
用户特征和电影特征
image
x可能长度不同,但是v必须相同,因为要点积
image
那么如何计算v呢?通过神经网络->下节↓

基于内容过滤的深度学习方法

不同的输入,固定的输出
可以使用sigmoid函数预测点积(用户和电影)是否相关
image
如何训练这么多参数->通过代价函数J
image
通过计算相关v之间的距离来判断是否相似
image

从大型目录中推荐(Recommending from a large catalogue

不可能每次用户使用时都计算百万次来进行相关推荐
image
损失尺度推荐系统(lost scale recommended system)两步实现:
检索(Retrieval)和排名(Ranking)
先通过某些方式检索出一部分数据放入列表,然后通过神经网络给他们排名匹配预测
image
image
检索数量越多系统越慢,选择合适的检索数量
image

推荐系统中的伦理

image
image
image

基于内容过滤的TensorFlow实现

image

选修(也重要)

降低特征数量(Reducing the number of features)

如图X2的变化对汽车测量影响不大,PCA算法就会自动舍弃X2,只取X1
image
如下图舍弃X2轮胎直径,只取X1
image
PCA做的是找到一个或多个新轴,像是下图Z(并不是三维,一个平面),取了一个新的特征Size来衡量length和height
PCA可以把很多特征变为几个特征
image
image
国家特征示例:
image
image

PCA算法

首先特征值归一化
image
PCA步骤:
1.选择一个轴,将数据投影(垂直)到上面
2.选择最好的那个
下图看起来投影后的点距离太远,方差大,不好
image
下图看起来投影后的点距离过近,挤在一起了,方差小,并不好
image
下图这个看起来比较好,PCA会选择这个
image
通过点积求投影
前提:已经选好Z轴(并不一定是最终的)
image
PCA不是线性回归,区别:
线性回归是通过x预测y,代价是y到线的距离
PCA是尽可能平均方差,让更多点到主成分的距离小
image
image
如果只有Z的值,可不可以重建X1和X2?
只能模糊计算,通过点积轴
image

PCA算法代码实现

fit会自动归一化处理
image
一个主成分示例:
image
两个主成分示例:
image
PCA用途:
1.可视化
2.数据压缩
3.加速监督学习模型训练速度
image

Summary

本周主要学了以下内容
1.推荐系统的符号表示(提出建议),特征值使用,
2.用户的代价函数和电影特征的代价函数协同过滤算法、代价函数及梯度下降
3.回归解决二进制分类问题,均值归一化TensorFlow实现协同过滤
4.寻找相似特征,协同过滤与内容过滤的对比,基于内容过滤的深度学习
5.大型目录中的推荐系统,推荐系统中的伦理,基于内容过滤的TensorFlow实现
6.使用PCA降低特征数量及代码实现

标签:吴恩达,函数,评分,电影,用户,第二周,过滤,第三课,PCA
From: https://www.cnblogs.com/Mmbhcyt/p/18173905

相关文章

  • 吴恩达机器学习-第二课-第四周
    吴恩达机器学习学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。决策树决策树模型(DecisionTreeModel)猫分类示例通过决策树模型判断是否为猫一些术语:根结点,决策节点(包括根结点),叶子结点决策树算法是在所有的决策树模型中选一个效果很好的学......
  • 吴恩达机器学习-第二课-第三周
    吴恩达机器学习学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。如何在机器学习项目中决定下一步做什么当训练模型后效果并不好,下一步可以考虑:1.使用更多训练数据2.使用更少或更多的特征值3.尝试采用多项式特征值4.减少或增加正则化参数λ下面......
  • 吴恩达机器学习-第二课-第二周
    吴恩达机器学习学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。TensorFlow实现神经网络模型训练细节训练步骤与和逻辑回归的比较训练模型分为三步:1.确定f(x)函数2.确定损失函数和代价函数3.通过数据训练寻找最小值详细介绍1.创建模型2.......
  • 吴恩达神经网络-第一周
    吴恩达神经网络学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。神经网络(NeuralNetworks)发展历程神经元和大脑(Neuronsandthebrain)多个树突接受信号,通过轴突把信号传给下一个神经元通过软件模仿大脑工作,但大脑实际怎么工作的人们并不清楚,只是......
  • 吴恩达机器学习
    吴恩达机器学习-第三周学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。分类(Classification)分类回顾输出结果y能分为两大类trueorfalse线性回归并不适合分类癌症探测:线性函数所得结果值大于0.5判定为yes,小于0.5判定为no(蓝色线)若但在右侧多加......
  • 论文解读:吴恩达来信AI Agent技巧—利用自我反馈的迭代细化技术
    《自我完善:利用自我反馈的迭代细化技术》https://arxiv.org/pdf/2303.17651.pdf摘要Largelanguagemodels(LLMs)经常无法在一次尝试中生成最佳输出。受人类在修改书面文本时所表现出的迭代精炼过程的启发,我们提出了SELF-REFINE,一种通过迭代反馈和精炼来改进大型语言模......
  • 学习笔记:书生·浦语实战营第二期第三课
    目录1.相关视频和文档2.视频学习笔记2.1RAG的原理、架构、数据库、评估与测试2.2茴香豆的介绍、特点、架构3.课后作业1.相关视频和文档视频地址:茴香豆:搭建你的RAG智能助理_哔哩哔哩_bilibili课程文档:Tutorial/huixiangdou/readme.mdatcamp2·InternLM/Tuto......
  • 吴恩达机器学习笔记:第 7 周-12支持向量机(Support Vector Machines)12.1-12.3
    目录第7周12、支持向量机(SupportVectorMachines)12.1优化目标第7周12、支持向量机(SupportVectorMachines)12.1优化目标到目前为止,你已经见过一系列不同的学习算法。在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用学习算法......
  • 吴恩达2022机器学习专项课程(一) 5.5 特征缩放1 & 5.6 特征缩放2
    问题预览/关键词什么是特征缩放?作用是什么?特征尺度和参数w权重的关系是?算法为什么要调节w权重?不进行特征缩放对梯度下降的影响?有特征缩放对梯度下降的影响?实现特征缩放的三种方法是?如何实现最大值缩放?如何实现均值归一化?如何实现Z-score标准化?判断缩放成功的标准是?什么情况......
  • 吴恩达机器学习
    吴恩达机器学习-第二周学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。多维特征(MultipleFeatures)多种不同类型的输入X1,X2,X3......模型f(x)=w1x1+w2x2+w3x3+w4x4+b,加了小箭头的是向量(Vector),可以不加,只是方便辨识点积表示法:符号表......