首页 > 其他分享 >文化课回归记

文化课回归记

时间:2023-12-17 13:44:54浏览次数:20  
标签:知识点 笔记本 复习 回归 texttt 文化课 奠基

本来前几周就想要做了,但是奈何一直没想来机房,所以推迟到现在。

竞赛导致文化课欠下的东西太多了,特别是最后打挂了,就拿了个省二,离省一只有一步之遥的那种。

事实上,我觉得打挂了反而有所好处,如果拿了省一会觉得是理所当然的事情,因为自认为有这个水平;但是因为各种因素打挂了,反而会导致内心十分的伤心,然后就会有倾诉欲,记录下很多思考。

不扯别的,速度总结。


第一阶段 奠基

离高考还有 \(\texttt{200}\) 天的这天,我回归了文化课。

回归三天之后,就参加了全省联考,不出所料的是,比 \(\texttt{10}\) 月月考高了 \(\texttt{101}\) 名

由于从七月份一轮复习开始起,我就没怎么交过作业了,于是欠下了屎山作业,和同病相怜的银牌佬 \(\texttt{tpy}\) 交流了一番,然后确定了自己接下来一个阶段的

任务目标:

尽管学校定的部分一轮资料十分的 裸水 ,但是还是做的好,一轮复习不仅要完成奠基大目标,更恐怖的是要以 \(\texttt{3-4}\) 倍的速度赶上别人,所以这一阶段暂时不追求高质量沉淀,先把基础过了,比如数学考试一堆忘掉的三角函数公式,每次考试直接跳过的面面角矩阵向量计算(因为忘了怎么算了)。

预计在一月七省联考前完成第一阶段 奠基 任务。

措施:

  • 数学:过完整本一轮资料,并按照章节为单位刷完五年高考单元分类卷作为巩固扎实。

  • 物理:过完整本一轮资料,并按照章节为单位刷完五年高考单元分类卷作为巩固扎实;继续做精炼笔记本。

    • 具体的,是用笔记本抄完五本书的所有重点知识点笔记,需要特别说明的是,知识点多而杂,我们应该只注意精简地记下重难点,常识性知识应当跳过,具体地案例:当年必修三用一本 \(\texttt{B5}\) 大小的薄笔记本完成了整本书重难点收集,之后考前复习一本笔记本足矣。
  • 化学:跟上学校进度,并补完之前欠下的一轮资料作业即可。

    • 新高考赋分导致化学非常没有性价比,时间宝贵的当下,先把好搞的科目给搞了。
    • (番外:小声说,发现国龙搞 \(\texttt{OI}\) 的好像全都学不好化学,不知道为什么)
  • 生物: 用一本涂书记录好所有的笔记知识点并作重点标记;完成整本五三。

    • 银牌佬做的生物笔记本是真的好,问佬怎么做的,他说找本教辅书抄就完了,很多知识点我三本教辅都没找到,不知道佬怎么做的,试了一下,还是用我的重点标记法吧。
  • 洋文:背完 \(\texttt{3500}\) 词汇。


这里着重介绍一下我的重点标记法

我们发现,全部誊抄知识点效果不一定好,而且需要大量时间,十分的不高效。而每次考试复习翻完整本资料显然是不现实的,对此,我自主研发了重点标记法:

  • 用一种特殊颜色的笔标记重点知识(我用的金色),一种特殊颜色的笔写下特别的思考(我用的蓝色),(当然混用也无可厚非),然后后面复习和看的时候只看金色标号就好了。作业也是一样的,写一道题思考一下下,如果有一些特别的思考我也会用蓝笔写下,再把有价值的用金色笔标号,包括考试试卷,这样就可以完美的规避掉做错题本费时费力的缺点。
  • 进阶款:可以用铅笔啥的,每见到一次笔记就标个记号,不熟练的加一个,会了就减一个,长此以往,重中之重是什么你就心中有数了。

2023-12-17 高考倒计时 \(\texttt{172}\) 天

第一周比较彷徨,第三周高烧直接家里躺了一整周,没看任何书,所以算下来这个月只有两周多的有效学习时间。

这个月尽量贯彻着奠基阶段的目标措施,在完成学校现阶段任务的同时,我还需要自己去补之前欠下的东西,以下为部分成果:
数学完成了 第一章 入门知识、第二章 函数、第三章 导数(这个先放着吧,水过去了)、第四章 三角函数、第五章 平面向量 的奠基阶段基本任务。
物理完成了 第一章 直线运动、第二章 力的合成与分解 的奠基阶段基本任务。

反思总结

标签:知识点,笔记本,复习,回归,texttt,文化课,奠基
From: https://www.cnblogs.com/ChillLee/p/17908986.html

相关文章

  • 机器学习-线性回归-softmax回归 做多分类-10
    1.softmax回归伯努利分布(0-1分布二分类),我们采用Logistic回归(用sigmoid函数映射到0-1之间输出预测概率)建模。那么我们应该如何处理多分类问题?(比如要进行邮件分类;预测病情属于哪一类等等)。对于这种多项式分布我们使用softmax回归建模。什么是多项分布?多项式分布的目标值yε{......
  • 未来应用从何而来:认知力延伸、边界突破、回归云与产业
    文|智能相对论作者|沈浪或许,谁也没想到未来应用来的如此之快,现如今传统应用从开发到体验,已经进入了一个前所未有的颠覆性改革阶段。不久前,美国人工智能公司OpenAI举办开发者大会。在现场,公司创始人SamAltma花了短短3分钟的时间就完成了一个名为「创业导师GPT」应用的构建。这......
  • 刚刚!OpenAI官宣!Sam Altman回归OpenAI 担任CEO
    大家好我是二狗,就在刚刚!OpenAI宣布,SamAltman将重新回到OpenAI担任CEO。并组建由BretTaylor(主席)、LarrySummers和AdamD'Angelo组成的新的初始董事会。SamAltman第一时间做了石锤回应:SamAltman表示自己真的非常喜欢OpenAI,并期待着重返OpenAI:我喜欢OpenAI,过去几天我所做的......
  • 机器学习-线性回归-多项式升维-07
    目录1.为什么要升维2代码实现3,总结1.为什么要升维升维的目的是为了去解决欠拟合的问题的,也就是为了提高模型的准确率为目的的,因为当维度不够时,说白了就是对于预测结果考虑的因素少的话,肯定不能准确的计算出模型。在做升维的时候,最常见的手段就是将已知维度进行相乘来构建......
  • 机器学习中的算法——逻辑回归
    1.逻辑回归的定位机器学习分有监督和无监督以及半监督学习三种,其中有监督学习主要分为分类问题和回归问题;无监督主要是聚类的算法其中逻辑回归是属于分类问题跟上次讲的线性回归有不同,从字面上确实容易混淆2.逻辑回归的概念逻辑回归是在线性回归的基础上加上一个非线性......
  • 机器学习-线性回归-样本归一化处理-05
    目录1.为什么要对样本进行归一化2.归一化的方式一最大最小值3.归一化的方式二标准归一化1.为什么要对样本进行归一化样本之间的数量级是千差万别有量纲的例如:theta1>>theta2数值小的theta2反而能快速的收敛数值大的theta1收敛较慢出现theta2等待theta......
  • 机器学习-线性回归-小批量-梯度下降法-04
    1.随机梯度下降法梯度计算的时候随机抽取一条importnumpyasnpX=2*np.random.rand(100,1)y=4+3*X+np.random.randn(100,1)X_b=np.c_[np.ones((100,1)),X]n_epochs=10000learn_rate=0.001m=100theta=np.random.randn(2,1)forepoch......
  • 机器学习-线性回归-梯度下降法-03
    1.梯度下降法梯度:是一个theta与一条样本x组成的映射公式可以看出梯度的计算量主要来自于左边部分所有样本参与--批量梯度下降法随机抽取一条样本参与--随机梯度下降法一小部分样本参与--小批量梯度下降法2.epoch与batchepoch:一次迭代wt-->wt+1......
  • 机器学习-线性回归-模型解析解-02
    1.解析解解析解的公式importnumpyasnpimportmatplotlib.pyplotasplt#有监督机器学习#XyX=2*np.random.rand(100,1)#np.random.rand#100行1列的[0,1)之间均匀分布*2之后则变成[0,2)之间均匀分布e=np.random.randn(100,1)#误差均值0......
  • 逻辑回归
    逻辑回归逻辑回归问题和线性回归问题不一样,我们将不用线性回归来解决,而使用Sigmoid非线性函数来处理。......