首页 > 其他分享 >你别捣乱,我这学习呢!!

你别捣乱,我这学习呢!!

时间:2022-12-26 19:03:10浏览次数:41  
标签:梦想 事情 你别 学习 更好 1% 别人 一件 捣乱


1.梦想让自己变得更好或者拥有远大的志向,一点问题也没有。但光有梦想可不行,光有梦想,你就通不过生活摆在你前进道路上的日常考验。

 

2.不是每个人都能变成伟大的人物,但是每个人都能成为比昨天更好的自己。

 

3.你能够进步1%,没准这1%就会让你处于无可争辩的优势地位。

 

4.你不可能比别人优秀10%,但是在数百件事情上,你可以比别人优秀1%.

 

5.一件事情你做得越多,你就越有动力。所以你就会更多地做这件事情,然后你就更有动力。

                                                      

你别捣乱,我这学习呢!!_其它

6.很快就意识到当你遇到一些事情时,寻求外界的帮助是非常聪明的,但是你不能指望别人帮你打理一切。没有人过来,只有你自己。

 

7.真正开始做一件事情就已经成功90%了。

 

8.你已经做的很好,但它应该可以更好。

 

9.要想真正改变行为,人必须要理解自己为什么要做这件事,彻底弄明白人类行为背后的科学解释。

 

10.做一件事情应该是:找到正确的第一步,把所有的精力都放在实现第一步上,然后花时间回顾你的进展。接着在第二步中重复这个过程。

 

11.任何一门知识都不会单独存在,它总是与方方面面的知识联系在一起。

                                   

你别捣乱,我这学习呢!!_其它_02

 

标签:梦想,事情,你别,学习,更好,1%,别人,一件,捣乱
From: https://blog.51cto.com/u_15921176/5970402

相关文章

  • 聚类的学习
    聚类定义把数据集分成若干个互不相交的簇(一坨数据集),使簇间相似度尽量的小,簇内相似度尽量的大性能度量外部指标将聚类结果和某个参考模型进行比较与外部模型的比较假设样本......
  • 支持向量机(SVM)学习小记
    支持向量机(SVM)简介是一种二分类模型,基本模型的定义是在特征空间上的间隔最大的线性分类器间隔最大有利于感知学习策略:间隔最大化,可以形式化为一个求解凸二次规划问题,也等......
  • gym库学习小记
    gym学习gym库是一个开发和比较强化学习算法的包,并提供可视化,非常的有趣gym.make调用智能体模型的库env=gym.make(‘CartPole-v0’)#调用小车倒立摆系统其他库如下`(Acro......
  • Go的网络操作简易学习
    Go的网络操作库——io/ioutilioutil.ReadAllpageBytes,err:=ioutil.ReadAll(resp.Body)库——net/httpresp.Body.Close()一般在go对请求http之后,都要进行这个语句这个语......
  • BSGS算法学习小记(大步小步算法)
    简介先看一个式子xy≡z(modp),z是质数现在只知道x和z,要求y。大步小步算法(BSGS,BabyStepsGiantSteps)就是解决这个问题。算法流程暴搜的枚举范围根据费马小定理:xp−1≡1。......
  • 决策树学习小记
    决策树类型ID3C4.5CART(回归树)优缺点优点:计算复杂度不高,输出易于理解,对缺失值不敏感,可以处理不相关特征数据缺点:可能会产生过度匹配问题,过拟合使用数据类型:数值型和布尔型......
  • Goland的简易学习
    Go学习包声明+引入包+函数+变量+语句&表达式+注释packagemainimport"fmt"funcmain(){fmt.Println("Helloworld")}必须在源文件非注释的第一行指明这个文件属于拿哪个......
  • Densely Connected Convolutional Networks论文学习
    DenselyConnectedConvolutionalNetworks如果在接近输入层和接近输出层之间有更短的连接(如1->n),则卷积神经网络会更深入,更准确,更有效。稠密卷及神经网络:每一层之间都有连......
  • CTC算法学习笔记
    CTC算法在OCR或语音识别任务中,经常出现不知道从哪里开始对齐比如对​​apple​​,OCR出aaappppllle这种东西如果只是简单的去重的话就变成了​​aple​​ConnectionistT......
  • Batch Normalization: Accelerating Deep Network Training byReducing Internal Cova
    BatchNormalization:AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift文章试图解决的问题内部协变量转移(internalcovariateshift):在训练进行......