• 2023-09-15CF498B Name That Tune
    好像和题解不太一样。令\(f_{i,j}\)为第\(j\)秒末识别出第\(i\)首歌的概率。那么答案就是\(\sum\limits_{i=1}^n\sum\limits_{j=1}^Tf_{i,j}\)。转移分两种:听完了这首歌都没识别出,此时算是识别出这首歌了,\(f_{i,j}\getsf_{i-1,j-t_i}\cdot(1-p_i)^{t_i}\)。听到一半
  • 2023-05-03李宏毅BERT笔记
    Self-supervised是LeCun提出的常用于NLP,一段文字分成两部分,用第一部分来预测第二部分BERT有两种训练的方式,第一种是MaskingInput,可以用特殊的MASKtoken或是Randomtoken来替换原有的,经过BERT模型后,输出为原先的token第二组是判断两段文字是否相接的,但是后来验证这种训练的
  • 2023-04-29GPT护理机器人 - 让护士的工作变简单
    引子书接上文《GPT接入企微应用-让工作快乐起来》,我把GPT接入了企微应用,不少同事都开始尝试起来了。有的浅尝辄止,有的刨根问底,五花八门,无所不有。这里摘抄几份:“帮我写一份表白信,我们是大学同学,暗恋十年””顺产后多久可以用收腹带?生完宝宝用收腹带好还是
  • 2023-04-26深度学习网络fine-tune原理研究 - 以卷积神经网络为例
    一、什么是预训练模型(pre-trainedmodel)预训练模型就是已经用数据集训练好了的模型,这里的数据集一般指大型数据集。比如VGG16/19ResnetImagenetCOCO正常情况下,在图像识别任务中常用的VGG16/19等网络是他人调试好的优秀网络,我们无需再修改其网络结构。参考资料:https://z
  • 2023-04-25OpenSUSE Leap 15.3 系统分析与调整指南【翻译完成】
    在线阅读在线阅读(Gitee)ApacheCN学习资源贡献指南本项目需要校对,欢迎大家提交PullRequest。请您勇敢地去翻译和改进翻译。虽然我们追求卓越,但我们并不要求您做到十全十美,因此请不要担心因为翻译上犯错——在大部分情况下,我们的服务器已经记录所有的翻译,因此您不必担心会因为您的
  • 2022-11-21CF498B Name That Tune
    CF498BNameThatTune你有\(T\)秒的时间猜歌,每首歌有\(t_i\)秒,每一秒猜出这首歌的概率为\(p_i\%\),若猜出则直接跳到下一首,若猜完所有歌则提前结束,求在\(T\)秒后
  • 2022-11-04Rocksdb auto tune -- compaction的自动调优策略
    文章目录​​优化背景​​​​优化演进思路​​​​Rocksdb的RateLimiter​​​​Rocksdb的autotune​​​​autotunedcompaction(rocskdb默认autotune基础上的优化)​
  • 2022-10-27openEuler Meetup 广州站 精彩回顾
    10月21日,openEulerMeetup广州站成功举办,本次Meetup上就openEuler嵌入式平台openEulerEmbedded、智能调优工具A-Tune、智能运维项目A-ops、高性能用户协议栈Gazelle、操