网站首页
编程语言
数据库
系统相关
其他分享
编程问答
何恺明
2024-05-19
何恺明介绍
何恺明(KaimingHe),1984年出生于广东广州,人工智能科学家,麻省理工学院电气工程与计算机科学系副教授。 何恺明2003年高中毕业于广州市执信中学,为当年广东省高考满分状元。2003-2007年就读于清华大学物理系基础科学班,连续3年获得清华奖学金,本科毕业后进入香港中
2024-03-07
Contrastive Learning 对比学习 | 何恺明大神的 SimSiam
论文题目:ExploringSimpleSiameseRepresentationLearning,CVPR2021。pdf:https://arxiv.org/abs/2011.10566相关博客:知乎|无门槛级讲解对比学习中的自监督模型Simsiam(通俗易懂)知乎|对比学习(ContrastiveLearning):研究进展精要(解释了为什么Simsiam会演变成这样)知
2024-01-30
何恺明MAE论文简解
MAE这篇论文在2022年发表,当年比较火。起因是nlp一直有非常棒的预训练模型,比如bert。那么cv能不能仿照一下也得到很棒的模型呢?为此,研究开始了。参考资料:https://zhuanlan.zhihu.com/p/439554945 模型的结构简单易懂,就是mask一些像素块,将没有mask的像素块作为encoder的输入
2023-12-20
R-CNN作者Ross Girshick离职,何恺明、谢赛宁回归学界,Meta CV走出了多少大神
FAIR又一位大佬级研究科学家「出走了」,这次是R-CNN作者RossGirshick。近日,Meta首席科学家YannLeCun发推宣布,RossGirshick将离开FAIR,加入艾伦人工智能研究所(AI2)。此前离职的还有 ResNeXt一作谢赛宁(加入纽约大学任助理教授)、GeorgiaGkioxari(加入Caltech任助理教授)等
2023-12-12
何恺明新作:简单框架达成无条件图像生成新SOTA!与MIT合作完成
前言 大佬何恺明和MIT师生一起开发了一个自条件图像生成框架,名叫RCG。这个框架结构非常简单但效果拔群,直接在ImageNet-1K数据集上实现了无条件图像生成的新SOTA。本文转载自新智元仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技
2022-12-20
提速3.7倍!何恺明团队再发新作,更快更高效的FLIP模型:通过Masking扩展语言-图像预训练(附论文原文下载)
原创/文BFT机器人研究论文地址:https://arxiv.org/abs/2212.00794计算机视觉和深度学习领域大神何恺明携团队再发新作!论文围绕近来火热的CLIP(ContrastiveLanguage-Image
2022-10-18
ICCV2021何恺明团队又一神作:Transformer仍有继续改善的空间
计算机视觉研究院专栏作者:Edison_G一个简单、渐进、但必须知道的基线:用于VisionTransformer的自监督学习。尽管标准卷积网络的训练方法已经非常成熟且鲁棒,然而ViT的训练方
2022-10-07
RegNet | 何恺明团队最新作品,源于Facebook AI(附下载链接)
扫码关注我们公众号 :计算机视觉战队扫码回复:regnet,获取下载链接♚声明这次分享的文章,比较偏理论一些,周末请阅读的同学静下心好好阅读,真的可以学习到很多,我们就开始一起来
2022-10-07
详解何恺明团队最新作品:源于Facebook AI的RegNet(附下载链接)
算机视觉研究院专栏作者:Edison_G今天我们接着上一期RegNet继续分享,这期的分析主要理论较多,但是可以学习到很多网络设计的技巧和平时被我们忽略的技能,有兴趣的同学持续关注!上
2022-10-07
RegNet | 何恺明团队最新作品,源于Fackbook AI(附下载链接)
公众号 :计算机视觉战队简述在这项工作中,何老师团队提出了一个新的网络设计范例。我们的目标是帮助提高对网络设计的理解,并发现跨设置泛化的设计原则。我们不是专注于设计
2022-10-07
Facebook AI何恺明又一新作 | 研究MoCo(动量对比学习),超越Hinton的SimCLR,刷新SOTA准确率
扫码关注我们公众号 :计算机视觉战队扫码回复:无监督,获取下载链接经常闲逛何老师主页,应该有所察觉,FacebookAI的何恺明老师有来一个新作,这次更加猛烈,远远比Hinton老师的Sim