【课题推荐发表期刊】
【课题背景】
随着移动和物联网设备的普及和发展,用户设备上积累的大量数据因隐私保护无法直接上传至中心服务器。联邦学习作为解决方案,通过在边缘设备上训练模型,将模型参数更新发送到中心服务器进行整合,从而利用这些分散的数据。但传统联邦学习依旧存在高通信成本、系统异构和统计异质等问题。
本课题致力于探索联邦学习范式在个性化建模和跨领域应用方面的创新与突破,将其与计算机视觉、时间序列等领域相结合,以期突破传统联邦学习的局限性,开拓全新的应用场景。通过在不直接共享原始数据的前提下进行模型训练和更新,在全局和局部模型之间寻求平衡,让每个设备在不频繁通信的情况下从私有数据中学习,更好地满足日益增长的个性化服务需求。
【课题方向参考】
-
设计新颖的个性化联邦学习框架,在保证全局模型收敛的同时,充分考虑各参与方的个体偏好和本地数据分布,实现模型的个性化定制。
-
研究联邦学习中的公平性问题,提出针对不同参与方的权重调整和激励机制,确保模型对各方都具有良好的适用性。
-
探索个性化联邦学习与计算机视觉的交叉应用,如联邦学习在个性化图像识别、视频理解等任务中的应用,解决数据孤岛和隐私保护问题。
-
将个性化联邦学习拓展至时间序列数据,设计适应时间序列特点的联邦学习算法,实现对个体变化的建模和预测。
【适合人群】
计算机科学相关专业的硕士研究生,对联邦学习及应用感兴趣,需具备一定的机器学习和深度学习研究基础,熟悉pytorch框架。
【课题收获】
-
高质量论文一篇(CCF定向期刊)
-
CCF期刊投递与发表指导
-
结业证书
【导师介绍】
Dr. Chen,QS世界大学排名前100高校博士
-
长期担任多个顶级期刊/会议的审稿人,包括IEEE TNNLS、IEEE TKDE、CVPR、ICCV、IJCAI、NeurIPS、ICLR、ICML、AAAI、KBS等
-
研究方向:计算机视觉、时间序列、联邦学习、AI4Science等;
-
以第一作者身份,在行业顶尖期刊/会议上发表超过20篇论文,包括IEEE TGRS、IEEE JBHI、Knowledge-Based System、IJCAI、NeurIPS、ICLR等
-
具备丰富的英文写作经验和学术指导经验;熟练使用Python、掌握 Java、掌握C++, 熟练使用Pytorch、Tensorflow、Keras,能够根据不同的实际任务独立搭建网络模型、训练、测试和调优,熟悉掌握数据集预处理技巧,可以在Linux上进行模型训练、调优;熟悉Transformer、RNN、CNN等常用网络模型
【课题安排】
研究周期预估六个月左右,具体视学员情况调整