Ids
  • 2024-08-21【大模型理论篇】大模型时代下Bert去哪啦?
        这个标题是最近看到的一篇文章《WhathappenedtoBERT&T5?OnTransformerEncoders,PrefixLMandDenoisingObjectives》有感而发,也感觉很有意思。在几年前,在项目中还经常会用到Bert。本文主要回顾一下Bert的原理、Bert的继续训练和使用,以及对看到的文章中关
  • 2024-08-15大模型微调实战演练:使用代码剖析 Transformers Pipelines工作原理
    在自然语言处理(NLP)领域,Transformers模型已经成为了主流技术之一。无论是文本分类、情感分析,还是机器翻译,Transformers都展现了强大的性能。今天,我们来详细解析一下TransformersPipelines的运行原理,帮助大家更好地理解其内部机制。一、基本流程TransformersPipeline
  • 2024-08-132.第一天(第二部分):Explaining Intrusion Prevention
    入侵防御系统cisco在入侵检测方面使用了一种混合技术ips技术不成熟ips的性能和具体的包类型和大小有关系command接口有ip,有路由能力,网关主机通过这个接口进行网管。montor接口没有ip,网络不课件,接受数据,发送rooot杂合模式和在线模式更好的对atomicattack攻击进行防御,以前
  • 2024-08-10CUDA--内存访问越界或无效的索引操作解决办法
    报错信息File"D:\anaconda3\envs\HCAVE2\lib\site-packages\torch\nn\utils\rnn.py",line258,inpack_padded_sequencesorted_indices=sorted_indices.to(input.device)RuntimeError:CUDAerror:device-sideasserttriggeredCUDAkernelerrorsm
  • 2024-08-08大语言模型学习笔记
    基础知识简介一、大语言模型(LLM)的概念LLM定义与特点:处理海量文本,多者可具备数百亿参数,理解语言深度,展现涌现能力。LLM国内外代表:i.国外有GPT系列、LLaMA等ii.国内有文心一言、通义千问等。模型大小与性能能关系:与小模型构架相似,但参数量级提升带来解决复杂任务的显著优
  • 2024-08-03Task3 逻辑推理方向 #datawhale#LoRA
    写在前面本次博客主要是2024年第三期的第三次任务,涉及了大模型微调等相关内容。经过先前的两次任务,我们已经学会了如何去调用大模型,但是对于如何提升大模型,我们可能只能靠更加精准的提问,这种靠更加精准的提问来获得更好的效果的方式我们称为提示词工程(promptengineering)关
  • 2024-08-03Task2 baseline01 精读 #datawhale夏令营
    写在前面这个是datawhale夏令营2024年第三期的第二次Task的笔记,由于Task2要求的是精读代码,而我在第一篇文章中已经精读的差不多了,这篇文章我就总结升华一下上篇文章的内容,并且补充说明一下上一篇文章说的不太完善的__main__函数后面的部分内容。好了,我们开始今天的探索之旅
  • 2024-07-31牛站
    //牛站.cpp:此文件包含"main"函数。程序执行将在此处开始并结束。//#include<iostream>usingnamespacestd;/*https://www.acwing.com/problem/content/347/给定一张由T条边构成的无向图,点的编号为1∼1000之间的整数。求从起点S到终点E恰好经过N条边(
  • 2024-07-263.5-RNN文本生成
    1语言模型生成文本的顺序前面我们已经能够实现使用下图的LSTM网络进行语言建模;对于一个已经在语料库上学习好的LSTM模型;如果语料库就只是yousaygoobyeandisayhello;那么当把单词i输入到模型中,Timexxx层的第一个LSTM层将会输出一个概率分布,这个概率分布中概率最大
  • 2024-07-20多个AJAX请求,带执行进度及结果
    functionCreateAll(){varlen=$("[src='/images/err.png'][title='点击重新生成']").length;varlayerMsg=layer.open({title:"正在生成,共有"+len+"个试题正在生成",content:&q
  • 2024-07-18LLM Attack | 对抗攻击
    总览:“这次我们从一道题目入手体会对抗学习以及Decoder生成过程的细节”题目链接:https://github.com/USTC-Hackergame/hackergame2023-writeups/tree/master/official/
  • 2024-07-17windows11 使用pytorch transformers运行Qwen2-0.5B-Instruct模型 (基于anaconda python虚拟环境管理平台)
    吾名爱妃,性好静亦好动。好编程,常沉浸于代码之世界,思维纵横,力求逻辑之严密,算法之精妙。亦爱篮球,驰骋球场,尽享挥洒汗水之乐。且喜跑步,尤钟马拉松,长途奔袭,考验耐力与毅力,每有所进,心甚喜之。 吾以为,编程似布阵,算法如谋略,需精心筹谋,方可成就佳作。篮球乃团队之艺,协作共进,方显力
  • 2024-07-15【Dataset】Maple-IDS - Network Security Malicious Traffic Detection Dataset
    IntroductiontotheDatasetTheMaple-IDSdatasetisanetworkintrusiondetectionevaluationdatasetdesignedtoenhancetheperformanceandreliabilityofanomaly-basedIntrusionDetectionSystems(IDS)andIntrusionPreventionSystems(IPS).Ascybera
  • 2024-07-15【数据集】Maple-IDS——网络安全恶意流量检测数据集
    一、数据集介绍Maple-IDS数据集是一个网络入侵检测评估数据集,旨在增强异常基础入侵检测系统(IDS)和入侵预防系统(IPS)的性能和可靠性。随着网络空间安全领域攻击的日益复杂化,拥有一个可靠和最新的数据集对于测试和验证IDS和IPS解决方案至关重要。数据集由东北林业大学网络安全实验室
  • 2024-07-13LoRA微调中文版Llama3模型
    文章目录概要整体微调流程疑难问题有哪些小结概要LoRA(Low-RankAdaptation)是一种微调大模型的方法,通过引入低秩矩阵来减少参数量和计算复杂度,主要应用于大型预训练语言模型的微调过程。本文章讲解的是使用LoRA技术微调Llama3中文版模型。实验环境为kaggle、GPU环境
  • 2024-07-12then catch 简易写法
    为了捕获上一步then中的promise结果,必须在上一步return;关闭遮罩层,放在finally中,即无论成功或失败都要执行;archiveAction(actionType,row){constids=row&&row.id?row.id:this.ids;consttip=row&&row.id?`“${row.projectName}”`:
  • 2024-07-10Java后端tlias员工部门管理-员工管理下-MyBatis-4
    当我们完成了员工管理的分页查询,那么接下来就要完成员工管理的批量删除、新增员工、根据ID查询员工、根据ID修改员工功能。下图是最终完成的示例 批量删除批量删除也是查询语句,所以我们在EmpMapper只需要编写方法,而不需要在上面编写复杂的查询语句,而是在EmpMapper.xml编写
  • 2024-07-10从零学习大模型——使用GLM-4-9B-Chat + BGE-M3 + langchain + chroma建立的本地RAG应用(二)——将GLM-4-9B-Chat接入langchain
    第一篇介绍了如何配置最基本的环境并下载了GLM-4-9B-Chat到本地,接下来我们试着将GLM-4-9B-Chat接入LangChain。LangChain 是一个基于大型语言模型(LLM)开发应用程序的框架。LangChain简化了LLM应用程序生命周期的每个阶段:开发:使用LangChain的开源构建模块和组件构建应用程序
  • 2024-07-08逆向内存加载Dex(动态加载class)
    逆向一个app,其核心算法是通过反射调用的,反编译软件中无法找到该类,并且也无法hook.Java.perform(function(){Java.enumerateClassLoaders({onMatch:function(loader){ try{ if(loader.loadClass("com.xxxxx")){ console.log("=============
  • 2024-07-08RAG知识库之多表示索引
          在朴素RAG中通常会对文档、文本进行分块后进行文档嵌入,对所有文件、文本都没有经过采用Chunk方法可能有时候效果不是和好,尽管有着各种分块策略有针对大文件的、针对小文件的策略,但都难免可能会造成上下文语义丢失。      分块通常有两个非常重要的参数chunk_si
  • 2024-07-05kaggle运行报错RuntimeError: cutlassF: no kernel found to launch!
    项目场景:项目场景:使用原始Llama3推理,到这里都是能行的!pipinstall-qmodelscopeimporttorchfrommodelscopeimportsnapshot_download,AutoModel,AutoTokenizerimportosmodel_dir=snapshot_download('LLM-Research/Meta-Llama-3-8B-Instruct',cache_dir='/r
  • 2024-06-24ModelScope 模型下载
    1、安装依赖pipinstallmodelscope-ihttps://mirrors.aliyun.com/pypi/simple/2、创建一个python脚本#-*-coding:utf-8-*-#@Time:2024/6/24上午10:01#@Author:yangwenjie#@Email:邮箱#@File:modelscope_spdownload.py.py#@Project:studyfroma
  • 2024-06-22Transformers--4-37-中文文档-四十三-
    Transformers4.37中文文档(四十三)原文:huggingface.co/docs/transformersGIT原始文本:huggingface.co/docs/transformers/v4.37.2/en/model_doc/git概述GIT模型是由JianfengWang、ZhengyuanYang、XiaoweiHu、LinjieLi、KevinLin、ZheGan、ZichengLiu、CeLiu、L
  • 2024-06-21bert_dnn的代码
    importosos.environ["CUDA_VISIBLE_DEVICES"]="2"importtensorflowastffromsklearn.model_selectionimporttrain_test_splitfromtransformersimportBertTokenizer,TFBertModelfromtransformersimportRobertaTokenizer,TFRobertaMod
  • 2024-06-21bert分类的代码
    importosos.environ["CUDA_VISIBLE_DEVICES"]="0"importtensorflowastffromsklearn.model_selectionimporttrain_test_splitfromtransformersimportBertTokenizer,TFBertModelfromtransformersimportRobertaTokenizer,TFRobertaMod