LM
  • 2024-11-21接口测试之unittest框架
    接口测试之unittest框架importunittestimportrequestsfromtimeimport*fromjk.HTMLTestRunner3_NewimportHTMLTestRunnerclassCms(unittest.TestCase):@classmethoddefsetUpClass(cls)->None:#类的开始cls.s=requests.Session()@classmethoddeftearDo
  • 2024-10-27使用LM Studio在ZBlog基于大模型原创文章上稿进行SEO优化
    在当今内容创作需求日益增长的背景下,如何高效地进行文章生成与发布,成为众多开发者关注的焦点。通过结合Python脚本与ZBlog平台,能够实现从分类与标签的自动化管理,到文章生成与发布的一整套流程。本文详细讲解了如何进行自动化文章生成与发布的基础配置、项目搭建与实际应用,
  • 2024-10-21Meta 最新 SPIRIT-LM:语音文本无缝转换还能懂情绪;字节回应实习生破坏大模型训练:网传损失不实丨 RTE 开发者日报
        开发者朋友们大家好: 这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(Real-TimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表
  • 2024-10-11我的 vimrc
    从待了三年多的二机房搬出去了,于是需要重新调一遍配置。然后发现之前vim的onedark主题没开真彩色都是残缺版的……重新整理了一下常用的快捷键,而且加入了GDB与clang-format的使用支持(现在代码保存就会自动格式化),在这里存个档。setnumouse=aaisicisetts=4sts=4s
  • 2024-09-27Lora微调的Bug
    问题这里,记录一下在使用LoRa进行微调时遇到的错误。设备不一致的问题ValueError:CaughtValueErrorinreplica0ondevice0.这个问题时有由于多块GPU不在一个设备上引起的。解决方法很简单。使用当个GPU,最直接的操作就是CUDA_VISIBLE_DEVICES=0pythonxxx.py。制定GPU的
  • 2024-09-26Linux系统之温度监控工具——lm_sensors的安装和基本使用
    Linux系统之温度监控工具——lm_sensors的安装和基本使用一、lm_sensors介绍lm_sensors,是一款基于linux系统的硬件监控的软件。可以监控主板,CPU的工作电压,温度等数据。rpm包下载地址获取码2344:lm_sensors-3.4.0-6.20160601gitf9185e5.el7.x86_64.rpm二、检测安装环境1.检查
  • 2024-09-22vscode使用continue插件连接LM studio的模型
    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录一、步骤1.LMstudio加载模型2.启动api服务3.修改continue配置文件4.测试二、总结一、步骤1.LMstudio加载模型根据需求设置系统提示词,根据设备显卡和模型大小设置上下文长度和n_gpu_la
  • 2024-09-19蓝易云服务器 - ubuntu查看相关硬件温度教程
    要查看Ubuntu系统中相关硬件温度,你可以使用 lm-sensors工具。安装和使用步骤如下:安装 lm-sensors:在终端中执行以下命令安装 lm-sensors:sudoapt-getupdatesudoapt-getinstalllm-sensors配置 lm-sensors:在终端中执行以下命令配置 lm-sensors:sudosensors-detect检测硬件
  • 2024-09-16Jina AI 发布 Reader-LM-0.5B 和 Reader-LM-1.5B:为网络数据处理提供多语种、长语境和高效小语言模型,彻底改变 HTML 到 Markdown 的转换方式
    JinaAI发布的Reader-LM-0.5B和Reader-LM-1.5B标志着小语言模型(SLM)技术的一个重要里程碑。这些模型旨在解决一个独特而具体的挑战:将开放网络中原始、嘈杂的HTML转换为干净的标记符格式。这项任务看似简单,却面临着复杂的挑战,尤其是在处理现代网络内容中的大量噪音
  • 2024-09-11Awesome-LM-SSP学习资料大全 - 大型语言模型安全、隐私与保障资源汇总
    Awesome-LM-SSP学习资料大全-大型语言模型安全、隐私与保障资源汇总Awesome-LM-SSP是一个致力于收集大型语言模型(LLM)安全性、隐私性和可靠性相关资源的开源项目。本文将为大家介绍该项目的主要内容和学习资源,帮助读者快速了解和使用这个宝贵的知识库。项目简介Awesome-
  • 2024-09-07Distributed Training: DeepSpeed ZeRO 1/2/3 + Accelerate, Megatron-LM
    1IntroductionGithub:https://github.com/microsoft/DeepSpeedZeRO:MemoryOptimizationsTowardTrainingTrillionParameterModelsZeRO-Offload:DemocratizingBillion-ScaleModelTrainingZeRO-Infinity:BreakingtheGPUMemoryWallforExtremeScaleDee
  • 2024-08-20THLM论文阅读笔记
    PretrainingLanguageModelswithText-AttributedHeterogeneousGraphs论文阅读笔记Abstract现存的问题:​ 目前语言模型(LM)的预训练任务主要集中在单独学习每个实体的文本信息,而忽略了捕捉TAHGs中实体间拓扑连接的关键环节。提出方法:​ 本文提出了一种新的LM预训练框架
  • 2024-08-11LLM分类模式驱动一
      今天给大家带来的文章是LLM分类模式驱动,希望能对学习LLM的同学们有所帮助。文章目录1.前言2.模式驱动生成1.前言  随着这两年大语言模型的应用,各种语言模型已经在很多领域带来了许多颠覆性的成果,但是在融入各种程序环境时,大语言模型也遇到了一些阻碍。为了
  • 2024-08-08gcc使用小记
    gcc使用小记1.gcc使用gcc-ofilenamefilename.c释义:-o:表示的是文件输出名称(由自己自定义)filename.c:表示的是源文件的名称2.在源文件中导入头文件<math.h>后gcc的编译命令gcc-ofilenamefilename.c-lm释义:编译时需要注意,在Linux系统下,C源文件若调用了math
  • 2024-07-02LM-Cocktail:一种创新的模型合并方法打破预训练语言模型微调后的性能局限,实现语言模型在一般任务与特定领域的均衡高性能
    LM-Cocktail:一种创新的模型合并方法打破预训练语言模型微调后的性能局限,实现语言模型在一般任务与特定领域的均衡高性能使语言模型的微调类似于调制一杯精致的鸡尾酒。模型合并可用于提高单个模型的性能。我们发现此方法对于大型语言模型和密集嵌入模型也很有用,并设计了LM
  • 2024-06-21【论文笔记】Prefix-Tuning: Optimizing Continuous Prompts for Generation
    题目:Prefix-Tuning:OptimizingContinuousPromptsforGeneration来源:ACL2021模型名称:Prefix-Tuning论文链接:https://aclanthology.org/2021.acl-long.353/项目链接:https://github.com/XiangLi1999/PrefixTuning感觉与prompt的想法很相近,那么问题来了,为什
  • 2024-06-19串扰(二)
    三、感性串扰首先看下串扰模型及电流方向:由于电感是阻碍电流变化,受害线的电流方向和攻击线的电流方向相反。同时由于受害线阻抗均匀,故有Vb=-Vf(感应电流属于电池内部电流)。分析感性串扰大小仍然是按微分的方法,如下图:感应电压大小为:其中di/dt=dv/dt/Z0,故感应电压VLm为:
  • 2024-06-16域渗透之初识LM&NTLM认证过程
    目录前言LMHashNTLMHashWindows本地认证LSASS进程Mimikatz抓取明文密码Windows网络认证NetNTLMNTLMv1&NTLMv2Hash传递攻击前言LANManager和NTLANManager认证是Windows系统中的一种挑战-响应身份验证机制。LM认证是早期Windows版本中使用的一种认证协议,而NTLM是LM的改
  • 2024-06-02Unlearn What You Want to Forget Efficient Unlearning for LLMs
    目录概符号说明UnlearningLayersFusingUnlearningLayers代码ChenJ.andYangD.Unlearnwhatyouwanttoforget:efficientunlearningforllms.2024.概本文提出一种Unlearninglayer去帮助LLMs'遗忘'一些数据.符号说明\(F(\cdot)\),largelanguagemodel
  • 2024-05-31使用LM Studio来运行本地版本大语言模型
     自2022年11月30日发布ChatGPT对话性大预言模型,AI再一次被推向了高潮,再到后来,国内外也衍生了大量的语言模型开放给公众使用。为了可以让更多人接触到AI,让本地化部署更加轻便快捷,于是就有了Ollama、LMStudio等可以在本地部署模型的工具。这两款工具相比较来说,个人觉的LMStudio
  • 2024-05-12LM Studio 本地离线部署大模型
    安装LMStudio官网:https://lmstudio.ai/下载模型:Meta-Llaa-3-8B-Instruet.Q4_KM.gguf下载地址:https://cdn-lfs-us-1.huggingface.co/repos/79/f2/79f21025e377180e4ec0e3968bca4612bb9c99fa84e70cb7815186c42a858124/647a2b64cbcdbe670432d0502ebb2592b36dd364d51a9e
  • 2024-05-06Huggingface Transformers实现张量并行的小坑 set/get_output_embeddings
    transformers库里实现的很多模型会有这么两个函数get_output_embeddings和get_output_embeddings。以SwitchTransformer为例classSwitchTransformersForConditionalGeneration(SwitchTransformersPreTrainedModel):defset_output_embeddings(self,new_embeddings):
  • 2024-05-0312_面板数据
    第12章面板数据12.1面板数据的特点定义面板数据一段时间内跟踪同一组个体的数据。分类:分类分类准则特点短面板n、T的大小n小、T大长面板n大、T小动态面板是否有被解释变量滞后项有静态面板*否平衡面板*每个时期样本中的个体是否完全相
  • 2024-05-03Text Representation
    1StatisticalModel1.1One-Hot1.2Bagofwords(BOW)https://web.stanford.edu/class/datasci112/lectures/lecture8.pdf1.3N-grams1.4TF-IDF2WordEmbedding(NeuralNetworkModel)2.1Word2Vechttps://projector.tensorflow.org/ContinuousBagofWords(CBOW
  • 2024-05-02windows密码存储以及hashdump所得信息解析
    1.windows登录的明文密码,存储过程是怎么样的,密文存在哪个文件下,该文件是否可以打开,并且查看到密文在Windows中密码通常不会以明文形式存储。系统会通过保存密码的哈希值来确保安全性。这个过程涉及到NTLM或Kerberos身份认证协议,它们负责加密存储密码。以下是存储过程的简要说