首页 > 其他分享 >HPC应用&生命科学领域软件AutoDock-GPU详细安装使用教程

HPC应用&生命科学领域软件AutoDock-GPU详细安装使用教程

时间:2024-08-31 17:25:28浏览次数:11  
标签:autodock SBATCH 1stp 算例 AutoDock HPC GPU

目录

应用简介

编译安装

测试算例及提交脚本


应用简介

AutoDock-GPU是基于OpenCL的GPU加速版本分子对接软件autodock-4.2.6。可以支持DCU已经其他支持OpenCL的设备,如CPU和Nvidia GPU等。

github源码: https://github.com/ccsb-scripps/AutoDock-GPU

编译安装

AutoDock-GPU基于OpenCL语言编写,在DCU上安装运行需要rocm运行时环境及其包含的OpenCL运行时环境和编译器。文档假设rocm运行时环境放置在目录${ROCM_HOME}

AutoDock-GPU源代码可以从github仓库下载:

git clone -b master https://github.com/ccsb-scripps/AutoDock-GPU

下载完成后,进入AutoDock顶层目录,按照如下步骤进行安装:

cd ./AutoDock-GPU
export GPU_INCLUDE_PATH=${ROCM_HOME}/opencl/include/
export GPU_LIBRARY_PATH=${ROCM_HOME}/opencl/lib/
make DEVICE=GPU

编译完成后,在./bin/目录下生成AutoDock-GPU可执行程序autodock_gpu_64wi,程序为静态编译,可以按照需求将此程序拷贝到其他安装目录。

./bin/autodock_gpu_64wi

测试算例及提交脚本

AutoDock-GPU仓库input目录下带有几个较小的测试算例,以1stp算例为例,程序运行提交slurm脚本autodock.sbatch如下:

#!/bin/bash
#SBATCH -J autodock_test
#SBATCH -p normal
#SBATCH -N 1
#SBATCH -n 1
#SBATCH --gres=dcu:1
#SBATCH -o %j.out
#SBATCH -e %j.err

date
./bin/autodock_gpu_64wi -ffile ./input/1stp/derived/1stp_protein.maps.fld -lfile ./input/1stp/derived/1stp_ligand.pdbqt
date

提交测试算例:

sbatch autodock.sbatch

成功运行测试算例输入如下:

Wed Feb 19 14:34:08 CST 2020

AutoDock-GPU version: sd-tsri-153-g9e18c63a709abb3bc79a0fa026ee33bf02d85e9b-dirty

Kernel source used for development:      ./device/calcenergy.cl                  
Kernel string used for building:         ./host/inc/stringify.h                  
Kernel compilation flags:                 -I ./device -I ./common -DN64WI        
Local-search chosen method is: Solis-Wets (sw)

Executing docking runs:
        20%        40%       60%       80%       100%
---------+---------+---------+---------+---------+
**************************************************

Program run time 9.032 sec 

Wed Feb 19 14:34:17 CST 2020

其他测试算例可根据需要修改提交脚本运行测试。

标签:autodock,SBATCH,1stp,算例,AutoDock,HPC,GPU
From: https://blog.csdn.net/qq_27815483/article/details/141185105

相关文章

  • autodock vina后处理分析
    拆分对接结果vina_split--inputresult.pdbqt--ligandcomplex/lig使用mv命令批量修改文件名,把01-09修改成1-9,便于批量处理foriin`seq19`;do>mv"lig0${i}.pdbqt""lig${i}.pdbqt">done使用Openbabel把pdbqt转成pdbforiin`seq120`;do>obabel......
  • PyTorch深度学习实战(26)—— PyTorch与Multi-GPU
    当拥有多块GPU时,可以利用分布式计算(DistributedComputation)与并行计算(ParallelComputation)的方式加速网络的训练过程。在这里,分布式是指有多个GPU在多台服务器上,并行指一台服务器上的多个GPU。在工作环境中,使用这两种方式加速模型训练是非常重要的技能。本文将介绍PyTorch中......
  • 渲染加速新选择:GPU云渲染平台的全方位评估
    在当今快速发展的数字时代,视觉内容的创造和呈现已成为各行各业的共同需求。无论是电影制作、游戏开发还是建筑设计,高质量的视觉输出都是不可或缺的。GPU云渲染平台以其强大的计算能力和灵活性,为这些行业提供了一种全新的解决方案。GPU云渲染平台概述基本概念:GPU云渲染平台是一......
  • GPU虚拟化技术简介:实现高性能图形处理的灵活部署
    本文分享自天翼云开发者社区《GPU虚拟化技术简介:实现高性能图形处理的灵活部署》,作者:z****nGPU虚拟化技术是一项重要的创新,通过将物理GPU划分为多个虚拟GPU,实现多用户共享和独立运行图形处理任务的能力。本文介绍了GPU虚拟化技术的基本原理、应用场景和优势。该技术在云计算、虚......
  • 神经网络释放GPU显存两种方式(固定or动态)
    固定的批次数后释放显存固定的批次数后释放显存,比如每训练100批次释放一次显存,可以通过在训练循环中添加一个计数器来实现。以下是如何实现这种策略的示例代码:importtorchdeftrain():start_epoch=0end_epoch=100release_frequency=100#每100个批次......
  • zabbix监控GPU使用率
    vi/etc/zabbix/zabbix_agent.conf(最后添加)UserParameter=GPU.Usage,/usr/bin/nvidia-smi-q|grep-A3"Utilization"|grepGpu|awk'{print$3}'|awk'{a+=$1}END{printa/NR}'#UserParameter=GPU.Memory,/usr/bin/nvidia-smi-q|gre......
  • 深入浅出LLamaSharp:打造智能.NET应用,不需GPU也能玩转LLaMA模型
            在如今的.NET社区中,机器学习和人工智能的应用越来越普遍。今天我要给大家推荐一个名叫LLamaSharp的开源项目。这是llama.cpp的C#/.NET绑定,提供了高级的API,使得我们能在本地设备上使用C#/.NET推理LLaMA模型,并且部署它。        LLamaSharp支持在Windo......
  • 错误处理、cuda模型、GPU架构杂谈
    错误处理、cuda模型、GPU架构杂谈错误处理所有编程都需要对错误进行处理,早起的编码错误,编译器会帮搞定,内存错误也能观察出来,但是有些逻辑错误很难发现,甚至到了上线运行时才会被发现,而且有些厉害的bug复现会很难,不总出现,但是很致命,而且CUDA基本都是异步执行的,当错误出现的时候,不......
  • GPU的Fermi 架构与Kepler架构杂谈
    Fermi架构Fermi架构是第一个完整的GPU架构,如图10-15所示。图10-15Fermi架构是第一个完整的GPU架构Fermi架构逻辑图,如图10-15所示,具体数据如下:1)512个加速核心,CUDA核2)每个CUDA核心都有一个全流水线的整数算数逻辑单元ALU,和一个浮点数运算单元FPU3)CUDA核被组织到16个SM上4......
  • 并行动力:用PyTorch在多GPU上释放深度学习潜能
    标题:并行动力:用PyTorch在多GPU上释放深度学习潜能随着深度学习模型变得越来越复杂,单GPU训练往往难以满足需求。幸运的是,PyTorch提供了强大的多GPU训练支持,允许我们利用多个GPU来加速模型的训练过程。本文将详细介绍如何在PyTorch中使用多GPU训练,包括数据并行、模型并行以及......