活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      弹性高性能计算

      弹性高性能计算

        • 产品动态
        • 产品介绍
        • 产品定义
        • 术语解释
        • 产品特性
        • 产品优势
        • 产品应用场景
        • 产品使用限制
        • 购买指南
        • 计费说明
        • 快速入门
        • 概述
        • 入门指引
        • 用户指南
        • 概述
        • 创建集群
        • 管理集群
        • 连接集群
        • 扩容集群
        • 配置自动伸缩
        • 软件管理
        • 删除集群
        • 登录Portal
        • 提交作业
        • 命令行提交作业
        • Portal提交作业
        • 查看作业结果
        • 最佳实践
        • 最佳实践概览
        • 使用VASP软件做分子动力学模拟
        • 使用LAMMPS做分子动力学模拟
        • 使用OpenFOAM软件进行流体力学仿真计算
        • API参考
        • API使用说明
        • 常见问题
        • 计费类
        • 操作类
        • 管理类
        • 文档下载
        • 操作手册
        • 相关协议
        • 弹性高性能计算服务协议
          无相关产品

          本页目录

          帮助中心弹性高性能计算最佳实践使用LAMMPS做分子动力学模拟
          使用LAMMPS做分子动力学模拟
          更新时间 2025-01-13 18:05:10
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-01-13 18:05:10
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          天翼云弹性高性能计算支持使用LAMMPS做分子动力学模拟,本文为您介绍该应用场景下的操作步骤。

          背景信息

          LAMMPS全称Large-scale Atomic Molecular Massively Parallel Simulator,是一款经典分子动力学软件,用于模拟液态、固态或气态的粒子集合,广泛应用于材料、物理、化学等模拟场景。

          准备工作

          ● 已创建EHPC集群。

          ● 已创建集群用户。

          ● 需要安装的软件:安装Intel OneAPI、准备Lammps 安装包。

          操作步骤

          1.编译。

          # 加载Intel工具包中的环境变量
          module load libpmi/4.1.2/gcc-4.8.5 compiler-rt/2022.1.0 mpi/2021.6.0 mkl/2022.1.0 icc/2022.1.0 gcc/11.4.0
          
          # 下载LAMMPS源代码压缩包
          wget -P /share https://lammps.sandia.gov/tars/lammps-2Aug2023.tar.gz
          
          # 解压LAMMPS源代码
          tar xf lammps.tar.gz -C /share
          
          cd /share/lammps-2Aug2023/src
          
          # 进入/mnt/lammps-2Aug2023/src/MAKE/OPTIONS目录,修改Makefile.intel_cpu_intelmpi
          vi MAKE/OPTIONS/Makefile.intel_cpu_intelmpi
          # 在OPTFLAGS 中增加以下内容
          -O3 -g -DLAMMPS_BIGBIG -DLAMMPS_MEMALIGN=64
          
          # 编译
          make -j $(nproc) yes-most
          make -j $(nproc) yes-intel
          make -j $(nproc) intel_cpu_intelmpi
          
          # 运行测试
          mpirun -np 2 lmp_intel_cpu_intelmpi -sf intel -in -pk intel /share/lammps-28Mar2023/examples/melt/in.melt
          

          2.运行测试文件。

          编辑 in.lj.billion文件如下所示:

          # 3d Lennard-Jones melt
          
          variable        x index 20
          variable        y index 20
          variable        z index 20
          
          variable        xx equal 20*$x
          variable        yy equal 20*$y
          variable        zz equal 20*$z
          
          units           lj
          atom_style      atomic
          
          lattice         fcc 0.8442
          region          box block 0${xx}0${yy}0${zz}
          create_box      1 box
          create_atoms    1 box
          mass            11.0
          
          velocity        all create 1.4487287 loop geom
          
          pair_style      lj/cut 2.5
          pair_coeff      111.01.02.5
          
          neighbor        0.3 bin
          neigh_modify    delay 0 every 20 check no
          
          fix             1 all nve
          
          run             100
          

          撰写slurm脚本:

          #!/bin/bash
          #SBATCH -N 2
          #SBATCH --partition=debug
          #SBATCH --exclusive
          #SBATCH -J lammps_bench
          #SBATCH -o test_lammps.%J.out
          #SBATCH -e test_lammps.%J.err
          #SBATCH --time=00:5:00
          
          #module
          module load gcc compiler-rt/2022.1.0 icc/2022.1.0 mpi/2021.6.0 mkl
          
          #config openmp
          exportOMP_NUM_THREADS=1
          exportOMP_PROC_BIND=true
          exportOMP_PLACES=cores
          
          #config mpi
          exportI_MPI_PMI_LIBRARY=libpmi2.so
          exportUCX_NET_DEVICES=mlx5_0:1,mlx5_3:1
          exportSLURM_MPI_TYPE=pmi2
          
          #run application
          srun  --ntasks-per-node=56 --cpus-per-task=2 --cpu-bind=cores -m plane=56 /share/user01/lammps-28Mar2023/build/lmp -sf intel -in in.lj.billion
          

          3.查看最终结果。

          LAMMPS (28 Mar 2023)
            using 1 OpenMP thread(s) per MPI task
          Lattice spacing in x,y,z =1.67959621.67959621.6795962
          Created orthogonal box =(000) to (671.83848671.83848671.83848)
          4 by 4 by 7 MPI processor grid
          Created 256000000 atoms
            using lattice unitsin orthogonal box =(000) to (671.83848671.83848671.83848)
            create_atoms CPU =0.230 seconds
          ----------------------------------------------------------
          Using INTEL Package without Coprocessor.
          Compiler: Intel Classic C++ 20.21.6 / Intel(R) C++ g++ 11.4 mode
          SIMD compiler directives: Enabled
          Precision: mixed
          ----------------------------------------------------------
          Generated 0 of 0 mixed pair_coeff terms from geometric mixing rule
          Neighbor list info ...
            update: every =20 steps, delay =0 steps, check = no
            max neighbors/atom: 2000, page size: 100000
            master list distance cutoff =2.8
            ghost atom cutoff =2.8
            binsize =1.4, bins =480480480
          1 neighbor lists, perpetual/occasional/extra =100
          (1) pair lj/cut/intel, perpetual
                attributes: half, newton on, intel
                pair build: half/bin/newton/intel
                stencil: half/bin/3d
                bin: intel
          Setting up Verlet run ...
            Unit style    : lj
            Current step  :0
            Time step     :0.005
          Per MPI rank memory allocation (min/avg/max)=3295|3343|3463 Mbytes
             Step          Temp          E_pair         E_mol          TotEng         Press
          01.44          -6.7733673      0             -4.6133673     -5.0196698
          1000.7594409     -5.7614765      0             -4.6223152      0.18996685
          Loop time of 67.0307 on 112 procs for100 steps with 256000000 atoms
          
          Performance: 644.481 tau/day, 1.492 timesteps/s, 381.915 Matom-step/s
          99.6% CPU use with 112 MPI tasks x 1 OpenMP threads
          ...
          
          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  使用VASP软件做分子动力学模拟
          下一篇 :  使用OpenFOAM软件进行流体力学仿真计算
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明