添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
本文详细介绍了在Linux系统中配置多智能体强化学习SMAC环境的步骤,包括创建Pymarl环境,安装必要的Python包,下载并安装SMAC及星际争霸II,特别指出应先安装Pymarl再放置星际争霸到3rdparty目录,以避免连接错误。此外,还强调了PyTorch的安装需匹配CUDA 11.1以上版本,确保在具有30系列显卡的服务器上能够运行。 摘要生成于 ,由 DeepSeek-R1 满血版支持, conda activate pymarl

2.pip安装一些包

pip install sacred numpy scipy matplotlib seaborn pyyaml pygame pytest probscale imageio snakeviz tensorboard-logger

3.下载安装smac

git clone https://github.com/oxwhirl/smac.git
pip install -e smac/

4.下载安装星际争霸

这个最好在pymarl 搞完之后下载 因为pymarl 会把星系争霸安装在3rdparty下。一开始我先下载安装星系争霸在默认路径,到最后运行时出现错误:

pysc2.lib.remote_controller.ConnectError: Failed to connect to the SC2 websocket. Is it up?

5.下载安装pymarl

直接git clone

git clone https://github.com/oxwhirl/pymarl.git

然后在pymarl中创建3rdparty文件夹

将4下载的星际争霸解压到3rdparty(重要),还有把map放入对应文件,主要参考:

文章目录引子开始 安装 github上拉取文件修改install_sc2.sh文件 安装 SMAC 手动 安装 SMAC 地图包 本文主要介绍 多智能体 强化学习 环境 :星际争霸二( SMAC )在 linux 环境 docker上得 安装 。这里 安装 环境 来自这个链接:https://github.com/oxwhirl/ pymarl 因为我们在服务器上一般只有一个属于自己的docker,而且碍于网络问题,直接按照github上的教程 安装 是行不通的。这里我给出我自己 安装 的方法,以供参考。 首先确保 Linux 系统中有git等基本的第三方
To use a stableid, copy stableid.json from https://github.com/Blizzard/s2client-proto.git to ~/StarCraftII/. echo $SHELL
多智能体 强化学习 (Multi-Agent Reinforcement Learning, MARL)的研究和应用中,构建合适的 环境 来测试和评估算法是非常重要的。以下是一些常用的 多智能体 强化学习 环境 ,它们涵盖了 种任务类型,如协作、对抗、竞争等,帮助研究者验证算法的效果。 SMAC (StarCraft Multi-Agent Challenge)、 MPE(Multi-Agent Particle Environment)、PettingZoo等
SMAC (StarCraft Multi-Agent Challenge) 安装 与使用指南 smac SMAC : The StarCraft Multi-Agent Challenge项目地址:https://gitcode.com/gh_mirrors/ smac / smac 1. 项目目录结构及介绍 在克隆https://github.com/oxwhirl/ smac .git后的本地仓库中,你将看到...