本文详细介绍了在Linux系统中配置多智能体强化学习SMAC环境的步骤,包括创建Pymarl环境,安装必要的Python包,下载并安装SMAC及星际争霸II,特别指出应先安装Pymarl再放置星际争霸到3rdparty目录,以避免连接错误。此外,还强调了PyTorch的安装需匹配CUDA 11.1以上版本,确保在具有30系列显卡的服务器上能够运行。
摘要生成于
,由 DeepSeek-R1 满血版支持,
conda activate pymarl
2.pip安装一些包
pip install sacred numpy scipy matplotlib seaborn pyyaml pygame pytest probscale imageio snakeviz tensorboard-logger
3.下载安装smac
git clone https://github.com/oxwhirl/smac.git
pip install -e smac/
4.下载安装星际争霸
这个最好在pymarl 搞完之后下载 因为pymarl 会把星系争霸安装在3rdparty下。一开始我先下载安装星系争霸在默认路径,到最后运行时出现错误:
pysc2.lib.remote_controller.ConnectError: Failed to connect to the SC2 websocket. Is it up?
5.下载安装pymarl
直接git clone
git clone https://github.com/oxwhirl/pymarl.git
然后在pymarl中创建3rdparty文件夹
将4下载的星际争霸解压到3rdparty(重要),还有把map放入对应文件,主要参考:
文章目录引子开始
安装
github上拉取文件修改install_sc2.sh文件
安装
SMAC
手动
安装
SMAC
地图包
本文主要介绍
多智能体
强化学习
环境
:星际争霸二(
SMAC
)在
linux
环境
docker上得
安装
。这里
安装
的
环境
来自这个链接:https://github.com/oxwhirl/
pymarl
因为我们在服务器上一般只有一个属于自己的docker,而且碍于网络问题,直接按照github上的教程
安装
是行不通的。这里我给出我自己
安装
的方法,以供参考。
首先确保
Linux
系统中有git等基本的第三方
To use a stableid, copy stableid.json from https://github.com/Blizzard/s2client-proto.git to ~/StarCraftII/.
echo $SHELL
在
多智能体
强化学习
(Multi-Agent Reinforcement Learning, MARL)的研究和应用中,构建合适的
环境
来测试和评估算法是非常重要的。以下是一些常用的
多智能体
强化学习
环境
,它们涵盖了
多
种任务类型,如协作、对抗、竞争等,帮助研究者验证算法的效果。
SMAC
(StarCraft Multi-Agent Challenge)、 MPE(Multi-Agent Particle Environment)、PettingZoo等
SMAC
(StarCraft Multi-Agent Challenge)
安装
与使用指南
smac
SMAC
: The StarCraft Multi-Agent Challenge项目地址:https://gitcode.com/gh_mirrors/
smac
/
smac
1. 项目目录结构及介绍
在克隆https://github.com/oxwhirl/
smac
.git后的本地仓库中,你将看到...