![]() |
腼腆的匕首 · n行Python代码系列:两行代码调整视频播 ...· 1 年前 · |
![]() |
憨厚的瀑布 · 如何以【我穿成了耽美文里的恶毒女配】为开头写 ...· 1 年前 · |
![]() |
忐忑的机器猫 · 深入理解ChatGPT:从机器学习到深度学习 ...· 1 年前 · |
![]() |
光明磊落的大象 · 堆栈与堆(StackvsHeap):有什么区 ...· 1 年前 · |
![]() |
冷冷的红金鱼 · 稳中求进 保时捷迈入电气化新纪元 - ...· 1 年前 · |
混合专家系统(MoE)是一种神经网络,也属于一种combine的模型。适用于数据集中的数据产生方式不同。不同于一般的神经网络的是它根据数据进行分离训练多个模型,各个模型被称为 专家 ,而 门控模块 用于选择使用哪个专家,模型的实际输出为各个模型的输出与门控模型的权重组合。各个专家模型可采用不同的函数(各种线性或非线性函数)。混合专家系统就是将多个模型整合到一个单独的任务中。
混合专家系统有两种架构:competitive MoE 和cooperative MoE。competitive MoE中数据的局部区域被强制集中在数据的各离散空间,而cooperative MoE没有进行强制限制。
对于较小的数据集,该模型的表现可能不太好,但随着数据集规模的增大,该模型的表现会有明显的提高。
定义X为N
d维输入,y为N
c维输出,K为专家数,$\lambda $为学习率:
第k个专家输出均值为:
门限模块输出为:
对于Cooperative MoE: