使用 iSCSI 的持久性存储
支持
[1]
支持
[1]
,
[2]
使用本地卷 (LSO) 的持久性存储
支持
[1]
支持
[1]
,
[2]
使用 hostPath 的持久性存储
支持
[1]
支持
[1]
,
[2]
使用 Fibre Channel 持久性存储
支持
[1]
支持
[1]
,
[2]
使用 Raw Block 的持久性存储
支持
[1]
支持
[1]
,
[2]
使用 EDEV/FBA 的持久性存储
支持
[1]
支持
[1]
,
[2]
必须使用 Red Hat OpenShift Data Foundation 或其他支持的存储协议来置备持久性共享存储。
必须使用本地存储(如 iSCSI、FC 或者带有 DASD、FCP 或 EDEV/FBA 的 LSO)来置备持久性非共享存储。
表 1.3. Operator
功能
|
IBM Power®
|
IBM Z® 和 IBM® LinuxONE
|
cert-manager Operator for Red Hat OpenShift
Cluster Logging Operator
Cluster Resource Override Operator
Compliance Operator
Cost Management Metrics Operator
File Integrity Operator
HyperShift Operator
IBM Power® Virtual Server Block CSI Driver Operator
Ingress Node Firewall Operator
Local Storage Operator
MetalLB Operator
Network Observability Operator
NFD Operator
NMState Operator
OpenShift Elasticsearch Operator
Vertical Pod Autoscaler Operator
|
表 1.4. Multus CNI 插件
功能
|
IBM Power®
|
IBM Z® 和 IBM® LinuxONE
|
Bridge
Host-device
IPVLAN
|
表 1.5. CSI 卷
功能
|
IBM Power®
|
IBM Z® 和 IBM® LinuxONE
|
Snapshot
|
1.3.8.1. 在现有集群中启用 Microsoft Entra Workload ID
在此发行版本中,您可以启用 Microsoft Entra Workload ID,以便在现有 Microsoft Azure OpenShift Container Platform 集群上使用简短凭证。此功能现在在 OpenShift Container Platform 的 4.14 和 4.15 版本中被支持。如需更多信息,请参阅
启用基于令牌的身份验证
。
1.3.9.1. OpenShift SDN 网络插件会阻止将来的主要升级
作为 OpenShift Container Platform 过渡到 OVN-Kubernetes 是其唯一支持的网络插件的转换过程的一部分,从 OpenShift Container Platform 4.16 开始,如果集群使用 OpenShift SDN 网络插件,在没有将其迁移到 OVN-Kubernetes 的情况下,您无法将系统升级到以后的 OpenShift Container Platform 主版本。有关迁移到 OVN-Kubernetes 的更多信息,请参阅
从 OpenShift SDN 网络插件迁移
。
如果尝试升级,Cluster Network Operator 会报告以下状态:
- lastTransitionTime: "2024-04-11T05:54:37Z"
message: Cluster is configured with OpenShiftSDN, which is not supported in the
next version. Please follow the documented steps to migrate from OpenShiftSDN
to OVN-Kubernetes in order to be able to upgrade. https://docs.openshift.com/container-platform/4.16/networking/ovn_kubernetes_network_provider/migrate-from-openshift-sdn.html
reason: OpenShiftSDNConfigured
status: "False"
type: Upgradeable
1.3.9.2. Dual-NIC Intel E810 Westport Channel 作为 PTP grandmaster clock (GA)
将
linuxptp
服务配置为使用 Dual-NIC Intel E810 Westport Channel 网络接口控制器 (NIC) 作为 grandmaster clock (T-GM) 现在在 OpenShift Container Platform 中是一个正式发布(GA)功能。主机系统时钟从连接到 Global Navigation Satellite Systems (GNSS) 时间源的 NIC 同步。第二个 NIC 同步到由连接到 GNSS 的 NIC 提供的 1PPS 时间输出。如需更多信息,请参阅
将 linuxptp 服务配置为双 E810 Westport Channel NIC 的 grandmaster 时钟
。
1.3.9.4. 配置 pod 放置以检查网络连接
要定期测试集群组件之间的网络连接,Cluster Network Operator (CNO) 会创建
network-check-source
部署以及
network-check-target
守护进程集。在 OpenShift Container Platform 4.16 中,您可以通过设置节点选择器并运行源和目标 pod 来检查网络连接来配置节点。如需更多信息,请参阅
验证到端点的连接
。
1.3.9.5. 为一个网络安全组 (NSG) 规则定义多个 CIDR 块
在这个版本中,在 Microsoft Azure 上托管的 OpenShift Container Platform 集群的 NSG 中更有效地处理 IP 地址和范围。因此,对于 Microsoft Azure 集群中的所有 Ingress 控制器的最大 CIDR 限制(使用
allowedSourceRanges
字段定义)从大约 1000 个增加到 4000 个 CIDR。
1.3.9.6. 在 Nutanix 平台上,从 OpenShift SDN 迁移到 OVN-Kubernetes
在这个版本中,支持在 Nutanix 平台上从 OpenShift SDN 网络插件迁移到 OVN-Kubernetes。如需更多信息,请参阅
迁移到 OVN-Kubernetes 网络插件
。
1.3.9.7. 改进了 CoreDNS 和出口防火墙之间的集成(技术预览)
在这个版本中,OVN-Kubernetes 使用新的
DNSNameResolver
自定义资源来跟踪出口防火墙规则中的 DNS 记录,并作为技术预览提供。此自定义资源支持同时使用通配符 DNS 名称和常规 DNS 名称,并允许访问 DNS 名称,无论与其更改相关联的 IP 地址是什么。
如需更多信息,请参阅
增强 DNS 解析和解析通配符域名
。
1.3.9.8. SR-IOV 网络策略更新过程中并行节点排空
在这个版本中,您可以将 SR-IOV Network Operator 配置为在网络策略更新过程中并行排空节点。并行排空节点的选项可以更快地推出 SR-IOV 网络配置。您可以使用
SriovNetworkPoolConfig
自定义资源配置并行节点排空,并在 Operator 可以并行排空池中定义最大节点数量。
如需更多信息,请参阅
在 SR-IOV 网络策略更新过程中配置并行节点排空
。
1.3.9.9. SR-IOV Network Operator 不再自动创建 SriovOperatorConfig CR
自 OpenShift Container Platform 4.16 起,SR-IOV Network Operator 不再自动创建一个
SriovOperatorConfig
自定义资源 (CR)。使用
配置 SR-IOV Network Operator
中的步骤创建
SriovOperatorConfig
CR。
1.3.9.10. 支持双标记数据包 (QinQ)
此发行版本引入了 802.1Q-in-802.1Q,也称为
QinQ 支持
。QinQ 引入了第二个 VLAN 标签,其中服务提供商为其使用指定外部标签,提供它们的灵活性,而内部标签则保留给客户的 VLAN 专用。当数据包中存在两个 VLAN 标签时,外部 VLAN 标签可以是 802.1Q 或 802.1ad。内部 VLAN 标签必须始终是 802.1Q。
如需更多信息,请参阅
为启用 SR-IOV 的工作负载配置 QinQ 支持
。
1.3.9.11. 为内部基础架构配置用户管理的负载均衡器
在这个版本中,您可以在任何内部基础架构上配置 OpenShift Container Platform 集群,如裸机、VMware vSphere、Red Hat OpenStack Platform (RHOSP) 或 Nutanix,以使用用户管理的负载均衡器来代替默认负载均衡器。对于此配置,您必须在集群的
install-config.yaml
文件中指定
loadBalancer.type: UserManaged
。
有关裸机基础架构上此功能的更多信息,请参阅
为 OpenShift 安装设置环境 中的服务
中的
为用户管理的负载均衡器的服务
。
在这个版本中,如果您使用
iptables
规则的集群中 pod,会发出以下事件信息来警告将来的弃用:
This pod appears to have created one or more iptables rules. IPTables is deprecated and will no longer be available in RHEL 10 and later. You should consider migrating to another API such as nftables or eBPF.
如需更多信息,请参阅
开始使用 nftables
。如果您正在运行第三方软件,请检查您的厂商以确保它们很快提供基于
nftables
的版本。
1.3.9.13. OpenShift Container Platform 服务的 Ingress 网络流
在这个版本中,您可以查看 OpenShift Container Platform 服务的入口网络流。您可以使用这些信息来管理网络的入口流量,并提高网络安全性。
如需更多信息,请参阅
OpenShift Container Platform 网络流列表
。
在这个版本中,您可以通过修补集群基础架构,将 API 和 Ingress 服务的 IPv6 虚拟 IP (VIP) 添加到现有的双栈集群中。
如果您已经将集群升级到 OpenShift Container Platform 4.16,且您需要将单堆栈集群网络转换为双栈集群网络,则必须在 YAML 配置补丁文件中为集群指定以下内容:
第一个
machineNetwork
配置中 API 和 Ingress 服务的 IPv4 网络。
第二个
machineNetwork
配置中的 API 和 Ingress 服务的 IPv6 网络。
如需更多信息,请参阅
转换到 IPv4/IPv6 双栈网络
中的
转换为双栈网络
。
1.3.9.16. 使用外部受管证书创建路由(技术预览)
在这个版本中,OpenShift Container Platform 路由可以使用第三方证书管理解决方案来配置,使用路由 API 中的
.spec.tls.externalCertificate
字段。这可让您通过 secret 引用外部管理的 TLS 证书,通过消除手动证书管理来简化流程。通过使用外部受管证书,您可以减少错误,确保证书更新过程,并使 OpenShift 路由器能够及时提供更新的证书。如需更多信息,请参阅
使用外部管理的证书创建路由。
1.3.9.17. AdminNetworkPolicy 已正式发布
此功能提供两个新的 API,即
AdminNetworkPolicy
(ANP) 和
BaselineAdminNetworkPolicy
(BANP)。在创建命名空间前,集群管理员可以使用 ANP 和 BANP 应用集群范围的网络策略并保护整个集群。由于它是集群范围的,因此 ANP 提供了一种解决方案,以便大规模管理其网络的安全性,而无需在每个命名空间中复制其网络策略。
如需更多信息,请参阅
转换到 IPv4/IPv6 双栈网络
中的
转换为双栈网络
。
1.3.9.18. 有限实时迁移到 OVN-Kubernetes 网络插件
在以前的版本中,当从 OpenShift SDN 迁移到 OVN-Kubernetes 时,唯一可用的选项是
离线
迁移方法。这个过程包括一些停机时间,在此期间集群无法访问。
此发行版本引入了一个有限的
实时
迁移方法。有限的实时迁移方法是在不中断服务的情况下将 OpenShift SDN 网络插件及其网络配置、连接和相关资源迁移到 OVN-Kubernetes 网络插件的过程。它可用于 OpenShift Container Platform。它不适用于托管 control plane 部署类型。这个迁移方法对于需要持续服务可用性的部署类型非常重要,并具有以下优点:
持续服务可用性
最小化停机时间
自动节点重新引导
从 OpenShift SDN 网络插件无缝过渡到 OVN-Kubernetes 网络插件
迁移到 OVN-Kubernetes 是一个单向过程。
如需更多信息,请参阅
有限实时迁移到 OVN-Kubernetes 网络插件概述
。
1.3.9.19. 使用 Whereabouts 进行多租户网络的重叠 IP 配置
在以前的版本中,无法配置相同的 CIDR 范围两次,并让 Whereabouts CNI 插件单独分配 IP 地址。这个限制会导致在多租户环境中出现问题,不同的组可能需要选择重叠的 CIDR 范围。
在这个版本中,Whereabouts CNI 插件通过包含
network_name
参数来支持重叠的 IP 地址范围。管理员可以使用
network_name
参数在单独的
NetworkAttachmentDefinition
中多次配置相同的 CIDR 范围,这样可为每个范围启用独立的 IP 地址分配。
此功能还包括增强的命名空间处理,在适当的命名空间中存储
IPPool
自定义资源 (CR),并在 Multus 允许时支持跨命名空间。这些改进在多租户环境中提供更大的灵活性和管理功能。
有关此功能的更多信息,请参阅
使用 Whereabouts 进行动态 IP 地址分配配置
。
1.3.9.20. 支持更改 OVN-Kubernetes 网络插件内部 IP 地址范围
如果使用 OVN-Kubernetes 网络插件,您可以配置传输、加入和伪装子网。可以在集群安装过程中或之后配置传输、加入和伪装子网。子网默认值为:
Transit 子网:
100.88.0.0/16
和
fd97::/64
Join 子网:
100.64.0.0/16
和
fd98::/64
Masquerade 子网:
169.254.169.0/29
和
fd69::/125
有关这些配置字段的更多信息,请参阅
Cluster Network Operator 配置对象
。有关在现有集群中配置传输和加入子网的更多信息,请参阅配置 OVN-Kubernetes 内部 IP 地址子网。
1.3.10.1. HashiCorp Vault 现在可用于 Secrets Store CSI Driver Operator (技术预览)
现在,您可以使用 Secrets Store CSI Driver Operator 将 secret 从 HashiCorp Vault 挂载到 OpenShift Container Platform 中的 Container Storage Interface (CSI) 卷。Secrets Store CSI Driver Operator 作为技术预览提供。
有关可用机密存储提供程序的完整列表,请参阅
Secret 存储提供程序
。
有关使用 Secrets Store CSI Driver Operator 从 HashiCorp Vault 挂载 secret 的详情,请参阅
从 HashiCorp Vault 挂载 secret
。
1.3.10.2. Microsoft Azure File 支持的卷克隆(技术预览)
OpenShift Container Platform 4.16 引入了 Microsoft Azure File Container Storage Interface (CSI) Driver Operator 的卷克隆作为技术预览功能。卷克隆会复制现有的持久性卷 (PV),以帮助防止 OpenShift Container Platform 中的数据丢失。您还可以像使用任何标准卷一样使用卷克隆。
如需更多信息,请参阅
Azure File CSI Driver Operator
和
CSI 卷克隆
。
1.3.10.3. 节点扩展 Secret 已正式发布
节点扩展 Secret 功能允许集群扩展挂载卷的存储,即使访问这些卷也需要 secret (例如,用于访问存储区域网络 (SAN) fabric)的凭证来执行节点扩展操作。OpenShift Container Platform 4.16 正式发布(GA) 支持此功能。
1.3.10.4. 更改 vSphere CSI 最大快照数已正式发布
VMware vSphere Container Storage Interface (CSI) 中的默认最大快照数是每个卷 3 个。在 OpenShift Container Platform 4.16 中,您可以将这个最大快照数量改为每个卷最多 32 个。您还可以精细控制 vSAN 和虚拟磁盘数据存储的最大快照数量。OpenShift Container Platform 4.16 正式发布(GA) 支持此功能。
如需更多信息,请参阅
更改 vSphere 的最大快照数
。
1.3.10.5. 持久性卷最后一个阶段转换时间参数(技术预览)
在 OpenShift Container Platform 4.16 中,引入了一个新的参数
LastPhaseTransitionTime
,它有一个时间戳,每次持久性卷 (PV) 转换为不同的阶段 (
pv.Status.Phase
) 时都会更新。此功能以技术预览状态发布。
1.3.10.6. 使用 CIFS/SMB CSI Driver Operator 的持久性存储(技术预览)
OpenShift Container Platform 能够置备持久性卷 (PV),它带有一个用于通用互联网文件系统(CIFS) dialect/Server Message Block (SMB)协议的 Container Storage Interface (CSI) 驱动程序。管理此驱动程序的 CIFS/SMB CSI Driver Operator 处于技术预览状态。
如需更多信息,请参阅
CIFS/SMB CSI Driver Operator
。
1.3.10.7. 带有 SELinux 上下文挂载的 RWOP 已正式发布
OpenShift Container Platform 4.14 引入了一个新的访问模式,它带有技术预览状态用于持久性卷 (PV) 和持久性卷声明 (PVC),名为 ReadWriteOncePod (RWOP)。RWOP 只能在单个节点上的单个 pod 中使用,这与现有的 ReadWriteOnce 访问模式不同,一个 PV 或 PVC 可以被多个 pod 可以在一个单个节点上使用。如果驱动程序启用它,RWOP 将使用
PodSpec
或容器中设置的 SELinux 上下文挂载,它允许驱动程序使用正确的 SELinux 标签直接挂载卷。这消除了递归重新标记卷的需求,pod 启动可能会显著提高。
在 OpenShift Container Platform 4.16 中,此功能已正式发布。
如需更多信息,请参阅
访问模式
。
1.3.10.8. vSphere CSI Driver 3.1 更新了 CSI 拓扑要求
要在多区集群中支持 VMware vSphere Container Storage Interface (CSI) 卷置备和使用,部署应该与 CSI 驱动程序施加的某些要求匹配。这些要求已从 3.1.0 开始改变,虽然 OpenShift Container Platform 4.16 接受旧的和新的标记方法,但您应该使用新的标记方法,因为 VMware vSphere 认为旧的方式是无效的配置。要防止问题,您不应该使用旧的标记方法。
如需更多信息,请参阅
vSphere CSI 拓扑要求
。
1.3.10.9. 支持配置 thick-provisioned 存储
此功能为配置厚置备的存储提供支持。如果您在
LVMCluster
自定义资源 (CR) 中排除了
deviceClasses.thinPoolConfig
字段,逻辑卷将是厚置备的。使用厚置备(thick-provisioned)存储有以下限制:
不支持卷克隆。
不支持
VolumeSnapshotClass
。因此,不支持 CSI 快照。
不支持过度配置。因此,置备的 PVC 容量会立即从卷组中减少。
不支持精简指标。厚置备的设备只支持卷组指标。
有关配置
LVMCluster
CR 的详情,请参考
关于 LVMCluster 自定义资源
。
1.3.10.10. 当 LVMCluster 自定义资源中没有配置设备选择器时,支持新的警告信息
当您没有在
LVMCluster
自定义资源 (CR) 中配置
deviceSelector
字段时,这个版本提供了一个新的警告信息。
LVMCluster
CR 支持一个新的字段
deviceDiscoveryPolicy
,它表示是否配置了
deviceSelector
字段。如果没有配置
deviceSelector
字段,LVM Storage 会自动将
deviceDiscoveryPolicy
字段设置为
RuntimeDynamic
。否则,
deviceDiscoveryPolicy
字段被设置为
Preconfigured
。
不建议从
LMVCluster
CR 中排除
deviceSelector
字段。有关不配置
deviceSelector
字段的限制的更多信息,请参阅
关于在卷组中添加设备
。
此功能支持将加密设备添加到卷组。您可以在 OpenShift Container Platform 安装过程中在集群节点上启用磁盘加密。加密设备后,您可以在
LVMCluster
自定义资源的
deviceSelector
字段中指定 LUKS 加密设备的路径。有关磁盘加密的详情,请参阅
关于磁盘加密
和
配置磁盘加密和镜像
。
有关向卷组添加设备的更多信息,请参阅
关于在卷组中添加设备
。
1.3.11.1. Operator API 重命名为 ClusterExtension (技术预览)
Operator Lifecycle Manager (OLM) 1.0 的早期技术预览阶段引入了一个新的
Operator
API,由 Operator Controller 组件以
operator.operators.operatorframework.io
提供。在 OpenShift Container Platform 4.16 中,这个 API 被重命名为
ClusterExtension
,作为 OLM 1.0 技术预览阶段的一部分,以
clusterextension.olm.operatorframework.io
提供。
此 API 简化了对安装的扩展进行管理的过程,它包括了以
registry+v1
捆绑包格式提供的 Operator,可以将面向用户的 API 整合到一个单一对象中。重命名为
ClusterExtension
的目的是:
更准确地反映了扩展集群功能的简化功能
准确地代表了一个更灵活的打包格式
Cluster
前缀明确表示
ClusterExtension
对象是集群范围的。这与旧的 OLM 不同,其中 Operator 可以是命名空间范围的或集群范围的
如需更多信息,请参阅
Operator Controller
。
OLM 1.0 不支持依赖项解析。如果扩展为其他 API 或软件包声明依赖关系,在尝试安装扩展前,集群中必须存在依赖项。
目前,OLM 1.0 支持安装满足以下条件的扩展:
扩展必须使用
AllNamespaces
安装模式。
扩展不能使用 Webhook。
使用 Webhook 或以单个或指定命名空间集合的集群扩展无法安装。
1.3.11.2. 改进了 Operator Lifecycle Manager (OLM) 1.0 中集群扩展的状态条件消息和弃用通知(技术预览)
在这个版本中,OLM 1.0 显示已安装集群扩展的以下状态条件信息:
特定的捆绑包名称
已安装的版本
改进了健康报告
软件包、频道和捆绑包的弃用通知
1.3.11.3. 支持 OLM 1.0 中的旧 OLM 升级边缘(技术预览)
在为已安装的集群扩展决定升级边缘时,Operator Lifecycle Manager (OLM) 1.0 支持从 OpenShift Container Platform 4.16 开始的传统 OLM 语义。这个支持遵循旧的 OLM 的行为,包括
replaces
,
skips
, 和
skipRange
指令,但会有一些区别。
通过支持传统的 OLM 语义,OLM 1.0 现在可以准确地处理来自目录中的升级图表。
OpenShift Container Platform 4.15 中引入了对语义版本 (semver) 升级限制的支持,但在 4.16 中被禁用,它在技术预览阶段使用传统的 OLM 语义。
如需更多信息,请参阅
升级约束语义
。
未经身份验证的用户已从 system:webhook 角色绑定中删除
在这个版本中,未经身份验证的用户不再能够访问
system:webhook
角色绑定。在 OpenShift Container Platform 4.16 之前,未经身份验证的用户可以访问
system:webhook
角色绑定。对于未经身份验证的用户,更改此访问权限会添加额外的安全层,并仅在需要时由用户启用。这个变化适用于新集群,以前的集群不受影响。
在有些用例中,您可能希望允许未经身份验证的用户特定命名空间的
system:webhook
角色绑定。
system:webhook
集群角色允许用户触发不使用 OpenShift Container Platform 身份验证机制的外部系统的构建,如 GitHub、GitLab 和 Bitbucket。集群管理员可以授予未经身份验证的用户访问
system:webhook
角色绑定,以便于这个用例。
在修改未经身份验证的访问时,始终验证符合您机构的安全标准。
要授予未经身份验证的用户访问特定命名空间中的
system:webhook
角色绑定,请参阅
将未经身份验证的用户添加到 system:webhook 角色绑定
。
1.3.13. Machine Config Operator
1.3.13.1. 未使用的渲染机器配置的垃圾回收
在这个版本中,您可以垃圾回收未使用的渲染机器配置。通过使用
oc adm prune renderedmachineconfigs
命令,您可以查看未使用的渲染机器配置,决定要删除的机器配置,然后批量删除您不再需要的渲染机器配置。具有太多机器配置可能会导致机器配置混淆,并有助于提高磁盘空间和性能问题。如需更多信息,请参阅
管理未使用的渲染的机器配置
。
默认情况下,当您对
MachineConfig
对象中的参数进行某些更改时,Machine Config Operator (MCO) 会排空并重启与该机器配置关联的节点。但是,您可以在 MCO 命名空间中创建节点中断策略,该策略定义了一组 Ignition 配置对象更改,这些配置对象对工作负载只需要少或不会中断。如需更多信息,请参阅
使用节点中断策略来最大程度降低机器配置变化的中断
。
1.3.13.3. 集群 RHCOS 镜像分层(技术预览)
使用 Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层,您现在可以直接在集群中自动构建自定义分层镜像,作为技术预览功能。在以前的版本中,您需要在集群之外构建自定义分层镜像,然后将镜像拉取到集群中。您可以通过将额外镜像分层到基础镜像,使用镜像层功能来扩展基本 RHCOS 镜像的功能。如需更多信息,请参阅
RHCOS 镜像分层
。
默认情况下,MCO 不会删除用来启动 Red Hat Enterprise Linux CoreOS (RHCOS) 节点的引导镜像。因此,集群中的引导镜像不会随集群一起更新。现在,您可以将集群配置为在更新集群时更新引导镜像。如需更多信息,请参阅
更新引导镜像
。
在这个版本中,集群自动扩展可以使用
LeastWaste
、
Priority
和
Random
展开器。您可以配置这些扩展器,以便在扩展集群时影响机器集的选择。如需更多信息,请参阅
配置集群自动扩展
。
1.3.14.2. 使用 VMware vSphere 的集群 API 管理机器(技术预览)
此发行版本引入了使用上游 Cluster API (集成到 OpenShift Container Platform)作为 VMware vSphere 集群的技术预览来管理机器的功能。这个功能是使用 Machine API 管理机器的补充或替代功能。如需更多信息,请参阅
关于集群 API
。
1.3.15.1. 移动 Vertical Pod Autoscaler Operator pod
Vertical Pod Autoscaler Operator (VPA)由三个组件组成:推荐器(recommender)、更新器(updater)和准入控制器(admission controller)。Operator 和每个组件在 control plane 节点上的 VPA 命名空间中都有自己的 pod。您可以将 VPA Operator 和组件 pod 移到基础架构或 worker 节点。如需更多信息,请参阅
Moving Vertical Pod Autoscaler Operator 组件
。
1.3.15.2. must-gather 收集的附加信息
在这个版本中,
oc adm must-gather
命令收集以下附加信息:
OpenShift CLI (
oc
) 二进制版本
must-gather 日志
这些添加新信息有助于识别使用特定版本的
oc
的问题。
oc adm must-gather
命令还会列出使用的镜像,以及没有在 must-gather 日志中收集的数据。
如需更多信息,请参阅
关于 must-gather 工具
。
在 OpenShift Container Platform 4.16 及更高版本中,您可以使用
DataImage
资源将一个通用的、不可启动的 ISO 虚拟介质镜像附加到置备的节点上。应用资源后,操作系统在下次重启时可以访问 ISO 镜像。节点必须使用 Redfish 或从中派生的驱动程序来支持此功能。节点必须处于
Provisioned
或
ExternallyProvisioned
状态。如需了解更多详细信息,请参阅
将不可启动的 ISO 附加到裸机节点
。
此发行版本中的集群监控堆栈包括以下新功能和修改后的功能。
此发行版本包括对集群监控堆栈组件和依赖项的以下版本更新:
kube-state-metrics 更新到 2.12.0
Metrics Server 更新到 0.7.1
node-exporter 更新到 1.8.0
Prometheus 更新到 2.52.0
Prometheus Operator 更新到 0.73.2
Thanos 更新到 0.35.0
红帽不保证记录规则或警报规则的向后兼容性。
添加了
ClusterMonitoringOperatorDeprecatedConfig
警报,用于监控 Cluster Monitoring Operator 配置使用已弃用字段的情况。
添加了
PrometheusOperatorStatusUpdateErrors
警报,用于监控 Prometheus Operator 无法更新对象状态的情况。
1.3.16.3. 用于访问 Metrics API 的 Metrics Server 组件正式发布(GA)
Metrics Server 组件现已正式发布,并被自动安装(而不是安装已弃用的 Prometheus Adapter)。Metrics Server 会收集资源指标,并在
metrics.k8s.io
Metrics API 服务中公开这些资源指标,以便其他工具和 API 使用它们,从而释放核心平台 Prometheus 堆栈来处理此功能。如需更多信息,请参阅 Cluster Monitoring Operator 的配置映射 API 参考中的
MetricsServerConfig
。
1.3.16.4. 新的监控角色,允许对 Alertmanager API 进行只读访问
此发行版本引入了一个新的
monitoring-alertmanager-view
角色,允许对
openshift-monitoring
项目中的 Alertmanager API 进行只读访问。
1.3.16.5. VPA 指标包括在 kube-state-metrics 代理中
Vertical Pod Autoscaler (VPA) 指标可以通过
kube-state-metrics
代理获得。VPA 指标遵循类似的组成格式,就如在从原生支持上游被弃用和删除之前一样。
在这个版本中,Prometheus、Alertmanager 和 Thanos Ruler 前面的代理服务已从 OAuth 更新至
kube-rbac-proxy
。此更改可能会影响到服务帐户,以及没有适当角色和集群角色的用户对这些 API 端点的访问。
1.3.16.7. Prometheus 处理重复样本的方式有所改变
在这个版本中,当 Prometheus 提取目标时,重复的示例不再被静默忽略,即使它们具有相同的值。第一个样本会被接受,
prometheus_target_scrapes_sample_duplicate_timestamp_total
计数器会递增,这可能会触发
PrometheusDuplicateTimestamps
警报。
1.3.17. Network Observability Operator
Network Observability Operator 发行版本独立于 OpenShift Container Platform 次版本流的更新。更新可以通过单一的滚动流提供,该流在所有当前支持的 OpenShift Container Platform 4 版本中被支持。有关 Network Observability Operator 的新功能、功能增强和程序错误修复的信息,请参阅
Network Observability 发行注记
。
1.3.19.1. 使用 RHACM PolicyGenerator 资源管理 GitOps ZTP 集群策略(技术预览)
现在,您可以使用
PolicyGenerator
资源和 Red Hat Advanced Cluster Management (RHACM) 来使用 GitOps ZTP 为受管集群部署策略。
PolicyGenerator
API 是
Open Cluster Management
标准的一部分,它提供了一种通用的修补资源的方法,这些资源无法通过
PolicyGenTemplate
API 来实现。使用
PolicyGenTemplate
资源管理和部署策略将在即将发布的 OpenShift Container Platform 发行版本中弃用。
如需更多信息,请参阅
使用 PolicyGenerator 资源配置受管集群策略
。
PolicyGenerator
API 目前不支持将补丁与包含项目列表的自定义 Kubernetes 资源合并。例如,在
PtpConfig
CR 中。
在这个版本中,Topology Aware Lifecycle Manager (TALM) 使用 Red Hat Advanced Cluster Management (RHACM) 功能来修复受管集群中的
inform
策略。此功能增强删除了 Operator 在策略补救过程中创建
inform
策略的
enforce
副本。由于复制策略,这个增强还减少了 hub 集群上的工作负载,并可减少在受管集群中修复策略所需的总体时间。
如需更多信息,请参阅
在受管集群上更新策略
。
1.3.19.3. 加速置备 GitOps ZTP (技术预览)
在这个版本中,您可以通过为单节点 OpenShift 使用 GitOps ZTP 置备来缩短集群安装所需的时间。加速 ZTP 通过在早期阶段应用从策略派生的第 2 天清单来加快安装速度。
加速置备 GitOps ZTP 的好处会随着部署的规模增加而增加。完全加速对有大量集群的环境有更多好处。如果集群数量较少,则对减少安装时间的效果会显著减少。
如需更多信息,请参阅
GitOps ZTP 的加速置备
。
1.3.19.4. 使用 Lifecycle Agent 为单节点 OpenShift 集群进行基于镜像的升级
在这个版本中,您可以使用 Lifecycle Agent ,为单节点 OpenShift 集群编配从 OpenShift Container Platform <4.y> 到 <4.y+2> 和从 <4.y.z+n> 到 <4.y.z+n> 的基于镜像的升级。Lifecycle Agent 生成与参与集群的配置匹配的开放容器项目 (OCI) 镜像。除了 OCI 镜像外,基于镜像的升级使用
ostree
库和 OADP Operator 来降低在原始平台版本和目标平台版本间进行转换时的升级和服务中断持续的时间。
如需更多信息,请参阅
了解单节点 OpenShift 集群的基于镜像的升级
。
1.3.19.5. 使用 GitOps ZTP 和 RHACM 将 IPsec 加密部署到受管集群
现在,您可以使用 GitOps ZTP 和 Red Hat Advanced Cluster Management (RHACM) 部署的受管单节点 OpenShift 集群中启用 IPsec 加密。您可以加密受管集群外部 pod 和 IPsec 端点之间的外部流量。OVN-Kubernetes 集群网络上的节点之间的所有 pod 到 pod 网络流量都使用 IPsec 传输模式加密。
如需更多信息,请参阅
使用 GitOps ZTP 和 SiteConfig 资源为单节点 OpenShift 集群配置 IPsec 加密
。
1.3.20.1. 托管 control plane 在 Amazon Web Services (AWS) 上正式发布
OpenShift Container Platform 4.16 托管 control plane 现在在 AWS 平台上正式发布。
新的签名者证书颁发机构 (CA)
openshift-etcd
现在可以为证书签名。此 CA 包含在与现有 CA 的信任捆绑包中。另外还有两个可用于轮转的 CA secret (
etcd-signer
和
etcd-metric-signer
)。从这个版本开始,所有证书都将移至一个经过验证的库。此更改允许自动轮转所有不是由
cluster-etcd-operator
管理的证书。所有基于节点的证书都将继续当前的更新过程。
OpenShift Container Platform 4.16 包括以下显著的技术更改。
HAProxy 版本 2.8
OpenShift Container Platform 4.16 使用 HAProxy 2.8。
HAProxy 不再支持使用 SHA-1 证书
HAProxy 不再支持使用 SHA-1 证书在 OpenShift Container Platform 4.16 中,现有的和新的使用 SHA-1 证书的路由都会被拒绝,且无法正常工作。有关创建安全路由的更多信息,请参阅
安全路由
。
etcd 调优参数
在这个版本中,可以使用 etcd 调优参数来优化性能并降低延迟,如下所示。
""
(默认)
Standard
Slower
未经身份验证的用户已从某些集群角色中删除
在这个版本中,未经身份验证的用户将不再能够访问某些功能集所需的特定集群角色。在 OpenShift Container Platform 4.16 之前,未经身份验证的用户可以访问某些集群角色。对于未经身份验证的用户,更改此访问权限会添加额外的安全层,并仅在需要时启用。这个变化适用于新集群,以前的集群不受影响。
在某些情况下,您可能想要为特定集群角色授予未经身份验证的用户访问权限。要授予未经身份验证的用户访问某些功能所需的特定集群角色,请参阅
将未经身份验证的组添加到集群角色中
。
在修改未经身份验证的访问时,始终验证符合您机构的安全标准。
IBM Z (R) 和 IBM (R) LinuxONE (s390x) 上不再支持 RHCOS dasd 镜像工件
在这个版本中,
s390x
架构的
dasd
镜像工件已从 OpenShift Container Platform 镜像构建管道中删除。您仍然可以使用
metal4k
镜像工件,其相同并包含相同的功能。
支持带有 ExternalTrafficPolicy=Local 服务的 EgressIP
在以前的版本中,gressIP 所选 pod 不支持将
externalTrafficPolicy
设置为
Local
的服务作为后端。当尝试此配置时,到达 pod 的服务入口流量会错误地重新路由到托管 EgressIP 的出口节点。这会影响对传入服务流量连接的响应的处理,并在将
externalTrafficPolicy
设置为
Local
时服务无法正常工作,因为连接会被丢弃,服务变为不可用。
在 OpenShift Container Platform 4.16 中,OVN-Kubernetes 现在支持在同一组所选 pod 上同时使用
ExternalTrafficPolicy=Local
服务和 EgressIP 配置。OVN-Kubernetes 现在只将源自 EgressIP pod 的流量重新路由到出口节点,同时通过 pod 所在的同一节点将响应从 EgressIP pod 路由到 ingress 服务流量。
旧服务帐户 API 令牌 secret 不再为每个服务帐户生成
在 OpenShift Container Platform 4.16 之前,当启用了集成的 OpenShift 镜像 registry 时,会为集群中的每个服务帐户生成一个旧的服务帐户 API 令牌 secret。从 OpenShift Container Platform 4.16 开始,当启用集成的 OpenShift 镜像 registry 时,每个服务帐户不再会生成旧的服务帐户 API 令牌 secret。
另外,当启用集成的 OpenShift 镜像 registry 时,每个服务帐户生成的镜像 pull secret 不再使用旧的服务帐户令牌 API 令牌。现在,镜像 pull secret 使用绑定服务帐户令牌,该令牌会在过期前自动刷新。
如需更多信息,请参阅
自动生成的镜像 pull secret
。
有关检测集群中正在使用的旧服务帐户 API 令牌 secret 的详情,请参考
OpenShift Container Platform 中的长期服务帐户令牌 API 令牌
。
支持外部云身份验证供应商
在本发行版本中,在 Amazon Web Services (AWS)、Google Cloud Platform (GCP) 和 Microsoft Azure 集群(OpenShift Container Platform) 上向私有 registry 进行身份验证的功能被从 in-tree 供应商移到 OpenShift Container Platform 附带的二进制文件中。此更改支持 Kubernetes 1.29 中引入的默认外部云身份验证供应商行为。
如果禁用 Build 集群功能,则 builder 服务帐户将不再创建
在这个版本中,如果您禁用
Build
集群功能,则不再会创建
builder
服务帐户及其对应的 secret。
如需更多信息,请参阅
构建功能
。
默认 OLM 1.0 升级限制已改为传统的 OLM 语义(技术预览)
在 OpenShift Container Platform 4.16 中,Operator Lifecycle Manager (OLM) 1.0 将其默认升级限制从语义版本 (semver) 改为旧的 OLM 语义。
如需更多信息,请参阅
在 OLM 1.0 中支持旧的 OLM 升级边缘(技术预览)。
从 OLM 1.0 中删除了 RukPak Bundle API (技术预览)
在 OpenShift Container Platform 4.16 中,Operator Lifecycle Manager (OLM) 1.0 删除了
Bundle
API,它由 RukPak 组件提供。RukPak
BundleDeployment
API 仍然保留,并支持
registry+v1
捆绑包以旧的 Operator Lifecycle Manager (OLM) 捆绑包格式解包 Kubernetes YAML 清单。
如需更多信息,请参阅
Rukpak (技术预览)
。
添加了 dal12 区域
在这个版本中,
dal12
区域被添加到 IBM Power® VS Installer 中。
添加至 IBM Power (R) 虚拟服务器的区域
此发行版本引入了部署到新的 IBM Power® Virtual Server (VS) 区域
osa21
、s
syd04
、
lon06
和
sao01
的功能。
IBM Power (R) Virtual Server 更新至使用 Cluster API Provider IBM Cloud 0.8.0
在这个版本中,IBM Power® Virtual Server 已更新为使用 Cluster API Provider IBM Cloud 版本 0.8.0。
ServiceInstanceNameToGUID 的额外调试语句
在这个版本中,额外的调试语句被添加到
ServiceInstanceNameToGUID
功能中。
之前版本中的一些功能已被弃用或删除。
弃用的功能仍然包含在 OpenShift Container Platform 中,并将继续被支持。但是,这个功能会在以后的发行版本中被删除,且不建议在新的部署中使用。有关 OpenShift Container Platform 4.16 中已弃用并删除的主要功能的最新列表,请参考下表。表后列出了更多已弃用和删除的功能的更多详细信息。
在以下表格中,功能被标记为以下状态:
Operator 生命周期和开发已弃用和删除的功能
表 1.6. Operator 生命周期和开发已弃用并删除 tracker
功能
|
4.14
|
4.15
|
4.16
|
Operator SDK
为基于 Ansible 的 Operator 项目构建工具
为基于 Helm 的 Operator 项目构建工具
为基于 Go 的 Operator 项目构建工具
为基于 Helm 的 Operator 项目构建工具
为基于 Java 的 Operator 项目构建工具
平台 Operator
普通捆绑包
Operator 目录的 SQLite 数据库格式
|
镜像已弃用和删除的功能
表 1.7. Cluster Samples Operator 弃用并删除了 tracker
功能
|
4.14
|
4.15
|
4.16
|
Cluster Samples Operator
|
监控已弃用和删除的功能
表 1.8. 监控已弃用和删除的 tracker
功能
|
4.14
|
4.15
|
4.16
|
dedicatedServiceMonitors
设置,用于为核心平台监控启用专用的服务监控器
prometheus-adapter
组件从 Prometheus 查询资源指标,并在 metrics API 中公开它们。
|
安装已弃用和删除的功能
表 1.9. 安装已弃用并删除跟踪器
功能
|
4.14
|
4.15
|
4.16
|
OpenShift SDN 网络插件
删除
[1]
oc adm release extract
的
--cloud
参数
对
cluster.local
域的 CoreDNS 通配符查询
compute.platform.openstack.rootVolume.type
for RHOSP
controlPlane.platform.openstack.rootVolume.type
for RHOSP
安装程序置备的基础架构集群的
install-config.yaml
文件中的
ingressVIP
和
apiVIP
设置
基于软件包的 RHEL 计算机器
用于 Amazon Web Services (AWS) 的
platform.aws.preserveBootstrapIgnition
参数
Amazon Web Services (AWS), VMware vSphere 和 Nutanix 的 Terraform 基础架构供应商
使用安装程序置备的基础架构在 Alibaba Cloud 上安装集群
虽然安装程序在版本 4.15 中不再支持 OpenShift SDN 网络插件,但您可以将使用 OpenShift SDN 插件的集群从版本 4.14 升级到 4.15。
更新集群已弃用和删除的功能
表 1.10. 更新集群已弃用并删除 tracker
功能
|
4.14
|
4.15
|
4.16
|
机器管理已弃用和删除的功能
表 1.11. 机器管理已弃用并删除 tracker
功能
|
4.14
|
4.15
|
4.16
|
使用 Alibaba Cloud 的 Machine API 管理机器
Alibaba Cloud 的云控制器管理器
|
存储已弃用和删除的功能
表 1.12. 存储已弃用和删除的 tracker
功能
|
4.14
|
4.15
|
4.16
|
使用 FlexVolume 的持久性存储
AliCloud Disk CSI Driver Operator
|
已弃用和删除的网络功能
表 1.13. 已弃用和删除的网络功能跟踪器
功能
|
4.14
|
4.15
|
4.16
|
RHOSP 上的 Kuryr
OpenShift SDN 网络插件
iptables
|
Web 控制台已弃用和删除的功能
表 1.14. Web 控制台已弃用并删除 tracker
功能
|
4.14
|
4.15
|
4.16
|
PatternFly 4
React Router 5
|
节点已弃用和删除的功能
表 1.15. 节点已弃用并删除 tracker
功能
|
4.14
|
4.15
|
4.16
|
ImageContentSourcePolicy
(ICSP) 对象
Kubernetes 拓扑标签
failure-domain.beta.kubernetes.io/zone
Kubernetes 拓扑标签
failure-domain.beta.kubernetes.io/region
cgroup v1
|
工作负载已弃用和删除的功能
表 1.16. 工作负载已弃用和删除的 tracker
功能
|
4.14
|
4.15
|
4.16
|
deploymentConfig
对象
|
表 1.17. 裸机事件中继 Operator tracker
功能
|
4.14
|
4.15
|
4.16
|
裸机事件中继 Operator
|
1.5.1.1. Linux Control Groups 版本 1 现已弃用
在 Red Hat Enterprise Linux (RHEL) 9 中,默认模式是 cgroup v2。当发布 Red Hat Enterprise Linux (RHEL) 10 时,systemd 将不再支持在 cgroup v1 模式下引导,且只有 cgroup v2 模式可用。因此,OpenShift Container Platform 4.16 及更新的版本中已弃用 cgroup v1。cgroup v1 将在以后的 OpenShift Container Platform 发行版本中删除。
1.5.1.2. Cluster Samples Operator
Cluster Samples Operator 在 OpenShift Container Platform 4.16 版本中已被弃用。Cluster Samples Operator 将停止管理和提供对非 S2I 示例(镜像流和模板)的支持。不会再有新的模板、示例或非 Source-to-Image (Non-S2I) 镜像流被添加到 Cluster Samples Operator 中。但是,现有 S2I 构建器镜像流和模板将继续接收更新,直到以后的发行版本中删除了 Cluster Samples Operator。
1.5.1.3. 基于软件包的 RHEL 计算机器
在这个版本中,安装基于软件包的 RHEL worker 节点已弃用。在以后的发行版本中,RHEL worker 节点将被删除并不再被支持。
RHCOS 镜像分层将替换此功能,并支持在 worker 节点的基本操作系统上安装额外的软件包。
有关镜像分层的更多信息,请参阅
RHCOS 镜像分层
。
1.5.1.4. Operator SDK CLI 工具和相关测试和构建工具已弃用
红帽支持的 Operator SDK CLI 工具版本,包括 Operator 项目的相关构建和测试工具已被弃用,计划在以后的 OpenShift Container Platform 发行版本中删除。红帽将在当前发行生命周期中提供对这个功能的程序错误修复和支持,但此功能将不再获得改进,并将在以后的 OpenShift Container Platform 版本中删除。
对于创建新 Operator 项目,不建议使用红帽支持的 Operator SDK 版本。现有 Operator 项目的 Operator 作者可以使用 OpenShift Container Platform 4.16 发布的 Operator SDK CLI 工具版本来维护其项目,并创建针对较新版本的 OpenShift Container Platform 的 Operator 发行版本。
以下与 Operator 项目相关的基础镜像
没有
被弃用。这些基础镜像的运行时功能和配置 API 仍然会有程序错误修复和并提供对相关 CVE 的解决方案。
基于 Ansible 的 Operator 项目的基础镜像
基于 Helm 的 Operator 项目的基础镜像
有关 Operator SDK 不支持的、社区维护版本的信息,请参阅
Operator SDK (Operator Framework)
。
1.5.1.5. Amazon Web Services (AWS) 上的 preserveBootstrapIgnition 参数已弃用
install-config.yaml
文件中的 Amazon Web Services 的
preserveBootstrapIgnition
参数已弃用。您可以使用
bestEffortDeleteIgnition
参数替代。
SiteConfig
自定义资源 (CR) 中的
nodes.diskPartition
部分在 OpenShift Container Platform 4.16 发行版本中已弃用。此配置已被
ignitionConfigOverride
方法替代,它为任何用例创建磁盘分区提供了一种更灵活的方法。
如需更多信息,请参阅
使用 SiteConfig 配置磁盘分区
。
1.5.2.3. 已删除用于 BMC 寻址的 Dell iDRAC 驱动程序
OpenShift Container Platform 4.16 支持与 Dell 服务器的基板管理控制器 (BMC) 寻址,如
Dell iDRAC 的 BMC 寻址
中所述。具体来说,它支持
idrac-virtualmedia
,
redfish
, 和
ipmi
。在以前的版本中包含了
idrac
,但这个信息没有被记录或支持。在 OpenShift Container Platform 4.16 中,删除了
idrac
。
1.5.2.4. 用于核心平台监控的专用服务监控器
在这个版本中,删除了用于核心平台监控的专用服务监控功能。您无法再在
openshift-monitoring
命名空间中的
cluster-monitoring-config
配置映射对象中启用此功能。要替换此功能,Prometheus 功能已被改进,以确保警报和时间聚合准确。这个改进的功能默认处于活动状态,它使专用服务监控器功能过时。
1.5.2.5. 用于核心平台监控的 Prometheus Adapter
在这个版本中,核心平台监控的 Prometheus Adapter 组件已被删除。它已被新的 Metrics Server 组件替代。
1.5.2.7. Service Binding Operator 文档已删除
在这个版本中,Service Binding Operator (SBO) 的文档已被删除,因为这个 Operator 不再被支持。
1.5.2.8. AliCloud CSI Driver Operator 不再被支持
OpenShift Container Platform 4.16 不再支持 AliCloud Container Storage Interface (CSI) Driver Operator。
1.5.2.9. 从 Kubernetes 1.29 中删除了 Beta API
Kubernetes 1.29 删除了以下已弃用的 API,因此您必须迁移清单和 API 客户端以使用适当的 API 版本。有关迁移删除 API 的更多信息,请参阅
Kubernetes 文档
。
表 1.18. 从 Kubernetes 1.29 中删除的 API
资源
|
删除的 API
|
迁移到
|
主要变化
|
FlowSchema
flowcontrol.apiserver.k8s.io/v1beta2
flowcontrol.apiserver.k8s.io/v1
或
flowcontrol.apiserver.k8s.io/v1beta3
PriorityLevelConfiguration
flowcontrol.apiserver.k8s.io/v1beta2
flowcontrol.apiserver.k8s.io/v1
或
flowcontrol.apiserver.k8s.io/v1beta3
|
1.5.2.10. 使用 Alibaba Cloud 的 Machine API 管理机器
OpenShift Container Platform 4.16 删除了对使用 Alibaba Cloud 集群的 Machine API 管理机器的支持。这个更改包括删除对 Alibaba Cloud 的云控制器管理器的支持,它以前是一个技术预览功能。
API 服务器和客户端
-
在以前的版本中,在升级的集群中,
ephemeral
和
csi
卷没有正确添加到安全性上下文约束 (SCC) 中。在这个版本中,升级的集群中的 SCC 会被正确更新,使其具有
ephemeral
和
csi
卷。(
OCPBUGS-33522
)
在以前的版本中,
ServiceAccounts
资源无法用于启用了
ImageRegistry
能力的集群的 OAuth 客户端。在这个版本中,这个问题已被解决。(
OCPBUGS-30319
)
在以前的版本中,当使用空安全上下文创建 pod 且您可以访问所有安全性上下文约束 (SCC)时,pod 会收到
anyuid
SCC。在
ovn-controller
组件向 pod 添加标签后,会为 SCC 选择重新管理 pod,其中 pod 收到了一个升级的 SCC,如
privileged
。在这个版本中,这个问题已被解决,pod 不会重新用于 SCC 选择。(
OCPBUGS-11933
)
在以前的版本中,
hostmount-anyuid
安全性上下文约束 (SCC) 没有内置集群角色,因为 SCC 的名称在集群角色中被错误地命名为
hostmount
。在这个版本中,集群角色中的 SCC 名称被正确更新为
hostmount-anyuid
,因此
hostmount-anyuid
SCC 现在具有可正常工作的集群角色。(
OCPBUGS-33184
)
在以前的版本中,在 OpenShift Container Platform 4.7 之前创建的集群有几个类型为
SecretTypeTLS
的 secret。升级到 OpenShift Container Platform 4.16 后,这些 secret 会被删除并使用类型
kubernetes.io/tls
重新创建。这个删除行为可能会导致竞争条件,且 secret 的内容可能会丢失。在这个版本中,secret 类型更改会自动发生,在 OpenShift Container Platform 4.7 之前创建的集群可以升级到 4.16,而不会丢失这些 secret 的内容。(
OCPBUGS-31384
)
在以前的版本中,一些 Kubernetes API 服务器事件没有正确的时间戳。在这个版本中,Kubernetes API 服务器事件具有正确的时间戳。(
OCPBUGS-27074
)
在以前的版本中,Kubernetes API Server Operator 会尝试删除 OpenShift Container Platform 4.13 中删除的 Prometheus 规则,以确保它已被删除。这会导致在审计日志中,每几分钟就会出现删除信息失败的信息。在这个版本中,Kubernetes API Server Operator 不再尝试删除此不存在的规则,在审计日志中不会在有这些删除信息。(
OCPBUGS-25894
)
-
在以前的版本中,Redfish 的较新版本使用 Manager 资源弃用 RedFish Virtual Media API 的统一资源标识符 (URI)。这会导致任何使用较新的 Redfish URI for Virtual Media 的硬件不会被置备。在这个版本中,Ironic API 标识为 RedFish Virtual Media API 部署的正确 Redfish URI,以便依赖已弃用或可以置备较新的 URI 的硬件。(
OCPBUGS-30171
)
在以前的版本中,Bare Metal Operator (BMO) 没有使用领导锁定来控制传入和传出 Operator pod 流量。OpenShift
Deployment
对象包含新的 Operator pod 后,新 pod 与系统资源(如
ClusterOperator
状态)竞争,这会终止任何传出的 Operator pod。这个问题也会影响没有包括任何裸机节点的集群。在这个版本中,BMO 包括一个领导锁定来管理新的 pod 流量,这个修复解决了竞争的 pod 问题。(
OCPBUGS-25766
)
在以前的版本中,当在安装开始前尝试删除
BareMetalHost
对象时,metal3 Operator 会尝试创建
PreprovImage
镜像。创建此镜像的过程会导致
BareMetalHost
对象在特定进程中仍然存在。在这个版本中,在这种情况下添加了一个例外,以便在不影响正在运行的进程的情况下删除
BareMetalHost
对象。(
OCPBUGS-33048
)
在以前的版本中,HPEt Packard Enterprise (HPE) Lights Out (iLO) 5 在 Hewlett Packard Enterprise (HPE) Lights Out (iLO) 5 上下文中的 Redfish 虚拟介质被禁止进行裸机压缩,以解决不同的硬件模型中的其他不相关的问题。这会导致每个 iLO 5 裸机机器中缺少
FirmwareSchema
资源。每台机器都需要压缩从 Redfish Baseboard Management Controller (BMC) 端点获取消息 registry。在这个版本中,每个需要
FirmwareSchema
资源的 iLO 5 裸机机器都没有强制禁用压缩。(
OCPBUGS-31104
)
在以前的版本中,
inspector.ipxe
配置文件使用
IRONIC_IP
变量,它不会考虑 IPv6 地址,因为它们有括号。因此,当用户提供不正确的
boot_mac_address
时,i iPXE 会返回到使用
inspector.ipxe
配置文件,该文件提供了格式不正确的 IPv6 主机标头,因为它没有包含括号。在这个版本中,
inspector.ipxe
配置文件已更新为使用
IRONIC_URL_HOST
变量,该变量用于 IPv6 地址并解决这个问题。(
OCPBUGS-22699
)
在以前的版本中,Ironic Python Agent 假设所有服务器磁盘在尝试擦除磁盘时具有 512 字节扇区大小。这会导致磁盘擦除失败。在这个版本中,Ironic Python Agent 检查磁盘扇区大小,并为磁盘中断具有单独的值,以便磁盘擦除成功。(
OCPBUGS-31549
)
Builds
-
在以前的版本中,从早期版本升级到 4.16 的集群仍然允许未经身份验证的 Webhook 触发构建。在这个版本中,新集群需要验证构建 Webhook。除非集群管理员允许命名空间或集群中的未经身份验证的 Webhook,否则不会由未经身份验证的 Webhook 触发构建。(
OCPBUGS-33378
)
在以前的版本中,如果开发人员或集群管理员将小写环境变量名称用于代理信息,则这些环境变量会传送到构建输出容器镜像中。在运行时,代理设置处于活跃状态,必须取消设置。在这个版本中,
*_PROXY
环境变量的小写版本无法泄漏构建的容器镜像。现在,
buildDefaults
仅在为构建过程创建的构建和设置期间保留,仅在推送 registry 中的镜像前删除。(
OCPBUGS-34825
)
Cloud Compute
-
在以前的版本中,Cloud Controller Manager (CCM) Operator 在 Google Cloud Platform (GCP) 上使用预定义角色,而不是粒度权限。在这个版本中,CCM Operator 被更新为在 GCP 集群上使用粒度权限。(
OCPBUGS-26479
)
在以前的版本中,安装程序会填充 VMware vSphere control plane 机器集自定义资源 (CR)的
spec.template.spec.providerSpec.value
的
network.devices
,
template
和
workspace
字段。这些字段应该在 vSphere 故障域中设置,且安装程序填充它们会导致意外的行为。更新这些字段不会触发对 control plane 机器的更新,并在删除 control plane 机器集时清除这些字段。
在这个版本中,安装程序被更新,不再填充故障域配置中包含的值。如果在故障域配置中没有定义这些值,例如,从早期版本升级到 OpenShift Container Platform 4.16 的集群,则会使用安装程序定义的值。(
OCPBUGS-32947
)
在以前的版本中,与重新引导机器关联的节点会短暂处于
Ready=Unknown
状态,这会触发 Control Plane Machine Set Operator 中的
UnavailableReplicas
条件。此条件导致 Operator 进入
Available=False
状态并触发警报,因为该状态表示需要立即管理员干预的非功能组件。重新引导时,不应为简短和预期的未提供警报触发此警报。在这个版本中,添加了节点未就绪的宽限期,以避免触发不必要的警报。(
OCPBUGS-34970
)
在以前的版本中,在机器创建过程中获取 bootstrap 数据(如临时失败)无法连接到 API 服务器,从而导致机器进入终端失败状态。在这个版本中,在机器创建过程中无法获取 bootstrap 数据,会无限期重试,直到最终成功为止。(
OCPBUGS-34158
)
在以前的版本中,当删除处于错误状态的服务器时,Machine API Operator 会 panicked,因为它没有传递端口列表。在这个版本中,删除处于
ERROR
状态的机器不会使控制器崩溃。(
OCPBUGS-34155
)
在以前的版本中,集群自动扩展的可选内部功能会在未实现时重复日志条目。这个问题已在本发行版本中解决。(
OCPBUGS-33932
)
在以前的版本中,如果 control plane 机器集在 VMware vSphere 集群上安装使用没有路径的模板,则 Control Plane Machine Set Operator 会拒绝修改或删除 control plane 机器集自定义资源 (CR)。在这个版本中,Operator 允许 control plane 机器集定义中的 vSphere 模板名称。(
OCPBUGS-32295
)
在以前的版本中,因为没有配置基础架构资源,当尝试更新 VMware vSphere 集群时,Control Plane Machine Set Operator 会崩溃。在这个版本中,Operator 可以处理这种情况,以便集群更新可以进行。(
OCPBUGS-31808
)
在以前的版本中,当用户创建带有污点的计算机器集时,他们可以选择不指定
Value
字段。如果不指定此字段,会导致集群自动扩展崩溃。在这个版本中,集群自动扩展被更新以处理空
Value
字段。(
OCPBUGS-31421
)
在以前的版本中,IPv6 服务在 RHOSP 云供应商中错误地标记为内部,因此无法在 OpenShift Container Platform 服务间共享 IPv6 负载均衡器。在这个版本中,IPv6 服务没有标记为内部,允许在使用有状态 IPv6 地址的服务间共享 IPv6 负载均衡器。在这个版本中,负载均衡器可以使用服务的
loadBalancerIP
属性中定义的有状态 IPv6 地址。(
OCPBUGS-29605
)
在以前的版本中,当 control plane 机器标记为 unready 且由修改 control plane 机器集启动更改时,未就绪机器会被预先删除。这种预防操作导致同时替换多个索引。在这个版本中,当索引中只有一个机器时,control plane 机器集不会删除机器。这个更改可防止预实施更改,并防止一次替换多个索引。(
OCPBUGS-29249
)
在以前的版本中,到 Azure API 的连接有时会挂起最多 16 分钟。在这个版本中,引入了一个超时以防止挂起 API 调用。(
OCPBUGS-29012
)
在以前的版本中,Machine API IBM Cloud 控制器没有集成
klogr
软件包中的完整日志记录选项。因此,控制器在 Kubernetes 版本 1.29 及更高版本中崩溃。在这个版本中,包括了缺少的选项,并解决了这个问题。(
OCPBUGS-28965
)
在以前的版本中,Cluster API IBM Power Virtual Server 控制器 pod 在不支持的 IBM Cloud 平台上启动。这会导致控制器 pod 处于创建阶段。在这个版本中,集群会检测 IBM Power Virtual Server 和 IBM Cloud 之间的区别。然后,集群只在支持的平台中启动。(
OCPBUGS-28539
)
在以前的版本中,因为解析错误,机器自动扩展无法直接考虑计算机器集 spec 的任何污点。当依赖计算机器集污点从零扩展时,这可能会导致不必要的扩展行为。这个问题已在此发行版本中解决,机器自动扩展现在可以正确扩展,并识别阻止工作负载调度的污点。(
OCPBUGS-27509
)
在以前的版本中,在 Microsoft Azure 区域上运行的机器集,没有可用区支持总是为 Spot 实例创建
AvailabilitySets
对象。此操作会导致 Spot 实例失败,因为实例不支持可用性集。在这个版本中,机器集不会为在非zonal 配置的区域中运行的 Spot 实例创建
AvailabilitySets
对象。(
OCPBUGS-25940
)
在以前的版本中,在 OpenShift Container Platform 4.14 中从 kubelet 中删除提供镜像凭证的代码会导致从 Amazon Elastic Container Registry (ECR) 拉取镜像在没有指定的 pull secret 的情况下失败。此发行版本包括一个单独的凭证供应商,它为 kubelet 提供 ECR 凭证。(
OCPBUGS-25662
)
在以前的版本中,Azure 负载均衡器的默认虚拟机类型从
Standard
改为
VMSS
,但服务类型负载均衡器代码无法将标准虚拟机附加到负载均衡器。在这个版本中,默认虚拟机类型会被恢复,以保持与 OpenShift Container Platform 部署兼容的。(
OCPBUGS-25483
)
在以前的版本中,OpenShift Container Platform 不会将集群名称包含在由 OpenStack Cloud Controller Manager 创建的 RHOSP 负载均衡器资源的名称中。当
LoadBalancer
服务在单个 RHOSP 项目中运行的多个集群中具有相同的名称时,这会导致问题。在这个版本中,集群名称包含在 Octavia 资源的名称中。当从以前的集群版本升级时,负载均衡器会被重命名。新名称遵循的模式是
kube_service_<cluster-name>_<namespace>_<service-name>
而不是
kube_service_kubernetes_<namespace>_<service-name>
。(
OCPBUGS-13680
)
在以前的版本中,当您同时创建或删除服务对象的大量卷时,服务控制器处理服务的速度会减慢。这会导致服务控制器和对象的积压问题出现简短的超时问题。在这个版本中,服务控制器可以同时处理最多 10 个服务对象,以减少积压和超时问题。(
OCPBUGS-13106
)
在以前的版本中,获取节点名称的逻辑不会考虑从 AWS 元数据服务返回的主机名的多个值。当为 VPC 动态主机配置协议 (DHCP) 选项配置了多个域时,此主机名可能会返回多个值。多个值之间的空格会导致逻辑崩溃。在这个版本中,逻辑被更新为只使用第一个返回的主机名作为节点名称。(
OCPBUGS-10498
)
在以前的版本中,Machine API Operator 在 Microsoft Azure 集群上请求不必要的
virtualMachines/extensions
权限。这个版本删除了不必要的凭证请求。(
OCPBUGS-29956
)
Cloud Credential Operator
-
在以前的版本中,Cloud Credential Operator (CCO) 缺少在 Microsoft Azure 上创建私有集群所需的一些权限。这些缺少的权限会阻止使用 Microsoft Entra Workload ID 安装 Azure 私有集群。此发行版本包括缺少的权限,并使用 Workload ID 启用 Azure 私有集群安装。(
OCPBUGS-25193
)
在以前的版本中,一个程序错误会导致 Cloud Credential Operator (CCO) 在指标中报告不正确的模式。即使集群处于默认模式,但指标会报告它处于凭证删除模式。在这个版本中,使用 live 客户端来代替缓存的客户端,以便它能够获取 root 凭证,CCO 不再在指标中报告不正确的模式。(
OCPBUGS-26488
)
在以前的版本中,使用 Microsoft Entra Workload ID 的 OpenShift Container Platform 集群上的 Cloud Credential Operator 凭证模式指标使用手动模式报告。在这个版本中,使用 Workload ID 的集群会被更新为使用 pod 身份的手动模式。(
OCPBUGS-27446
)
在以前的版本中,在裸机集群中创建 Amazon Web Services (AWS) root secret 会导致 Cloud Credential Operator (CCO) pod 崩溃。这个问题已在本发行版本中解决。(
OCPBUGS-28535
)
在以前的版本中,从使用 mint 模式的 Cloud Credential Operator (CCO) 的 Google Cloud Platform (GCP) 集群中删除 root 凭证会导致 CCO 在大约一小时后降级。在降级状态中,CCO 无法管理集群中的组件凭证 secret。这个问题已在本发行版本中解决。(
OCPBUGS-28787
)
在以前的版本中,在 Amazon Web Services (AWS) 上安装时,Cloud Credential Operator (CCO) 会检查是否有不存在的
s3:HeadBucket
权限。当 CCO 无法找到此权限时,它会被视为为 mint 模式提供的凭证不足。在这个版本中,CCO 不再检查不存在的权限。(
OCPBUGS-31678
)
Cluster Version Operator
-
此发行版本扩展了
ClusterOperatorDown
和
ClusterOperatorDegraded
警报,以覆盖 ClusterVersion 条件,并为
Available=False
(
ClusterOperatorDown
) 和
Failing=True
(
ClusterOperatorDegraded
) 发送警报。在以前的版本中,这些警报只涵盖
ClusterOperator
条件。(
OCPBUGS-9133
)
在以前的版本中,Cluster Version Operator (CVO) 在 OpenShift Container Platform 4.15.0、4.14.0、4.13.17 和 4.12.43 中引入的更改会导致风险评估失败,阻止 CVO 获取新的更新建议。当风险评估失败时,这个错误会导致 CVO 过度忽略更新建议服务。在这个版本中,CVO 继续轮询更新建议服务,无论是否成功评估更新风险以及问题是否已解决。(
OCPBUGS-25708
)
开发人员控制台
-
在以前的版本中,当以 create serverless 表单创建无服务器功能时,不会创建
BuilldConfig
。在这个版本中,如果没有安装 Pipelines Operator,则不会为特定资源创建管道资源,或者在创建无服务器功能时没有添加管道,它将按预期创建
BuildConfig
。(
OCPBUGS-34143
)
在以前的版本中,在安装 Pipelines Operator 后,Pipeline 模板需要一些时间来在集群中可用,但用户仍然可以创建部署。在这个版本中,如果没有选择的资源,
Import from Git
页面上的
Create
按钮会被禁用。(
OCPBUGS-34142
)
在以前的版本中,
Topology
页面中的最大节点数量被设置为
100
。提供了持久性警报 "Loading 的时间比预期要长。在这个版本中,节点的限制增加到
300
。(
OCPBUGS-32307
)
在这个版本中,在创建
ServiceBinding
、绑定一个组件或在当前命名空间中发现
ServiceBinding
时,一个用于通知 Service Bindings 已在 OpenShift Container Platform 4.15 中被弃用的提示信息会添加到
ServiceBinding list
,
ServiceBinding details
,
Add
, 和
Topology
页。(
OCPBUGS-32222
)
在以前的版本中,如果 chart 名称不同,Helm 插件索引视图不会显示与 Helm CLI 相同的 chart 数量。在这个版本中,Helm 目录会查找
chart.openshift.io/name
和
charts.openshift.io/provider
,以便所有版本都分组到单个目录标题中。(
OCPBUGS-32059
)
在以前的版本中,
TaskRun
状态不会在
TaskRun 详情
页上的
TaskRun
名称旁显示。在这个版本中,
TaskRun
状态位于页面标题中的
TaskRun
名称旁边。(
OCPBUGS-31745
)
在以前的版本中,当将 resources 字段添加到有效负载时,在 Pipeline 中添加参数时会出现错误,因为资源已弃用。在这个版本中,resources 字段已从有效负载中删除,您可以在 Pipeline 中添加参数。(
OCPBUGS-31082
)
此发行版本更新了 OpenShift Pipelines 插件,以支持自定义资源定义 (CRD)
ClusterTriggerBinding
、
TriggerTemplate
和
EventListener
的最新 Pipeline Trigger API 版本。(
OCPBUGS-30958
)
在以前的版本中,
CustomTasks
无法识别或处于
Pending
状态。在这个版本中,
CustomTasks
可以在 Pipelines 的
List
和
Details
页中轻松识别。(
OCPBUGS-29513
)
在以前的版本中,如果有一个带有
Image
标签的构建输出镜像,则
Output Image
链接不会重定向到正确的
ImageStream
页面。在这个版本中,这个问题已通过在链接中添加标签的情况下为
ImageStream
页面生成 URL 来解决。(
OCPBUGS-29355
)
在以前的版本中,因为指定资源的 API 版本的最新更新,
BuildRun
日志在
BuildRun
页面的
Logs
选项卡中不可见。在这个版本中,对于版本为 v1alpha1 和 v1beta1 的 Builds Operator,
TaskRuns
的日志被添加到
BuildRun
页的
Logs
选项卡中。(
OCPBUGS-27473
)
在以前的版本中,设置 scale bound 值的注解被设置为
autoscaling.knative.dev/maxScale
和
autoscaling.knative.dev/minScale
。在这个版本中,设置扩展绑定值的注解会更新为
autoscaling.knative.dev/min-scale
和
autoscaling.knative.dev/max-scale
,以确定可在任何给定时间提供应用程序的最小和最大副本数。您可以为应用设置规模绑定,以帮助防止冷启动和控制计算成本。(
OCPBUGS-27469
)
在以前的版本中,Tekton Results API 中的
PipelineRuns
的
Log
标签页永远不会完成载入。在这个版本中,此标签页为从 Kubernetes API 或 Tekton Results API 加载的 PipelineRuns 完全完整。(
OCPBUGS-25612
)
在以前的版本中,没有显示指示来区分从 Kubernetes API 或 Tekton Results API 加载的
PipelineRuns
。在这个版本中,
PipelineRun 列表
和
详情
页中有一个小归档图标,用于区分从 Kubernetes API 或 Tekton Results API 加载的
PipelineRuns
。(
OCPBUGS-25396
)
在以前的版本中,在
PipelineRun list
页面中,所有 TaskRuns 都会根据
pipelineRun
名称获取并分离。在这个版本中,TaskRuns 只会为
Failed
和
Cancelled
PipelineRun 获取。另外,还添加了一个缓存机制来获取与
Failed
和
Cancelled
PipelineRuns 关联的 PipelineRuns 和 TaskRuns。(
OCPBUGS-23480
)
在以前的版本中,
Topology
视图中没有虚拟机节点和其它非VM 节点间的视觉连接器。在这个版本中,视觉连接器位于虚拟机节点和非VM 节点间。(
OCPBUGS-13114
)
在以前的版本中,使用代理配置的集群升级基于镜像的问题会导致 Operator rollouts 延长了启动时间。在这个版本中,这个问题已被解决,升级时间会减少。(
OCPBUGS-33471
)
etcd Cluster Operator
-
在以前的版本中,bootstrap 中使用的
wait-for-ceo
命令不会报告一些失败模式的错误。在这个版本中,如果
cmd
在错误情况下退出,则
bootkube
脚本中可以看到这些错误消息。(
OCPBUGS-33495
)
在以前的版本中,etcd Cluster Operator 在 pod 健康检查过程中输入 panic 状态,这会导致对
etcd
集群的请求失败。在这个版本中,这个问题已被解决,不再发生这些 panic 的情况。(
OCPBUGS-27959
)
在以前的版本中,etcd Cluster Operator 会错误地将非运行的控制器识别为死锁,这会导致不必要的 pod 重启。在这个版本中,这个问题已被解决,Operator 会将一个非运行的控制器标记为不健康 etcd 成员,而无需重启 pod。(
OCPBUGS-30873
)
托管 control plane
-
在以前的版本中,当您在托管集群中使用
Other
网络类型时,Multus Container Network Interface (CNI) 需要批准证书签名请求 (CSR)。只有在网络类型为
Other
且设置为 Calico 时,才会设置适当的基于角色的访问控制 (RBAC) 规则。因此,当网络类型是
Other
且设置为 Cilium 时,CSR 不会被批准。在这个版本中,为所有有效的网络类型设置了正确的 RBAC 规则,在使用
Other
网络类型时,现在会正确配置 RBAC。(
OCPBUGS-26977
)
在以前的版本中,Amazon Web Services (AWS)策略问题会阻止 Cluster API Provider AWS 检索所需的域信息。因此,使用自定义域安装 AWS 托管的集群会失败。在这个版本中,策略问题已解决。(
OCPBUGS-29391
)
在以前的版本中,在断开连接的环境中,HyperShift Operator 会忽略 registry 覆盖。因此,对节点池的更改会被忽略,节点池会遇到错误。在这个版本中,元数据检查器在 HyperShift Operator 协调过程中可以正常工作,并正确填充覆盖镜像。(
OCPBUGS-34773
)
在以前的版本中,HyperShift Operator 没有使用
RegistryOverrides
机制来检查内部 registry 中的镜像。在这个版本中,元数据检查器在 HyperShift Operator 协调过程中可以正常工作,并正确填充
OverrideImages
。(
OCPBUGS-32220
)
在以前的版本中,Red Hat OpenShift Cluster Manager 容器没有正确的传输层安全 (TLS) 证书。因此,镜像流无法用于断开连接的部署。在这个版本中,TLS 证书作为投射卷添加。(
OCPBUGS-34390
)
在以前的版本中,KAS pod 中的
azure-kms-provider-active
容器在 Dockerfile 中使用 shell 格式的 entrypoint 语句。因此,容器会失败。要解决这个问题,使用
exec
表单用于 entrypoint 语句。(
OCPBUGS-33940
)
在以前的版本中,
konnectivity-agent
守护进程集使用
ClusterIP
DNS 策略。因此,当 CoreDNS 停机时,data plane 上的
konnectivity-agent
pod 无法解析代理服务器 URL,它们可能会在 control plane 中的
konnectivity-server
中失败。在这个版本中,
konnectivity-agent
守护进程集被修改为使用
dnsPolicy: Default
。
konnectivity-agent
使用主机系统 DNS 服务来查找代理服务器地址,且不再依赖于 CoreDNS。(
OCPBUGS-31444
)
在以前的版本中,无法查找资源会导致重新创建失败。因此,很多
409
响应代码被记录在 Hosted Cluster Config Operator 日志中。在这个版本中,特定资源被添加到缓存中,以便 Hosted Cluster Config Operator 不会尝试重新创建现有资源。(
OCPBUGS-23228
)
在以前的版本中,托管集群中缺少 pod 安全漏洞警报。在这个版本中,警报添加到托管集群。(
OCPBUGS-31263
)
在以前的版本中,在断开连接的环境中托管的集群中的
recycler-pod
模板指向
quay.io/openshift/origin-tools:latest
。因此,回收 Pod 无法启动。在这个版本中,recycler pod 镜像指向 OpenShift Container Platform 有效负载引用。(
OCPBUGS-31398
)
在这个版本中,在断开连接的部署中,HyperShift Operator 会从管理集群接收新的
ImageContentSourcePolicy
(ICSP) 或
ImageDigestMirrorSet
(IDMS),并将它们添加到 HyperShift Operator 和每个协调循环中的 Control Plane Operator 中。对 ICSP 或 IDMS 的更改会导致重启
control-plane-operator
pod。(
OCPBUGS-29110
)
在这个版本中,
ControllerAvailabilityPolicy
设置会在设置后变为不可变。不支持在
SingleReplica
和
HighAvailability
之间更改。(
OCPBUGS-27282
)
在这个版本中,
machine-config-operator
自定义资源定义 (CRD) 被重命名,以确保在托管 control plane 中正确省略资源。(
OCPBUGS-34575
)
在这个版本中,为托管的 control plane 保存在
kube-apiserver
,
openshift-apiserver
, 和
oauth-apiserver
pod 中的审计日志文件的大小会减小。(
OCPBUGS-31106
)
在以前的版本中,Hypershift Operator 没有使用
RegistryOverrides
机制来检查内部 registry 中的镜像。在这个版本中,元数据检查器在 Hypershift Operator 协调过程中可以正常工作,并正确填充
OverrideImages
。(
OCPBUGS-29494
)
镜像 Registry
-
在以前的版本中,在导入镜像流标签后,
ImageContentSourcePolicy
(ICSP) 自定义资源 (CR) 无法与
ImageDigestMirrorSet
(IDMS) 或
ImageTagMirrorSet
(ITMS) CR 共存。OpenShift Container Platform 选择 ICSP 而不是其他 CR 类型。在这个版本中,这些自定义资源可以共存,因此在导入镜像流标签后,OpenShift Container Platform 可以选择所需的 CR。(
OCPBUGS-30279
)
在以前的版本中,当命令创建新标签时,
oc tag
命令不会验证标签名称。从带有无效名称的标签创建镜像后,
podman pull
命令将失败。在这个版本中,验证步骤会检查新的标签是否有无效名称,现在可以删除具有无效名称的现有标签,因此这个问题不再存在。(
OCPBUGS-25703
)
在以前的版本中,Image Registry Operator 维护自己的 IBM Power® Virtual Server 区域列表,因此任何新区域都不会添加到列表中。在这个版本中,Operator 依赖于一个外部库来访问区域,以便它能够支持新区域。(
OCPBUGS-26767
)
在以前的版本中,镜像 registry 的 Microsoft Azure 路径修复作业会错误地需要存在
AZURE_CLIENT_ID
和
TENANT_CLIENT_ID
参数才能正常工作。这会导致有效的配置抛出错误消息。在这个版本中,在 Identity and Access Management (IAM)服务帐户密钥中添加检查以验证是否需要这些参数,以便集群升级操作不再失败。(
OCPBUGS-32328
)
在以前的版本中,镜像 registry 不支持 Amazon Web Services (AWS) 区域
ca-west-1
。在这个版本中,镜像 registry 可以部署到此区域中。(
OCPBUGS-29233
)
在以前的版本中,当 Image Registry Operator 配置中将
virtualHostedStyle
参数设置为
regionEndpoint
时,镜像 registry 会忽略虚拟托管的风格配置。在这个版本中,这个问题已被解决,以便使用新的上游分发配置强制路径风格,而不是只使用下游版本(虚拟托管风格)。(
OCPBUGS-34166
)
在以前的版本中,当在启用了 service-endpoint 覆盖的 IBM Power® Virtual Server 上运行 OpenShift Container Platform 集群时,Cloud Credential Operator (CCO) Operator 将忽略覆盖服务端点。在这个版本中,CCO Operator 不再忽略覆盖服务端点。(
OCPBUGS-32491
)
在以前的版本中,Image Registry Operator 忽略了端点服务集群级别覆盖,使得在 IBM Cloud® 断开连接的环境中配置集群比较困难。这个问题只存在于安装程序置备的基础架构中。在这个版本中,Image Registry Operator 不再忽略这些集群级别的覆盖。(
OCPBUGS-26064
)
在以前的版本中,在 Google Cloud Platform (GCP) 上安装带有无效配置的三节点集群会失败,并显示一个 panic 错误,因为没有报告失败的原因。在这个版本中,安装程序会验证安装配置,以便在 GCP 上成功安装三节点集群。(
OCPBUGS-35103
)
在以前的版本中,如果 pull secret 在密码中包含了冒号,则使用 Assisted Installer 安装会失败。在这个版本中,在密码中包含冒号的 pull secret 不会导致 Assisted Installer 失败。(
OCPBUGS-34400
)
在以前的版本中,
monitor-add-nodes
命令用于监控将节点添加到基于代理的集群的过程,因为权限错误而无法运行。在这个版本中,命令在具有权限的正确目录中运行。(
OCPBUGS-34388
)
在以前的版本中,在不警告用户的情况下会修剪较长的集群名称。在这个版本中,安装程序会在修剪长集群名称时警告用户。(
OCPBUGS-33840
)
在以前的版本中,当安装集群时,即使
install-config.yaml
中禁用了 Ingress 功能,也会启用 Ingress 功能,因为它是必需的。在这个版本中,如果在
install-config.yaml
中禁用 Ingress 功能,安装程序会失败。(
OCPBUGS-33794
)
在以前的版本中,OpenShift Container Platform 不会对在
ca-west-1
Amazon Web Services (AWS) 区中安装的集群执行配额检查。在这个版本中,这个区域中可以正确地强制实施配额。(
OCPBUGS-33649
)
在以前的版本中,安装程序有时可能会无法检测到 OpenShift Container Platform API 不可用。通过增加 Microsoft Azure 安装中的 bootstrap 节点的磁盘大小来解决额外的错误。在这个版本中,安装程序可以正确地检测到 API 是否可用。(
OCPBUGS-33610
)
在以前的版本中,Microsoft Azure 集群上的 control plane 节点使用
Read-only
缓存。在这个版本中,Microsoft Azure control plane 节点使用
ReadWrite
缓存。(
OCPBUGS-33470
)
在以前的版本中,当使用了带有配置了代理(proxy)的基于代理(Agent-based)的集群时,如果代理配置包含以百分比符号 (
%
) 开头的字符串,则安装会失败。在这个版本中,安装程序会正确地验证此配置文本。(
OCPBUGS-33024
)
在以前的版本中,在 GCP 上安装可能会失败,因为安装程序尝试创建存储桶两次。在这个版本中,安装程序不再尝试创建存储桶两次。(
OCPBUGS-32133
)
在以前的版本中,罕见的时间问题可能会阻止所有 control plane 节点在安装过程中添加到基于代理的集群中。在这个版本中,所有 control plane 节点都成功重启,并在安装过程中添加到集群中。(
OCPBUGS-32105
)
在以前的版本中,当在断开连接的环境中使用基于代理的安装程序时,不必要的证书会添加到证书颁发机构 (CA) 信任捆绑包中。在这个版本中,CA 捆绑包
ConfigMap
仅包含用户明确指定的 CA。(
OCPBUGS-32042
)
在以前的版本中,当在 Amazon Web Services (AWS) 上安装集群时,安装程序需要一个不存在的权限
s3:HeadBucket
。在这个版本中,安装程序正确地需要权限
s3:ListBucket
。(
OCPBUGS-31813
)
在以前的版本中,如果安装程序因为 SSH 连接问题而无法从 bootstrap 收集日志,它也不提供虚拟机 (VM) 串口控制台日志,即使它们已被收集。在这个版本中,安装程序会提供虚拟机串口控制台日志,即使与 bootstrap 机器的 SSH 连接失败。(
OCPBUGS-30774
)
在以前的版本中,当在带有静态 IP 地址的 VMware vSphere 上安装集群时,集群可能会因为其他技术预览功能冲突而在没有静态 IP 地址的情况下创建 control plane 机器。在这个版本中,Control Plane Machine Set Operator 可以正确地管理 control plane 机器的静态 IP 分配。(
OCPBUGS-29114
)
在以前的版本中,当使用用户提供的 DNS 在 GCP 上安装集群时,安装程序仍然会尝试在 GCP DNS 网络中验证 DNS。在这个版本中,安装程序不会对用户提供的 DNS 执行这个验证。(
OCPBUGS-29068
)
在以前的版本中,当删除使用与非私有 IBM Cloud® 集群相同的域名的 IBM Cloud® 上的私有集群时,一些资源不会被删除。在这个版本中,当集群被删除时,所有私有集群资源都会被删除。(
OCPBUGS-28870
)
在以前的版本中,当使用代理安装集群时,如果配置字符串中包括了百分比符号 (
%
) ,则集群安装会失败。在这个版本中,安装程序会正确地验证包含 "%" 的代理配置字符串。(
OCPBUGS-27965
)
在以前的版本中,安装程序仍然允许使用
OpenShiftSDN
网络插件,即使它已被删除。在这个版本中,安装程序可以正确地使用这个网络插件安装集群。(
OCPBUGS-27813
)
在以前的版本中,当在 Amazon Web Services (AWS) Wavelengths 或 Local Zones 上安装集群到支持 Wavelengths 或 Local Zones 的区域时,安装会失败。在这个版本中,支持 Wavelengths 或 Local Zones 的区域可以成功安装。(
OCPBUGS-27737
)
在以前的版本中,当集群安装尝试使用与现有集群相同的集群名称和基域时,因为 DNS 记录设定冲突,安装会失败,删除第二个集群也会删除原始集群中的 DNS 记录集。在这个版本中,存储的元数据包含私有区名称而不是集群域,因此只从删除的集群中删除正确的 DNS 记录。(
OCPBUGS-27156
)
在以前的版本中,基于代理的安装的安装配置文件中配置的平台特定密码可能存在于
agent-gather
命令的输出中。在这个版本中,在
agent-gather
输出中会重新定义密码。(
OCPBUGS-26434
)
在以前的版本中,使用版本 4.15 或 4.16 安装的 OpenShift Container Platform 集群显示默认升级频道为 4.14 版本。在这个版本中,集群在安装后具有正确的升级频道。(
OCPBUGS-26048
)
在以前的版本中,当删除 VMware vSphere 集群时,一些
TagCategory
对象无法删除。在这个版本中,当集群被删除时,所有与集群相关的对象都会被正确删除。(
OCPBUGS-25841
)
在以前的版本中,当指定
baremetal
平台类型,但在
install-config.yaml
中禁用
baremetal
功能时,安装会在长时间超时后失败,且没有提供有用的错误信息。在这个版本中,安装程序会提供一个描述性错误,并在禁用
baremetal
功能时不会尝试裸机安装。(
OCPBUGS-25835
)
在以前的版本中,使用 Assisted Installer 在 VMware vSphere 上安装可能会因为阻止 VMware vSphere 正确初始化节点而失败。在这个版本中,VMware vSphere 上的 Assisted Installer 安装成功完成,并可使用所有节点初始化。(
OCPBUGS-25718
)
在以前的版本中,如果选择的虚拟机类型与
install-config.yaml
文件中指定的架构不匹配,安装会失败。在这个版本中,验证检查可确保在安装开始前匹配的架构。(
OCPBUGS-25600
)
在以前的版本中,如果指定了无效的 control plane 副本数量(如 2),基于代理的安装可能会失败。在这个版本中,安装程序强制实施为基于代理的安装指定 1 或 3 control plane 副本的要求。(
OCPBUGS-25462
)
在以前的版本中,当使用 control plane 机器集技术预览功能在 VMware vSphere 上安装集群时,生成的 control plane 机器集在其配置中有重复的故障域。在这个版本中,安装程序会使用正确的故障域创建 control plane 机器集。(
OCPBUGS-25453
)
在以前的版本中,在安装程序置备的安装前,所需的
iam:TagInstanceProfile
权限不会被验证,如果缺少 Identity and Access Management (IAM) 权限,则会导致安装失败。在这个版本中,验证检查可确保在安装开始前包含权限。(
OCPBUGS-25440
)
在以前的版本中,安装程序不会阻止用户在禁用 Cloud Credential 功能的非裸机平台上安装集群,尽管需要它。在这个版本中,安装程序会生成错误,并防止安装禁用了 Cloud Credential 功能,但裸机平台上除外。(
OCPBUGS-24956
)
在以前的版本中,设置与实例类型支持的架构不同,会导致在创建某些资源后安装失败。在这个版本中,验证检查会验证实例类型是否与指定的架构兼容。如果构架不兼容,安装开始前过程会失败。(
OCPBUGS-24575
)
在以前的版本中,安装程序不会阻止用户在禁用 Cloud Controller Manager 的云供应商上安装集群,这会失败且没有有用的错误消息。在这个版本中,安装程序会生成一个错误,表示云平台上的安装需要 Cloud Controller Manager 功能。(
OCPBUGS-24415
)
在以前的版本中,因为 IBM Cloud® API 的意外结果,安装程序可能无法删除在 IBM Cloud® 上安装的集群。在这个版本中,安装程序可以可靠地删除在 IBM Cloud® 上安装的集群。(
OCPBUGS-20085
)
在以前的版本中,安装程序不会强制从启用了 FIPS 的 Red Hat Enterprise Linux (RHEL) 主机安装 FIPS 的集群的要求。在这个版本中,安装程序会强制实施 FIPS 要求。(
OCPBUGS-15845
)
在以前的版本中,
install-config.yaml
文件中设置的代理信息不会应用到 bootstrap 过程。在这个版本中,代理信息会应用到 bootstrap ignition 数据,然后应用到 bootstrap 机器。(
OCPBUGS-12890
)
在以前的版本中,当 IBM Power® 虚拟服务器平台没有 DHCP 网络名称时,DHCP 资源不会被删除。在这个版本中,检查会查找具有
ERROR
状态的任何 DHCP 资源,并删除它们,以便不再出现这个问题。(
OCPBUGS-35224
)
在以前的版本中,当使用 Cluster API 在安装程序置备的基础架构上创建 IBM Power® Virtual Server 集群时,负载均衡器会变得忙碌和停滞。在这个版本中,您可以使用
PollUntilContextCancel
循环中的
AddIPToLoadBalancerPool
命令重启负载均衡器。(
OCPBUGS-35088
)
在以前的版本中,在启用了 FIPS 的节点的裸机平台上安装程序置备安装会导致安装失败。在这个版本中,这个问题已解决。(
OCPBUGS-34985
)
在以前的版本中,当在 IBM Power® Virtual Server 上为安装程序置备的安装创建安装配置时,如果管理员没有在 OpenShift CLI (
oc
) 上输入命令,则调查将停止。该调查停止,因为
install-config
调查中没有设置默认区域。在这个版本中,这个问题已解决。(
OCPBUGS-34728
)
在以前的版本中,使用 SATA 硬件的固态驱动器(SSD) 被识别为可移动。OpenShift Container Platform 的 Assisted Installer 报告没有找到合格的磁盘,安装会停止。在这个版本中,可移动磁盘可以进行安装。(
OCPBUGS-34652
)
在以前的版本中,由于 IPv6 连接检查失败,基于代理的安装会失败,即使节点间可能会建立 IPv6 连接。在这个版本中,这个问题已被解决。(
OCPBUGS-31631
)
在以前的版本中,由于一个编程错误,脚本会创建一个计算服务器组,并设置 control plane 的策略。因此,compute 组会忽略
install-config.yaml
文件的
serverGroupPolicy
属性。在这个版本中,计算机器池的
install-config.yaml
文件中设置的服务器组策略会在脚本流的安装中应用。(
OCPBUGS-31050
)
在以前的版本中,当配置使用
openshift-baremetal-install
二进制文件的基于代理的安装时,基于代理的安装程序会错误地尝试验证 libvirt 网络接口。这可能导致以下错误:
Platform.BareMetal.externalBridge: Invalid value: "baremetal": could not find interface "baremetal"
在这个版本中,因为基于代理的安装方法不需要 libvirt,这个错误验证已被禁用,这个问题已解决。(
OCPBUGS-30941
)
在以前的版本中,将网络类型与基于 Open vSwitch 的软件定义型网络 (SDN) 或 Open Virtual Network (OVN) 以外的双栈网络一起使用会导致验证错误。在这个版本中,这个问题已解决。(
OCPBUGS-30232
)
在以前的版本中,在 RHOSP 使用用户置备的基础架构安装的
nodePort
服务的一个关闭的 IPv6 端口范围会导致通过某些节点端口的流量被阻止。在这个版本中,在
security-group.yaml
playbook 中添加了适当的安全组规则,从而解决了这个问题。(
OCPBUGS-30154
)
在以前的版本中,使用
openshift-install agent create cluster-manifests
命令生成的清单不会直接应用到 OpenShift Container Platform 集群,因为清单没有包括类型数据。在这个版本中,类型数据已添加到清单中。管理员现在可以应用清单来启动 Zero Touch Provisioning (ZTP) 安装,该安装使用与基于代理的安装相同的设置。(
OCPBUGS-29968
)
在以前的版本中,在生成
aarch64
代理 ISO 时,
aarch64
架构所需的文件被错误地重命名。在这个版本中,指定的文件不会被重命名。(
OCPBUGS-28827
)
在以前的版本中,当在 VMware vSphere 上安装集群时,因为安装程序无法从主机检索版本信息,如果 ESXi 主机处于维护模式,则安装会失败。在这个版本中,安装程序不会尝试从处于维护模式的 ESXi 主机检索版本信息,从而允许安装继续进行。(
OCPBUGS-27848
)
在以前的版本中,IBM Cloud® Terraform 插件错误地阻止在集群安装过程中使用非私有服务端点。在这个版本中,IBM Cloud® Terraform 插件在安装过程中支持非私有服务端点。(
OCPBUGS-24473
)
在以前的版本中,在 VMware vSphere 上安装集群需要指定数据存储的完整路径。在这个版本中,安装程序会接受数据存储的完整路径和相对路径。(
OCPBUGS-22410
)
在以前的版本中,当使用基于代理的安装程序安装 OpenShift Container Platform 集群时,安装可能会填充 Ignition 存储前大量清单,从而导致安装失败。在这个版本中,Ignition 存储已被增加,允许更多安装清单。(
OCPBUGS-14478
)
在以前的版本中,当
coreos-installer iso kargs show <iso>
命令用于 Agent ISO 文件时,输出无法正确显示嵌入在指定 ISO 中的内核参数。在这个版本中,命令输出可以正确地显示信息。(
OCPBUGS-14257
)
在以前的版本中,基于代理的安装会创建
ImageContentSource
对象而不是
ImageDigestSources
,即使以前的对象已弃用。在这个版本中,基于代理的安装程序创建
ImageDigestSource
对象。(
OCPBUGS-11665
)
在以前的版本中,Power VS 的 destroy 功能存在问题,但不是所有资源都会如预期被删除。在这个版本中,这个问题已被解决。(
OCPBUGS-29425
)
Insights Operator
Kubernetes Controller Manager
-
在以前的版本中,当使用前台删除级联策略删除
ClusterResourceQuota
资源时,删除将无法完成。在这个版本中,在使用前台级联策略时,
ClusterResourceQuota
资源会被正确删除。(
OCPBUGS-22301
)
Machine Config Operator
-
在以前的版本中,
MachineNode
对象没有使用正确的所有者创建。因此,
MachineConfigNode
对象无法进行垃圾回收,这意味着之前生成的、但不再使用的对象不会被删除。在这个版本中,在创建
MachineConfigNode
对象时可以正确设置所有者,可以对过时的对象进行垃圾回收。(
OCPBUGS-30090
)
在以前的版本中,
nodeStatusUpdateFrequency
参数的默认值从
0s
改为
10s
。这个更改会意外地导致
nodeStatusReportFrequency
显著提高,因为这个值被链接到
nodeStatusReportFrequency
值。这会导致在 control plane operator 和 API 服务器上的 CPU 使用率非常高。在这个版本中,
nodeStatusReportFrequency
值设置为
5m
,这样可防止出现非常高的 CPU 用量的情况。(
OCPBUGS-29713
)
在以前的版本中,环境变量中的一个拼写错误会阻止脚本检测是否存在
node.env
文件。因此,每次重启时会覆盖
node.env
文件,从而导致 kubelet 主机名被修复。在这个版本中,相关的拼写错误已被修正。因此,对
node.env
的编辑现在在重启后会保留。(
OCPBUGS-27261
)
在以前的版本中,当
kube-apiserver
服务器证书颁发机构 (CA) 证书被轮转时,Machine Config Operator (MCO) 无法正确响应和更新磁盘上的 kubelet kubeconfig。这意味着,kubelet 和节点上的一些 pod 最终无法与 APIserver 通信,从而导致节点进入
NotReady
状态。在这个版本中,MCO 可以正确地对更改做出反应,并更新磁盘上的 kubeconfig,以便在此轮转时与 APIServer 验证的通信可以继续,并重启 kubelet/MCDaemon pod。证书颁发机构的有效期为 10 年,因此,这个轮转应该很少发生,通常不会造成破坏。(
OCPBUGS-25821
)
在以前的版本中,当在集群中添加或从集群中删除新节点时,
MachineConfigNode
(MCN) 对象不会响应。因此,会存在无关的 MCN 对象。在这个版本中,Machine Config Operator 会在添加或删除节点时删除并添加 MCN 对象。(
OCPBUGS-24416
)
在以前的版本中,
nodeip-configuration
服务没有将日志发送到串口控制台,因此很难在网络不可用时调试问题,且无法访问该节点。在这个版本中,
nodeip-configuration
服务会在没有网络访问节点时将输出记录到串行控制台,以便更轻松地进行调试。(
OCPBUGS-19628
)
在以前的版本中,当
MachineConfigPool
启用了
OnClusterBuild
功能且
configmap
使用无效的
imageBuilderType
更新时,Machine-config ClusterOperator 不会被降级。在这个版本中,Machine Config Operator (MCO)
ClusterOperator
状态会在每次同步时验证
OnClusterBuild
的输入,以确保如果无效,
ClusterOperator
会降级。(
OCPBUGS-18955
)
在以前的版本中,当报告
machine config not found
错误时,没有提供足够的信息来帮助排除相关问题。在这个版本中,在 Machine Config Operator 中添加了一个警报和指标数据。因此,您将会有更多的信息来帮助排
machine config not found
错误。(
OCPBUGS-17788
)
在以前的版本中,在等待元数据服务可用时,用来在节点上设置主机名的 Afterburn 服务会超时。这会在使用 OVN-Kubernetes 部署时造成问题。现在,Afterburn 服务可以花更长的时间来等待元数据服务可用,从而解决了这些超时问题。(
OCPBUGS-11936
)
在以前的版本中,当从
MachineConfigPool
中删除节点时,Machine Config Operator (MCO) 不会报告错误或报告删除了节点。MCO 不支持管理没有在池中的节点,且在节点被删除后指示相关的节点管理已停止。在这个版本中,如果节点从所有池中移除,则 MCO 现在会记录一个错误。(
OCPBUGS-5452
)
管理控制台
-
在以前的版本中,对于状态为
Completed
的 pod,不会显示
Debug 容器
链接。在这个版本中,链接会如预期显示。(
OCPBUGS-34711
)
在以前的版本中,由于 PatternFly 5 中的一个问题,在 web 控制台中无法调整文本框的大小。在这个版本中,可以对文本框的大小进行调整。(
OCPBUGS-34393
)
在以前的版本中,web 控制台中不提供法语和西班牙语。在这个版本中,提供了法语和西班牙语的翻译。(
OCPBUGS-33965
)
在以前的版本中,masthead 徽标没有应用
max-height
为 60px 的限制。因此,大于 60px 高的徽标会以它们本身的大小显示,并导致 masthead 过大。在这个版本中,masthead 徽标会受 max-height 为 60px 的限制。(
OCPBUGS-33523
)
在以前的版本中,
HealthCheck
控制器中缺少返回语句,在某些情况下会造成 panic。在这个版本中,正确的返回语句被添加到
HealthCheck
控制器中,因此不再会出现 panic。(
OCPBUGS-33505
)
在以前的版本中,向 API 服务器发送了一个不正确的字段。随着 Admission Webhook 的实现,显示相同的操作将返回警告通知。提供了一个修复来解决这个问题。(
OCPBUGS-33222
)
在以前的版本中,当没有时间戳时,
StatusItem
的消息文本可能在垂直方向没有与图标对齐。在这个版本中,消息文本会被正确对齐。(
OCPBUGS-33219
)
在以前的版本中,创建者字段会被自动填充,而不是必需的。对 API 的更新会使这个字段在 OpenShift Container Platform 4.15 及更高版本中为空。在这个版本中,字段被标记为是必需的,并会进行验证。(
OCPBUGS-31931
)
在以前的版本中,web 控制台中的 YAML 编辑器没有
Create
按钮,示例不会在 web 控制台中显示。在这个版本中,您可以看到
Create
按钮和示例。(
OCPBUGS-31703
)
在以前的版本中,对外部 OpenID Connect (OIDC) 功能上的桥接服务器标记的更改会导致桥接服务器无法在本地开发中启动。在这个版本中,更新了这个标记的使用,桥接服务器可以正常启动。(
OCPBUGS-31695
)
在以前的版本中,在编辑 VMware vSphere 连接时,即使没有值被实际更改,也可以提交表单。这会导致不必要的节点重启。在这个版本中,控制台会检测到表单更改,并在没有对值进行任何更改时不允许提交。(
OCPBUGS-31613
)
在以前的版本中,如果使用
控制台
中的表单,则
NetworkAttachmentDefinition
始终在 default 命名空间中创建。所选名称并不会被遵守,它会使用所选名称加上一个随机后缀创建
NetworkAttachmentDefinition
对象。在这个版本中,
NetworksmentDefinition
对象在当前项目中创建。(
OCPBUGS-31558
)
在以前的版本中,当点
AlertmanagerRecieversNotConfigured
警报的
Configure
按钮时,
Configuration
页面不会显示。在这个版本中,
AlertmanagerRecieversNotConfigured
警报中的链接已被修复,它会正确指向
Configuration
页。(
OCPBUGS-30805
)
在以前的版本中,使用
ListPageFilters
的插件只能使用两个过滤:标签和名称。在这个版本中,添加了一个参数,它可以启用插件来配置多个基于文本的搜索过滤。(
OCPBUGS-30077
)
在以前的版本中,点快速启动项时没有响应。在这个版本中,当点快速启动选择时会显示快速启动窗口。(
OCPBUGS-29992
)
在以前的版本中,如果在首次尝试身份验证发现失败时,OpenShift Container Platform Web 控制台会意外终止。在这个版本中,身份验证初始化已被更新,它会在失败前重试最多 5 分钟。(
OCPBUGS-29479
)
在以前的版本中,在 CLI 中创建
Image Manifest Vulnerability
(IMV) 后,在 Image Manifest Vulnerability 页面中存在一个错误消息。在这个版本中,错误消息不再显示。(
OCPBUGS-28967
)
在以前的版本中,当将 hook 中的模态对话框用作操作 hook 的一部分时,会出现一个错误,因为控制台框架将 null 对象作为呈现周期的一部分传递。在这个版本中,
getGroupVersionKindForResource
可以正确处理 null 的情况,如果
apiVersion
或
kind
未定义,则会返回
undefined
。此外,
useDeleteModal
的运行时错误将不再会发生,但请注意,它对于一个
undefined
资源无法正常工作。(
OCPBUGS-28856
)
在以前的版本中,
Expand PersistentVolumeClaim
模态假设
pvc.spec.resources.requests.stroage
值包含一个单位。在这个版本中,大小被更新为 2GiB,您可以更改持久性卷声明 (PVC) 的值。(
OCPBUGS-27779
)
在以前的版本中,OpenShift Container Platform Web 控制台中报告的镜像漏洞值不一致。在这个版本中,
Overview
页面中的镜像漏洞已被删除。(
OCPBUGS-27455
)
在以前的版本中,可能会为最近批准的节点显示证书签名请求 (CSR)。在这个版本中,可以检测到重复的内容,且不会为批准的节点显示 CSR。(
OCPBUGS-27399
)
在以前的版本中,
Type
栏不是
MachineHealthCheck 详情
页中的条件表中的第一个。在这个版本中,
Type
在条件表上首先列出。(
OCPBUGS-27246
)
在以前的版本中,控制台插件代理不会从插件服务响应中复制状态代码。这会导致插件服务的所有响应都具有
200
状态,从而导致意外行为,特别是浏览器缓存。在这个版本中,控制台代理逻辑已被更新,以转发插件服务代理响应状态代码。代理插件请求现在可以正常工作。(
OCPBUGS-26933
)
在以前的版本中,当克隆持久性卷声明 (PVC) 时,模态假设
pvc.spec.resources.requests.storage
值包含一个单位。在这个版本中,
pvc.spec.resources.requests.storage
包含一个单位后缀,
Clone PVC
模态可以正常工作。(
OCPBUGS-26772
)
在以前的版本中,在编辑 VMware vSphere 连接时,转义的字符串不会被正确处理,从而导致 VMware vSphere 配置无法正常工作。在这个版本中,转义字符串可以正常工作,VMware vSphere 配置不再中断。(
OCPBUGS-25942
)
在以前的版本中,当配置 VMware vSphere 连接时,
resourcepool-path
键没有添加到 VMware vSphere 配置映射中,这可能会导致连接到 VMware vSphere 的问题。在这个版本中,连接到 VMware vSphere 时不再有问题。(
OCPBUGS-25927
)
在以前的版本中,
客户反馈
模态中缺少一些文本。在这个版本中,链接文本已被恢复,并显示正确的红帽镜像。(
OCPBUGS-25843
)
在以前的版本中,当点
Cluster Settings
页面中的
Select a version
时,
Update cluster
模态不会被打开。在这个版本中,在点
Select a version
时会显示
Update cluster
模态。(
OCPBUGS-25780
)
在以前的版本中,在移动设备中,
搜索
页的 resource 部分中的过滤部分无法在移动设备中正常工作。在这个版本中,过滤功能现在可以在移动设备中正常工作。(
OCPBUGS-25530
)
在以前的版本中,console Operator 使用客户端而不是监听程序获取集群资源。这会导致 Operator 对具有较旧修订版本的资源执行操作。在这个版本中,console Operator 使用 list 从集群而不是客户端获取数据。(
OCPBUGS-25484
)
在以前的版本中,控制台会错误地从恢复中的卷快照解析恢复大小值,作为新的持久性卷声明 (PVC) 模态。在这个版本中,模态可以正确地解析恢复大小。(
OCPBUGS-24637
)
在以前的版本中,因为路由库的变化,控制台中没有
Alerting
、
Metrics
和
Target
页。在这个版本中,路由可以正确地加载。(
OCPBUGS-24515
)
在以前的版本中,当没有条件的
MachineHealthCheck
时,
Node details
页中会出现运行时错误。在这个版本中,
Node 详情
页会如预期加载。(
OCPBUGS-24408
)
在以前的版本中,控制台后端会代理对公共 API 服务器端点的请求,这在某些情况下会导致 CA 证书问题。在这个版本中,代理配置已被更新,以指向解决了这个问题的内部 API 服务器端点。(
OCPBUGS-22487
)
在以前的版本中,当存在
HorizontalPodAutoscaler
时,无法扩展或缩减部署。在这个版本中,当将带有
HorizontalPodAutoscaler
的部署缩减为
零
时,会显示
Enable Autoscale
按钮,以便您可以启用 pod 自动扩展。(
OCPBUGS-22405
)
在以前的版本中,当编辑一个文件时,会出现
Info alert:Non-printable file detected.File contains non-printable characters.Preview is not available.
。在这个版本中,添加了一个检查来确定文件是否为二进制文件,并可如预期编辑该文件。(
OCPBUGS-18699
)
在以前的版本中,控制台 API 转换 Webhook 服务器无法在运行时更新服务证书,如果这些证书是通过删除签名密钥被更新,则会失败。这会导致在轮转 CA 证书时控制台无法恢复。在这个版本中,控制台转换 Webhook 服务器被更新来检测 CA 证书更改,并在运行时处理它们。服务器现在仍然可用,控制台会在 CA 证书轮转后按预期恢复。(
OCPBUGS-15827
)
在以前的版本中,控制台前端捆绑包的生产构建过去禁用了源映射。因此,用于分析源代码的浏览器工具无法在生产构建中使用。在这个版本中,控制台 Webpack 配置已被更新,以在生产构建中启用源映射。现在,对于 dev 和 production 构建,浏览器工具都可以按预期工作。(
OCPBUGS-10851
)
在以前的版本中,控制台重定向服务与控制台服务具有相同的服务证书颁发机构 (CA) 控制器注解。这会导致服务 CA 控制器有时会错误地为这些服务同步 CA 证书,控制台在删除并重新创建后无法正常工作。在这个版本中,控制台 Operator 被更新为从控制台重定向服务中删除此服务 CA 注解。当 Operator 从删除状态变为受管状态时,控制台服务和 CA 证书现在可以正常工作。(
OCPBUGS-7656
)
在以前的版本中,当使用
Form view
编辑路由时删除备用服务不会从 Route 中删除备用服务。在这个版本中,备用服务已被删除。(
OCPBUGS-33011
)
在以前的版本中,在执行集群更新时,暂停的
MachineConfigPools
节点可能会被错误地取消暂停。在这个版本中,暂停的
MachineConfigPools
节点会在执行集群更新时正确暂停。(
OCPBUGS-23319
)
在以前的版本中,如果某些光纤通道设备驱动程序没有公开所有属性,
node-exporter
代理中的 Fibre Channel 收集器会失败。在这个版本中,光纤通道收集器忽略这些可选属性,并解决了这个问题。(
OCPBUGS-20151
)
在以前的版本中,
oc get podmetrics
和
oc get nodemetrics
命令无法正常工作。在这个版本中,这个问题已被解决。(
OCPBUGS-25164
)
在以前的版本中,在
ServiceMonitor
资源中设置无效的
.spec.endpoints.proxyUrl
属性会导致破坏、重新载入和重启 Prometheus。在这个版本中,通过针对无效的语法验证
proxyUrl
属性解决了这个问题。(
OCPBUGS-30989
)
在以前的版本中,Ingress API 中的
status.componentRoutes.currentHostnames
字段的 API 文档包括开发人员备注。在输入
oc explain ingresses.status.componentRoutes.currentHostnames --api-version=config.openshift.io/v1
命令后,开发人员备注将与预期信息一起显示在输出中。在这个版本中,开发人员备注会从
status.componentRoutes.currentHostnames
字段中删除,以便在输入命令后,输出会列出路由使用的当前主机名。(
OCPBUGS-31058
)
在以前的版本中,负载平衡算法在决定权重时不会区分活跃和不活跃的服务,它在有大量不活跃服务的环境,或环境路由后端的权重为
0
的环境中过度使用随机算法。这会导致内存用量增加,并面临过量内存消耗的风险。在这个版本中,进行了更改来优化对活跃服务的流量方向,并防止使用较高权重的随机算法,从而减少过量内存消耗的可能性。(
OCPBUGS-29690
)
在以前的版本中,如果在同一证书中指定多个路由,或者路由将默认证书指定为自定义证书,并在路由器上启用 HTTP/2,HTTP/2 客户端可以在路由上执行连接。Web 浏览器等客户端可能会重新使用连接,并可能会连接到错误的后端服务器。在这个版本中,OpenShift Container Platform 路由器会检查同一证书是否在多个路由上指定,或者当路由将默认证书指定为自定义证书时。当检测到其中一个条件时,路由器将配置 HAProxy 负载均衡器,以便不允许 HTTP/2 客户端连接使用这些证书的任何路由。(
OCPBUGS-29373
)
在以前的版本中,如果您配置了将
routingViaHost
参数设置为
true
的部署,流量无法访问 IPv6
ExternalTrafficPolicy=Local
负载均衡器服务。在这个版本中,这个问题已被解决。(
OCPBUGS-27211
)
在以前的版本中,由托管在二级网络接口控制器 (NIC) 上的
EgressIp
对象选择的 pod 会导致连接到节点 IP 地址超时。在这个版本中,这个问题已被解决。(
OCPBUGS-26979
)
在以前的版本中,因为软件包已过期,安装 OpenShift Container Platform Precision Time Protocol (PTP) Operator 的 leap 文件软件包不能被
ts2phc
进程使用。在这个版本中,leap file 软件包被更新为从 Global Positioning System (GPS) 信号中读取大量事件,并动态更新偏移,以便过期的软件包不再发生。(
OCPBUGS-25939
)
在以前的版本中,在节点强制重启后,从 Whereabouts CNI 插件创建的池中分配 IP 的 pod 会处于
ContainerCreating
状态。在这个版本中,在节点强制重启后与 IP 分配关联的 Whereabouts CNI 插件问题。(
OCPBUGS-24608
)
在以前的版本中,IPv6 中的 OpenShift Container Platform 的两个脚本之间有冲突,包括单堆栈和双栈部署。一个脚本会将主机名设置为完全限定域名(FQDN),但其他脚本可能会提前将其设置为短名称。这是因为触发将主机名设置为 FQDN 的事件可能会在将其设置为短名称的脚本后运行。这是因为异步网络事件发生。在这个版本中,添加了新的代码以确保正确设置 FQDN。这个新代码可确保在设置主机名前等待特定的网络事件。(
OCPBUGS-22324
)
在以前的版本中,如果通过二级接口选择的带有
EgressIP
的 pod 的标签被删除,则同一命名空间中的另一个 pod 也会丢失其
EgressIP
分配,从而破坏与外部主机的连接。在这个版本中,这个问题已被解决,因此当 pod 标签被删除并停止使用
EgressIP
时,具有匹配标签的其他 pod 将继续在不中断的情况下使用
EgressIP
。(
OCPBUGS-20220
)
在以前的版本中,全局导航 satellite 系统 (GNSS) 模块可以同时报告 GPS
fix
位置和 GNSS
offset
位置,这代表 GNSS 模块和 constellations 之间的偏移量。前面的 T-GM 没有使用
ubloxtool
CLI 工具探测
ublox
模块读取
offset
和
fix
位置。相反,它只能通过 GPSD 读取 GPS
fix
信息。这样做的原因是,以前的
ubloxtool
CLI 工具的实现需要 2 秒才能接收响应,并且每次调用时 CPU 的用量都会增加三倍。在这个版本中,
ubloxtool
请求已被优化,GPS
offset
位置现在可用。(
OCPBUGS-17422
)
在以前的版本中,因为竞争条件,由二级接口托管的
EgressIP
pod 不会故障转移。用户会收到一条错误消息,表示无法分配
EgressIP
pod,因为它与现有 IP 地址冲突。在这个版本中,
EgressIP
pod 移到一个出口节点。(
OCPBUGS-20209
)
在以前的版本中,当 OVN-Kubernetes 使用的物理接口上的 MAC 地址更改时,无法在 OVN-Kubernetes 中正确更新,并可能导致节点出现流量中断和 Kube API 中断。这在使用绑定接口时最常见的情况,绑定的 MAC 地址可能会交换,具体取决于哪个设备是第一个启动。在这个版本中,如果修复了问题,则 OVN-Kubernetes 会动态检测 MAC 地址更改并正确更新它。(
OCPBUGS-18716
)
在以前的版本中,当为不是主网络接口的网络接口分配出口 IP 时,不支持使用 IPv6。这个问题已被解决,出口 IP 可以是 IPv6。(
OCPBUGS-24271
)
在以前的版本中,
network-tools
镜像是一个调试工具,其中包含 Wireshark 网络协议分析器。wireshark 依赖于
gstreamer1
软件包,此软件包具有特定的许可要求。在这个版本中,
gstreamer1
软件包已从 network-tools 镜像中删除,镜像现在包含
wireshark-cli
软件包。(
OCPBUGS-31699
)
在以前的版本中,当将节点的默认网关设置为
vlan
且多个网络管理器连接具有相同的名称时,节点会失败,因为它无法配置默认的 OVN-Kubernetes 网桥。在这个版本中,
configure-ovs.sh
shell 脚本包含一个
nmcli connection show uuid
命令,它会在存在许多具有相同名称的连接时检索正确的网络管理器连接。(
OCPBUGS-24356
)
对于 Microsoft Azure 上的 OpenShift Container Platform 集群,当使用 OVN-Kubernetes 作为 Container Network Interface (CNI) 时,当使用带有
externalTrafficPolicy: Local
的负载均衡器服务时,pod 识别的源 IP 是节点的 OVN 网关路由器。这是因为源网络地址转换 (SNAT) 应用到 UDP 数据包。
在这个版本中,通过将关联性超时设置为更高的值(如
86400
秒或 24 小时),可以在没有超时的情况下进行会话关联性。因此,关联性会被视为永久的,除非出现网络中断,如端点或节点停机。因此,会话关联性更为持久。(
OCPBUGS-24219
)
在以前的版本中,Ansible 的 OpenShift Container Platform 升级会导致错误,因为 IPsec 配置不是幂等的。在这个版本中,这个问题已被解决。现在,OpenShift Ansible playbook 的所有 IPsec 配置都是幂等的。(
OCPBUGS-30802
)
在以前的版本中,CRI-O 删除了在 OpenShift Container Platform 次版本升级间安装的所有镜像,以确保过时的有效负载镜像不会消耗节点上的空间。但是,这样做会导致性能的损失,因此此功能已被删除。在这个版本中,kubelet 在磁盘用量达到特定级别后仍然会垃圾回收过时的镜像。因此,OpenShift Container Platform 在次版本间的升级后不再删除所有镜像。(
OCPBUGS-24743
)
Node Tuning Operator (NTO)
-
在以前的版本中,单节点 OpenShift Container Platform 上的分布式单元配置集被降级,因为
net.core.busy_read
,
net.core.busy_poll
, 和
kernel.numa_balancing
sysctl
不存在。在这个版本中,Tuned 配置集不再降级,这个问题已解决。(
OCPBUGS-23167
)
在以前的版本中,在应用
PerformanceProfile
后 Tuned 配置集会报告
Degraded
条件。该配置集试图为默认的 Receive Packet Steering (RPS) 掩码设置
sysctl
值,但掩码已在
/etc/sysctl.d
文件中使用相同的值进行了配置。在这个版本中,
sysctl
值不再使用 Tuned 配置集设置,从而解决了这个问题。(
OCPBUGS-24638
)
在以前的版本中,Performance Profile Creator (PPC) 会错误地填充 Day 0 性能配置集清单的
metadata.ownerReferences.uid
字段。因此,在没有手动干预的情况下,无法在第 0 天应用性能配置集。在这个版本中,PPC 不会为第 0 天清单生成
metadata.ownerReferences.uid
字段。因此,您可以如预期在第 0 天应用性能配置集清单。(
OCPBUGS-29751
)
在以前的版本中,TuneD 守护进程可能会在 Tuned 自定义资源 (CR) 更新后不必要地重新载入。在这个版本中,删除了 Tuned 对象,Tuned (daemon) 配置集会在 Tuned Profile Kubernetes 对象中直接执行。因此,这个问题已被解决。(
OCPBUGS-32469
)
OpenShift CLI (oc)
-
在以前的版本中,当镜像带有不兼容语义版本的 operator 镜像时,oc-mirror 插件 v2 (技术预览)将失败并退出。在这个版本中,确保在控制台中出现警告,指示跳过的镜像并允许镜像过程在不中断的情况下继续。(
OCPBUGS-34587
)
在以前的版本中,oc-mirror 插件 v2 (技术预览)无法镜像包含
tag
和
digest
格式的镜像引用的某些 Operator 目录。此问题会阻止创建集群资源,如
ImageDigestMirrorSource
(IDMS) 和
ImageTagMirrorSource
(ITMS)。在这个版本中,oc-mirror 通过跳过
tag
和
digest
引用的镜像来解决这个问题,同时在控制台输出中显示适当的警告信息。(
OCPBUGS-33196
)
在以前的版本中,使用 oc-mirror 插件 v2 (技术预览),镜像错误仅显示在控制台输出中,因此用户很难分析并排除其他问题。例如,不稳定的网络可能需要重新运行,而清单未知错误可能需要进一步分析来跳过镜像或 Operator。在这个版本中,生成一个文件,其中包含工作区
working-dir/logs
文件夹中的所有错误。现在,镜像过程中出现的所有错误都会记录在
mirroring_errors_YYYYMMdd.txt
中。(
OCPBUGS-33098
)
在以前的版本中,Cloud Credential Operator 实用程序 (
ccoctl
) 无法在启用了 FIPS 的 RHEL 9 主机上运行。在这个版本中,用户可以运行与主机的 RHEL 版本兼容的
ccoctl
工具版本,包括 RHEL 9。(
OCPBUGS-32080
)
在以前的版本中,当镜像 operator 目录时,
oc-mirror
会重建目录并根据
imagesetconfig
目录过滤规格重新生成其内部缓存。这个过程需要来自目录中的
opm
二进制文件。从 4.15 版本开始,Operator 目录包括
opm
RHEL 9 二进制文件,这会导致在 RHEL 8 系统上执行镜像过程会失败。在这个版本中,
oc-mirror
不再默认重建目录,而是将其镜像到其目标 registry。
要保留目录重建功能,可使用
--rebuild-catalog
。但请注意,不会对当前实现进行任何更改,因此使用这个标志可能会导致缓存不会被生成,或者目录没有部署到集群中。如果使用这个命令,您可以导出
OPM_BINARY
,以指定与 OpenShift Container Platform 中找到的目录版本和平台对应的自定义
opm
二进制文件。现在,镜像 catalog images 会在没有签名验证的情况下进行。使用
-enable-operator-secure-policy
在 mirror 过程中启用签名验证。(
OCPBUGS-31536
)
在以前的版本中,当使用包含
CloudCredential
集群功能的
install-config.yaml
文件运行
oc adm release extract --credentials-requests
命令时,一些凭证请求不会被正确提取。在这个版本中,
Cloud
Credential 功能会被正确包含在 OpenShift CLI (
oc
) 中,以便这个命令正确提取凭证请求。(
OCPBUGS-24834
)
在以前的版本中,用户在 oc-mirror 插件中使用
tar.gz
工件时遇到序列错误。要解决这个问题,oc-mirror 插件现在在使用--
skip-pruning
标志执行时会忽略这些错误。在这个版本中,确保序列错误(不再影响镜像中的
tar.gz
使用顺序)被有效地处理。(
OCPBUGS-23496
)
在以前的版本中,当使用 oc-mirror 插件镜像位于隐藏文件夹中的本地 Open Container Initiative Operator 目录时,oc-mirror 会失败并显示错误: ".hidden_folder/data/publish/latest/catalog-oci/manifest-list/kubebuilder/kube-rbac-proxy@sha256:db06cc4c084dd0253134f156dddaaf53ef1c3fb3cc809e5d81711baa4029ea4c is not a valid image reference: invalid reference format “。在这个版本中,oc-mirror 会以不同的方式计算对本地 Open Container Initiative 目录中镜像的引用,确保隐藏目录的路径不会影响镜像过程。(
OCPBUGS-23327
)
在以前的版本中,oc-mirror 在镜像失败时不会停止并返回有效的错误代码。在这个版本中,oc-mirror 会在遇到 "operator not found" 时使用正确的错误代码退出,除非使用了
--continue-on-error
标志。(
OCPBUGS-23003
)
在以前的版本中,当镜像 operator 时,如果指定了
minVersion
和
maxVersion
,oc-mirror 将忽略
imageSetConfig
中的
maxVersion
约束。这会导致将所有捆绑包镜像到频道头。在这个版本中,oc-mirror 会考虑在
imageSetConfig
中指定的
maxVersion
约束。(
OCPBUGS-21865
)
在以前的版本中,oc-mirror 无法使用
euseus
频道镜像发行版本,因为它无法识别
eus-*
频道只为偶数版本指定。在这个版本中,oc-mirror 插件可以正确地确认
eus-*
频道适用于偶数的发行版本,允许用户使用这些频道成功镜像发行版本。(
OCPBUGS-19429
)
在以前的版本中,在
mirror.operators.catalog.packages
文件中添加
defaultChannel
字段后,用户可以指定首选频道,覆盖 Operator 中的
defaultChannel
设置。在这个版本中,oc-mirror 插件现在强制执行一个初始检查
defaultChannel
字段是否已设置,用户还必须在
ImageSetConfig
的频道部分中定义它。在这个版本中,确保在 Operator 镜像过程中正确配置并应用指定的
defaultChannel
。(
OCPBUGS-385
)
在以前的版本中,当运行启用了 FIPS 的集群时,您可能会在 RHEL 9 系统中运行 OpenShift CLI (
oc
) 时收到以下错误:
FIPS mode is enabled, but the required OpenSSL backend is unavailable
。在这个版本中,OpenShift CLI (
oc
) 的默认版本使用 Red Hat Enterprise Linux (RHEL) 9 编译,并在运行在 RHEL 9 上启用 FIPS 的集群时正常工作。另外,还提供了使用 RHEL 8 编译的
oc
版本,如果您运行在 RHEL 8 上启用了 FIPS 的集群,则必须使用该版本。(
OCPBUGS-23386
,
OCPBUGS-28540
)
在以前的版本中,与
ImageRegistry
和
Build
功能相关的角色绑定都会在每个命名空间中创建,即使禁用了这个能力。在这个版本中,只有在集群中启用了对应的集群功能时,才会创建角色绑定。(
OCPBUGS-34384
)
在以前的版本中,在完全断开连接的环境中的 disk-to-mirror 过程中,oc-mirror 插件 v1 会在访问 Red Hat registry 时无法镜像目录镜像。另外,如果
ImageSetConfiguration
将
targetCatalog
用于镜像目录,则镜像会失败,因为无论工作流如何引用不正确的目录镜像。这个问题已通过更新目录源来镜像到镜像 registry 解决了这个问题。(
OCPBUGS-34646
)
Operator Lifecycle Manager (OLM)
-
在以前的版本中,Operator 目录不会被正确刷新,因为索引镜像的
imagePullPolicy
字段被设置为
IfNotPresent
。在这个版本中更新了 OLM,为目录使用适当的镜像拉取策略,因此会正确刷新目录。(
OCPBUGS-30132
)
在以前的版本中,因为 OLM 处于
CrashLoopBackOff
状态,集群升级可能会被阻断。这是因为资源有多个所有者引用的问题。在这个版本中更新了 OLM,以避免重复所有者引用,只验证它拥有的相关资源。因此,集群升级可以如预期进行。(
OCPBUGS-28744
)
在以前的版本中,
CatalogSource
对象支持的默认 OLM 目录 pod 在它们运行的节点中断时不会保留。pod 处于终止状态,尽管应移动它们的容限。这会导致 Operator 无法从相关目录安装和更新。在这个版本中更新了 OLM,因此处于这个状态的目录 pod 会被删除。现在,目录 pod 可以正确地从计划或计划外节点维护中恢复。(
OCPBUGS-32183
)
在以前的版本中,如果之前安装和配置了相同的 Operator,安装 Operator 有时可能会失败。这是因为缓存问题。在这个版本中更新了 OLM 以在这种情况下正确安装 Operator,因此不再出现这个问题。(
OCPBUGS-31073
)
在以前的版本中,
catalogd
组件在 etcd 恢复后可能会崩溃。这是因为垃圾回收过程会在 API 服务器无法访问时导致循环失败状态。这个程序错误修复更新了
catalogd
,在其中添加了一个重试循环,因此,
catalogd
在这种情况下不会再崩溃。(
OCPBUGS-29453
)
在以前的版本中,默认目录源 pod 不会接收更新,需要用户手动重新创建它来获取更新。这是因为目录 pod 的镜像 ID 没有被正确检测到。在这个版本中更新了 OLM 来正确地检测目录 pod 镜像 ID,因此会如预期更新默认目录源。(
OCPBUGS-31438
)
在以前的版本中,因为 OLM 无法找到现有的
ClusterRoleBinding
或
Service
资源,并第二次创建它们,所以可能会出现 Operator 安装错误。在这个版本中更新了 OLM 来预先创建这些对象,因此不会再发生这些安装错误。(
OCPBUGS-24009
)
Red Hat Enterprise Linux CoreOS (RHCOS)
-
在以前的版本中,在
kdump
服务生成其特殊的
initramfs
之前配置的 OVS 网络。当
kdump
服务启动时,它会获取 network-manager 配置文件并将其复制到
kdump
initramfs
中。当节点重新引导到
kdump
initramfs
时,内核崩溃转储通过网络上传会失败,因为 OVN 没有运行到
initramfs
中,且虚拟接口没有配置。在这个版本中,顺序已被更新,
kdump
会在设置 OVS 网络配置前启动并构建
kdump
initramfs
,并解决了这个问题。(
OCPBUGS-30239
)
-
在以前的版本中,在 Performance Profile 呈现后,单节点 OpenShift Container Platform 上的 Machine Config Operator (MCO)会 被呈现,因此 control plane 和 worker 机器配置池不会在正确的时间创建。在这个版本中,Performance Profile 可以正确地显示,这个问题已解决。(
OCPBUGS-22095
)
在以前的版本中,TuneD 和
irqbalanced
守护进程修改了中断请求 (IRQ) CPU 关联性配置,这会在 IRQ CPU 关联性配置中创建冲突,并在单节点 OpenShift 节点重启后造成意外行为。在这个版本中,只有
irqbalanced
守护进程决定 IRQ CPU 关联性配置。(
OCPBUGS-26400
)
在以前的版本中,在 OpenShift Container Platform 在性能调整集群中更新过程中,恢复
MachineConfigPool
资源会导致池中节点出现额外的重启。在这个版本中,控制器会在池恢复前针对最新的计划机器配置协调,从而导致额外的节点重启。(
OCPBUGS-31271
)
在以前的版本中,ARM 安装在内核中使用 4k 页。在这个版本中,增加了对在安装时在内核中安装 64k 页的支持,从而在 NVIDIA CPU 上性能提高。驱动程序工具套件 (DTK) 也已更新,以便为 64k 页大小 ARM 内核编译内核模块。(
OCPBUGS-29223
)
Storage
-
在以前的版本中,在删除
LVMCluster
自定义资源 (CR) 过程中,一些
LVMVolumeGroupNodeStatus
操作对象不会被删除。在这个版本中,删除
LVMCluster
CR 会触发删除所有
LVMVolumeGroupNodeStatus
操作对象。(
OCPBUGS-32954
)
在以前的版本中,LVM Storage 卸载会卡住,等待删除
LVMVolumeGroupNodeStatus
操作对象。在这个版本中,确保所有操作对象都被删除,允许在不延迟的情况下卸载 LVM 存储。(
OCPBUGS-32753
)
在以前的版本中,LVM 存储不支持持久性卷声明 (PVC) 的最小存储大小。这会导致在置备 PVC 时挂载失败。在这个版本中,LVM 存储支持 PVC 的最小存储大小。以下是您可以为每个文件系统类型请求的最小存储大小:
块设备
: 8 MiB
XFS
: 300 MiB
ext4
: 32 MiB
如果
PersistentVolumeClaim
对象中的
requests.storage
字段的值小于最小存储大小,则请求的存储大小将舍入到最小存储大小。如果
limits.storage 字段
的值小于最小存储大小,则 PVC 创建会失败并显示错误。(
OCPBUGS-30266
)
在以前的版本中,LVM 存储创建了持久性卷声明 (PVC),其存储大小请求不是磁盘扇区大小的倍数。这可能会导致 LVM2 卷创建过程中出现问题。在这个版本中,通过将 PVC 请求的存储大小舍入到最接近的 512 的倍数来调整行为。(
OCPBUGS-30032
)
在以前的版本中,
LVMCluster
自定义资源 (CR) 包含正确设置的设备的 exclude status 元素。在这个版本中,过滤了为排除的 status 元素正确设置的设备,因此它只出现在就绪设备中。(
OCPBUGS-29188
)
在以前的版本中,Amazon Web Services (AWS) Elastic File Store (EFS) Container Storage Interface (CSI) 驱动程序容器的 CPU 限制可能会导致 AWS EFS CSI Driver Operator 管理的卷性能下降。在这个版本中,AWS EFS CSI 驱动程序容器中的 CPU 限制已被删除,以帮助防止潜在的性能下降。(
OCPBUGS-28551
)
在以前的版本中,Microsoft Azure Disk CSI 驱动程序没有在特定实例类型中正确计算可分配卷,并超过最大值。因此,pod 无法启动。在这个版本中,Microsoft Azure Disk CSI 驱动程序的 count 表已更新,以包含新的实例类型。pod 现在运行,数据可以被读取和写入到正确配置的卷。(
OCPBUGS-18701
)
在以前的版本中,由于 CLI 中的一个错误,secret 在 Hosted Control Planes 上存储 Container Storage Interface 驱动程序将无法挂载 secret。在这个版本中,驱动程序可以挂载卷,并解决了这个问题。(
OCPBUGS-34759
)
在以前的版本中,因为驱动程序中的一个错误而无法配置 Microsoft Azure Workload Identity 集群中的静态持久性卷 (PV),从而导致 PV 挂载失败。在这个版本中,驱动程序可以正常工作,静态 PV 可以正常工作。(
OCPBUGS-32785
)
这个版本中的一些功能当前还处于技术预览状态。它们并不适用于在生产环境中使用。请注意红帽客户门户网站中的以下支持范围:
技术预览功能支持范围
在以下表格中,功能被标记为以下状态:
网络功能虚拟化功能
表 1.19. 网络技术预览跟踪器
功能
|
4.14
|
4.15
|
4.16
|
Ingress Node Firewall Operator
通过 L2 模式,使用节点的一个子集(由特定的 IP 地址池指定)中的 MetalLB 服务进行广告
SR-IOV 网络的多网络策略
OVN-Kubernetes 网络插件作为二级网络
更新特定于接口的安全 sysctl 列表
出口服务自定义资源
BGPPeer
自定义资源中的 VRF 规格
NodeNetworkConfigurationPolicy
自定义资源中的 VRF 规格
Admin Network Policy (
AdminNetworkPolicy
)
IPsec 外部流量 (north-south)
MetalLB 和 FRR-K8s 集成
双 NIC 硬件作为 PTP 边界时钟
额外网络接口上的出口 IP
带有高可用性系统时钟的双 NIC Intel E810 PTP 边界时钟
Intel E810 Westport Channel NIC 作为 PTP grandmaster 时钟
双 NIC Intel E810 Westport Channel 作为 PTP grandmaster 时钟
使用 NMState 配置 OVN-Kuberenetes 所需的
br-ex
网桥
使用外部受管证书创建路由
从 OpenShift SDN 实时迁移 OVN-Kubernetes
使用 Whereabouts 进行多租户网络的重叠 IP 配置
改进了 CoreDNS 和出口防火墙之间的集成
|
存储技术预览功能
表 1.20. 存储技术预览
功能
|
4.14
|
4.15
|
4.16
|
使用 Local Storage Operator 进行自动设备发现和置备
Google Filestore CSI Driver Operator
IBM Power® Virtual Server Block CSI Driver Operator
Read Write Once Pod 访问模式
在 OpenShift 构建中构建 CSI 卷
OpenShift 构建中的共享资源 CSI 驱动程序
Secret Store CSI Driver Operator
CIFS/SMB CSI Driver Operator
|
安装技术预览功能
表 1.21. 安装技术预览
功能
|
4.14
|
4.15
|
4.16
|
在带有虚拟机的 Oracle® Cloud Infrastructure (OCI) 上安装 OpenShift Container Platform
开发者预览
在裸机上的 Oracle® Cloud Infrastructure (OCI)上安装 OpenShift Container Platform
开发者预览
开发者预览
开发者预览
使用 kvc 向节点添加内核模块
为 SR-IOV 设备启用 NIC 分区
Google Cloud Platform (GCP) 的用户定义的标记和标签
使用安装程序置备的基础架构在 Alibaba Cloud 上安装集群
使用 Assisted Installer 在 Alibaba Cloud 上安装集群
在 RHEL 中的 BuildConfig 中挂载共享权利
Oracle® Cloud Infrastructure (OCI) 上的 OpenShift Container Platform
开发者预览
可选择 Cluster Inventory
使用 VMware vSphere 的静态 IP 地址(仅限IPI)
支持 RHCOS 中的 iSCSI 设备
使用 Cluster API 实现在 GCP 上安装集群
支持 RHCOS 中启用了 Intel® VROC 的 RAID 设备
|
节点技术预览功能
表 1.22. 节点技术预览
功能
|
4.14
|
4.15
|
4.16
|
MaxUnavailableStatefulSet
功能集
|
多架构技术预览功能
表 1.23. 多架构技术预览
功能
|
4.14
|
4.15
|
4.16
|
使用安装程序置备的基础架构的 IBM Power® Virtual Server
arm64
构架上的
kdump
s390x
架构上的
kdump
ppc64le
架构上的
kdump
Multiarch Tuning Operator
|
专用硬件和驱动程序启用技术预览功能
表 1.24. 专用硬件和驱动程序启用技术预览
功能
|
4.14
|
4.15
|
4.16
|
驱动程序工具包
内核模块管理 Operator
内核模块管理 Operator - Hub 和 spoke 集群支持
节点功能发现
|
可扩展性和性能技术预览功能
表 1.25. 可扩展性和性能技术预览
功能
|
4.14
|
4.15
|
4.16
|
factory-precaching-cli 工具
超线程感知 CPU Manager 策略
HTTP 传输替换了 PTP 和裸机事件的 AMQP
挂载命名空间封装
Node Observability Operator
调整 etcd 延迟容错功能
增加 etcd 数据库大小
使用 RHACM
PolicyGenerator
资源管理 GitOps ZTP 集群策略
|
Operator 生命周期和开发技术预览功能
表 1.26. Operator 生命周期和开发技术预览
功能
|
4.14
|
4.15
|
4.16
|
Operator Lifecycle Manager (OLM) v1
RukPak
平台 Operator
为基于 Helm 的 Operator 项目构建工具
为基于 Java 的 Operator 项目构建工具
|
OpenShift CLI (oc) 技术预览功能
表 1.27. OpenShift CLI (oc) 技术预览
功能
|
4.14
|
4.15
|
4.16
|
oc-mirror 插件 v2
Enclave 支持
|
监控技术预览功能
表 1.28. 监控技术预览
功能
|
4.14
|
4.15
|
4.16
|
指标集合配置集
指标服务器
|
表 1.29. RHOSP 技术预览
功能
|
4.14
|
4.15
|
4.16
|
使用安装程序置备的基础架构的双栈网络
使用用户置备的基础架构的双栈网络
RHOSP 集成到 Cluster CAPI Operator
在本地磁盘上使用
rootVolumes
和
etcd
的 Control Plane
|
托管 control plane 技术预览功能
表 1.30. 托管 control plane 技术预览
功能
|
4.14
|
4.15
|
4.16
|
在 Amazon Web Services (AWS) 上托管 OpenShift Container Platform 的 control plane。
在裸机上托管 OpenShift Container Platform 的 control plane
在 OpenShift Virtualization 上为 OpenShift Container Platform 托管 control plane
使用非裸机代理机器为 OpenShift Container Platform 托管 control plane
在 Amazon Web Services 上为 ARM64 OpenShift Container Platform 集群托管 control plane
在 IBM Power 上托管 OpenShift Container Platform 的 control plane
在 IBM Z 上托管 OpenShift Container Platform 的 control plane
|
机器管理技术预览功能
表 1.31. 机器管理技术预览
功能
|
4.14
|
4.15
|
4.16
|
使用 Amazon Web Services 的集群 API 管理机器
使用 Google Cloud Platform 的 Cluster API 管理机器
使用 VMware vSphere 的集群 API 管理机器
为 control plane 机器集定义 vSphere 故障域
Alibaba Cloud 的云控制器管理器
Google Cloud Platform 的云控制器管理器
IBM Power® Virtual Server 的云控制器管理器
|
认证和授权技术预览功能
表 1.32. 认证和授权技术预览
功能
|
4.14
|
4.15
|
4.16
|
Pod 安全准入限制强制
|
Machine Config Operator 技术预览功能
表 1.33. Machine Config Operator 技术预览
功能
|
4.14
|
4.15
|
4.16
|
改进了 MCO 状态报告
On-cluster RHCOS 镜像分层
节点中断策略
更新引导镜像
|
Edge 计算技术预览功能
表 1.34. Edge 计算技术预览
功能
|
4.14
|
4.15
|
4.16
|
加速置备 GitOps ZTP
|
-
oc annotate
命令不适用于包含了等号(
=
)的 LDAP 组名称,因为命令使用等号作为注释名称和值之间的分隔符。作为临时解决方案,使用
oc patch
或
oc edit
添加注解。(
BZ#1917280
)
在由 Hypershift Operator 管理的集群中安装 Run Once Duration Override Operator (RODOO)。(
OCPBUGS-17533
)
OpenShift Container Platform 4.16 在 secret 或顶级 secret 区域的 AWS 上安装会失败,因为这些区域中的 Network Load Balancer (NLBs) 和安全组存在问题。(
OCPBUGS-33311
)
当您在 OpenShift Container Platform 集群上运行 Cloud-native Network Function (CNF) 延迟测试时,
oslat
测试有时会返回大于 20 微秒的结果。这会导致
oslat
测试失败。(
RHEL-9279
)
当使用 Local Zones 在 Amazon Web Services (AWS) 上安装集群时,如果在
us-east-1-iah-2a
区域中部署,边缘节点将无法部署。(
OCPBUGS-35538
)
无法使用 ACM 版本 2.10.3 或更早版本的 Infrastructure Operator、Central Infrastructure Management 或 ZTP 方法安装 OpenShift Container Platform 4.16。这是因为动态链接安装程序二进制文件
openshift-baremetal-install
的变化,在 OpenShift Container Platform 4.16 中,需要一个 Red Hat Enterprise Linux (RHEL) 9 主机才能成功运行。计划在以后的 ACM 版本中使用静态链接的二进制文件来避免此问题。(
ACM-12405
)
在 AWS 上安装集群时,如果负载均衡器 DNS 生存时间非常高,安装可能会超时。(
OCPBUGS-35898
)
对于包含
br-ex
网桥设备的绑定接口,请不要在节点网络配置中设置
mode=6 balance-alb
绑定模式。OpenShift Container Platform 不支持此绑定模式,可能会导致 Open vSwitch (OVS) 网桥设备与网络环境断开连接。(
OCPBUGS-34430
)
通过编辑
HostFirmwareComponents
资源,不要为
BareMetalHosts
(BMH) 资源更新固件。否则,BMH 处于
Preparing
状态并重复执行固件更新。没有临时解决方案。(
OCPBUGS-35559
)
当使用代理时,在裸机上部署安装程序置备的集群会失败。因为一个回归错误,bootstrap 虚拟机中的服务无法通过代理访问 IP 地址
0.0.0.0
。作为临时解决方案,请将
0.0.0.0
添加到
noProxy
列表中。如需更多信息,请参阅
设置代理设置
。(
OCPBUGS-35818
)
当在包含多个 CIDR 块的 VPC 上安装集群时,如果机器网络被配置为使用
install-config.yaml
文件中的非默认 CIDR 块,安装会失败。(
OCPBUGS-35054
)
当在配置了多路径的 IBM Power® 上的带有虚拟 SCSI 存储的单个 VIOS 主机中安装或配置了 OpenShift Container Platform 4.16 集群作为安装后任务时,启用了多路径的 CoreOS 节点无法引导。此行为是正常的,因为只有一个路径可用于该节点。(
OCPBUGS-32290
)
在 cgroupv2 上使用 CPU 负载均衡时,如果另一个可访问专用 CPU 的 pod 已存在,pod 无法启动。当 pod 被删除并快速创建来替换它时,可能会发生这种情况。作为临时解决方案,请确保旧 pod 在尝试创建新 pod 前完全终止。(
OCPBUGS-34812
)
在使用 512 模拟磁盘的系统上启用 LUKS 加密会导致置备失败,系统会在 initramfs 中启动紧急 shell。这是因为在增大一个分区时,
sfdisk
中的协调错误。作为临时解决方案,您可以使用 Ignition 执行调整大小。(
OCPBUGS-35410
)
OpenShift Container Platform 版本 4.16 断开连接的安装在 IBM Power® Virtual Server 上会失败。(
OCPBUGS-36250
)
在 OpenShift Container Platform 托管 control plane 中,如果禁用
Ingress 功能
,Console Operator 会返回以下出错信息:
RouteHealthAvailable: failed to GET route.
要避免这个错误,请不要在 OpenShift Container Platform 受管集群中禁用
Ingress
功能。(
OCPBUGS-33788
)
当前的 PTP grandmaster 时钟 (T-GM) 实现具有单一国家 Marine Electronics Association (NMEA) 发送的来自 GNSS 的生成器,而无需备份 NMEA 句子生成器。如果在到达 e810 NIC 前丢失 NMEA 句子,则 T-GM 无法同步网络同步链中的设备,PTP Operator 会报告错误。当 NMEA 字符串丢失时,可以报告
FREERUN
事件。在解决这个限制前,T-GM 不支持 PTP 时钟保留状态。(
OCPBUGS-19838
)
当 worker 节点的 Topology Manager 策略时,NUMA 感知辅助 pod 调度程序不会遵守这个变化,这可能会导致调度决策和意外的拓扑关联性错误。作为临时解决方案,通过删除 NUMA 感知调度程序 pod 来重启 NUMA 感知调度程序。(
OCPBUGS-34583
)
由于 Kubernetes 存在问题,CPU Manager 无法从最后一个 pod 返回到可用 CPU 资源池的最后一个 pod 资源。如果后续 pod 被接受到该节点,则这些资源可分配。但是,此 pod 会变为最后一个 pod,并且再次,CPU 管理器无法将此 pod 的资源返回到可用的池。
此问题会影响 CPU 负载均衡功能,这取决于 CPU Manager 将 CPU 释放到可用池。因此,非保证的 pod 可能会以较少的 CPU 运行。作为临时解决方案,请在受影响节点上调度具有
best-effort
CPU Manager 策略的 pod。此 pod 将是最后一个接受的 pod,这样可确保资源正确分发到可用池。(
OCPBUGS-17792
)
应用
SriovNetworkNodePolicy
资源后,在 SR-IOV Network Operator Webhook 协调过程中可能会替换 CA 证书。因此,在应用 SR-IOV 网络节点策略时,您可能会看到
unknown authority
错误。作为临时解决方案,请尝试重新应用失败的策略。(
OCPBUGS-32139
)
如果您删除了带有
vfio-pci
驱动程序类型的虚拟功能的
SriovNetworkNodePolicy
资源,SR-IOV Network Operator 无法协调策略。因此,
sriov-device-plugin
pod 进入持续重启循环。作为临时解决方案,请删除影响物理功能的所有剩余的策略,然后重新创建它们。(
OCPBUGS-34934
)
如果控制器 pod 在克隆进行时终止,Microsoft Azure File 克隆持久性卷声明 (PVC) 将保持在 Pending 状态。要解决这个问题,请删除任何受影响的克隆 PVC,然后重新创建 PVC。(
OCPBUGS-35977
)
Microsoft Azure 中没有 azcopy (在工具运行复制作业)可用的日志修剪,因此最终可能会导致控制器 pod 的 root 设备填满,您必须手动清理。(
OCPBUGS-35980
)
当
openshift-network-operator
命名空间中
ConfigMap
对象的
mtu
参数缺失时,有限的实时迁移方法会停止。
在大多数情况下,
ConfigMap
对象的
mtu
字段会在安装过程中由
mtu-prober
作业创建。但是,如果集群从早期版本(如 OpenShift Container Platform 4.4.4)升级,则
ConfigMap
对象可能不存在。
作为临时解决方案,您可以在启动有限的实时迁移过程前手动创建
ConfigMap
对象。例如:
apiVersion: v1
kind: ConfigMap
metadata:
name: mtu
namespace: openshift-network-operator
data:
mtu: "1500" 1
-
1
-
mtu
值必须与节点接口的 MTU 一致。
(
OCPBUGS-35316
)
在托管集群中,无法替换来自 API 的自签名证书。(
OCPSTRAT-1516
)
依赖于高分辨率计时器的低延迟应用程序来唤醒线程可能会遇到比预期更高的延迟。虽然预期的唤醒延迟时间为 20us,但运行
cyclictest
工具的 cyclictest 工具时可能会看到超过这个值的延迟。测试表明,对于抽样的 99.99999%,唤醒延迟都低于 20us。(
OCPBUGS-34022
)
OpenShift Container Platform 4.16 的安全更新、程序错误修正、功能增强更新将会通过红帽网络以异步勘误的形式发布。所有的 OpenShift Container Platform 4.16 勘误都可以
通过红帽客户门户网站获得
。
OpenShift Container Platform 生命周期
包括了详细的与异步勘误相关的内容。
红帽客户门户网站的用户可以在红帽订阅管理(RHSM)帐户设置中启用勘误通知功能。当勘误通知被启用后,每当用户注册的系统相关勘误被发布时,用户会收到电子邮件通知。
用户的红帽客户门户网站账户需要有注册的系统,以及使用 OpenShift Container Platform 的权限才可以接收到 OpenShift Container Platform 的勘误通知。
本节的内容将会持续更新,以提供以后发行的与 OpenShift Container Platform 4.16 相关的异步勘误信息。异步子版本(例如,OpenShift Container Platform 4.16.z)的具体信息会包括在相应的子章节中。此外,在发行公告中因为空间限制没有包括在其中的勘误内容也会包括在这里的相应的子章节中。
对于任何 OpenShift Container Platform 发行版本,请仔细参阅有关
更新集群
的说明。
1.9.1. RHSA-2024:6824 - OpenShift Container Platform 4.16.14 程序错误修复和安全更新
发布日期: 2024 年 9 月 24 日
OpenShift Container Platform release 4.16.14 现已正式发布。其程序错误修正列表包括在
RHSA-2024:6824
公告中。此更新中包括的 RPM 软件包由
RHSA-2024:6827
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.14 --pullspecs
这个 z-stream 发行版本包括以下增强:
1.9.1.1.1. 使用 Insight Operator 从 OpenStack Services 集群资源上的 Red Hat OpenStack Platform (RHOSP)收集数据
-
Insights Operator 可以从以下 Red Hat OpenStack on OpenShift Services (RHOSO)集群资源中收集数据:
OpenStackControlPlane
NodeSet、
OpenStackDataPlaneNodeSet
、
OpenStackDataPlaneDeployment
和
OpenStackVersions
。(
OCPBUGS-38021
)
-
在以前的版本中,当 Operator Lifecycle Manager (OLM)评估潜在的升级时,它会为集群中的所有自定义资源(CR)实例使用动态客户端列表。对于有大量 CR 的集群,这可能会导致 API 服务器超时并升级。在这个版本中,这个问题已解决。(
OCPBUGS-41677
)
在以前的版本中,如果 Hosted Cluster (HC)
controllerAvailabilityPolicy
值是
SingleReplica
,则带有
podAntiAffinity
的网络组件会阻止推出部署。在这个版本中,这个问题已解决。(
OCPBUGS-41555
)
在以前的版本中,当将集群部署到具有多个 CIDR 块的 Amazon Virtual Private Cloud (VPC)时,安装程序会失败。在这个版本中,网络设置会被更新,以支持具有多个 CIDR 块的 VPC。(
OCPBUGS-39496
)
在以前的版本中,Ansible playbook 的顺序被修改为在创建
metadata.json
文件之前运行,这会导致旧版本 Ansible 出现问题。在这个版本中,playbook 对缺少的文件具有更大的灵活性,这个问题已解决。(
OCPBUGS-39287
)
在以前的版本中,在同一提取过程中,Prometheus 会丢弃来自同一系列的示例,且只考虑其中一个,即使它们具有不同的时间戳。当此问题持续发生时,它会触发
PrometheusDuplicateTimestamps
警报。在这个版本中,如果所有样本满足其他条件,则会嵌套它们。(
OCPBUGS-39179
)
在以前的版本中,当文件夹未定义,且数据中心位于数据中心文件夹中时,会创建一个不正确的文件夹结构,从 vCenter 服务器的根目录开始。通过使用 Govmomi
DatacenterFolders.VmFolder
,它会使用不正确的路径。在这个版本中,文件夹结构使用数据中心清单路径,并将其与虚拟机(VM)和集群 ID 值连接,并解决了这个问题。(
OCPBUGS-39082
)
在以前的版本中,安装程序无法在配置为
e980
系统的 IBM Power Virtual Server 平台上的
eu-es
(Madrid、西班牙)区域安装 OpenShift Container Platform 集群。在这个版本中,安装程序不再在此环境中安装集群。(
OCPBUGS-38502
)
在以前的版本中,Konnectity 代理中发生 IDP 通信的代理。通过时间流量达到 Konnectivity,其协议和主机名不再可用。因此,OAUTH 服务器 pod 无法正确进行代理。它无法区分需要代理(HTTP/S)和没有(LDAP)的协议。另外,它不遵循
HostedCluster.spec.configuration.proxy
spec 中配置的
no_proxy
变量。
在这个版本中,您可以在 OAUTH 服务器的 Konnectity sidecar 上配置代理,以便正确路由流量,并遵循您的
no_proxy
设置。因此,当为托管集群配置代理时,OAUTH 服务器可以与身份提供程序正确通信。(
OCPBUGS-38058
)
在以前的版本中,如果您使用代理从计算节点访问 control plane 创建托管集群,则计算节点将无法使用集群。在这个版本中,为节点更新代理设置,以便节点可以使用代理与 control plane 成功通信。(
OCPBUGS-37937
)
以前,UPI 类型安装引入了 IPv6 支持,这会导致命名 OpenStack 资源的问题,对在同一 OpenStack 云上创建两个 UPI 安装的清单本身。这样做的结果将设置网络、子网和路由器具有相同的名称,这将干扰一个设置,并防止部署另一个。现在,每个 OpenShift 部署,上述资源的所有名称都是唯一的。(
OCPBUGS-36855
)
在以前的版本中,一些安全
sysctl
在 allow 列表中被错误地省略。在这个版本中,
sysctl
会重新添加到 allow 列表中,并解决了这个问题。(
OCPBUGS-29403
)
在以前的版本中,当 OpenShift Container Platform 集群从 4.14 升级到 4.15 时,vCenter 集群字段不会以 UI 的配置形式填充。基础架构集群资源没有升级的集群的信息。在这个版本中,UI 将
cloud-provider-config
配置映射用于 vCenter 集群值,并解决了这个问题。(
OCPBUGS-41619
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.2. RHSA-2024:6687 - OpenShift Container Platform 4.16.13 程序错误修复更新
发布日期:24 年 9 月 19 日
OpenShift Container Platform release 4.16.13 现已正式发布。其程序错误修正列表包括在
RHSA-2024:6687
公告中。此更新没有 RPM 软件包。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.13 --pullspecs
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.3. RHSA-2024:6632 - OpenShift Container Platform 4.16.12 程序错误修复和安全更新
发布日期:24 年 9 月 17 日
OpenShift Container Platform release 4.16.12 现已正式发布。其程序错误修正列表包括在
RHSA-2024:6632
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:6635
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.12 --pullspecs
这个 z-stream 发行版本包括以下改进:
1.9.3.1.1. 支持 Redfish API 中的 TransferProtocolTypes 的 HTTPS
-
通过将"disableVirtualMediaTLS: false"添加到安装程序创建的 Provisioning CR 文件中,可以在 ironic 和基板管理控制器(BMC)之间启用 TLS。(
OCPBUGS-39468
)
1.9.3.1.2. 更新至 Kubernetes 版本 1.29.8
1.9.3.1.3. 使用 Edit Source Code 在 web 控制台中重定向
-
Web 控制台的
Git Advanced
部分中有两个选项:一个选项是添加分支、标签或提交 ID 和其他选项来添加上下文目录。在这个版本中,如果您添加特定分支、标签或提交 ID 的上下文目录,您可以选择
Edit 源代码
图标来重定向到该目录。如果没有输入分支、标签或提交 ID,您将会按照之前预期的方式重定向到基本 url。(
OCPBUGS-38914
)
-
在以前的版本中,当在单个调用中获取大量 secret 时,API 超时,CCO 延迟一个错误,然后重启。在这个版本中,CCO 以较小的 100 批处理中拉取 secret 列表,并解决了这个问题。(
OCPBUGS-41234
)
在以前的版本中,如果
registryPoll
字段没有,Operator Lifecycle Manager (OLM)目录源 pod 不会从节点失败中恢复。
在这个版本中,OLM CatalogSource registry pod 从集群节点失败中恢复,并解决了这个问题。(
OCPBUGS-41217
)
在以前的版本中,Cluster Ingress Operator 会记录不存在的更新。在这个版本中,这个问题已解决。(
OCPBUGS-39324
)
在以前的版本中,安装程序无法在配置为
e980
系统的 IBM Power Virtual Server 平台上的
eu-es
(Madrid、西班牙)区域安装 OpenShift Container Platform 集群。在这个版本中,安装程序不再在此环境中安装集群。(
OCPBUGS-38502
)
在以前的版本中,Ingress Controller
Degraded
状态不会设置,因为
CanaryRepetitiveFailures
条件转换时间存在问题。在这个版本中,只有在条件状态更改时,条件转换时间才会更新,而不是当消息或原因是唯一的更改时。(
OCPBUGS-39323
)
在以前的版本中,在 Hosted Cluster 镜像配置中指定的
AdditionalTrustedCA
字段不会按预期协调到 openshift-config 命名空间中,且组件不可用。在这个版本中,这个问题已解决。(
OCPBUGS-39293
)
在以前的版本中,安装程序回归问题会导致 Nutanix 集群部署使用动态主机配置协议(DHCP)网络部署出现问题。在这个版本中,这个问题已解决。(
OCPBUGS-38956
)
在以前的版本中,一个罕见的情况会导致 CAPV 会话意外超时。在这个版本中,
Keepa Alive
支持在更新的 CAPV 版本中被禁用,并解决了这个问题。(
OCPBUGS-38822
)
在以前的版本中,在使用 dark 模式查看页面时,
Cluster Settings
上的更新图表中的版本号文本在黑色背景上显示为黑色文本。在这个版本中,文本显示为白色文本。(
OCPBUGS-38424
)
在以前的版本中,在 HyperShift 集群的 control plane 中运行的 Operator 代理是通过在 data plane 中运行的 konnectivity 代理 pod 上的代理设置执行的。因此,无法区分需要基于应用程序协议的代理。对于带有 {rh-short} 的奇偶校验,通过 https/http 的 IDP 通信应该会被代理,但不应代理 LDAP 通信。在这个版本中,如何在托管集群中处理代理,通过
konnectity-https-proxy 和
konnectivity-socks5-proxy
来调用 control plane 中的代理,并停止来自 konnectivity 代理的代理。(
OCPBUGS-38062
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.4. RHBA-2024:6401 - OpenShift Container Platform 4.16.11 程序错误修复更新
发布日期:24 年 9 月 11 日
OpenShift Container Platform release 4.16.11 现已正式发布。其程序错误修正列表包括在
RHBA-2024:6401
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:6404
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.11 --pullspecs
-
Red Hat OpenShift Service on AWS 托管 control plane (HCP)和 OpenShift Container Platform 集群无法在比 4.15.23 旧的 MachinePool 版本中添加新节点。因此,一些更新会被阻断。要查看哪些集群会受到影响以及推荐的临时解决方案,请参阅 (对
HOSTEDCP-1941 的 ROSA 升级问题缓解
)。(
OCPBUGS-39447
)
-
在以前的版本中,在为 Platform Prometheus 远程写入端点配置代理时,不会考虑集群范围的 Proxy 中的
noProxy
字段。在这个版本中,Cluster Monitoring Operator (CMO)不再为 URL 应该根据
noProxy
绕过代理的任何远程写入端点配置代理。(
OCPBUGS-39170
)
在以前的版本中,因为对核心操作系统的更改,Red Hat HyperShift 定期合规作业会失败。这些失败的作业会导致 OpenShift API 部署失败。在这个版本中,更新会递归复制单独的可信证书颁发机构(CA)证书,而不是复制单个文件,因此定期一致性作业会成功,OpenShift API 会按预期运行。(
OCPBUGS-38942
)
在以前的版本中,对于出口 IP,如果为出口节点分配了 IP 并删除它,则
egressIP
选择的 pod 可能会对该出口节点有不正确的路由信息。在这个版本中,这个问题已被解决。(
OCPBUGS-38705
)
在以前的版本中,安装程序无法在配置为
e980
系统的 IBM Power Virtual Server 平台上的
eu-es
(Madrid、西班牙)区域安装 OpenShift Container Platform 集群。在这个版本中,安装程序不再在此环境中安装集群。(
OCPBUGS-38502
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.5. RHSA-2024:6004 - OpenShift Container Platform 4.16.10 程序错误修复更新
发布日期:24 年 9 月 3 日
OpenShift Container Platform release 4.16.10 现已正式发布。其程序错误修正列表包括在
RHSA-2024:6004
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:6007
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.10 --pullspecs
1.9.5.1.1. 将 CENTOS 8 引用更新为 CENTOS 9
-
CENTOS 8 最近结束其生命周期。此发行版本更新了 CENTOS 8 引用 CENTOS 9。(
OCPBUGS-38627
)
-
在以前的版本中,
egressip
控制器无法正确地管理与虚拟路由和转发(VRF)表关联的网络接口分配
EgressIP
地址。因此,当为网络接口配置 VRF 实例时,数据包不会被正确路由,因为 OVN-K 使用 main 路由表而不是 VRF 的路由表。在这个版本中,当网络接口上配置了 VRF 实例时,
egressip
控制器会使用 VRF 的路由表,确保准确的
EgressIP
分配和正确的流量路由。(
OCPBUGS-38704
)
在以前的版本中,当服务帐户有简短的凭证时,会出现内部超时。此发行版本删除了超时,并允许父上下文控制超时。(
OCPBUGS-38196
)
在以前的版本中,当具有有限权限的用户试图删除使用 Serveless 部署的应用程序时,会出现一个错误。在这个版本中,添加了一个检查来确定用户是否有列出 Pipeline 资源的权限。(
OCPBUGS-37954
)
在以前的版本中,utlization 卡以错误地表示容量和限制之间的关系的方式显示限制。
在这个版本中,
限制
的位置被修改为删除此含义。(
OCPBUGS-37430
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.6. RHBA-2024:5757 - OpenShift Container Platform 4.16.9 程序错误修复更新
发布日期:2024 年 8 月 29 日
OpenShift Container Platform 版本 4.16.9 现已正式发布。其程序错误修正列表包括在
RHBA-2024:5757
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:5760
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.9 --pullspecs
-
Insights Operator (IO) 现在可以从
haproxy_exporter_server_threshold
指标收集数据。(
OCPBUGS-38230
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.7. RHSA-2024:5422 - OpenShift Container Platform 4.16.8 程序错误修复和安全更新
发布日期: 2024 年 8 月 20 日
OpenShift Container Platform 版本 4.16.8 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:5422
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:5425
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.8 --pullspecs
-
在以前的版本中,当点 OpenShift Container Platform 集群的
Settings
页面中的 Red Hat OpenShift Lightspeed 链接时,Operator Hub 中的 OpenShift Lightspeed 模态不会被打开。在这个版本中,OpenShift Lightspeed 模态会如预期打开。(
OCPBUGS-38093
)
在以前的版本中,当使用
-rebuild-catalogs
参数镜像 Operator 目录时,在本地机器上重新创建目录缓存。这需要从目录镜像中提取并使用
opm
二进制文件,这会导致镜像操作或目录源失败。出现这些故障的原因是支持的操作系统和
opm
二进制文件的平台会导致与操作系统和
oc-mirror
平台不匹配。在这个版本中,
true
的值默认应用于
--rebuild-catalogs
参数;任何目录重建都不会重新创建内部缓存。另外,这个版本将镜像从
opm serving /configs --cache-dir=/tmp/cache
更新为
opm serving /configs
,以便在 pod 启动时创建缓存。启动时缓存可能会增加 pod 启动时间。(
OCPBUGS-38035
)
在以前的版本中,只有在 Prometheus 将数据发送到至少一个 occasion 上的
remote-write
后,
PrometheusRemoteWriteBehind
警报才会被触发。在这个版本中,当无法与端点建立连接时,警报也会触发,例如当您将其添加到
remote-write
端点配置时,端点 URL 是否存在错误。(
OCPBUGS-36918
)
在以前的版本中,构建控制器无法安全地处理使用相同的 secret 的多个
MachineOSBuild
对象。在这个版本中,构建控制器可以如预期处理这些对象。(
OCPBUGS-36171
)
在以前的版本中,与
ImageRegistry
、
Build
, 和
DeploymentConfig
功能相关的角色绑定都会在每个命名空间中创建,即使禁用了相应的功能。在这个版本中,只有在集群中启用了对应的集群功能时,才会创建角色绑定。(
OCPBUGS-34384
)
-
当删除使用 SR-IOV 网络设备的 pod 时,可能会出现错误。这个错误是由 RHEL 9 中的更改造成的,其中之前网络接口的名称会在重命名时添加到其替代名称列表中。因此,当删除附加到 SR-IOV 虚拟功能 (VF) 的 pod 时,VF 会返回到具有新意外名称的池,如
dev69
,而不是其原始名称,如
ensf0v2
。虽然这个错误不严重,但 Multus 和 SR-IOV 日志可能会在系统重启时显示错误。由于这个错误,删除 pod 可能需要几秒钟。(
OCPBUGS-11281
,
OCPBUGS-18822
,
RHEL-5988
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.8. RHSA-2024:5107 - OpenShift Container Platform 4.16.7 程序错误修复和安全更新
发布日期:2024 年 8 月 13 日
OpenShift Container Platform 版本 4.16.7 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:5107
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:5110
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.7 --pullspecs
-
在以前的版本中,在收集 bootstrap 收集日志时,
openshift-install
CLI 有时无法连接到 bootstrap 节点。安装程序报告错误消息,如
The bootstrap machine did not execute the release-image.service systemd unit
。在这个版本中,在 bootstrap 收集日志问题发生后,安装程序现在会报告更加准确的错误信息
Invalid log bundle or the bootstrap machine could not be reached and bootstrap logs were not collected
。(
OCPBUGS-37838
)
在以前的版本中,在通过
HostFirmwareComponents
资源更新固件后,资源不会在
Status.Components
中显示有关安装的固件的已更新的信息。在这个版本中,在运行固件更新后,
BareMetalHosts
(BMH) 对象移到
provisioning
,有关固件的新信息会在
Status.Components
下的
HostFirmwareComponents
资源中填充。(
OCPBUGS-37765
)
在以前的版本中,没有为 OpenShift Container Platform 发行镜像创建 oc-mirror 插件 v2。有些容器 registry 依赖于这些标签作为强制标签。在这个版本中,这些标签会添加到所有发行镜像中。(
OCPBUGS-37757
)
在以前的版本中,从 Cluster API Machine 对象提取 IP 地址只返回单个地址。在 VMware vSphere 中,返回的地址始终是一个 IPv6 地址,如果地址不可路由,这会导致
must-gather
实现出现问题。在这个版本中,Cluster API Machine 对象会返回所有 IP 地址,包括 IPv4,以便在 VMware vSphere 上不再发生
must-gather
问题。(
OCPBUGS-37607
)
在以前的版本中,安装程序错误地需要 Amazon Web Services (AWS) 权限为已经拥有这些角色的 OpenShift Container Platform 集群创建 Identity and Access Management (IAM) 角色。在这个版本中,安装程序只请求尚未创建的角色的权限。(
OCPBUGS-37494
)
在以前的版本中,当您试图在 Red Hat OpenStack Platform (RHOSP)上安装集群,且在集群名称中使用特殊字符(如 hash 符号(
#
))时,Neutron API 无法使用集群名称标记安全组。这会导致集群安装失败。在这个版本中,安装程序使用替代端点来标记安全组,此端点支持在标签名称中使用特殊字符。(
OCPBUGS-37492
)
在以前的版本中,Dell iDRAC 基板管理控制器(BMC)与 Redfish 协议会导致集群在 Dell iDRAC 服务器上失败。在这个版本中,对
idrac-redfish
管理界面的更新取消设置
ipxe
参数解决了这个问题。(
OCPBUGS-37262
)
在以前的版本中,当
assisted-installer
检查 control plane 节点的就绪度,且与来自
assisted-installer-controller
的写操作有冲突时,
assisted-installer
不会重新载入来自
assisted-service
的新数据。这个冲突会阻止
assisted-installer
检测到由
assisted-installer-controller
标记为
Ready
的节点,因为
assisted-installer
依赖于旧的信息。在这个版本中,
assisted-installer
可以从
assisted-service
接收最新信息,以便
assisted-installer
可以准确检测每个节点的状态。(
OCPBUGS-37167
)
在以前的版本中,基于 DNS 的出口防火墙错误地会导致因为多个重试操作而在集群中运行的节点的内存增加。在这个版本中,重试逻辑已被修复,DNS pod 不再向节点泄漏溢出内存。(
OCPBUGS-37078
)
在以前的版本中,在用户从
HostedCluster
对象中删除
ImageContentSources
字段后,
HostedClusterConfigOperator
资源不会删除
ImageDigestMirrorSet
(IDMS) 对象。这会导致 IDMS 对象保留在
HostedCluster
对象中。在这个版本中,
HostedClusterConfigOperator
会删除
HostedCluster
对象中的所有 IDMS 资源,以便不再有这个问题。(
OCPBUGS-36766
)
在以前的版本中,在运行带有 Telco RAN DU 参考配置的 OpenShift Container Platform 4.16 的集群,长时间的
cyclictest
或
timerlat
测试在检测到最大延迟超过
20
us 时会失败。出现这个问题的原因是,当启用 cgroup v2 时,
psi
内核命令行参数被设置为
1
。在这个版本中,在启用 cgroup v2 时,通过在内核参数中设置
psi=0
来解决这个问题。
OCPBUGS-34022
中报告的
cyclictest
延迟问题现已解决。(
OCPBUGS-37271
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.9. RHSA-2024:4965 - OpenShift Container Platform 4.16.6 程序错误修复更新
发布日期:2024 年 8 月 6 日
OpenShift Container Platform 版本 4.16.6 现已正式发布。其程序错误修正列表包括在
RHSA-2024:4965
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:4968
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.6 --pullspecs
这个 z-stream 发行版本包括以下改进:
1.9.9.1.1. 收集 Ingress Controller 证书过期日期
-
Insights Operator 现在收集有关所有 Ingress Controller 证书过期日期的信息。该信息将放入一个 JSON 文件中,该文件放在路径
aggregated/ingress_controllers_certs.json
中。(
OCPBUGS-37671
)
-
在以前的版本中,您无法控制为集群节点选择 IP 地址的内部组件的日志级别。在这个版本中,您可以启用 debug 日志级别,以便可以按需增加或减少日志级别。要调整日志级别,您必须使用类似如下的配置创建配置映射清单文件:
apiVersion: v1
data:
enable-nodeip-debug: "true"
kind: ConfigMap
metadata:
name: logging
namespace: openshift-vsphere-infra
# ...
(
OCPBUGS-35891
)
1.9.9.1.3. ironic 和 Inspector
htpasswd
的改进
-
在以前的版本中,Ironic 和 Inspector
htpasswd
使用环境变量提供给
ironic-image
,这是不安全的。在本发行版本中,Ironic
htpasswd
使用
/auth/ironic/htpasswd
文件提供给
ironic-image
,Inspector
htpasswd
使用
/auth/inspector/htpasswd
文件提供给
ironic-image
,以提高安全性。(
OCPBUGS-36285
)
-
在以前的版本中,安装程序创建的子网使用
kubernetes.io/cluster/<clusterID>: shared
标签。在这个版本中,子网使用
kubernetes.io/cluster/<clusterID>: owned
进行标记。(
OCPBUGS-37510
)
在以前的版本中,同一节点在排空控制器中会多次排队,这会导致同一节点被排空两次。在这个版本中,节点只会排空一次。(
OCPBUGS-37470
)
在以前的版本中,带有比不可用节点更高的
maxUnavailable
的机器配置池 (MCP) 中的被 conrdon 的节点可能会被选择为更新候选节点。在这个版本中,被 cordon 的节点永远不会被排队以进行更新。(
OCPBUGS-37460
)
在以前的版本中,当使用系统代理配置集在代理后面运行时,oc-mirror 插件 v2 会尝试在不使用系统代理配置的情况下恢复版本的签名。在这个版本中,在签名恢复过程中考虑系统代理配置,并解决了这个问题。(
OCPBUGS-37445
)
在以前的版本中,在应该触发
OVNKubernetesNorthdInactive
时,不会触发警报。在这个版本中,这个问题已被解决,以便
OVNKubernetesNorthdInactive
的警报如预期触发。(
OCPBUGS-37362
)
在以前的版本中,Load Balancer ingress 规则会持续撤销并被授权,从而导致不必要的 Amazon Web Services (AWS)应用程序编程接口(API)调用和集群置备延迟。在这个版本中,Load Balancer 会检查需要应用的入口规则,并解决了这个问题。(
OCPBUGS-36968
)
在以前的版本中,在 OpenShift Container Platform web 控制台中,一个不活跃或空闲的浏览器标签页会导致会话过期。在这个版本中,任何选项卡中的活动将阻止会话过期。(
OCPBUGS-36864
)
在以前的版本中,Open vSwitch (OVS)固定流程设置主线程的 CPU 关联性,但其他 CPU 线程如果已经创建,则不会提取这个关联性。因此,一些 OVS 线程不会在正确的 CPU 集上运行,这可能会干扰服务质量(QoS)类为
Guaranteed
的 pod 的性能。在这个版本中,OVS 固定过程会更新所有 OVS 线程的关联性,确保所有 OVS 线程都在正确的 CPU 集上运行。(
OCPBUGS-36608
)
在以前的版本中,etcd Operator 会检查串行中的 etcd 成员的健康状况,并带有与单成员超时匹配的 all-member 超时。这允许一个延迟的成员检查消耗整个超时时间,并导致后续成员检查失败,并显示错误
deadline-exceeded
,无论以后成员的健康状况是什么。现在,etcd 会并行检查成员的健康状况,因此一个成员检查的健康和速度不会影响其他成员的检查。(
OCPBUGS-36489
)
在以前的版本中,您无法在不启用
TechPreviewNoUpgrade
功能门的情况下更改 VMware vSphere Container Storage Interface (CSI)驱动程序的快照限制,因为缺少了 Cluster Storage Operator 程序错误的 API。在这个版本中,添加了缺少的 API,以便您可以在不启用
TechPreviewNoUpgrade
功能门的情况下更改快照限制。有关更改快照限制的更多信息,请参阅
更改 vSphere 的最大快照数
(
OCPBUGS-36969
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.10. RHBA-2024:4855 - OpenShift Container Platform 4.16.5 程序错误修复更新
发布日期:2024 年 7 月 31 日
OpenShift Container Platform 版本 4.16.5 现已正式发布。其程序错误修正列表包括在
RHBA-2024:4855
公告中。此更新中包括的 RPM 软件包由
RHSA-2024:4858
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.5 --pullspecs
-
在以前的版本中,使用 oc-mirror 插件 v2 (技术预览),当生成的存档移到其他机器中时,从存档镜像到 mirror registry 操作会失败,并输出以下错误信息:
[ERROR]: [ReleaseImageCollector] open ${FOLDER}/working-dir/hold-release/ocp-release/4.15.17-x86_64/release-manifests/image-references: no such file or directory
在这个版本中,运行 oc-mirror 的机器会收到自动更新,以将目标位置更改为工作目录。(
OCPBUGS-37040
)
在以前的版本中,OpenShift CLI (
oc
) 命令
openshift-install destroy cluster
会停滞并导致以下错误信息:
VM has a local SSD attached but an undefined value for 'discard-local-ssd' when using A3 instance types
在这个版本中,在发出命令后,本地 SSD 会被移除,因此不再存在这个程序错误。(
OCPBUGS-36965
)
在以前的版本中,当 Cloud Credential Operator 检查 passthrough 模式权限是否正确时,Operator 有时会收到来自 Google Cloud Platform (GCP) API 的响应,有关项目的无效权限。在这个版本中,Operator 进入降级状态,并会影响集群的安装。在这个版本中,Cloud Credential Operator 会专门检查这个错误,以便单独诊断它,而不影响集群安装。(
OCPBUGS-36834
)
在以前的版本中,使用 oc-mirror 插件 v2 (技术预览),当生成的存档移到其他机器中时,从存档镜像到 mirror registry 操作会失败,并输出以下错误信息:
[ERROR]: [ReleaseImageCollector] open ${FOLDER}/working-dir/hold-release/ocp-release/4.15.17-x86_64/release-manifests/image-references: no such file or directory
在这个版本中,运行 oc-mirror 的机器会收到自动更新,以将目标位置更改为工作目录。(
OCPBUGS-37040
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.11. RHSA-2024:4613 - OpenShift Container Platform 4.16.4 程序错误修复和安全更新
发布日期:2024 年 7 月 24 日
OpenShift Container Platform 版本 4.16.4 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:4613
公告中。此更新中包括的 RPM 软件包由
RHSA-2024:4616
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.4 --pullspecs
-
在以前的版本中,对 Ingress Operator 的更改添加了
clear spec.host
的逻辑,以及在 canary 路由上设置
spec.subdomain
。但是,Operator 的服务帐户没有必要的
routes/custom-host
权限来更新现有路由上的
spec.host
或
spec.subdomain
。在这个版本中,权限被添加到 Operator 服务帐户的
ClusterRole
资源中,这个问题已解决。(
OCPBUGS-32887
)
在以前的版本中,在 Console Operator 中对订阅的
fetchOrganization
端点的调用数量太高,这会导致安装出现问题。在这个版本中,机构 ID 被缓存,这个问题已解决。(
OCPBUGS-34012
)
在以前的版本中,与
ImageRegistry
、
Build
, 和
DeploymentConfig
功能相关的角色绑定都会在每个命名空间中创建,即使禁用了相应的功能。在这个版本中,只有在集群中启用了对应的集群功能时,才会创建角色绑定。(
OCPBUGS-34384
)
在以前的版本中,在使用 FRR-K8s 部署时,MetalLB Operator 会部署下游镜像,即 MetalLB 的边框网关协议(BGP)后端。在这个版本中,MetalLB Operator 部署上游镜像,而不是 dowstream 镜像。(
OCPBUGS-35864
)
在以前的版本中,当使用 512 模拟(512e)磁盘在系统中启用 LUKS 加密时,加密会在
ignition-ostree-growfs
步骤中失败,并因为协调问题报告错误。在这个版本中,在
ignition-ostree-growfs
步骤中添加了一个临时解决方案来检测这种情况并解决协调问题。(
OCPBUGS-36147
)
在以前的版本中,localhost 的
--bind-address
参数会导致 IBM Power Virtual Server 集群的存活度测试失败。在这个版本中,localhost 的
--bind-address
参数会被删除,并解决了这个问题。(
OCPBUGS-36317
)
在以前的版本中,在安装 Operator 时,Operator Lifecycle Manager (OLM) 不会找到已经创建的 Operator 捆绑包解包作业。在这个版本中,这个问题已解决。(
OCPBUGS-36450
)
在以前的版本中,仅在 bootstrap 节点或集群销毁时,用于 Cluster API 置备安装的 etcd 数据存储才会被删除。在这个版本中,如果基础架构置备过程中出现错误,数据存储会被删除,且不会占用不必要的磁盘空间。(
OCPBUGS-36463
)
在以前的版本中,如果没有启用功能门
ClusterAPIInstallAWS=true
,启用自定义功能门可能会导致在 AWS 中安装失败。在这个版本中,
ClusterAPIInstallAWS=true
功能门不再需要。(
OCPBUGS-36720
)
在以前的版本中,如果在
destroy cluster
命令后运行
create cluster
,则会报告本地基础架构置备工件已存在的错误。在这个版本中,使用
destroy cluster
删除保留工件,并解决了这个问题。(
OCPBUGS-36777
)
在以前的版本中,
OperandDetails
页面会显示与名称匹配的第一个自定义资源定义 (CRD) 的信息。在这个版本中,
OperandDetails
页面显示与名称匹配的 CRD 的信息,以及操作对象的版本。(
OCPBUGS-36841
)
在以前的版本中,如果
openshift.io/internal-registry-pull-secret-ref
注解已从
ServiceAccount
资源中删除,OpenShift Container Platform 会重新创建已删除的注解并创建新的受管镜像 pull secret。此争用可能会导致集群使用镜像 pull secret 超载。在这个版本中,OpenShift Container Platform 会尝试重新声明之前被引用和删除在协调后保持孤立的受管镜像 pull secret 的受管镜像 pull secret。(
OCPBUGS-36862
)
在以前的版本中,由于设置失败,一些进程会在安装程序停止后继续运行。在这个版本中,当安装程序停止运行时,所有安装进程都会停止。(
OCPBUGS-36890
)
在以前的版本中,
ClusterMonitoringOperatorDeprecatedConfig
警报没有 runbook。在这个版本中,
ClusterMonitoringOperatorDeprecatedConfig
警报的 runbook 会被添加,并解决了这个问题。(
OCPBUGS-36907
)
在以前的版本中,
Cluster overview 页面
包含
View all steps in documentation
链接,这会导致 ROSA 和 OSD 集群出现 404 错误。在这个版本中,ROSA 和 OSD 集群不会显示链接。(
OCPBUGS-37063
)
在以前的版本中,OpenShift Container Platform 使用的 Machine Config Operator 工具的 OpenSSL 版本和托管 control plane 上运行的 OpenSSL 版本有不匹配。在这个版本中,这个问题已解决。(
OCPBUGS-37241
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.12. RHSA-2024:4469 - OpenShift Container Platform 4.16.3 程序错误修复和安全更新
发布日期:2024 年 7 月 16 日
OpenShift Container Platform 版本 4.16.3 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:4469
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:4472
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.3 --pullspecs
这个 z-stream 发行版本包括以下改进:
-
OpenShift Container Platform 版本 4.16.3 引进了对 Microsoft Azure 集群上的 Capacity Reservation with Capacity Reservation groups 的支持。如需更多信息,请参阅
使用计算机器集为
compute
或
control plane
机器集配置容量保留
。(
OCPCLOUD-1646
)
1.9.12.1.2. 为禁用的 ingress 集群添加替代入口
-
在这个版本中,控制台 Operator 配置 API 可以在禁用 ingress 集群功能的环境中添加替代入口。(
OCPBUGS-33788
)
-
在以前的版本中,如果没有为带有 PodSecurityAdmission "restricted" 级别强制的命名空间中的 CatalogSource 对象设置
spec.grpcPodConfig.securityContextConfig
,则默认 securityContext 被设置为
restricted
。在这个版本中,OLM 目录操作器使用 securityContexts 配置目录 pod,以传递 PSA 验证,并解决了这个问题。(
OCPBUGS-34979
)
在以前的版本中,
HighOverallControlPlaneCPU
警报根据具有高可用性的多节点集群条件触发警告。因此,在单节点 OpenShift 集群中触发误导警报,因为配置与环境标准不匹配。在这个版本中,重新定义警报逻辑,以使用单节点 OpenShift 的查询和阈值,以及帐户进行工作负载分区设置。因此,单节点 OpenShift 集群中的 CPU 使用率警报准确且与单节点配置相关。(
OCPBUGS-35831
)
在以前的版本中,
--bind-address
到 localhost 会导致 PowerVS 集群的存活度测试失败。在这个版本中,到 localhost 的
--bind-address
已被删除,并解决了这个问题。(
OCPBUGS-36317
)
在以前的版本中,使用 4.1 和 4.2 引导镜像的节点在置备过程中会卡住,因为
machine-config-daemon-firstboot.service
不兼容 machine-config-daemon 二进制代码。在这个版本中,二进制文件已被更新,这个问题已解决。(
OCPBUGS-36330
)
在以前的版本中,当在完全断开连接的环境中执行
diskToMirror
操作时,无法访问源 registry。当在
MirrorToDisk
中使用
oc-mirror v2
时,目录镜像和内容存储在与镜像摘要对应的
working-dir
的子文件夹下。然后,在使用
DiskToMirror
时,oc-mirror 会尝试调用源 registry 将目录镜像标签解析为摘要,以查找磁盘上的对应子文件夹。在这个版本中,
oc-mirror
在
diskToMirror
过程中对本地缓存进行干预,以确定此摘要。(
OCPBUGS-36386
)
在以前的版本中,如果在与当前部署相同的主机上的 OSTree 级别执行新部署,但在不同的 stateroot 中,则 OSTree 会将它们视为相等。这个行为错误地阻止引导装载程序在调用
set-default
时更新,因为 OSTree 没有将两个 stateroot 识别为部署的不同因素。在这个版本中,OSTree 的逻辑已被修改来考虑 stateroots,并允许 OSTree 正确将默认部署设置为具有不同 stateroot 的新部署。(
OCPBUGS-36386
)
在以前的版本中,AWS 集群的安装程序日志包含有关 Elastic Kubernetes Service (EKS) 的不必要的信息,可能会导致混淆。在这个版本中,EKS 日志行被禁用,并解决了这个问题。(
OCPBUGS-36447
)
在以前的版本中,OpenShift Container Platform 4.14 中引入了对依赖项目标的更改,它会阻止断开连接的 ARO 安装在升级到受影响的版本后扩展新节点。在这个版本中,在升级到 OpenShift Container Platform 4.16 后,断开连接的 ARO 安装可以扩展新节点。(
OCPBUGS-36536
)
在以前的版本中,连接拒绝在
端口 9637
上报告为 Windows 节点的
Target Down
,因为 CRIO 不在 Windows 节点上运行。在这个版本中,Windows 节点不包括在 Kubelet Service Monitor 中。(
OCPBUGS-36717
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.13. RHSA-2024:4316 - OpenShift Container Platform 4.16.2 程序错误修复和安全更新
发布日期:2024 年 7 月 9 日
OpenShift Container Platform 版本 4.16.2 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:4316
公告中。此更新中包括的 RPM 软件包由
RHBA-2024:4319
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.2 --pullspecs
-
在以前的版本中,对于从旧版本的 OpenShift Container Platform 升级的集群,在启用了 OVN 的集群上启用
kdump
有时会阻止节点重新加入集群或返回到
Ready
状态。在这个版本中,过时的数据会从旧的 OpenShift Container Platform 版本中删除,并确保始终清理这个过时的数据。该节点现在可以正确启动并重新加入集群。(
OCPBUGS-36198
)
在以前的版本中,当创建安装程序置备的基础架构 (IPI) 集群时,终端会出现意外输出。在这个版本中,这个问题已被解决,意外输出不再会出现。(
OCPBUGS-36156
)
在以前的版本中,OpenShift Container Platform 控制台没有在节点列表中显示文件系统指标。在这个版本中,文件系统指标会出现在节点表中。(
OCPBUGS-35946
)
在以前的版本中,Prometheus 仪表板在非多集群环境中显示为空。在这个版本中,仪表板会针对这两种情况填充仪表板面板。(
OCPBUGS-35904
)
在以前的版本中,4.16.0 中的一个回归会导致在使用代理时新的 baremetal 安装程序置备的基础架构(IPI)安装失败。这是因为 bootstrap 虚拟机 (VM) 中的某个服务试图通过代理访问 IP 地址 0.0.0.0。在这个版本中,该服务不再访问 0.0.0.0。(
OCPBUGS-35818
)
在以前的版本中,Cluster API Provider IBM Cloud 会在 IBM Power Virtual Server 集群上创建负载均衡器前等待一些资源创建。这个延迟有时会导致负载均衡器在 15 分钟超时前不会被创建。在这个版本中,这个超时时间已被增加。(
OCPBUGS-35722
)
在以前的版本中,当使用 Cluster API 实现在 Red Hat OpenStack Platform (RHOSP) 上安装集群时,为紧凑集群的 control plane 节点添加了额外的安全组规则,并阻止部署双栈集群。这是使用 Terraform 的安装回归。在这个版本中,该规则会根据请求的 IP 版本使用正确的协议。(
OCPBUGS-35718
)
在以前的版本中,内部镜像 registry 在配置了外部 OpenID Connect (OIDC) 用户的集群上无法正确验证用户,因此用户无法向内部镜像 registry 推送或拉取镜像。在这个版本中,内部镜像 registry 开始使用 SelfSubjectReview API,丢弃使用 OpenShift Container Platform 特定用户 API,这在配置了外部 OIDC 用户的集群中不可用,从而能够再次通过镜像 registry 进行身份验证。(
OCPBUGS-35567
)
在以前的版本中,错误的代码更改会导致
Global Configuration
页面中重复的
oauth.config.openshift.io
项。在这个版本中,重复的项目会被删除。(
OCPBUGS-35565
)
在以前的版本中,使用
oc-mirror
v2 时,因为各种原因(如网络错误或无效 Operator 目录内容)失败时,
oc-mirror
不会生成集群资源。在这个版本中,
oc-mirror
v2 执行以下操作:
当 Operator 镜像和其他镜像上的错误发生时,Pursues 会镜像其他镜像,并在发行镜像出现错误时中止镜像。
根据正确镜像镜像的子集为集群生成集群资源。
收集日志文件中的所有镜像错误。
在单独的日志文件中记录所有镜像错误。(
OCPBUGS-35409
)
在以前的版本中,因为配置问题,伪本地化在 OpenShift Container Platform 控制台中无法正常工作。在这个版本中,这个问题已被解决,伪本地化可以正常工作。(
OCPBUGS-35408
)
在以前的版本中,因为为每个节点按顺序收集数据,
must-gather
进程在收集与 CPU 相关的性能数据时运行太长。在这个版本中,节点数据会并行收集,这可显著缩短
must-gather
数据收集时间。(
OCPBUGS-35357
)
在以前的版本中,构建无法设置
GIT_LFS_SKIP_SMUDGE
环境变量,并在克隆源代码时使用其值。这会导致构建对于带有 LFS 文件的一些 git 存储库失败。在这个版本中,构建被允许设置此环境变量,并在构建的 git clone 步骤中使用它。(
OCPBUGS-35283
)
在以前的版本中,registry 覆盖存在于不相关的 data plane 镜像中。在这个版本中,OpenShift Container Platform 传播 override-registries 的方式已被修改,并解决了这个问题。(
OCPBUGS-34602
)
在以前的版本中,RegistryMirrorProvider 镜像在协调过程中不会被更新,因为 RegistryMirrorProvider 是直接修改缓存的镜像,而不是内部条目。在这个版本中,我们更新镜像的方法已被修改,避免缓存并在条目中直接进行,以便不再会出现程序错误。(
OCPBUGS-34569
)
在以前的版本中,
alertmanager-trusted-ca-bundle
ConfigMap
没有注入用户定义的 Alertmanager 容器,这会阻止验证 HTTPS web 服务器接收警报通知。在这个版本中,可信 CA 捆绑包
ConfigMap
被挂载到
/etc/pki/ca-trust/extracted/pem/tls-ca-bundle.pem
路径的 Alertmanager 容器中。(
OCPBUGS-34530
)
在以前的版本中,对于使用 Security Token Service (STS) 的 Amazon Web Services (AWS)集群,Cloud Credential Operator (CCO) 检查
CredentialsRequest
自定义资源中的
awsSTSIAMRoleARN
的值来创建 secret。当
awsSTSIAMRoleARN
不存在时,CCO 会记录错误。这个问题已在本发行版本中解决。(
OCPBUGS-34117
)
在以前的版本中,当将 routing-via-host 设置为共享网关模式的 OVN-Kubernetes 设置时,其默认值,OVN-Kubernetes 无法正确处理混合非碎片和从集群入口 IP 层中的碎片数据包的流量流。这会导致连接重置或数据包丢弃。在这个版本中,OVN-Kubernetes 可以正确地重新集合并处理入口上的外部流量 IP 数据包片段。(
OCPBUGS-29511
)
-
如果命名空间
openshift-network-operator
中没有
ConfigMap
最大传输单元 (MTU),用户必须在开始实时迁移前使用机器 MTU 值手动创建
ConfigMap
。否则,实时迁移会卡住并失败。(
OCPBUGS-35829
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.14. RHSA-2024:4156 - OpenShift Container Platform 4.16.1 程序错误修复和安全更新
发布日期:2024 年 7 月 3 日
OpenShift Container Platform 版本 4.16.1 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:4156
公告中。此更新中包括的 RPM 软件包由
RHSA-2024:4159
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.1 --pullspecs
-
在以前的版本中,
growpart
中的错误会导致设备被锁定,这会阻止 Linux Unified Key Setup-on-disk-format (LUKS) 设备被打开。因此,节点无法引导并进入紧急模式。在这个版本中,对
growpart
的调用已被删除,这个问题已被修复。(
OCPBUGS-35973
)
在以前的版本中,systemd 中的一个错误可能会导致
coreos-multipath-trigger.service
单元无限期挂起。因此,系统永远不会完成引导。在这个版本中,systemd 单元已被删除,这个问题已被解决。(
OCPBUGS-35748
)
在以前的版本中,KMS 密钥被应用为一个空字符串,这会导致密钥无效。在这个版本中,空字符串会被删除,只有
install-config.yaml
中存在 KMS 密钥时才应用 KMS 密钥。(
OCPBUGS-35531
)
在以前的版本中,没有验证机密计算的值,以及用户设置的主机维护。在这个版本中,当用户为HostMaintenance 启用机密计算时,必须将
onHostMaintenance
的值设为
onHostMaintenance: Terminate
。(
OCPBUGS-35493
)
在以前的版本中,在从旧版本升级的用户置备的基础架构 (UPI) 集群或集群中,在 Infrastructure 对象中可能会缺少
failureDomains
,从而导致某些检查失败。在这个版本中,如果
infrastructures.config.openshift.io
中没有提供
failureDomains
fallback,则从
cloudConfig
合并。(
OCPBUGS-35446
)
在以前的版本中,当自定义资源定义 (CRD) 的新版本指定了一个新的转换策略时,这个转换策略应该可以成功转换资源。但实际情况并不是这样,因为 Operator Lifecycle Manager (OLM) 无法在没有实际执行更新操作的情况下为 CRD 验证运行新的转换策略。在这个版本中,当 CRD 验证失败并显示现有转换策略,且新的转换策略在 CRD 的新版本中指定时,OLM 会在更新过程中生成警告信息。(
OCPBUGS-35373
)
在以前的版本中,Amazon Web Services (AWS) HyperShift 集群利用其 Amazon Virtual Private Cloud (VPC) 的主无类别间路由 (CIDR) 范围来生成数据平面上的安全组规则。因此,将 AWS HyperShift 集群安装到具有多个 CIDR 范围的 AWS VPC 中可能会导致生成的安全组规则不足。在这个版本中,安全组规则基于提供的 Machine CIDR 范围生成,来解决这个问题。(
OCPBUGS-35056
)
在以前的版本中,需要明确将 Source-to-Image (S2I) 构建策略添加到
func.yaml
中,以创建 Serverless 功能。此外,错误消息没有指出问题。在这个版本中,如果没有添加 S2I,用户仍然可以创建 Serverless 功能。但是,如果不是 S2I,用户无法创建该功能。另外,错误消息已被更新以提供更多信息。(
OCPBUGS-34717
)
在以前的版本中,在推出新的 on-cluster 层构建镜像时,
MachineOSConfig
对象的
CurrentImagePullSecret
字段不会被使用。在这个版本中,Image rollout 进程可以使用
MachineOSConfig
对象上的
CurrentImagePullSecret
字段。(
OCPBUGS-34261
)
在以前的版本中,当发送多个失败的端口转发请求时,CRI-O 内存用量会增加,直到节点结束为止。在这个版本中,发送失败的 port-forward 请求时的内存泄漏已被修复,问题已解决。(
OCPBUGS-30978
)
在以前的版本中,
oc get podmetrics
和
oc get nodemetrics
命令无法正常工作。在这个版本中解决了这个问题。(
OCPBUGS-25164
)
要将现有 OpenShift Container Platform 4.16 集群更新至此最新版本,请参阅
使用 CLI 更新集群
。
1.9.15. RHSA-2024:0041 - OpenShift Container Platform 4.16.0 镜像发行版本、程序错误修正和安全更新公告
发布日期:2024 年 6 月 27 日
OpenShift Container Platform 版本 4.16.0 现已正式发布,其中包括安全更新。其程序错误修正列表包括在
RHSA-2024:0041
公告中。此更新中包括的 RPM 软件包由
RHSA-2024:0045
公告提供。
因篇幅原因,没有在这个公告中包括此版本的所有容器镜像信息。
您可以运行以下命令来查看此发行版本中的容器镜像:
$ oc adm release info 4.16.0 --pullspecs
法律通告
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at
http://creativecommons.org/licenses/by-sa/3.0/
. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux
® is the registered trademark of Linus Torvalds in the United States and other countries.
Java
® is a registered trademark of Oracle and/or its affiliates.
XFS
® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL
® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js
® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
|
|