添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
正直的手电筒  ·  缓存和连接池·  8 月前    · 
憨厚的金鱼  ·  java 字符串转成 json ...·  1 年前    · 
礼貌的机器人  ·  Python ...·  1 年前    · 

以下发行说明提供有关由 Apache Spark 3.5.2 提供支持的 Databricks Runtime 16.3 的信息。

Databricks 于 2025 年 3 月发布了此版本。

若要查看已达到支持终止的 Databricks Runtime 版本的发行说明(EoS),请参阅 Databricks Runtime 支持终止版本的发行说明 。 EoS Databricks Runtime 版本已停用,可能不会更新。

自动加载程序选项的漏洞修复: modifiedBefore modifiedAfter pathGlobFilter

以前,修改自动加载程序选项 modifiedBefore 的值, modifiedAfter 并且 pathGlobFilter 不起作用。 现在已修复此问题。

现在,当您修改这些筛选器的值时,Auto Loader 会导入通过筛选器的新文件。 如果基于更新的筛选条件,符合条件的文件更少,则不再符合条件的文件不会从接收端删除,但仍保留在其中。

改善了为 kafka.sasl.client.callback.handler.class 分配无效值时显示的错误消息

此版本包含一项更改,当为 kafka.sasl.client.callback.handler.class 分配无效值时,将会返回更具描述性的错误消息。

新错误消息为 org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000

以前返回的错误消息是 org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode for limitations. SQLSTATE: 0A000

新功能和改进

适用于标准计算的状态阅读器支持现已正式发布 Delta 表协议降级现已正式发布,提供检查点保护 基于 ANSI SQL/PSM 编写过程性 SQL 脚本(公共预览版) 表和视图级别默认排序规则 在 Unity 目录 Python UDF 中安装自定义依赖项(公共预览版) 更改一个 ALTER TABLE 语句中的多个表列 对基于标准计算的 transformWithStateInPandas 的支持 支持对具有精细访问控制且运行在专用计算上的表的支持(公共预览版) MERGE INTO 支持将数据附加到基于专用计算的精细访问控制表 增强了对基于专用计算的精细访问控制对象的自联接支持 新的 H3 函数

适用于标准计算的状态阅读器支持现已正式发布

对读取结构化流式处理查询的状态信息的支持现已正式发布,适用于配置了标准访问模式的计算。 请参阅 读取结构化流式处理状态信息

Delta 表协议降级现已正式发布,提供检查点保护

DROP FEATURE 已正式发布,可用于移除 Delta Lake 表功能并降级表协议。 默认情况下, DROP FEATURE 现在会创建受保护的检查点,以实现更优化和简化的降级体验,无需等待时间或历史记录截断。 请参阅 删除 Delta Lake 表功能和降级表协议

基于 ANSI SQL/PSM 编写 SQL 过程脚本(公测版)

现在,可以使用基于 ANSI SQL/PSM 的脚本功能通过 SQL 编写过程逻辑,包括控制流语句、局部变量和异常处理。 请参阅 SQL 脚本

表和视图级别默认排序规则

现在可以为表和视图指定默认排序规则。 这简化了表和视图的创建,其中所有或大多数列共享相同的排序规则。 请参阅 排序规则

在 Unity 目录 Python UDF 中安装自定义依赖项(公共预览版)

通过定义外部库的自定义依赖项,将 Python UDF 的功能扩展到 Databricks Runtime 环境之外。 请参阅 使用自定义依赖项扩展 UDF

更改一个 ALTER TABLE 语句中的多个表列

在 Databricks Runtime 16.3 中,可以在单个 ALTER TABLE 语句中更改多个列。 请参阅 ALTER TABLE ... COLUMN 子句

对基于标准计算的 transformWithStateInPandas 的支持

现在,可以在配置了标准访问模式的计算上使用 transformWithStateInPandas 。 请参阅 构建自定义有状态应用程序

支持 MERGE INTO 具有精细访问控制功能的专用计算表(公共预览版)

在 Databricks Runtime 16.3 及更高版本中,专用计算支持 MERGE INTO 使用精细访问控制的 Unity 目录表。 与从这些对象读取类似, MERGE 的这些命令会在需要时自动传递到无服务器计算。

请参阅 专用计算上的精细访问控制

支持将数据附加到基于专用计算的精细访问控制表

在 Databricks Runtime 16.3 及更高版本中,专用计算支持将数据附加到使用精细访问控制的 Unity Catalog 对象。 若要使用此功能,请使用 DataFrame.write.mode("append") Apache Spark API 中的函数。 与从这些对象进行读取类似,附加写入会在需要时自动传递给无服务器计算。

若要详细了解如何将专用计算与精细访问控制的 Unity 目录对象配合使用,请参阅 专用计算上的精细访问控制

增强了对基于专用计算的精细访问控制对象的自联接支持

在 Databricks Runtime 16.3 及更高版本中,基于专用计算的精细访问控制的数据筛选功能现在会自动同步专用计算资源和无服务器计算资源之间的快照,但具体化视图以及使用 Delta Sharing 进行共享的任何视图、具体化视图和流式处理表除外。 此增强功能可确保在使用数据筛选时自联接返回相同的快照。 请参阅 专用计算上的精细访问控制

新的 H3 函数

添加了三个新的 H3 函数: h3_try_coverash3 h3_try_coverash3string h3_try_tessellateaswkb

软件库升级

  • 升级后的 Python 库:

  • mlflow-skinny(从 2.15.1 升级到 2.19.0)
  • 升级后的 R 库:

  • 升级后的 Java 库:

    Apache Spark

    Databricks Runtime 16.3 包括 Apache Spark 3.5.2。 此版本包括 Databricks Runtime 16.2 中包含的所有 Spark 修复和改进,以及对 Spark 进行了以下其他 bug 修复和改进:

    [SPARK-51594] [ DBRRM-1604][sc-192125][SQL] 在保存与 Hive 不兼容的视图时使用空架构
  • [SPARK-51388] [SC-190503][sql] 改进 to_timestamp 和 UNION 中的 SQL 片段传播 [SPARK-51394] [SC-190492][ml] 优化统计测试中的额外随机播放 [SPARK-51385] [SC-190486][sql] 规范化 DeduplicateRelations 中添加的投影,用于 Union 子输出的重复数据删除 [SPARK-51357] [SC-190485][sql] 保留视图的计划更改日志记录级别 [SPARK-50654] [SC-186686][ss] CommitMetadata 应在 V1 中将 stateUniqueIds 设置为 None [SPARK-51362] [SC-190352][sql] 更改 toJSON 函数以使用 NextIterator API 消除相邻记录依赖项 [SPARK-51375] [SC-190355][sql][CONNECT] 禁止 SparkConnect(Execution|Session)Manager.periodicMaintenance 日志消息 [SPARK-50596] [SC-184060][python] 将 Py4J 从 0.10.9.7 升级到 0.10.9.8 [SPARK-51097] [SC-190456][revert] 还原 RocksDB 实例指标更改 [SPARK-51363] [SC-190343][sql] Desc As JSON 聚簇列名 [SPARK-51373] [SC-190370] [SS] 从“ReplyChangelog”中移除列族前缀的额外副本 [SPARK-51378] [SC-190363][core] 将 JsonProtocol 的 accumulableExcludeList 应用于 ExecutorMetricsUpdate 和 TaskEndReason [SPARK-51369] [SC-190253][sql] 修复 FOR 游标变量以使用混合大小写名称 [SPARK-51381] [SC-190360][sql][CONNECT] 在 Session ID 页中显示 Spark Connect Session [SPARK-51119] [SC-188491][sql] 解析EXISTS_DEFAULT的执行程序上的读者不应调用目录 [SPARK-51322] [SC-190013][sql] 改进了流式处理子查询表达式时出现的错误消息 [SPARK-50817] [SC-186642][ss] 修复 RocksDB 错误报告 [SPARK-51370] [SC-190286] 改进了 AstBuilder.scala 中的 INSERT INTO 分析代码的代码清晰度 [SPARK-51083] [SC-189217][core][16.x] 修改 JavaUtils 以不吞噬 InterruptedException [SPARK-51324] [SC-189997][sql] 修复嵌套 FOR 语句引发错误(如果为空结果) [SPARK-49756] [SC-178793][sql] Postgres 方言支持下推日期时间函数。 [SPARK-51270] [SC-190108][sql] 支持 Variant 中的 UUID 类型 [SPARK-51310] [SC-190018][sql] 解析生成表达式的默认字符串类型 [SPARK-49488] [SC-176685][sql] MySQL 方言支持下推日期/时间函数。 [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Spark Connect 对 Python 中的 TransformWithStateInPandas 的支持 [SPARK-50553] [SC-190076][connect] 为无效计划消息抛出 InvalidPlanInput [SPARK-51337] [16.x][sc-190105][SQL] 向 CTERelationDef 和 CTERelationRef 添加 maxRows [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 应遵循路径选项 [SPARK-51323] [SC-190005][python] Py SQL 指标上的“total”重复 [SPARK-48618] [SC-174007][sql] 利用 SQLException 中返回的 ErrorCode SQLState ,使错误更准确 [SPARK-47871] [SC-162873][sql] Oracle:将 TimestampType 映射到 TIMESTAMP WITH LOCAL TIME ZONE [SPARK-50993] [SC-187319][sql] 将 nullDataSourceOption 从 QueryCompilationErrors 移到 QueryExecutionErrors 中 [SPARK-47761] [SC-162288][sql] Oracle:支持读取 AnsiIntervalTypes [SPARK-51265] [SC-189826][sql] IncrementalExecution 应正确设置命令执行代码 [SPARK-50785] [SC-189722][sql] 重构 FOR 语句以正确利用局部变量。 [SPARK-51315] [SC-189838][sql] 默认情况下启用对象级别排序规则 [SPARK-51312] [SC-189824][sql] 修复 RDD[Row] 中的 createDataFrame [SPARK-51305] [SC-189625][sql][CONNECT] 改进 SparkConnectPlanExecution.createObservedMetricsResponse [SPARK-51313] [SC-189816][python] 修复 PySparkLogger 的时间戳格式 [SPARK-51095] [SC-189623][core][SQL] 为来自驱动程序的调用添加 hdfs 审核日志的调用方上下文 [SPARK-51292] [SC-189566][sql] 从 PlanTestBase、ExpressionEvalHelper 和 PlanTest 中删除不必要的继承 [SPARK-50739] [SC-186903][sql][FOLLOW] 使用 DSL 简化 ResolveRecursiveCTESuite [SPARK-51097] [SC-189428] [SS] 为 RocksDB 中上次上传的快照版本添加状态存储实例指标 [SPARK-49912] [SC-189615] 重构简单CASE语句,使CASE变量只被评估一次 [SPARK-50655] [16x][sc-189235][SS] 将虚拟列族相关映射移到数据库层中(而不是编码器中) [SPARK-51177] [SC-188989][python][CONNECT] 向 Spark Connect Python 客户端添加 InvalidCommandInput [SPARK-51278] [SC-189608][python] 对 PySparkLogger 使用适当的 JSON 格式结构 [SPARK-48530] [SC-189357][sql] 支持 SQL 脚本中的局部变量 [SPARK-51258] [SC-189551][sql] 从 SQLConfHelper 中删除不必要的继承 [SPARK-50739] [SC-186818][sql] 递归 CTE。 分析器更改以解开并解析递归组件。 [SPARK-51284] [SC-189483][sql] 修复针对无结果输出的SQL脚本执行问题 [SPARK-50881] [SC-188407][python] 尽可能在 connect dataframe.py 中使用缓存的架构 [SPARK-51274] [SC-189516][python] PySparkLogger 应遵循预期的关键字参数 [SPARK-50636] [SC-184783][sql] 扩展 CTESubstitution.scala,使其知道递归 [SPARK-50960] [SC-188821][python][CONNECT] 将 InvalidPlanInput 添加到 Spark Connect Python 客户端 [SPARK-51109] [SC-188394][sql] 子查询表达式中的 CTE 用作分组列 [SPARK-51067] [16.x][sc-188855][SQL] 还原 DML 查询的会话级别排序规则,并应用 DDL 查询的对象级别排序规则 [SPARK-50849] [SC-189071][connect] 添加示例项目以演示 Spark Connect 服务器库 [SPARK-51259] [SC-189344][sql] 重构自然联接键和 using 联接键计算 [SPARK-51185] [SC-188832][core] 将简化还原为 PartitionedFileUtil API 以减少内存需求 [SPARK-51237] [16x][sc-189028][SS] 根据需要为新的 transformWithState 帮助程序 API 添加 API 详细信息 [SPARK-51247] [SC-189236][sql] 将 SubstituteExecuteImmediate 转移到 resolution 批处理中,以便为 SQL 脚本的局部变量做好准备。 [SPARK-50403] [SC-186416][sql] 修复参数化 EXECUTE IMMEDIATE [SPARK-50598] [SC-183992][sql] 初始 no-op PR,它将新参数添加到现有类 UnresolvedWith、CTERelationRef 和 CTERelationDef,以启用递归 CTE 的后续实现。 [SPARK-48114] [SC-189176][sql] 将子查询验证移出 CheckAnalysis [SPARK-50767] [SC-189169][sql] 删除 from_json 的 codegen [SPARK-51242] [SC-189200][conenct][PYTHON] 提高禁用 DQC 时的列性能 [SPARK-51202] [SC-189208][ml][PYTHON] 在元算法 Python 编写器中传递会话 [SPARK-51246] [SC-189175][sql] 使 InTypeCoercion 生成已解析的强制转换 [SPARK-51192] [SC-189070][connect] 在 processWithoutResponseObserverForTesting 中公开 SparkConnectPlanner [SPARK-51183] [SC-189010][sql] 变体文档中的 Parquet 规范链接 [SPARK-51189] [SC-188829][core] 将 JobFailed 提升为 DeveloperApi [SPARK-51184] [SC-188801][core] 从 TaskState.LOST 中移除 TaskSchedulerImpl 逻辑 [SPARK-51218] [SC-189012][sql] 避免在 NondeterministicExpressionCollection 中使用 map/flatMap [SPARK-51228] [SC-189022][sql] 向 NormalizePlan 引入子查询规范化 [SPARK-51113] [SC-188883][sql] 修复视图或 EXECUTE IMMEDIATE 中的 UNION/EXCEPT/INTERSECT 的正确性 [SPARK-51209] [SC-188987][core] 改进 getCurrentUserName ,以便处理 Java 24+ [SPARK-50953] [SC-188409][python][CONNECT] 添加对 VariantGet 中非文本路径的支持 [SPARK-51181] [SC-188854] [SQL] 从逻辑计划中提取非确定性表达式时强制确定性 [SPARK-50872] [SC-186901][sql][UI] 使 ToPrettyString 表达式不会影响 UI 演示文稿 [SPARK-51150] [SC-188512][ml] 在元算法编写器中显式传递会话 [SPARK-51008] [SC-188655][sql] 为 AQE 添加 ResultStage [SPARK-51114] [SC-188633] [SQL] 重构 PullOutNondeterministic 规则 [SPARK-51160] [SC-188666][sql] 重构文本函数解析 [SPARK-51127] [SC-188366][python] 在空闲超时时终止 Python 辅助角色 [SPARK-51099] [SC-188350][python] 在 Python 工作进程看起来卡住时添加日志 [SPARK-51157] [SC-188536][sql] 为 Scala 函数 API 添加缺少的 @varargs Scala 注释 [SPARK-51155] [CORE] 使 SparkContext 停止后显示总运行时数 [SPARK-51140] [SC-188487][ml] 保存前对参数进行排序 [SPARK-51135] [SC-188392][sql] 修复 ANSI 模式下的 ViewResolverSuite [SPARK-51057] [SC-188191][ss] 为值状态移除基于 scala 选项的变体 API [SPARK-51131] [SC-188359][sql] 在 EXECUTE IMMEDIATE 命令中找到 SQL 脚本时引发异常 [SPARK-51048] [SC-188369][core] 支持通过退出代码停止 Java Spark 上下文 [SPARK-50234] [SC-181433][python][SQL] 改进转置数据帧 API 的错误消息和测试 [SPARK-51074] [SC-188153][ss][CONNECT] 设置在流式处理 foreachBatch 时传达初始化配置的超时 [SPARK-48353] [SC-187986][sql] SQL 脚本中的异常处理机制简介 [SPARK-50596] [SC-184060][python] 将 Py4J 从 0.10.9.7 升级到 0.10.9.8 [SPARK-51043] [SC-187928][ss][CONNECT] 针对 Spark Connect foreachBatch 的精细用户日志记录 [SPARK-51084] [ES-1336002][sc-188171][SQL] 为 negativeScaleNotAllowedError 分配适当的错误类 [SPARK-51042] [SC-188216][sql] 在 Unsafe* 类中进行一次调用即可读取和写入间隔的月份和日期字段 [SPARK-51010] [SC-188188][sql] 修复 AlterColumnSpec 未正确报告已解析状态的问题 [SPARK-50799] [SC-188169][python] 优化 rlike、length、octet_length、bit_length 和 transform 的 docstring [SPARK-51061] [SC-187910][core] 隐藏 REST 提交 API 中的 Jetty 信息 [SPARK-51055] [SC-187993][ss][CONNECT] 流式处理 foreachBatch 时应在 try 中调用 init 逻辑 [SPARK-50982] [SC-188059][sql] 在单程分析器中支持更多 SQL/数据帧读取路径功能 [SPARK-51081] [SC-188092][sql] 为单程解析程序重构 Join.output [SPARK-51064] [SC-188039][sql] 默认启用 spark.sql.sources.v2.bucketing.enabled [SPARK-50883] [LC-5998][sc-187120][SQL] 支持在同一命令中更改多个列 [SPARK-51034] [SC-187985][sql] 将 Describe 重新格式化为 JSON 统计信息字典,以提高可分析性 [SPARK-51058] [SC-187961][python] 避免使用 jvm。SparkSession [SPARK-51056] [SC-187871][python] 避免在 SparkSession.getActiveSession 中创建不必要的对象。 [SPARK-50967] [SC-187860][ss] 添加选项,以跳过在 FMGWS 运算符中发出初始状态密钥的操作 [SPARK-50813] [SC-186457][sql] 仅允许 SQL 脚本中的未限定标签名称 [SPARK-50858] [SC-187399][python] 添加配置以隐藏 Python UDF 堆栈跟踪 [SPARK-50853] [SC-187219][core] 关闭临时随机播放文件可写通道 [SPARK-50663] [SC-187541][sql] 修复 IF ELSE 语句的语法(ELSE IF -> ELSEIF) [SPARK-51027] [SC-187502][sql] 防止在非测试环境中调用 HiveClient.runSqlHive [SPARK-50977] [SC-187400][sc-187006][CORE] 增强执行累积器结果聚合的逻辑的可用性 [SPARK-51001] [SC-187442][sql] 优化 arrayEquals [SPARK-50962] [SC-187168][sql] 避免 AttributeNameParser 中的 StringIndexOutOfBoundsException [SPARK-50683] [SC-184728][sql] 在 With 中内联常用表达式(如果已使用一次) [SPARK-50959] [SC-187139][ml][PYTHON] 吞噬 JavaWrapper.del 的异常 [SPARK-50558] [SC-187337][sql] 为 ExpressionSet 引入 simpleString [SPARK-50648] [SC-184706][core] 作业取消时清理非运行阶段的僵尸任务 [SPARK-50990] [SC-187316][sql] 从 UpCast 重构 Analyzer 解析 [SPARK-49491] [SC-184714][sql] 将 AnyRefMap 替换为 HashMap [SPARK-50685] [SC-186941][python] 利用 getattr 提高 Py4J 性能 [SPARK-50688] [SC-184666][sql] 消除 XML 写入路径中 rowTag 缺失造成的歧义 [SPARK-50976] [SC-187265][ml][PYTHON] 修复 TargetEncoder 的保存/加载功能 [SPARK-49639] [SC-187297][sql] 移除 INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION 中的 ANSI 配置建议 [SPARK-50118] [SC-187110]还原“[CONNET] 在任务运行时重置隔离的状态缓存” [SPARK-47579] [16.x][sc-166971][CORE][part3] Spark core: 将带变量的 logInfo 迁移到结构化日志记录框架 [SPARK-50669] [SC-184566][es-1327450][PHOTON][仅测试] 扩展具有 long 类型的 TimestampAdd 表达式的 Photon 单元测试 [SPARK-50909] [SC-187119][python] 在 PythonPlannerRunners 中设置 faulthandler [SPARK-50774] [SC-186349][sql] 将排序规则名称集中在一个位置 [SPARK-50804] [SC-186684][sql] to_protobuf() 不应引发 MatchError [SPARK-50957] [SC-187136][protobuf] 将 protobuf.utils.SchemaConverters 设为专用 [SPARK-50900] [SC-186948][ml][CONNECT] 将 VectorUDT 和 MatrixUDT 添加到 ProtoDataTypes [SPARK-50895] [SC-186998][sql] 为生成默认字符串类型的表达式创建公共接口 [SPARK-50558] [SC-184216][sql] 为 InSet 和 In 中的元素数添加可配置日志记录限制 [SPARK-50875] [SC-186951][sql][16.x] 将 RTRIM 排序规则添加到 TVF [SPARK-50579] [SC-183826][sql] 修复 truncatedString

    Databricks ODBC/JDBC 驱动程序支持

    Databricks 支持在过去 2 年中发布的 ODBC/JDBC 驱动程序。 请下载最近发布的驱动程序和升级( 下载 ODBC 下载 JDBC )。

    操作系统 :Ubuntu 24.04.2 LTS
      注意 :这是 Databricks Runtime 容器使用的 Ubuntu 版本。 Databricks Runtime 容器在云提供程序的虚拟机上运行,该虚拟机可能使用不同的 Ubuntu 版本或 Linux 分发版。
    • Java:Zulu17.54+21-CA
    • Scala:2.12.15
    • Python:3.12.3
    • R :4.4.0
    • Delta Lake :3.3.0

      已安装的 Python 库

      opentelemetry-sdk(开源遥测软件开发工具包) 1.27.0 Since this appears to be a case where preserving the original English term is necessary, no improvements are necessary unless additional context or explanation is required in the broader context of its usage. 0.48b0 1.5.3 0.8.3 pathspec 0.10.3 0.5.6 pexpect 4.8.0 10.3.0 platformdirs 3.10.0 plotly 5.22.0 Pluggy (Python库) 1.0.0 prompt-toolkit 3.0.43 proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.65 Python代码解析器 pydantic 2.8.2 pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1 PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1 pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6 2024.1 PyYAML 6.0.1 pyzmq 25.1.2 2.32.2 1.12.0 s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1 seaborn 0.13.2 setuptools 74.0.0 1.16.0 smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 0.2.0 statsmodels 0.14.2 8.2.2 threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1 6.4.1 Traitlets 5.14.3 typeguard 4.3.0 types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1 types-PyYAML 6.0.0 2.31.0.0 types-setuptools(类型-安装工具包) 68.0.0.0 1.16.0 types-urllib3 1.26.25.14 输入扩展 (typing_extensions) 4.11.0 ujson 5.10.0 无人参与升级 urllib3 1.26.16 virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5 whatthepatch 1.0.2 0.43.0 1.14.1 0.33.0 3.17.0