>>> from urllib.parse import urlparse
>>> urlparse("scheme://netloc/path;parameters?query#fragment")
ParseResult(scheme='scheme', netloc='netloc', path='/path;parameters', params='',
query='query', fragment='fragment')
>>> o = urlparse("http://docs.python.org:80/3/library/urllib.parse.html?"
... "highlight=params#url-parsing")
ParseResult(scheme='http', netloc='docs.python.org:80',
path='/3/library/urllib.parse.html', params='',
query='highlight=params', fragment='url-parsing')
>>> o.scheme
'http'
>>> o.netloc
'docs.python.org:80'
>>> o.hostname
'docs.python.org'
>>> o.port
>>> o._replace(fragment="").geturl()
'http://docs.python.org:80/3/library/urllib.parse.html?highlight=params'
根据 RFC 1808 中的语法规范,urlparse 仅在 netloc 前面正确地附带了 '//' 的情况下才会识别它。 否则输入会被当作是一个相对 URL 因而以路径的组成部分开头。
>>> from urllib.parse import urlparse
>>> urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
>>> urlparse('www.cwi.nl/%7Eguido/Python.html')
ParseResult(scheme='', netloc='', path='www.cwi.nl/%7Eguido/Python.html',
params='', query='', fragment='')
>>> urlparse('help/Python.html')
ParseResult(scheme='', netloc='', path='help/Python.html', params='',
query='', fragment='')
scheme 参数给出了默认的协议,只有在 URL 未指定协议的情况下才会被使用。 它应该是与 urlstring 相同的类型(文本或字节串),除此之外默认值 ''
也总是被允许,并会在适当情况下自动转换为 b''
。
如果 allow_fragments 参数为假值,则片段标识符不会被识别。 它们会被解析为路径、参数或查询部分,在返回值中 fragment
会被设为空字符串。
返回值是一个 named tuple,这意味着它的条目可以通过索引或作为命名属性来访问,这些属性是:
如果在 URL 中指定了无效的端口,读取 port
属性将引发 ValueError
。 有关结果对象的更多信息请参阅 结构化解析结果 一节。
在 netloc
属性中不匹配的方括号将引发 ValueError
。
如果 netloc
属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成 /
, ?
, #
, @
或 :
则将引发 ValueError
。 如果在解析之前 URL 就被分解,则不会引发错误。
与所有具名元组的情况一样,该子类还有一些特别有用的附加方法和属性。 其中一个方法是 _replace()
。 _replace()
方法将返回一个新的 ParseResult 对象来将指定字段替换为新的值。
>>> from urllib.parse import urlparse
>>> u = urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
>>> u._replace(scheme='http')
ParseResult(scheme='http', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
urlparse()
does not perform validation. See URL parsing
security for details.
3.2 版更變: 添加了IPv6 URL解析功能。
3.3 版更變: The fragment is now parsed for all URL schemes (unless allow_fragment is
false), in accordance with RFC 3986. Previously, a whitelist of
schemes that support fragments existed.
3.6 版更變: 超范围的端口号现在会引发 ValueError
,而不是返回 None
。
3.8 版更變: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发 ValueError
。
urllib.parse.
parse_qs
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')
解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 返回字典形式的数据。 结果字典的键为唯一的查询变量名而值为每个变量名对应的值列表。
可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。
可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发 ValueError
异常。
可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为 bytes.decode()
方法所接受的数据。
可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发 ValueError
。
可选参数 separator 是用来分隔查询参数的符号。 默认为 &
。
使用 urllib.parse.urlencode()
函数 (并将 doseq
形参设为 True
) 将这样的字典转换为查询字符串。.
3.2 版更變: 增加了 encoding 和 errors 形参。
3.8 版更變: 增加了 max_num_fields 形参。
3.9.2 版更變: Added separator parameter with the default value of &
. Python
versions earlier than Python 3.9.2 allowed using both ;
and &
as
query parameter separator. This has been changed to allow only a single
separator key, with &
as the default separator.
urllib.parse.
parse_qsl
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')
解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 数据以字段名和字段值对列表的形式返回。
可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。
可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发 ValueError
异常。
可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为 bytes.decode()
方法所接受的数据。
可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发 ValueError
。
可选参数 separator 是用来分隔查询参数的符号。 默认为 &
。
使用 urllib.parse.urlencode()
函数将这样的名值对列表转换为查询字符串。
3.2 版更變: 增加了 encoding 和 errors 形参。
3.8 版更變: 增加了 max_num_fields 形参。
3.9.2 版更變: Added separator parameter with the default value of &
. Python
versions earlier than Python 3.9.2 allowed using both ;
and &
as
query parameter separator. This has been changed to allow only a single
separator key, with &
as the default separator.
urllib.parse.
urlsplit
(urlstring, scheme='', allow_fragments=True)
此函数类似于 urlparse()
,但不会拆分来自 URL 的参数。 此函数通常应当在需要允许将参数应用到 URL 的 path 部分的每个分节的较新的 URL 语法的情况下 (参见 RFC 2396) 被用来代替 urlparse()
。 需要使用一个拆分函数来拆分路径分节和参数。 此函数将返回包含 5 个条目的 named tuple:
(addressing scheme, network location, path, query, fragment identifier).
返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
如果在 URL 中指定了无效的端口,读取 port
属性将引发 ValueError
。 有关结果对象的更多信息请参阅 结构化解析结果 一节。
在 netloc
属性中不匹配的方括号将引发 ValueError
。
如果 netloc
属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成 /
, ?
, #
, @
或 :
则将引发 ValueError
。 如果在解析之前 URL 就被分解,则不会引发错误。
Following some of the WHATWG spec that updates RFC 3986, leading C0
control and space characters are stripped from the URL. \n
,
\r
and tab \t
characters are removed from the URL at any position.
urlsplit()
does not perform validation. See URL parsing
security for details.
3.6 版更變: 超范围的端口号现在会引发 ValueError
,而不是返回 None
。
3.8 版更變: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发 ValueError
。
3.9.5 版更變: ASCII 换行符和制表符会从 URL 中被去除。
3.9.17 版更變: Leading WHATWG C0 control and space characters are stripped from the URL.
urllib.parse.
urljoin
(base, url, allow_fragments=True)
通过合并一个 "基准 URL" (base) 和另一个 URL (url) 来构造一个完整 ("absolute") URL。 在非正式情况下,这将使用基准 URL 的各部分,特别是地址协议、网络位置和 (一部分) 路径来提供相对 URL 中缺失的部分。 例如:
>>> from urllib.parse import urljoin
>>> urljoin('http://www.cwi.nl/%7Eguido/Python.html', 'FAQ.html')
'http://www.cwi.nl/%7Eguido/FAQ.html'
allow_fragments 参数具有与 urlparse()
中的对应参数一致的含义与默认值。
如果 url 为绝对 URL (即以 //
或 scheme://
打头),则 url 的主机名和/或协议将出现在结果中。 例如:
>>> urljoin('http://www.cwi.nl/%7Eguido/Python.html',
... '//www.python.org/%7Eguido')
'http://www.python.org/%7Eguido'
如果你不想要那样的行为,请使用 urlsplit()
和 urlunsplit()
对 url 进行预处理,移除可能存在的 scheme 和 netloc 部分。
3.5 版更變: 更新行为以匹配 RFC 3986 中定义的语义。
urllib.parse.
urldefrag
(url)
如果 url 包含片段标识符,则返回不带片段标识符的 url 修改版本。 如果 url 中没有片段标识符,则返回未经修改的 url 和一个空字符串。
返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
URL parsing security
The urlsplit()
and urlparse()
APIs do not perform validation of
inputs. They may not raise errors on inputs that other applications consider
invalid. They may also succeed on some inputs that might not be considered
URLs elsewhere. Their purpose is for practical functionality rather than
purity.
Instead of raising an exception on unusual input, they may instead return some
component parts as empty strings. Or components may contain more than perhaps
they should.
We recommend that users of these APIs where the values may be used anywhere
with security implications code defensively. Do some verification within your
code before trusting a returned component part. Does that scheme
make
sense? Is that a sensible path
? Is there anything strange about that
hostname
? etc.
解析ASCII编码字节
这些 URL 解析函数最初设计只用于操作字符串。 但在实践中,它也能够操作经过正确转码和编码的 ASCII 字节序列形式的 URL。 相应地,此模块中的 URL 解析函数既可以操作 str
对象也可以操作 bytes
和 bytearray
对象。
如果传入 str
数据,结果将只包含 str
数据。 如果传入 bytes
或 bytearray
数据,则结果也将只包含 bytes
数据。
试图在单个函数调用中混用 str
数据和 bytes
或 bytearray
数据将导致引发 TypeError
,而试图传入非 ASCII 字节值则将引发 UnicodeDecodeError
。
为了支持结果对象在 str
和 bytes
之间方便地转换,所有来自 URL 解析函数的返回值都会提供 encode()
方法 (当结果包含 str
数据) 或 decode()
方法 (当结果包含 bytes
数据)。 这些方法的签名与 str
和 bytes
的对应方法相匹配 (不同之处在于其默认编码格式是 'ascii'
而非 'utf-8'
)。 每个方法会输出包含相应类型的 bytes
数据 (对于 encode()
方法) 或 str
数据 (对于 decode()
方法) 的值。
对于某些需要在有可能不正确地转码的包含非 ASCII 数据的 URL 上进行操作的应用程序来说,在发起调用 URL 解析方法之前必须自行将字节串解码为字符。
在本节中描述的行为仅适用于 URL 解析函数。 URL 转码函数在产生和消耗字节序列时使用它们自己的规则,详情参见单独 URL 转码函数的文档。
3.2 版更變: URL 解析函数现在接受 ASCII 编码的字节序列
结构化解析结果
urlparse()
, urlsplit()
和 urldefrag()
函数的结果对象是 tuple
类型的子类。 这些子类中增加了在那些函数的文档中列出的属性,之前小节中描述的编码和解码支持,以及一个附加方法:
urllib.parse.SplitResult.
geturl
()
以字符串形式返回原始 URL 的重合并版本。 这可能与原始 URL 有所不同,例如协议的名称可能被正规化为小写字母、空的组成部分可能被丢弃。 特别地,空的参数、查询和片段标识符将会被移除。
对于 urldefrag()
的结果,只有空的片段标识符会被移除。 对于 urlsplit()
和 urlparse()
的结果,所有被记录的改变都会被应用到此方法所返回的 URL 上。
如果是通过原始的解析方法传回则此方法的结果会保持不变:
>>> from urllib.parse import urlsplit
>>> url = 'HTTP://www.Python.org/doc/#'
>>> r1 = urlsplit(url)
>>> r1.geturl()
'http://www.Python.org/doc/'
>>> r2 = urlsplit(r1.geturl())
>>> r2.geturl()
'http://www.Python.org/doc/'
class urllib.parse.
DefragResult
(url, fragment)
用于 urldefrag()
结果的实体类,包含有 str
数据。 encode()
方法会返回一个 DefragResultBytes
实例。
3.2 版新加入.
class urllib.parse.
SplitResult
(scheme, netloc, path, query, fragment)
用于 urlsplit()
结果的实体类,包含有 str
数据。 encode()
方法会返回一个 SplitResultBytes
实例。
下面的类提供了当在 bytes
或 bytearray
对象上操作时对解析结果的实现:
class urllib.parse.
DefragResultBytes
(url, fragment)
用于 urldefrag()
结果的实体类,包含有 bytes
数据。 decode()
方法会返回一个 DefragResult
实例。
3.2 版新加入.
class urllib.parse.
ParseResultBytes
(scheme, netloc, path, params, query, fragment)
用于 urlparse()
结果的实体类,包含有 bytes
数据。 decode()
方法会返回一个 ParseResult
实例。
3.2 版新加入.
class urllib.parse.
SplitResultBytes
(scheme, netloc, path, query, fragment)
用于 urlsplit()
结果的实体类,包含有 bytes
数据。 decode()
方法会返回一个 SplitResult
实例。
3.2 版新加入.
URL 转码
URL 转码函数的功能是接收程序数据并通过对特殊字符进行转码并正确编码非 ASCII 文本来将其转为可以安全地用作 URL 组成部分的形式。 它们还支持逆转此操作以便从作为 URL 组成部分的内容中重建原始数据,如果上述的 URL 解析函数还未覆盖此功能的话。
urllib.parse.
quote
(string, safe='/', encoding=None, errors=None)
使用 %xx
转义符替换 string 中的特殊字符。 字母、数字和 '_.-~'
等字符一定不会被转码。 在默认情况下,此函数只对 URL 的路径部分进行转码。 可选的 safe 形参额外指定不应被转码的 ASCII 字符 --- 其默认值为 '/'
。
string 可以是 str
或 bytes
对象。
3.7 版更變: 从 RFC 2396 迁移到 RFC 3986 以转码 URL 字符串。 "~" 现在已被包括在非保留字符集中。
可选的 encoding 和 errors 形参指明如何处理非 ASCII 字符,与 str.encode()
方法所接受的值一样。 encoding 默认为 'utf-8'
。 errors 默认为 'strict'
,表示不受支持的字符将引发 UnicodeEncodeError
。 如果 string 为 bytes
则不可提供 encoding 和 errors,否则将引发 TypeError
。
请注意 quote(string, safe, encoding, errors)
等价于 quote_from_bytes(string.encode(encoding, errors), safe)
。
例如: quote('/El Niño/')
将产生 '/El%20Ni%C3%B1o/'
.
urllib.parse.
quote_plus
(string, safe='', encoding=None, errors=None)
类似于 quote()
,但还会使用加号来替换空格,如在构建放入 URL 的查询字符串时对于转码 HTML 表单值时所要求的那样。 原始字符串中的加号会被转义,除非它们已包括在 safe 中。 它也不会将 safe 的默认值设为 '/'
。
例如: quote_plus('/El Niño/')
将产生 '%2FEl+Ni%C3%B1o%2F'
。
urllib.parse.
quote_from_bytes
(bytes, safe='/')
类似于 quote()
,但是接受 bytes
对象而非 str
,并且不执行从字符串到字节串的编码。
例如: quote_from_bytes(b'a&\xef')
产生 'a%26%EF'
。
urllib.parse.
unquote
(string, encoding='utf-8', errors='replace')
将 %xx
转义符替换为其单字符等价物。 可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即 bytes.decode()
方法所接受的数据。
string 可以是 str
或 bytes
对象。
encoding 默认为 'utf-8'
。 errors 默认为 'replace'
,表示无效的序列将被替换为占位字符。
例如: unquote('/El%20Ni%C3%B1o/')
将产生 '/El Niño/'
。
3.9 版更變: string 形参支持 bytes 和 str 对象(之前仅支持 str)。
urllib.parse.
unquote_plus
(string, encoding='utf-8', errors='replace')
类似于 unquote()
,但还会将加号替换为空格,如反转码表单值所要求的。
string 必须为 str
。
例如: unquote_plus('/El+Ni%C3%B1o/')
将产生 '/El Niño/'
。
urllib.parse.
unquote_to_bytes
(string)
将 %xx
转义符替换为其单八位等价物,并返回一个 bytes
对象。
string 可以是 str
或 bytes
对象。
如果它是 str
,则 string 中未转义的非 ASCII 字符会被编码为 UTF-8 字节串。
例如: unquote_to_bytes('a%26%EF')
y将产生 b'a&\xef'
。
urllib.parse.
urlencode
(query, doseq=False, safe='', encoding=None, errors=None, quote_via=quote_plus)
将一个包含有 str
或 bytes
对象的映射对象或二元组序列转换为以百分号编码的 ASCII 文本字符串。 如果所产生的字符串要被用作 urlopen()
函数的 POST 操作的 data,则它应当被编码为字节串,否则它将导致 TypeError
。
结果字符串是一系列 key=value
对,由 '&'
字符进行分隔,其中 key 和 value 都已使用 quote_via 函数转码。 在默认情况下,会使用 quote_plus()
来转码值,这意味着空格会被转码为 '+'
字符而 '/' 字符会被转码为 %2F
,即遵循 GET 请求的标准 (application/x-www-form-urlencoded
)。 另一个可以作为 quote_via 传入的替代函数是 quote()
,它将把空格转码为 %20
并且不编码 '/' 字符。 为了最大程度地控制要转码的内容,请使用 quote
并指定 safe 的值。
当使用二元组序列作为 query 参数时,每个元组的第一个元素为键而第二个元素为值。 值元素本身也可以为一个序列,在那种情况下,如果可选的形参 doseq 的值为 True
,则每个键的值序列元素生成单个 key=value
对(以 '&'
分隔)。 被编码的字符串中的参数顺序将与序列中的形参元素顺序相匹配。
safe, encoding 和 errors 形参会被传递给 quote_via (encoding 和 errors 形参仅在查询元素为 str
时会被传递)。
为了反向执行这个编码过程,此模块提供了 parse_qs()
和 parse_qsl()
来将查询字符串解析为 Python 数据结构。
请参考 urllib 示例 来了解如何使用 urllib.parse.urlencode()
方法来生成 URL 的查询字符串或 POST 请求的数据。
3.2 版更變: 查询支持字节和字符串对象。
3.5 版新加入: quote_via 参数.
WHATWG - URL 现有标准定义 URL、域名、IP 地址、application/x-www-form-urlencoded 格式及其 API 的工作组。
RFC 3986 - 统一资源标识符这是当前的标准 (STD66)。 任何对于 urllib.parse 模块的修改都必须遵循该标准。 某些偏离也可能会出现,这大都是出于向下兼容的目的以及特定的经常存在于各主要浏览器上的实际解析需求。
RFC 2732 - URL 中的 IPv6 Addresses 地址显示格式。这指明了 IPv6 URL 的解析要求。
RFC 2396 - 统一资源标识符(URI):通用语法描述统一资源名称 (URN) 和统一资源定位符 (URL) 通用语义要求的文档。
RFC 2368 - mailto URL 模式。mailto URL 模式的解析要求。
RFC 1808 - 相对统一资源定位符这个请求注释包括联结绝对和相对 URL 的规则,其中包括大量控制边界情况处理的 "异常示例"。
RFC 1738 - 统一资源定位符 (URL)这指明了绝对 URL 的正式语义和句法。
© 版權所有 2001-2024, Python Software Foundation.
This page is licensed under the Python Software Foundation License Version 2.
Examples, recipes, and other code in the documentation are additionally licensed under the Zero Clause BSD License.
See History and License for more information.
The Python Software Foundation is a non-profit corporation.
Please donate.
最後更新於 2月 06, 2024。
Found a bug?