Python标准库urllib.parse用于解析URL
源代码: Lib/urllib/parse.py
该模块定义了一个标准接口,用于URL字符串按组件(协议、网络位置、路径等)分解,或将组件组合回URL字符串,并将 "相对URL "转换为给定 "基础URL "的绝对URL。
The module has been designed to match the Internet RFC on Relative Uniform
Resource Locators. It supports the following URL schemes: file
, ftp
,
gopher
, hdl
, http
, https
, imap
, mailto
, mms
,
news
, nntp
, prospero
, rsync
, rtsp
, rtspu
, sftp
,
shttp
, sip
, sips
, snews
, svn
, svn+ssh
, telnet
,
wais
, ws
, wss
.
urllib.parse
模块定义的函数可分为两个主要门类: URL 解析和 URL 转码。 这些函数将在以下各节中详细说明。
URL 解析¶
URL解析功能可以将一个URL字符串分割成其组件,或者将URL组件组合成一个URL字符串。
urllib.parse.
urlparse
(urlstring, scheme='', allow_fragments=True)¶Parse a URL into six components, returning a 6-item named tuple. This
corresponds to the general structure of a URL:
scheme://netloc/path;parameters?query#fragment
.Each tuple item is a string, possibly empty. The components are not broken up in
smaller parts (for example, the network location is a single string), and %
escapes are not expanded. The delimiters as shown above are not part of the
result, except for a leading slash in the path component, which is retained if
present. For example:
>>> fromurllib.parseimporturlparse
>>> o=urlparse('http://www.cwi.nl:80/%7Eguido/Python.html')
>>> o
ParseResult(scheme='http', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
>>> o.scheme
'http'
>>> o.port
80
>>> o.geturl()
'http://www.cwi.nl:80/%7Eguido/Python.html'
根据 RFC 1808 中的语法规范,urlparse 仅在 netloc 前面正确地附带了 '//' 的情况下才会识别它。 否则输入会被当作是一个相对 URL 因而以路径的组成部分开头。
>>> from urllib.parse import urlparse
>>> urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
>>> urlparse('www.cwi.nl/%7Eguido/Python.html')
ParseResult(scheme='', netloc='', path='www.cwi.nl/%7Eguido/Python.html',
params='', query='', fragment='')
>>> urlparse('help/Python.html')
ParseResult(scheme='', netloc='', path='help/Python.html', params='',
query='', fragment='')
scheme 参数给出了默认的协议,只有在 URL 未指定协议的情况下才会被使用。 它应该是与 urlstring 相同的类型(文本或字节串),除此之外默认值
''
也总是被允许,并会在适当情况下自动转换为b''
。如果 allow_fragments 参数为假值,则片段标识符不会被识别。 它们会被解析为路径、参数或查询部分,在返回值中
fragment
会被设为空字符串。返回值是一个 named tuple,这意味着它的条目可以通过索引或作为命名属性来访问,这些属性是:
属性
索引
值
值(如果不存在)
scheme
0
URL方案说明符
scheme parameter
netloc
1
网络位置部分
空字符串
path
2
分层路径
空字符串
params
3
最后路径元素的参数
空字符串
query
4
查询组件
空字符串
fragment
5
片段识别
空字符串
username
用户名
None
password
密码
None
hostname
主机名(小写)
None
port
端口号为整数(如果存在)
None
如果在 URL 中指定了无效的端口,读取
port
属性将引发ValueError
。 有关结果对象的更多信息请参阅 结构化解析结果 一节。在
netloc
属性中不匹配的方括号将引发ValueError
。如果
netloc
属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成/
,?
,#
,@
或:
则将引发ValueError
。 如果在解析之前 URL 就被分解,则不会引发错误。与所有具名元组的情况一样,该子类还有一些特别有用的附加方法和属性。 其中一个方法是
_replace()
。_replace()
方法将返回一个新的 ParseResult 对象来将指定字段替换为新的值。>>> from urllib.parse import urlparse
>>> u = urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
>>> u
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
>>> u._replace(scheme='http')
ParseResult(scheme='http', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
params='', query='', fragment='')
在 3.2 版更改: 添加了IPv6 URL解析功能。
在 3.3 版更改: The fragment is now parsed for all URL schemes (unless allow_fragment is
false), in accordance with RFC 3986. Previously, a whitelist of
schemes that support fragments existed.
在 3.6 版更改: 超范围的端口号现在会引发
ValueError
,而不是返回None
。在 3.7.3 版更改: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发
ValueError
。
urllib.parse.
parse_qs
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')¶解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 返回字典形式的数据。 结果字典的键为唯一的查询变量名而值为每个变量名对应的值列表。
可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。
可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发
ValueError
异常。可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为
bytes.decode()
方法所接受的数据。可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发
ValueError
。可选参数 separator 是用来分隔查询参数的符号。 默认为
&
。使用
urllib.parse.urlencode()
函数 (并将doseq
形参设为True
) 将这样的字典转换为查询字符串。.在 3.2 版更改: 增加了 encoding 和 errors 形参。
在 3.7.2 版更改: 增加了 max_num_fields 形参。
在 3.7.10 版更改: Added separator parameter with the default value of
&
. Pythonversions earlier than Python 3.7.10 allowed using both
;
and&
asquery parameter separator. This has been changed to allow only a single
separator key, with
&
as the default separator.
urllib.parse.
parse_qsl
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')¶解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 数据以字段名和字段值对列表的形式返回。
可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。
可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发
ValueError
异常。可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为
bytes.decode()
方法所接受的数据。可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发
ValueError
。可选参数 separator 是用来分隔查询参数的符号。 默认为
&
。使用
urllib.parse.urlencode()
函数将这样的名值对列表转换为查询字符串。在 3.2 版更改: 增加了 encoding 和 errors 形参。
在 3.7.2 版更改: 增加了 max_num_fields 形参。
在 3.7.10 版更改: Added separator parameter with the default value of
&
. Pythonversions earlier than Python 3.7.10 allowed using both
;
and&
asquery parameter separator. This has been changed to allow only a single
separator key, with
&
as the default separator.
urllib.parse.
urlunparse
(parts)¶根据
urlparse()
所返回的元组来构造一个 URL。 parts 参数可以是任何包含六个条目的可迭代对象。 构造的结果可能是略有不同但保持等价的 URL,如果被解析的 URL 原本包含不必要的分隔符(例如,带有空查询的?
;RFC 已声明这是等价的)。
urllib.parse.
urlsplit
(urlstring, scheme='', allow_fragments=True)¶此函数类似于
urlparse()
,但不会拆分来自 URL 的参数。 此函数通常应当在需要允许将参数应用到 URL 的 path 部分的每个分节的较新的 URL 语法的情况下 (参见 RFC 2396) 被用来代替urlparse()
。 需要使用一个拆分函数来拆分路径分节和参数。 此函数将返回包含 5 个条目的 named tuple:python3 notranslate">(addressingscheme,networklocation,path,query,fragmentidentifier).
返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
属性
索引
值
值(如果不存在)
scheme
0
URL方案说明符
scheme parameter
netloc
1
网络位置部分
空字符串
path
2
分层路径
空字符串
query
3
查询组件
空字符串
fragment
4
片段识别
空字符串
username
用户名
None
password
密码
None
hostname
主机名(小写)
None
port
端口号为整数(如果存在)
None
如果在 URL 中指定了无效的端口,读取
port
属性将引发ValueError
。 有关结果对象的更多信息请参阅 结构化解析结果 一节。在
netloc
属性中不匹配的方括号将引发ValueError
。如果
netloc
属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成/
,?
,#
,@
或:
则将引发ValueError
。 如果在解析之前 URL 就被分解,则不会引发错误。依据更新 RFC 3986 的 WHATWG spec,ASCII 换行符
\n
,\r
和制表符\t
等字符会从 URL 中被去除。在 3.6 版更改: 超范围的端口号现在会引发
ValueError
,而不是返回None
。在 3.7.3 版更改: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发
ValueError
。在 3.7.11 版更改: ASCII 换行符和制表符会从 URL 中被去除。
urllib.parse.
urlunsplit
(parts)¶将
urlsplit()
所返回的元组中的元素合并为一个字符串形式的完整 URL。 parts 参数可以是任何包含五个条目的可迭代对象。 其结果可能是略有不同但保持等价的 URL,如果被解析的 URL 原本包含不必要的分隔符(例如,带有空查询的 ?;RFC 已声明这是等价的)。
urllib.parse.
urljoin
(base, url, allow_fragments=True)¶通过合并一个 "基准 URL" (base) 和另一个 URL (url) 来构造一个完整 ("absolute") URL。 在非正式情况下,这将使用基准 URL 的各部分,特别是地址协议、网络位置和 (一部分) 路径来提供相对 URL 中缺失的部分。 例如:
>>> fromurllib.parseimporturljoin
>>> urljoin('http://www.cwi.nl/%7Eguido/Python.html','FAQ.html')
'http://www.cwi.nl/%7Eguido/FAQ.html'
allow_fragments 参数具有与
urlparse()
中的对应参数一致的含义与默认值。注解
If url is an absolute URL (that is, starting with
//
orscheme://
),the url's host name and/or scheme will be present in the result. For example:
>>> urljoin('http://www.cwi.nl/%7Eguido/Python.html',
... '//www.python.org/%7Eguido')
'http://www.python.org/%7Eguido'
如果你不想要那样的行为,请使用
urlsplit()
和urlunsplit()
对 url 进行预处理,移除可能存在的 scheme 和 netloc 部分。在 3.5 版更改: Behaviour updated to match the semantics defined in RFC 3986.
urllib.parse.
urldefrag
(url)¶如果 url 包含片段标识符,则返回不带片段标识符的 url 修改版本。 如果 url 中没有片段标识符,则返回未经修改的 url 和一个空字符串。
返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
属性
索引
值
值(如果不存在)
url
0
不带片段的 URL
空字符串
fragment
1
片段识别
空字符串
请参阅 结构化解析结果 一节了解有关结果对象的更多信息。
在 3.2 版更改: 结果为已构造好的对象而不是一个简单的 2 元组。-tuple.
解析ASCII编码字节¶
这些 URL 解析函数最初设计只用于操作字符串。 但在实践中,它也能够操作经过正确转码和编码的 ASCII 字节序列形式的 URL。 相应地,此模块中的 URL 解析函数既可以操作 str
对象也可以操作 bytes
和 bytearray
对象。
如果传入 str
数据,结果将只包含 str
数据。 如果传入 bytes
或 bytearray
数据,则结果也将只包含 bytes
数据。
试图在单个函数调用中混用 str
数据和 bytes
或 bytearray
数据将导致引发 TypeError
,而试图传入非 ASCII 字节值则将引发 UnicodeDecodeError
。
为了支持结果对象在 str
和 bytes
之间方便地转换,所有来自 URL 解析函数的返回值都会提供 encode()
方法 (当结果包含 str
数据) 或 decode()
方法 (当结果包含 bytes
数据)。 这些方法的签名与 str
和 bytes
的对应方法相匹配 (不同之处在于其默认编码格式是 'ascii'
而非 'utf-8'
)。 每个方法会输出包含相应类型的 bytes
数据 (对于 encode()
方法) 或 str
数据 (对于 decode()
方法) 的值。
对于某些需要在有可能不正确地转码的包含非 ASCII 数据的 URL 上进行操作的应用程序来说,在发起调用 URL 解析方法之前必须自行将字节串解码为字符。
在本节中描述的行为仅适用于 URL 解析函数。 URL 转码函数在产生和消耗字节序列时使用它们自己的规则,详情参见单独 URL 转码函数的文档。
在 3.2 版更改: URL 解析函数现在接受 ASCII 编码的字节序列
结构化解析结果¶
urlparse()
, urlsplit()
和 urldefrag()
函数的结果对象是 tuple
类型的子类。 这些子类中增加了在那些函数的文档中列出的属性,之前小节中描述的编码和解码支持,以及一个附加方法:
urllib.parse.SplitResult.
geturl
()¶以字符串形式返回原始 URL 的重合并版本。 这可能与原始 URL 有所不同,例如协议的名称可能被正规化为小写字母、空的组成部分可能被丢弃。 特别地,空的参数、查询和片段标识符将会被移除。
对于
urldefrag()
的结果,只有空的片段标识符会被移除。 对于urlsplit()
和urlparse()
的结果,所有被记录的改变都会被应用到此方法所返回的 URL 上。如果是通过原始的解析方法传回则此方法的结果会保持不变:
>>> fromurllib.parseimporturlsplit
>>> url='HTTP://www.Python.org/doc/#'
>>> r1=urlsplit(url)
>>> r1.geturl()
'http://www.Python.org/doc/'
>>> r2=urlsplit(r1.geturl())
>>> r2.geturl()
'http://www.Python.org/doc/'
下面的类提供了当在 str
对象上操作时对结构化解析结果的实现:
class
urllib.parse.
DefragResult
(url, fragment)¶用于
urldefrag()
结果的实体类,包含有str
数据。encode()
方法会返回一个DefragResultBytes
实例。3.2 新版功能.
class
urllib.parse.
ParseResult
(scheme, netloc, path, params, query, fragment)¶用于
urlparse()
结果的实体类,包含有str
数据。encode()
方法会返回一个ParseResultBytes
实例。
class
urllib.parse.
SplitResult
(scheme, netloc, path, query, fragment)¶用于
urlsplit()
结果的实体类,包含有str
数据。encode()
方法会返回一个SplitResultBytes
实例。
下面的类提供了当在 bytes
或 bytearray
对象上操作时对解析结果的实现:
class
urllib.parse.
DefragResultBytes
(url, fragment)¶用于
urldefrag()
结果的实体类,包含有bytes
数据。decode()
方法会返回一个DefragResult
实例。3.2 新版功能.
class
urllib.parse.
ParseResultBytes
(scheme, netloc, path, params, query, fragment)¶用于
urlparse()
结果的实体类,包含有bytes
数据。decode()
方法会返回一个ParseResult
实例。3.2 新版功能.
class
urllib.parse.
SplitResultBytes
(scheme, netloc, path, query, fragment)¶用于
urlsplit()
结果的实体类,包含有bytes
数据。decode()
方法会返回一个SplitResult
实例。3.2 新版功能.
URL 转码¶
URL 转码函数的功能是接收程序数据并通过对特殊字符进行转码并正确编码非 ASCII 文本来将其转为可以安全地用作 URL 组成部分的形式。 它们还支持逆转此操作以便从作为 URL 组成部分的内容中重建原始数据,如果上述的 URL 解析函数还未覆盖此功能的话。
urllib.parse.
quote
(string, safe='/', encoding=None, errors=None)¶Replace special characters in string using the
%xx
escape. Letters,digits, and the characters
'_.-~'
are never quoted. By default, thisfunction is intended for quoting the path section of URL. The optional safe
parameter specifies additional ASCII characters that should not be quoted
--- its default value is
'/'
.string may be either a
str
or abytes
.在 3.7 版更改: 从 RFC 2396 迁移到 RFC 3986 以转码 URL 字符串。 "~" 现在已被包括在非保留字符集中。
可选的 encoding 和 errors 形参指明如何处理非 ASCII 字符,与
str.encode()
方法所接受的值一样。 encoding 默认为'utf-8'
。 errors 默认为'strict'
,表示不受支持的字符将引发UnicodeEncodeError
。 如果 string 为bytes
则不可提供 encoding 和 errors,否则将引发TypeError
。请注意
quote(string,safe,encoding,errors)
等价于quote_from_bytes(string.encode(encoding,errors),safe)
。例如:
quote('/ElNiño/')
将产生'/El%20Ni%C3%B1o/'
.
urllib.parse.
quote_plus
(string, safe='', encoding=None, errors=None)¶Like
quote()
, but also replace spaces by plus signs, as required forquoting HTML form values when building up a query string to go into a URL.
Plus signs in the original string are escaped unless they are included in
safe. It also does not have safe default to
'/'
.例如:
quote_plus('/ElNiño/')
将产生'%2FEl+Ni%C3%B1o%2F'
。
urllib.parse.
quote_from_bytes
(bytes, safe='/')¶类似于
quote()
,但是接受bytes
对象而非str
,并且不执行从字符串到字节串的编码。例如:
quote_from_bytes(b'a&\xef')
产生'a%26%EF'
。
urllib.parse.
unquote
(string, encoding='utf-8', errors='replace')¶Replace
%xx
escapes by their single-character equivalent.The optional encoding and errors parameters specify how to decode
percent-encoded sequences into Unicode characters, as accepted by the
bytes.decode()
method.string 必须为
str
。encoding 默认为
'utf-8'
。 errors 默认为'replace'
,表示无效的序列将被替换为占位字符。例如:
unquote('/El%20Ni%C3%B1o/')
将产生'/ElNiño/'
。
urllib.parse.
unquote_plus
(string, encoding='utf-8', errors='replace')¶Like
unquote()
, but also replace plus signs by spaces, as required forunquoting HTML form values.
string 必须为
str
。例如:
unquote_plus('/El+Ni%C3%B1o/')
将产生'/ElNiño/'
。
urllib.parse.
unquote_to_bytes
(string)¶Replace
%xx
escapes by their single-octet equivalent, and return abytes
object.string may be either a
str
or abytes
.如果它是
str
,则 string 中未转义的非 ASCII 字符会被编码为 UTF-8 字节串。例如:
unquote_to_bytes('a%26%EF')
y将产生b'a&\xef'
。
urllib.parse.
urlencode
(query, doseq=False, safe='', encoding=None, errors=None, quote_via=quote_plus)¶将一个包含有
str
或bytes
对象的映射对象或二元组序列转换为以百分号编码的 ASCII 文本字符串。 如果所产生的字符串要被用作urlopen()
函数的 POST 操作的 data,则它应当被编码为字节串,否则它将导致TypeError
。结果字符串是一系列
key=value
对,由'&'
字符进行分隔,其中 key 和 value 都已使用 quote_via 函数转码。 在默认情况下,会使用quote_plus()
来转码值,这意味着空格会被转码为'+'
字符而 '/' 字符会被转码为%2F
,即遵循 GET 请求的标准 (application/x-www-form-urlencoded
)。 另一个可以作为 quote_via 传入的替代函数是quote()
,它将把空格转码为%20
并且不编码 '/' 字符。 为了最大程序地控制要转码的内容,请使用quote
并指定 safe 的值。When a sequence of two-element tuples is used as the query
argument, the first element of each tuple is a key and the second is a
value. The value element in itself can be a sequence and in that case, if
the optional parameter doseq is evaluates to
True
, individualkey=value
pairs separated by'&'
are generated for each element ofthe value sequence for the key. The order of parameters in the encoded
string will match the order of parameter tuples in the sequence.
safe, encoding 和 errors 形参会被传递给 quote_via (encoding 和 errors 形参仅在查询元素为
str
时会被传递)。为了反向执行这个编码过程,此模块提供了
parse_qs()
和parse_qsl()
来将查询字符串解析为 Python 数据结构。Refer to urllib examples to find out how urlencode
method can be used for generating query string for a URL or data for POST.
在 3.2 版更改: 查询参数支持字节和字符串对象。
3.5 新版功能: quote_via 参数.
参见
- WHATWG - URL 现有标准
定义 URL、域名、IP 地址、application/x-www-form-urlencoded 格式及其 API 的工作组。
- RFC 3986 - 统一资源标识符
这是当前的标准 (STD66)。 任何对于 urllib.parse 模块的修改都必须遵循该标准。 某些偏离也可能会出现,这大都是出于向下兼容的目的以及特定的经常存在于各主要浏览器上的实际解析需求。
- RFC 2732 - URL 中的 IPv6 Addresses 地址显示格式。
这指明了 IPv6 URL 的解析要求。
- RFC 2396 - 统一资源标识符(URI):通用语法
描述统一资源名称 (URN) 和统一资源定位符 (URL) 通用语义要求的文档。
- RFC 2368 - mailto URL 模式。
mailto URL 模式的解析要求。
- RFC 1808 - 相对统一资源定位符
这个请求注释包括联结绝对和相对 URL 的规则,其中包括大量控制边界情况处理的 "异常示例"。
- RFC 1738 - 统一资源定位符 (URL)
这指明了绝对 URL 的正式语义和句法。
以上是 Python标准库urllib.parse用于解析URL 的全部内容, 来源链接: utcz.com/z/507905.html