首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    python urlopen 乱码

    import urllib2 import sys content = urllib2.urlopen(

    57110编辑于 2022-07-31
  • 来自专栏全栈程序员必看

    python urlopen()「建议收藏」

    首先调用urlopen需要导入urllib.request模块。 urllib.request : urlopen() : 简单来说就是打开一个URL. url : 来自百度百科 urlopen的返回值,测试: 可见返回值是http.client.HTTPResponsed

    36120编辑于 2022-07-31
  • 来自专栏全栈程序员必看

    python3中urlopen_Python3 urlopen()用法示例

    简介 urllib.request.urlopen()函数用于实现对目标url的访问。 函数原型如下:urllib.request.urlopen(url,data=None,[timeout,]*,cafile=None,capath=None,cadefault=False,context =None) url: 需要打开的网址 data:Post提交的数据 timeout:设置网站的访问超时时间 直接用urllib.request模块的urlopen()获取页面,page的数据格式为bytes 返回处理方法详解 urlopen返回对象提供方法: read(),readline(),readlines(),fileno(),close() :对HTTPResponse类型数据进行操作 info( from urllib.request import urlopen 五. 实例 下面这个程序,实现了urlopen()函数的大部分功能,特别是data参数。

    84510编辑于 2022-07-23
  • 来自专栏python全栈教程专栏

    爬虫学习(1):urlopen库使用

    以爬取CSDN为例子: 第一步:导入请求库 第二步:打开请求网址 第三步:打印源码 import urllib.request response=urllib.request.urlopen("https ().decode('utf-8')) 结果大概就是这个样子: 好的,继续,看看打印的是什么类型的: import urllib.request response=urllib.request.urlopen response)) 结果: 知道这个类型就行了,不废话的去解读 ok,再看看别的,比如(解释都在注释了) import urllib.request response=urllib.request.urlopen 返回状态是200嘛就代表请求成功了 再来看看timeout使用:设置请求时间最长可以是多久,超过就不请求了 import urllib.request response=urllib.request.urlopen

    34320发布于 2021-10-18
  • 来自专栏python3

    Python爬虫1-使用urlopen

    GitHub代码练习地址:https://github.com/Neo-ML/PythonPractice/blob/master/SpiderPrac01_urlopen.py 爬虫简介 - 爬虫定义

    54210发布于 2020-02-10
  • 来自专栏龙进的专栏

    python urllib的基本使用之urlopen()

    举个例子,把python官网抓下来: import urllib.request response = urllib.request.urlopen('https://www.python.org') 查看请求头 import urllib.request response = urllib.request.urlopen('https://www.python.org') print(response.getheaders

    52720编辑于 2022-10-31
  • 来自专栏Python程序员杂谈

    urllib2源码解读二(简单的urlopen

    对上面的几个对象有个基本概念之后,再来深究下代码,从一个最普通的urllib2.urlopen()开始,先来熟悉下第一个重点对象:build_opener这个函数。 大家最为熟悉的一段代码: res = urllib2.urlopen('http://python.org') 这端代码的作用就是打开http://python.org这个网站,返回一个response 下面咱们来深入到这个urlopen函数中,来看下代码: def urlopen(url, data=None, timeout=socket. opener is None: _opener = build_opener() return _opener.open(url, data, timeout) 在程序第一次执行urlopen 这样做的好处就是如果你在程序中要多次调用urlopen,就不会频繁构建opener对象了。

    1K10发布于 2019-02-28
  • 来自专栏全栈程序员必看

    urlopen error errno111(英雄联盟报错error)

    6. 选择使用特定DNS服务器地址,并设置为114.114.114.114

    1.2K20编辑于 2022-08-01
  • 来自专栏菜鸟小白的学习分享

    python学习三——urllib.request.urlopen()学习

    request中,我们最常用的应该算是urlopen函数了,函数的定义如下: urllib.request.urlopen(url, data=None, [timeout, ]*, cafile capath=None, cadefault=False, context=None) url:需要打开的网址 data: Post 提交的数据, 默认为 None ,当 data 不为 None 时, urlopen #导入库 import urllib.request f=urllib.request.urlopen("http://www.baidu.com") dict=f.readlines f.info()) #获取请求的URL print(f.geturl()) #获取页面对象的状态码 print(f.getcode()) 首先我们需要导入库,然后按照URLopen 文件类型对象的方法 urllib.request.urlopen对象方法 描述 f.read(bytes) 从f中读出所有或bytes个字节 f.readline() 从f中读取一行 f.readlines

    2.5K20发布于 2020-07-15
  • 来自专栏全栈程序员必看

    Python3.X出现AttributeError: module ‘urllib’ has no attribute ‘urlopen’错误

    报错代码如下 import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return getHtml("http://www.baidu.com") print(html) 运行时报错:AttributeError: module ‘urllib’ has no attribute ‘urlopen __file__) def getHtml(url): page = urllib.request.urlopen(url) html = page.read() return

    1.4K10编辑于 2022-07-28
  • 来自专栏软件研发

    解决urllib.error.URLError urlopen error Errno 11004 getaddrinfo failed

    : urlopen error [Errno 11004] getaddrinfo failed​​这样的错误。 该错误表示​​urlopen​​函数在解析URL时无法获取到正确的主机名和IP地址。这篇博客将帮助你了解这个错误的原因,并提供解决方案。 我们使用`urlopen`函数发送HTTP请求,然后使用`read`方法获取响应内容。最后,我们将内容以UTF-8编码打印出来。​​ urlopen​​是Python中urllib库中的一个函数,用于发送HTTP请求并获取响应。 因此,在使用​​urlopen​​函数时,最好使用异常处理机制来捕获可能出现的异常,并执行相应的错误处理逻辑。

    2.6K20编辑于 2023-10-18
  • 来自专栏Python学习心得

    Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

    接下来,详细看下urlopen的两个重要参数url和data,学习如何发送数据data。 一、urlopen的url参数 Agent [1.png] url不仅可以是一个字符串,例如:http://www.baidu.com。 url也可以是一个Request对象,这就需要我们先定义一个Request对象,然后将这个Request对象作为urlopen的参数使用,方法如下: # -*- coding: UTF-8 -*- from urlopen()返回的对象,可以使用read()进行读取,同样也可以使用geturl()方法、info()方法、getcode()方法。 如果没有设置urlopen()函数的data参数,HTTP请求采用GET方式,也就是我们从服务器获取信息,如果我们设置data参数,HTTP请求采用POST方式,也就是我们向服务器传递数据。

    75300发布于 2019-01-15
  • 来自专栏Jack-Cui

    Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

    接下来,详细看下urlopen的两个重要参数url和data,学习如何发送数据data 一、urlopen的url参数 Agent ?     url也可以是一个Request对象,这就需要我们先定义一个Request对象,然后将这个Request对象作为urlopen的参数使用,方法如下: # -*- coding: UTF-8 -*- from urlopen()返回的对象,可以使用read()进行读取,同样也可以使用geturl()方法、info()方法、getcode()方法。 ? 二、urlopen的data参数     我们可以使用data参数,向服务器发送数据。 如果没有设置urlopen()函数的data参数,HTTP请求采用GET方式,也就是我们从服务器获取信息,如果我们设置data参数,HTTP请求采用POST方式,也就是我们向服务器传递数据。     

    1.1K50发布于 2018-01-08
  • 来自专栏python3

    python获取公网ip的几种方式

    from urllib2 import urlopen my_ip = urlopen('http://ip.42.pl/raw').read() print 'ip.42.pl', my_ip from json import load from urllib2 import urlopen my_ip = load(urlopen('http://jsonip.com'))['ip'] print 'jsonip.com', my_ip from json import load from urllib2 import urlopen my_ip = load(urlopen('http:/ /httpbin.org/ip'))['origin'] print 'httpbin.org', my_ip from json import load from urllib2 import urlopen my_ip = load(urlopen('https://api.ipify.org/?

    3.3K30发布于 2020-01-09
  • 来自专栏Linux系列

    Python基础教程(二十七):urllib模块

    一、urllib.request:发送网络请求 urllib.request模块提供了多种方法来发送网络请求,最常用的是urlopen()函数,它可以打开一个URL并返回一个类似文件的对象,从中可以读取响应数据 1.1 基本使用 from urllib.request import urlopen # 打开URL response = urlopen('https://www.example.com') # url = 'https://api.example.com/data' req = Request(url) response = urlopen(req) data = response.read 3.1 捕获HTTP错误 from urllib.request import urlopen from urllib.error import HTTPError try: response = urlopen('https://www.example.com/nonexistent') except HTTPError as e: print(e.code) # 输出:404

    40410编辑于 2024-06-22
  • 来自专栏python3

    使用urllib

    urlopen的基本用法: 工具为:python3(windows) 其完整表达式为: urllib.request.urlopen(url, data=None, [timeout, ]*, cafile None) 1、发出一个请求.打开bttpbin.org网页,此处为get方式的请求类型 >>>import urllib.request  >>> response = urllib.request.urlopen ) >>> print(response.read()) 3、超时设置timeout >>> import urllib.request >>> response = urllib.request.urlopen >>> import socket >>> import urllib.request >>> import urllib.error try: response = urllib.request.urlopen 发送请求之后出现响应 1、响应类型 >>> import urllib.request >>> response = urllib.request.urlopen("http://httpbin.org

    56430发布于 2020-01-19
  • 来自专栏数据云团

    Python-数据挖掘-urllib库

    () 方法,并传入一个 url response = urllib.request.urlopen("http://www.baidu.com") # 使用 read() 方法读取获取到的网页内容 html = response.read().decode("UTF-8") # 打印网页内容 print(html) 二、分析 urlopen() 方法 上一个例子中的核心爬虫代码: response = urllib.request.urlopen ("http://www.baidu.com") 该代码调用的是 urllib.request 模块中的 urlopen() 方法,它传入了一个百度首页的 URL,使用的协议是 HTTP,,这是 urlopen 其实,urlopen() 方法可以接受多个参数 urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None import urllib.request # 调用 urllib.request 库的 urlopen() 方法,并传入一个 url response = urllib.request.urlopen

    75720发布于 2019-07-18
  • 来自专栏python3

    Python 中的 urllib2 模块

    一、urlopen函数     urlopen(url, data=None) -- Basic usage is the same as original     urllib.  urllib 中的urlopen 的注释如下:     urlopen(url, data=None, proxies=None)         Create a file-like object for 1、基本用法 Example: #等同urllib 中的urlopen 函数的用法 In [12]: response = urllib2.urlopen('http://www.baidu.com' 考验耐心的时候到了,不过这时可用通过设置urlopen 中的超时去干掉那些我们无法容忍的长时间没法响应的请求。 Example: import urllib2 urllib2.urlopen('http://www.baidu.com',data,10) urllib2.urlopen('http://www.baidu.com

    3.2K10发布于 2020-01-12
  • 来自专栏python3

    简单网站登录 python3

    import urllib.request #导入模块 def urlopen(url): req = urllib.request.Request(url) req.add_header (req,data) #然后 urlopen 加上data 就可以了 html = html.read() return html url = 'http://www.biquge.com.tw do=submit&action=login&usecookie=1&jumpurl=' html = urlopen(url) html= html.decode('gbk') print(html ) 改进版 import urllib.request def urlopen(url): req = urllib.request.Request(url) req.add_header do=submit' html = urlopen(url) html= html.decode('gbk') print(html)

    96220发布于 2020-01-08
  • 来自专栏人工智能应用

    Python3 urllib全面指南:网络请求的瑞士军刀

    urllib.request:网络请求的核心引擎 基础GET请求 urllib.request的核心是urlopen()函数,它可以处理大多数HTTP请求: from urllib.request import urlopen # 基本GET请求 with urlopen('https://api.github.com') as response: print(f"状态码: {response.status print(f"内容长度: {len(data)} 字节") 高级请求配置 通过Request对象,我们可以实现更复杂的请求: from urllib.request import Request, urlopen = urlopen("https://example.com/non-existent-page") except HTTPError as e: print(f"HTTP错误 {e.code with urlopen(url, timeout=timeout) as response: return response.read() except

    59110编辑于 2025-08-01
领券