首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏python-爬虫

    Requests

    Requests ` 1.Response对象的属性 属性 说明 r.status_code HTTP请求返回的状态,200表示成功,404表示失败,还有其他的也代表失败 r.text HTTP响应内容转换成字符串格式 的异常 异常 说明 requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等 requests.HTTPErro HTTP错误异常 requests.URLRequired URL缺失异常 requests.TooManyRedirects 超过最大重定向次数,产生重定向异常 requests.ConnectTimeout 连接远程服务器超时异常 requests.Timeout 的方法 3.Requests的方法 http协议中6个方法 介绍 GET 请求获取url位置的资源 HEAD 请求获取url位置的资源的响应报告,及获得头部信息 POST 请求获取url位置的资源后附加用户新的数据 () 请求局部更新url位置资源,及改变该处资源的部分内容 requests.delete() 请求删除url位置储存的资源 4.Requests13个参数 params:字典或字节序列,作为参数增加到链接中

    80030发布于 2019-07-24
  • 来自专栏python-爬虫

    Requests

    Requests ` 1.Response对象的属性 属性 说明 r.status_code HTTP请求返回的状态,200表示成功,404表示失败,还有其他的也代表失败 r.text HTTP响应内容转换成字符串格式 的异常 异常 说明 requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等 requests.HTTPErro HTTP错误异常 requests.URLRequired URL缺失异常 requests.TooManyRedirects 超过最大重定向次数,产生重定向异常 requests.ConnectTimeout 连接远程服务器超时异常 requests.Timeout 的方法 3.Requests的方法 http协议中6个方法 介绍 GET 请求获取url位置的资源 url位置资源 requests.patch() 请求局部更新url位置资源,及改变该处资源的部分内容 requests.delete() 请求删除url位置储存的资源 4.Requests13个参数

    86120发布于 2020-01-17
  • 来自专栏数据分析与挖掘

    requests

    import requests headers={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ,则有 kw={"wd":"中国"} url="https://www.baidu.com/s" #将kw用params传递到url中,通过get请求 response=requests.get(url response.encoding(response的编码方式) utf-8 response.status_code(HTTP请求状态码,200表示请求成功) 2.处理post请求 response=requests.post (url,headers=headers,data=data) print(response.json()) 3.使用代理 resp=requests.get(url,headers=headers,proxies 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36', } session=requests.session

    52020发布于 2020-08-26
  • 来自专栏雷子说测试开发

    Requests(一)

    Requests是Python HTTP 。在我这里认为,它是最优秀的第三方的HTTP,使用范围广,通常用于接口测试、爬虫、web后台服务调用外部服务等。 Requests 完全满足今日 web 的需求。 HTTP(S) 代理支持 文件分块上传 流下载 连接超时 分块请求 支持 .netrc 这么优秀的http, 一开始要导入 Requests 模块: import requests 然后,尝试获取某个网页。 key1=value1&key2=value2&key2=value3 reuqests带参数还是很简单的。 响应内容 我们能读取服务器响应的内容。

    86730发布于 2021-03-15
  • 来自专栏友弟技术工作室

    Requests详解

    在介绍requests之前,先介绍以下基本的http概念, 下面内容是在上嵩天教授课程笔记整理。在这里感谢他。 文档 安装 pip install requests requests安装小测 import request url = 'https://www.baidu.com' r = requests.get 的异常 网络链接有风险,异常处理很重要 异常 说明 requests.ConnectionError 网络连接异常,如DNS查询失败,拒绝连接等 requests.HTTPError HTTP 中的head()方法 head Requests中的post()方法 post { "args": {}, "data": "", "files": {} 中的put()方法 put requests主要方法解析 requests.request(method, url, **kwagrs) method: 请求方式,对应get/

    2.2K101发布于 2018-04-25
  • 来自专栏雷子说测试开发

    Requests(二)

    JSON 响应内容 Requests 中也有一个内置的 JSON 解码器,助你处理 JSON 数据,我们可以如下做。 import requestsr = requests.get('https://api.github.com/events')print(r.json()) 展示如下 ? 具体你可以这么做: >>> r = requests.get('https://api.github.com/events', stream=True)>>> r.raw<requests.packages.urllib3 Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.193 Safari/537.36' }r=requests.get

    44710发布于 2021-03-15
  • 来自专栏运维猫

    requests之Cookie

    1、简介 Requests是用Python语言编写的,基于urllib3来改写的,采用Apache2 Licensed 来源协议的HTTP。 一句话---Python实现的简单易用的HTTP。 2、基本用法 [root@elasticsearch-01 ~]# pip3 install requests #各种请求方式:常用的就是requests.get()和requests.post() >>> import requests >>> r =requests.get('https://api.github.com/events') >>> r =requests.post('http 当然使用retry之前也需要先安装。

    2.2K10发布于 2020-01-02
  • 来自专栏ShanSan的云原生之路

    Requests入门(2)

    requests入门实操 京东商品页面爬取 亚马逊商品页面的爬取 百度/360搜索关键字提交 IP地址归属地查询 网络图片的爬取和储存 1.京东商品页面的爬取 华为nova3 import requests def GetHTMLText(url): try: r = requests.get(url) r.raise_for_status() r.encoding 通常的反爬策略有: 通过Headers反爬虫 基于用户行为反爬虫 动态页面的反爬虫 参考 #如网站对Headers的User-Agent进行检测,可定制请求头伪装成浏览器 import requests q=keyword import requests def Get(url): headers = {'user-agent':'Mozilla/5.0'} key_word = ip=ipaddress # ip地址查询 import requests url ="http://m.ip138.com/ip.asp?

    47420发布于 2020-07-07
  • 来自专栏Dimples开发记

    Requests的用法

    那么这一节来简单介绍一下 requests 的基本用法 # 2. 安装 利用 pip 安装 pip install requests # 3. 基本请求 req = requests.get("http://www.baidu.com") req = requests.post("http://www.baidu.com") req = requests.put ("http://www.baidu.com") req = requests.delete("http://www.baidu.com") req = requests.head("http://www.baidu.com ") req = requests.options("http://www.baidu.com") # 3.1 get请求 参数是字典,我们也可以传递json类型的参数: import requests requests也有相应的proxies属性 import requests proxies = { "http": "http://10.10.1.10:3128", "https": "https

    47420编辑于 2022-12-21
  • 来自专栏计算机视觉理论及其实现

    python的requests

    今天我们来学习下Python中Requests的用法。 1、Requests的安装利用 pip 安装,如果你安装了pip包(一款Python包管理工具,不知道可以百度哟),或者集成环境,比如Python(x,y)或者anaconda的话,就可以直接使用pip 安装Python的。 -8<RequestsCookieJar[]>2、http基本请求requests提供了http所有的基本请求方式。 例如:r = requests.post("http://httpbin.org/post")r = requests.put("http://httpbin.org/put")r = requests.delete

    1.2K51编辑于 2022-09-03
  • 来自专栏IT架构圈

    requests使用方式

    requests使用方式 闲话少说,来,让我们上代码: 简单的看一下效果: import requests requests = requests.session() headers = { ' import urllib3 urllib3.disable_warnings() response = requests.get("https://www.12306.cn",verify=False ) print(response.status_code) 代理设置: import requests proxies= { "http":"http://127.0.0.1:9999", "https":"http://127.0.0.1:8888"} response = requests.get("https://www.baidu.com",proxies=proxies) print import ReadTimeout,ConnectionError,RequestExceptiontry: response = requests.get("http://httpbin.org

    69540发布于 2018-06-01
  • 来自专栏SpringBoot教程

    Python之requests

    基本使用 官网 1.1 安装 pip install requests 1.2 response的属性以及类型 类型 :models.Response r.text : 获取网站源码 r.encoding r.url :获取请求的url r.content :响应的字节类型 r.status_code :响应的状态码 r.headers :响应的头信息 1.3 示例: 1.3.1 get请求: import requests url = 'http://www.baidu.com' response = requests.get(url=url) # 一个类型和六个属性 # Response类型 print(type # 返回响应的状态码 print(response.status_code) # 返回的是响应头 print(response.headers) 1.3.2 get请求传递参数: import requests 超级鹰打码平台 import requests from hashlib import md5 class Chaojiying_Client(object): def __init__

    48720编辑于 2023-02-16
  • 来自专栏Hammer随笔

    爬虫之requests

    目录 requests 部分源码 发送GET请求 response.text和response.content的区别: 发送POST请求 requests使用代理 Cookie Cookie模拟登录 Session:共享cookie 处理不信任的SSL证书: requests 虽然Python的标准中 urllib模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好 不需要url编码,自动给我们编码处理 import requests url = "http://httpbin.org/get" payload = {'key':'value','key2' 将response.content进行解码的字符串,解码需要指定一个编码方式,requests会根据自己的猜测来判断编码的方式,所以有时候可能会猜测错误,就会导致解码产生乱码,这时候就应该进行手动解码 (url,headers=headers) print(resp.text) Session:共享cookie 使用requests,也要达到共享cookie的目的,那么可以使用requests给我们提供的

    60810编辑于 2022-03-25
  • 来自专栏吾非同

    Requests快速学习

    Requests的作者是大名鼎鼎的kennethreitz,它的口号是“HTTP For Humans”,为人类使用HTTP而生。 requests常用来进行接口请求,爬取网页等,相对于原生的urllib,它发起请求更加简洁和容易理解,支持HTTP连接保持和连接池、cookie保持会话、文件上传和支持自动确定响应内容的编码等。 开源地址:https://github.com/kennethreitz/requests 安装 pip install requests Requests7种请求方法: ? import requests session = requests.session() response = session.get(url) 更多requests的用法,大家可以学习下官方文档: http://docs.python-requests.org/zh_CN/latest/index.html

    55730发布于 2020-10-23
  • 来自专栏抠抠空间

    爬虫值requests

    requests简介 简介 Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP ,使用起来比urllib简洁很多 因为是第三方,所以使用前需要 基本用法: requests.get()用于请求目标网站,类型是一个HTTPresponse类型 import requests response = requests.get('http://www.baidu.com 各种请求方式: import requests requests.get('http://httpbin.org/get') requests.post('http://httpbin.org/post ') requests.put('http://httpbin.org/put') requests.delete('http://httpbin.org/delete') requests.head( 使用代理 同添加headers方法,代理参数也要是一个dict 这里使用requests爬取了IP代理网站的IP与端口和类型 因为是免费的,使用的代理地址很快就失效了。

    71201发布于 2018-05-30
  • 来自专栏雷子说测试开发

    Requests(二十一)Requests请求的简单封装

    Requests分享系列: Requests(一) Requests(二) Requests(三)如何获取接口传参参数 Requests(四)如何传递不一样的参数 Requests (五)接口返回状态码 Requests(六)接口返回响应头和请求Cookies Requests(七)重定向和超时 Requests(八)代理和会话对象 Requests(九)准备的请求和 SSL 证书验证 Requests(十)接口请求认证 Requests(十一)实战请求钉钉群机器人 Requests(十二)实战获取今日头条24小时热文 Requests(十三)利用钉钉机器人打造一个钉钉群定时推送今日头条 24小时热闻 Requests(十四)一文揭秘如何获取快手关注的视频 Requests(十五)一文解决解析text/html格式返回数据 Requests(十六)一文展示如何利用Requests 请求xml格式接口 Requests(十七)一文展示如何利用Requests发送form表单请求 Requests(十八)Requests发送application/x-www-form-urlencoded

    83310发布于 2021-03-15
  • 来自专栏乐百川的学习频道

    Python HTTPrequests 介绍

    前面我写的爬虫用的都是Python自带的的标准urllib,这个用起来还行,不过有些操作比较麻烦。所以现在我们来学习一下一个非常著名的HTTP——requests。 打开官网还有一段警告。 可见requests的方便,可以帮我们避免这么多危险。 警告:非专业使用其他 HTTP 会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。 好了,废话不多说,如果没有安装requests的话,先来安装一下。 pip install requests 使用举例 如果想快速上手requests,可以参考快速上手文档。 ('http://httpbin.org/get', headers=headers) print(response.text) 假如使用自带的urllib标准,那么代码就比较复杂了。 files=data) print(response.text) cookies 如果要获取响应的cookies,调用cookies属性即可,它会返回一个RequestsCookieJar对象,它实现了标准

    1.8K100发布于 2018-01-09
  • 来自专栏阿黎逸阳的代码

    【Python】【爬虫】Requests详解

    Requests是用Python语言编写的第三方,使用前需要另外安装。它基于urllib,采用Apache2 Licensed开源协议的HTTP。 举三个Requests的实际应用: 如果你是店家,想对比自己店铺和同行店铺的差异,你可以用Requests爬取同行店铺的评价,找到自己店铺的改进方向。 如果你最近刚好想换电脑,不太确定想买哪一款,你可以用Requests爬取相关网站的评论,给自己的决定做个参考。 一、Requests的主要方法 Requests中有7个主要方法 ? 下面详细阐述Requests中六个方法: import requests #导入requests模块 requests.get("http:/ 二、Requests的重要对象 Requests中有2个重要对象 ? 图2 Requests中的2个重要对象 其中Response对象包含服务器返回的所有信息,例如状态码、首部等。

    1.6K30发布于 2020-09-08
  • 来自专栏git

    爬虫--xpath匹配,requests

    图片保存的名字叫ygf.jpg,其他老师类似;并且都保存到当前目录下的image目录 杨老师的信息保存文件名叫“ygf.txt”,其他老师类似;并且保存到当前目录下的text目录 代码: import requests from lxml import etree import os def save(img_url, desc): response = requests.get(img_url) 537.36 (KHTML, like Gecko)" " Chrome/65.0.3325.146 Safari/537.36"} response = requests.get

    60240发布于 2019-07-19
  • 来自专栏只为你下

    Python爬虫(二):Requests

    要说 Python 的爬虫必然绕不过 Requests 。       1 简介      对于 Requests ,官方文档是这么说的:      Requests 唯一的一个非转基因的 Python HTTP ,人类可以安全享用。       警告:非专业使用其他 HTTP 会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。      这个介绍还是比较生动形象的,便不再多说。 2 快速上手      2.1 发送请求      导入 Requests 模块:      import requests      获取网页:      r = requests.get('http 所有 Requests 显式抛出的异常都继承自 requests.exceptions.RequestException。

    88500发布于 2019-10-05
领券