首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏python-爬虫

    Requests

    Requests ` 1.Response对象的属性 属性 说明 r.status_code HTTP请求返回的状态,200表示成功,404表示失败,还有其他的也代表失败 r.text HTTP响应内容转换成字符串格式 的异常 异常 说明 requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等 requests.HTTPErro HTTP错误异常 requests.URLRequired name__ == '__main__' #在pycharm中你可以直接main+Tab快速出这行 get_html_text(https://www.cnblogs.com/pythonywy) 3. Requests的方法 3.Requests的方法 http协议中6个方法 介绍 GET 请求获取url位置的资源 HEAD 请求获取url位置的资源的响应报告,及获得头部信息 POST 请求获取url () 请求局部更新url位置资源,及改变该处资源的部分内容 requests.delete() 请求删除url位置储存的资源 4.Requests13个参数 params:字典或字节序列,作为参数增加到链接中

    80330发布于 2019-07-24
  • 来自专栏python-爬虫

    Requests

    Requests ` 1.Response对象的属性 属性 说明 r.status_code HTTP请求返回的状态,200表示成功,404表示失败,还有其他的也代表失败 r.text HTTP响应内容转换成字符串格式 的异常 异常 说明 requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等 requests.HTTPErro HTTP错误异常 requests.URLRequired if name == 'main' #在pycharm中你可以直接main+Tab快速出这行 get_html_text(https://www.cnblogs.com/pythonywy) 3. Requests的方法 3.Requests的方法 http协议中6个方法 介绍 GET 请求获取 url位置资源 requests.patch() 请求局部更新url位置资源,及改变该处资源的部分内容 requests.delete() 请求删除url位置储存的资源 4.Requests13个参数

    86420发布于 2020-01-17
  • 来自专栏数据分析与挖掘

    requests

    import requests headers={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 4ee0sFgpQBgzanEVwm43KWftDR1BUncP4gzlMxT2eOoSXQbCNm8%2FdxmPsoI&rqlang=cn&rsv_enter=1&rsv_dl=tb&rsv_sug3= ,则有 kw={"wd":"中国"} url="https://www.baidu.com/s" #将kw用params传递到url中,通过get请求 response=requests.get(url response.encoding(response的编码方式) utf-8 response.status_code(HTTP请求状态码,200表示请求成功) 2.处理post请求 response=requests.post (url,headers=headers,data=data) print(response.json()) 3.使用代理 resp=requests.get(url,headers=headers,proxies

    52320发布于 2020-08-26
  • 来自专栏雷子说测试开发

    Requests(一)

    Requests是Python HTTP 。在我这里认为,它是最优秀的第三方的HTTP,使用范围广,通常用于接口测试、爬虫、web后台服务调用外部服务等。 HTTP(S) 代理支持 文件分块上传 流下载 连接超时 分块请求 支持 .netrc 这么优秀的http, 一开始要导入 Requests 模块: import requests 然后,尝试获取某个网页。 你还可以将一个列表作为值传入: >>> payload = {'key1': 'value1', 'key2': ['value2', 'value3']} >>> r = requests.get( key1=value1&key2=value2&key2=value3 reuqests带参数还是很简单的。 响应内容 我们能读取服务器响应的内容。

    87130发布于 2021-03-15
  • 来自专栏友弟技术工作室

    Requests详解

    在介绍requests之前,先介绍以下基本的http概念, 下面内容是在上嵩天教授课程笔记整理。在这里感谢他。 文档 安装 pip install requests requests安装小测 import request url = 'https://www.baidu.com' r = requests.get 中的head()方法 head Requests中的post()方法 post { "args": {}, "data": "", "files": {} 中的put()方法 put requests主要方法解析 requests.request(method, url, **kwagrs) method: 请求方式,对应get/ urllib3 # 关闭警告 urllib3.disable_warnings() r = requests.get('https://www.12306.cn',verify=False) print

    2.2K101发布于 2018-04-25
  • 来自专栏雷子说测试开发

    Requests(二)

    JSON 响应内容 Requests 中也有一个内置的 JSON 解码器,助你处理 JSON 数据,我们可以如下做。 import requestsr = requests.get('https://api.github.com/events')print(r.json()) 展示如下 ? 具体你可以这么做: >>> r = requests.get('https://api.github.com/events', stream=True)>>> r.raw<requests.packages.urllib3 1.从web请求获取 2.从接口文档 3.抓包。 headers都是字典格式的,我们可以从组合成key-value格式去组合。 Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.193 Safari/537.36' }r=requests.get

    45110发布于 2021-03-15
  • 来自专栏ShanSan的云原生之路

    Requests入门(2)

    requests入门实操 京东商品页面爬取 亚马逊商品页面的爬取 百度/360搜索关键字提交 IP地址归属地查询 网络图片的爬取和储存 1.京东商品页面的爬取 华为nova3 import requests 通常的反爬策略有: 通过Headers反爬虫 基于用户行为反爬虫 动态页面的反爬虫 参考 #如网站对Headers的User-Agent进行检测,可定制请求头伪装成浏览器 import requests print("爬取失败") if __name__ == '__main__': url = "https://www.amazon.cn/gp/product/B01M8L5Z3Y " print(GetHTMLText(url)) 3.百度/360搜索关键字提交 使用params参数,利用接口keyword #百度搜索引擎关键词提交接口: http://www.baidu.com ip=ipaddress # ip地址查询 import requests url ="http://m.ip138.com/ip.asp?

    47920发布于 2020-07-07
  • 来自专栏运维猫

    requests之Cookie

    1、简介 Requests是用Python语言编写的,基于urllib3来改写的,采用Apache2 Licensed 来源协议的HTTP。 一句话---Python实现的简单易用的HTTP。 2、基本用法 [root@elasticsearch-01 ~]# pip3 install requests #各种请求方式:常用的就是requests.get()和requests.post() /get') >>> r =requests.options('http://httpbin.org/get') 3、GET 请求 首先,构建一个最简单的GET请求,请求的链接为http://httpbin.org 当然使用retry之前也需要先安装。

    2.2K10发布于 2020-01-02
  • 来自专栏SpringBoot教程

    Python之requests

    =headers) content = response.text print(content) # 总结: # (1)参数使用params传递 # (2)参数无需urlencode编码 # (3) = json.loads(content,encoding='utf-8') print(obj) # 总结: # (1)post请求 是不需要编解码 # (2)post请求的参数是data # (3) 不需要请求对象的定制 1.3.4 代理请求 import requests url = 'http://www.baidu.com/s?' from=http%3a%2f%2fso.gushiwen.cn%2fuser%2fcollect.aspx' data_post = { '__VIEWSTATE': viewstate, 'gushiwen.html', 'w', encoding=' utf-8')as fp: fp.write(content_post) # 难点 # (1) 隐藏域 # (2) 验证码 3.

    49320编辑于 2023-02-16
  • 来自专栏计算机视觉理论及其实现

    python的requests

    今天我们来学习下Python中Requests的用法。 1、Requests的安装利用 pip 安装,如果你安装了pip包(一款Python包管理工具,不知道可以百度哟),或者集成环境,比如Python(x,y)或者anaconda的话,就可以直接使用pip 安装Python的。 -8<RequestsCookieJar[]>2、http基本请求requests提供了http所有的基本请求方式。 r = requests.get('https://github.com/timeline.json', stream=True)r.raw#输出<requests.packages.urllib3.response.HTTPResponse

    1.2K51编辑于 2022-09-03
  • 来自专栏IT架构圈

    requests使用方式

    requests使用方式 闲话少说,来,让我们上代码: 简单的看一下效果: import requests requests = requests.session() headers = { ' import urllib3 urllib3.disable_warnings() response = requests.get("https://www.12306.cn",verify=False ) print(response.status_code) 代理设置: import requests proxies= { "http":"http://127.0.0.1:9999", "https":"http://127.0.0.1:8888"} response = requests.get("https://www.baidu.com",proxies=proxies) print import ReadTimeout,ConnectionError,RequestExceptiontry: response = requests.get("http://httpbin.org

    70140发布于 2018-06-01
  • 来自专栏Dimples开发记

    Requests的用法

    那么这一节来简单介绍一下 requests 的基本用法 # 2. 安装 利用 pip 安装 pip install requests # 3. 基本请求 req = requests.get("http://www.baidu.com") req = requests.post("http://www.baidu.com") req = requests.put ("http://www.baidu.com") req = requests.delete("http://www.baidu.com") req = requests.head("http://www.baidu.com ") req = requests.options("http://www.baidu.com") # 3.1 get请求 参数是字典,我们也可以传递json类型的参数: import requests ://httpbin.org/cookies/set/sessioncookie/123456789') # 3.7 ssl验证 # 禁用安全请求警告 requests.packages.urllib3

    48320编辑于 2022-12-21
  • 来自专栏Hammer随笔

    爬虫之requests

    目录 requests 部分源码 发送GET请求 response.text和response.content的区别: 发送POST请求 requests使用代理 Cookie Cookie模拟登录 Session:共享cookie 处理不信任的SSL证书: requests 虽然Python的标准中 urllib模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好 不需要url编码,自动给我们编码处理 import requests url = "http://httpbin.org/get" payload = {'key':'value','key2' 将response.content进行解码的字符串,解码需要指定一个编码方式,requests会根据自己的猜测来判断编码的方式,所以有时候可能会猜测错误,就会导致解码产生乱码,这时候就应该进行手动解码 (url,headers=headers) print(resp.text) Session:共享cookie 使用requests,也要达到共享cookie的目的,那么可以使用requests给我们提供的

    61610编辑于 2022-03-25
  • 来自专栏吾非同

    Requests快速学习

    Requests的作者是大名鼎鼎的kennethreitz,它的口号是“HTTP For Humans”,为人类使用HTTP而生。 requests常用来进行接口请求,爬取网页等,相对于原生的urllib,它发起请求更加简洁和容易理解,支持HTTP连接保持和连接池、cookie保持会话、文件上传和支持自动确定响应内容的编码等。 开源地址:https://github.com/kennethreitz/requests 安装 pip install requests Requests7种请求方法: ? import requests session = requests.session() response = session.get(url) 更多requests的用法,大家可以学习下官方文档: http://docs.python-requests.org/zh_CN/latest/index.html

    56230发布于 2020-10-23
  • 来自专栏抠抠空间

    爬虫值requests

    requests简介 简介 Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP ,使用起来比urllib简洁很多 因为是第三方,所以使用前需要 使用代理 同添加headers方法,代理参数也要是一个dict 这里使用requests爬取了IP代理网站的IP与端口和类型 因为是免费的,使用的代理地址很快就失效了。 html) regex2 = '(.+)' portlist = re.findall(regex2, html) regex3 = r'(.+)' typelist = re.findall(regex3, html) sumray = [] for i 证书验证设置 import requests from requests.packages import urllib3 urllib3.disable_warnings() #从urllib3中消除警告

    71701发布于 2018-05-30
  • 来自专栏python3

    Python3 爬虫 requests

    前提准备 安装Python以及必要的模块(requests,bs4),不了解requests和bs4的同学可以去官网看个大概之后再回来看教程 爬虫思路 刚开始写爬虫的小白都有一个疑问,进行到什么时候爬虫还会结束呢 1.用一个queue来存储需要爬虫的链接,每次都从queue中取出一个链接,如果queue为空,则程序结束 2.requests发出请求,bs4解析响应的页面,提取有用的信息,将next的链接存入queue 3.用os来写入txt文件 具体代码 需要把域名和爬取网站对应的ip 写入host文件中,这样可以跳过DNS解析,不这样的话,代码运行一段时间会卡住不动 ''' 抓取新笔趣阁https://www.xbiquge6 .com/单个小说 爬虫线路: requests - bs4 - txt Python版本: 3.7 OS: windows 10 ''' import requests import time import ) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36', } r = requests.get

    65510发布于 2020-01-02
  • 来自专栏雷子说测试开发

    Requests(二十一)Requests请求的简单封装

    Requests分享系列: Requests(一) Requests(二) Requests(三)如何获取接口传参参数 Requests(四)如何传递不一样的参数 Requests (五)接口返回状态码 Requests(六)接口返回响应头和请求Cookies Requests(七)重定向和超时 Requests(八)代理和会话对象 Requests(九)准备的请求和 SSL 证书验证 Requests(十)接口请求认证 Requests(十一)实战请求钉钉群机器人 Requests(十二)实战获取今日头条24小时热文 Requests(十三)利用钉钉机器人打造一个钉钉群定时推送今日头条 24小时热闻 Requests(十四)一文揭秘如何获取快手关注的视频 Requests(十五)一文解决解析text/html格式返回数据 Requests(十六)一文展示如何利用Requests 请求xml格式接口 Requests(十七)一文展示如何利用Requests发送form表单请求 Requests(十八)Requests发送application/x-www-form-urlencoded

    83610发布于 2021-03-15
  • 来自专栏git

    爬虫--xpath匹配,requests

    图片保存的名字叫ygf.jpg,其他老师类似;并且都保存到当前目录下的image目录 杨老师的信息保存文件名叫“ygf.txt”,其他老师类似;并且保存到当前目录下的text目录 代码: import requests from lxml import etree import os def save(img_url, desc): response = requests.get(img_url) 537.36 (KHTML, like Gecko)" " Chrome/65.0.3325.146 Safari/537.36"} response = requests.get

    60340发布于 2019-07-19
  • 来自专栏阿黎逸阳的代码

    【Python】【爬虫】Requests详解

    Requests是用Python语言编写的第三方,使用前需要另外安装。它基于urllib,采用Apache2 Licensed开源协议的HTTP。 举三个Requests的实际应用: 如果你是店家,想对比自己店铺和同行店铺的差异,你可以用Requests爬取同行店铺的评价,找到自己店铺的改进方向。 如果你最近刚好想换电脑,不太确定想买哪一款,你可以用Requests爬取相关网站的评论,给自己的决定做个参考。 一、Requests的主要方法 Requests中有7个主要方法 ? 二、Requests的重要对象 Requests中有2个重要对象 ? 图2 Requests中的2个重要对象 其中Response对象包含服务器返回的所有信息,例如状态码、首部等。 3 Response对象的常用属性 Response对象中有6个常用属性 ? 图3 Response中6个常用属性 用实例一的结果r,运行下面关于属性的代码,并查看返回的结果。

    1.6K30发布于 2020-09-08
  • 来自专栏乐百川的学习频道

    Python HTTPrequests 介绍

    前面我写的爬虫用的都是Python自带的的标准urllib,这个用起来还行,不过有些操作比较麻烦。所以现在我们来学习一下一个非常著名的HTTP——requests。 打开官网还有一段警告。 可见requests的方便,可以帮我们避免这么多危险。 警告:非专业使用其他 HTTP 会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。 base_url = 'http://httpbin.org/' params = { 'name': 'yitian', 'age': 22, 'friends': ['zhang3' name=yitian&age=22&friends=zhang3&friends=li4 其他常用的HTTP操作例如PUT、DELETE、HEAD、OPTIONS等也支持,调用相应方法即可。 data = { 'name': 'yitian', 'age': 22, 'friends': ['zhang3', 'li4'] } response = requests.post

    1.9K100发布于 2018-01-09
领券