首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Python绿色通道

    Scrapy实战8: Scrapy系统伯乐在线

    一、前言 上一篇给大家仔细讲解了如何用Xpath分类医疗信息网站医疗器材名称和介绍图片,以及三种最常用的存储方法。 三、看代码,边学边敲边记Scrapy伯乐在线 1.逻辑思路分析 ? 逻辑思路 图上已经绘画和写的比较清楚了,一个简单思路就是:请求页面 -> 获取文章和下页链接 -> 获取文章详细信息 -> 翻页,再从头开始,一直到完所有页面,所有文章,下面我们具体动手试试。 100条信息应该有,所以在速度和可靠性上,依靠框架要比自己request好的多嘿。 ,以及在过程中如何选取更加适合的匹配方法(目前我们已经讲了:正则、Xpath、CSS选择器)。

    80710发布于 2020-02-12
  • 来自专栏小明的博客

    壁纸

    本次爬虫主要的是4k壁纸网的美女壁纸,该网页的结构相对比较简单,这次爬虫的主要目的学会使用bs进行解析,另外是关于当的数据是非文本数据时数据的解析问题。 获取html文件 """ response = requests.get(url, headers=headers, verify=True) print(f"开始 {url}") return response def parse_page(response): """ 提取当页中所有所需数据的存储位置以及下一网页 """ else: return img_url_dict,next_url def save(response, out_dir,img_name): """ 保存结果

    1.2K30编辑于 2022-09-06
  • 来自专栏userlyz学习记录

    肯德基

    今天晚上搞了一个作业,作业要求是肯德基的餐厅查询: 代码如下: # -*-coding=utf-8-*- # 时间:2021/3/31;20:13 # 编写人:刘钰琢 import requests ) page_text=response.json() filename=keyword+'.json' fp=open(filename,'w',encoding='utf-8'

    61830编辑于 2022-08-18
  • 来自专栏Django Scrapy

    knewone上的信息-- coding: utf-8 -

    knewone上的信息

     author = 'LEE'
    -- coding: utf-8 - 
    from bs4 import BeautifulSoup
     import time

    71690发布于 2018-04-12
  • 淘宝数据

    disable-blink-features=AutomationControlled') driver = webdriver.Edge(options = options) # TODO 关键词和最大页数 div.fm-btn > button").click() print("登录成功,等待主页面加载...") wait = WebDriverWait(driver, 30) # TODO 数据 # TODO 翻页 def index_page(page): print('正在第 ', page, ' 页') if page > 0: input = wait.until ))) input.clear() input.send_keys(page) submit.click() # TODO 调用数据函数 get_data() # TODO 主函数,调度翻页批量 def main(): for i in range(1, MAX_PAGE + 1): index_page

    88610编辑于 2024-10-31
  • 来自专栏睡不着所以学编程

    豆瓣电影

    嗯,今天还是挑战了电影,因为我发现从别的页面进去就不是Ajax的页面了,步骤和书单差不多hhh 由于我在一边写一遍测试,就不停的运行,后来发现运行以后没有任何结果,我就测试了一下,应该是我发请求太频繁 data.append(movie_remark) datas.append(data) with open("D:/movie.csv", "w", encoding="utf-8- data.append(movie_remark) datas.append(data) with open("D:/movie.csv", "w", encoding="utf-8-

    1K10编辑于 2022-09-20
  • 来自专栏数据结构笔记

    实战:简书之多线程(一)

    在上上篇我们编写了一个简单的程序框架来简书的文章信息,10分钟左右取了 1万 5千条数据。 2万 那么一亿五千万条数据需要 150000000 / 20000 = 10 * 7500 = 75000 min = 1250 h = 52 d w(゚Д゚)w 52天!!! ,如果按照前面的脚本来整整 52天,那时候黄花菜都凉了呀。 这些数据的时间跨度如此大,如果要做数据分析的进行对比的话就会产生较大的误差。 所以,我们必须得提高速度!!! 这时候就轮到今天得主角登场了, 噔 噔 噔 蹬------》多线程 一、多线程简介 简单来讲,多线程就相当于你原来开一个窗口,现在开了10个窗口来。 start} 秒') 十个线程访问一百次大概是 8.13秒 用普通的方法访问一百次的话,大概需要 60秒 前者平均每次访问耗时 0.08秒,而后者平均每次访问耗时 0.6秒,多线程差不多是普通方法的 8

    1.1K40发布于 2018-09-28
  • 来自专栏python-爬虫

    爬虫m3u8视频文件

    一.m3u8视频格式 一般m3u8文件和 视频流ts文件放在同一目录 而m3u8文件格式存放的一般都是ts 文件的一个列表 二.根据m3u8视频存放以及写法的规律 思路 我们一般网站上能找到的m3u8的 url 将m3u8格式的文件下载下来 然后打开m3u8找到里面所有的ts的路径可以用正则匹配 然后m3u8的url进行替换比如https:www.xxx/xxx/xxx.m3u8改成https:www.xxx /xxx/xxx.ts 为什么这样改因为一般不出意外的话m3u8和ts 是放在同一目录

    2K21发布于 2020-06-19
  • 来自专栏浊酒清味

    搞笑视频

    m = m+1 except: print("此URL为外站视频,不符合规则

    1.1K20发布于 2019-11-01
  • 来自专栏python-爬虫

    Flipcart 流程

    第一步:分类url from requests_html import HTMLSession session =HTMLSession() #https://www.flipkart.com/lc

    64920发布于 2020-06-19
  • 来自专栏Fdu弟中弟

    天气信息

    使用requests和BeautifulSoup天气信息。 这是从不倒翁问答系统的祖传代码里翻出来的,利用搜狗搜索获取天气信息,开箱即用。

    89620发布于 2021-02-24
  • 来自专栏花落的技术专栏

    APP数据

    准备 时间:2021/02/02 系统环境:Windows 10 所用工具:Jupyter Notebook\Python 3.0\Fiddler\雷神模拟器 涉及的库:requests #处理Fiddler里导出的url file=open(r"C:\Users\Archer\Desktop\url.txt","r",encoding='utf-8') url_list=file.read

    1.4K00编辑于 2021-12-05
  • 来自专栏python3

    表情包

    #coding:utf-8 import requests import os from bs4 import BeautifulSoup import urllib import threading gLock.release() if img_url: filename = img_url.split("/")[-1]#将图片地址分割成列表,最后一项文件名 print img_url,"下载失败"#还时常出现10054错误,可能是服务器发现了爬虫强行关闭当前链接 def main(): for x in range(1,100):#

    2.1K30发布于 2020-01-17
  • 来自专栏全栈程序员必看

    Python网页_在pycharm里面如何网页

    使用Python简单数据 闲暇时间学习Python,不管以后能否使用,就算了解计算机语言知识。 一、导入网页所需的包。 if __name__ == '__main__': main() 三、接着在定义主函数main(),主函数里应包括 所需的网页地址 得到网页数据,进行解析舍 将得到的数据保存在excel 中 def main(): #指定所需网页路径 basePath = "https://www.duquanben.com/" #获取路径 dataList = getData (basePath) #保存数据 saveData(dataList) 四、需对网页进行数据的采集 因为使用的Pycharm软件来进行,首先需要进行下伪装,将浏览器的代理信息取出

    2.6K20编辑于 2022-11-04
  • 来自专栏算法与编程之美

    pythonmv

    引言 爬虫实践—某音乐网站的mv,通过对某音乐网站的视频的以进行实践。 本博客拟对爬虫的一个简单场景进行模拟,并对的内容以文件的形式表现出来。 三、实验结果与讨论 代码清单 1 import requests if __name__ == '__main__': url_ = "https://vodkgeyttp8.vod.126 c6af5b9bddc4dc566d29762c7715f87b&wsTime=1647611684" headers_ = { "cookie": "_iuqxldmzr_=32; _ntes_nuid=18d7d8dd0dff0e06025de9a6e0506829 ; NMTID=00OaEE3U5EC6W0JUUykorRkm57XCmQAAAF32T3YDg; WM_TID=x8XP2OcDBENFBVRQUFI%2FKveSX6KjjorC; P_INFO= Em32Ge4fGPDcmx0RSOlgjKmoY79tdNog0NJIUAslfR2qTbhrcodhUfkm7ZHjgBdCULJ23muh9a48ExIHulBuJUUaZCkBTvVCMCt2Oz1I5vDY2rFZzdasdYTlbsweg7s9SUs%3D; WM_NIKE=9ca17ae2e6ffcda170e2e6ee84c6349af19c8fed41a6e78bb6c84e979e8ebbf53db890a3aece3bfce7bbb1e42af0fea7c3b92a87b3fdd3c66ff8ba89b1c769afa800b3d245b0b9a6acf0659be9f795e746adb900afc943979fbd8de55af2af9c83eb7aa1b1ac89d86ea9b3f9bbcb62a59eaca4d8488aeefd8ef864fbbffcd9c8748b98bb8dc17f8a8b9b82d949a99e9c97d5498f9dbcd3ce72f397fb97c753f2ae8abbf970a3adacbad768a2adb986e63db1e79db6f237e2a3

    2K30编辑于 2022-05-23
  • 来自专栏python3

    Python小说

    #-*-coding:GBK-*- #author:zwg ''' 某小说网站的免费小说 ''' import urllib import urllib2 import re url='http:/ /www.bxwx8.org/b/8/8987/2093383.html' url1='http://www.bxwx8.org/b/8/8987/2093%d.html' def gethtml(url

    2.4K20发布于 2020-01-07
  • 来自专栏userlyz学习记录

    scrapy全站

    笔记 -基于Spider的全站数据 -基于网站中某一模板下的全部页码对应的页面数据进行 -需求:校花网中的照片的名称 -实现方式: -将所有的url添加到start_urls (深度) -需求:boss直聘的岗位名称,岗位描述 图片 需求:站长素材的高清图片的https://sc.chinaz.com/tupian/ 笔记 ---- 基于scrapy ImagesPipeline: ​ 只需要将img的src属性值进行解析,提交到管道,管道就会对图片的src进行请求发送获取到图片的二进制类型的数据,且话可以帮我们进行持久化存储 需求:站长素材的图片 url(没有动态加载) 2、每一个板块对应的新闻标题都是动态加载出来的(动态加载) 3、通过解析出每一个新闻详情页的url获取详情页的页面源码,解析出来新闻内容 需求:网易新闻基于Scrapy网易新闻中的新闻数据 demo #5.18这个针对于个人信息,可以利用他的搜索进行查找到每一个人对应的数据,这个将大大降低我们搜索的时间和难度;针对于他的题库类型要使用全站的这种方式进行 class DemoproSpider

    1.1K10编辑于 2022-08-18
  • 来自专栏全栈程序员必看

    python论坛图片_python某网站妹子图集

    def huoquyuanma(url = ‘https://www.tujigu.com/’):

    2.2K30编辑于 2022-09-09
  • 来自专栏python全栈教程专栏

    九行代码带你任何你想要的图片

    首先,我们直接用的是icrawler这个的模块,简直是太方便了,用不着再去分析网页,用不着再去写正则。。都不用,一个循环遍历就行,模块给我们封装好了。 列表的话,我们可以任意添加多少,添加你任何想要的图片。举个例子,我想要张杰,林俊杰,周杰伦他们的图片,那我们就在列表里面分别添加这三个人的,注意分开哈,看我代码,我是分开了的。 (偷偷说一下,想要美女帅哥图片,可以直接列表中装个’美女’,‘帅哥’,哈哈) 第二步:遍历这个列表,然后在下面顶一个我们要保存的路径,我是装在一个photo的文件夹,不用自己建立文件夹,就在代码里面把定义好自己的文件夹名字 最后一步就是根据关键字和图片数量进行开始。 这是不是很好学的一个爬虫技巧? from icrawler.builtin import BingImageCrawler # from icrawler.builtin import GoogleImageCrawler #需要的关键字

    99120发布于 2021-10-18
  • 来自专栏技术开源分享

    1、苏宁百万级商品 思路讲解 类别

    通过图可知,总共有N个类别,每个类别都是一个DIV区块,然后再继续分解DIV区块分析内容。我们要得到的是类别表,据图所示我们可以分析得出类别表的结构应当树形的。所以涉及的表应该是包含子节点和父节点的。初步设计图如下

    80730发布于 2018-10-31
领券