首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小神仙

    Python爬虫-萌妹子图片

    import requests as re from bs4 import BeautifulSoup import os #import threading #定义一个爬去图片的类 class Spider threading.Thread(target=loop,args=((i+3)*3+1),).start() # threading.Thread(target=loop,args=((i+4)

    90710发布于 2019-09-29
  • 来自专栏Android开发指南

    Python写爬虫爬妹子

    html = requests.get(url, headers=headers) #没错,就是这么简单 urllib2以我爬取淘宝的妹子例子来说明: ?

    95630发布于 2020-03-27
  • 来自专栏杂七杂八

    Scrapy爬取妹子

    本来呢,一开始想爬取的是这个网站,http://www.mzitu.com/,但是呢?问题发现比较多,所以先爬取了http://www.meizitu.com/这个网站,下一步再去爬取第一个。 Gi

    2K80发布于 2018-04-27
  • 来自专栏python3

    python shell 爬虫 妹子图片

    这里也差不多,用python写了个小爬虫,爬妹子图的"照片".感觉效率好慢,应该是代码的问题, 在此献丑了!!! #coding:utf-8 import requests from bs4 import BeautifulSoup import re DownPath = "/jiaoben/python/meizitu Firefox/3.5.6'} TimeOut = 5 PhotoName = 0 c = '.jpeg' PWD="/jiaoben/python/meizitu/pic/" for x in range(1,4)                 fd.write(chunk) print ("You have download %d photos" %PhotoName) #在放一个以前用shell写的下载煎蛋妹子图片的代码吧 页码自己嵌套一个for 就可以下载多点妹子图了~懒得弄了! #!

    81360发布于 2020-01-10
  • 来自专栏云前端

    前端妹子聊HTTP协议

    状态代码有三位数字组成,第一个数字定义了响应的类别,且有五种可能取值: 1xx:指示信息--表示请求已接收,继续处理 2xx:成功--表示请求已被成功接收、理解、接受 3xx:重定向--要完成请求必须进行更进一步的操作 4xx Error //服务器发生不可预期的错误 503 Server Unavailable //服务器当前不能处理客户端的请求,一段时间后可能恢复正常 eg:HTTP/1.1 200 OK (CRLF) 4

    84320发布于 2020-06-15
  • 来自专栏小浩算法

    妹子用 git(一)

    然后我为了省事,我直接告诉妹子,你直接 git add -A 就行,换句话说,我们把这两个文件都纳入到管理中。此时如果再执行 git status,可以看到两个文件变绿色了。 ? 我分别用两次commit,创建了 3.txt 和 4.txt。 ? 然后看下版本记录: ? 现在我们回滚到上一个版本: ? 可以看到添加 4.txt 文件消失了: ?

    54410发布于 2020-06-17
  • 来自专栏Python绿色通道

    煎蛋网全站妹子图爬虫

    春节到了,老板都回去过新年了,咱们打工人也忙了一年了,这几天就抓点妹子图,摸摸鱼吧。 导入模块 首先把用到的模块贴进来。 import requests from bs4 import BeautifulSoup import time import random 抓取 煎蛋网的抓取流程:从第 101 页开始抓取,提取页面上的女装图片

    2.1K20编辑于 2022-03-09
  • 来自专栏XINDOO的专栏

    妹子Python入门指北(五)

    然后就是和if while一样的格式要求,末尾必须加冒号 下一行开始必须缩进4个空格,这是python的语法要求,必须遵守,负责代码执行会出错。

    49010发布于 2021-01-21
  • 来自专栏XINDOO的专栏

    妹子Python入门指北(二)

    因为妹子学编程的意愿不强了,我也不能逼迫她去学。不过后来收到部分人的私信说希望继续更新下去,所以紧接上文继续萌妹子Python入门指北(一)。 首先,你尝试下在idle中输入下面这行内容 3+4*5+20/4-8   你按回车会怎么样?和你想的没错,就是输出这个式子的计算结果,而且和我们小学学的计算优先级是一样的,先算乘除再算加减。 比如我先算 3+4然后再乘以5,这里你可以使用小括号(),注意,你只能用小括号,但是可以用多层小括号,举个栗子。 ((3+4)*5+20)/4-8   计算的优先级也和我们小学学的一样,先算最里层括号,然后再乘除再加减,再次强调下,运算过程中你只能用小括号(),不能使用中括号[] 或者大{},因为这俩符合在编程界另有用途 a=12*(3-6)+7*(14+6) b=(16+24)/10 + 33*(8-18) c=5*(4*7-8) x='happy ' y='new ' z='year ' print a*20+b+

    55510发布于 2021-01-22
  • 来自专栏XINDOO的专栏

    妹子Python入门指北(三)

    直观上来看,缩进其实就是在一行代码前加4、8、12、16……个空格(注意是英文字母的空格,该空格和一个字母是等宽的,如果和一个汉字等宽就说明你得切换输入法到半角符号了,具体方法百度)。 缩进的作用其实就是为了标示下面这几行代码是属于哪个if|for|while语句的,有同样缩进的代码是一整块,4个空格缩进的代码块是包括8个空格的,但8个空格的代码块是不包含4个空格的代码块的,举个简单例子就很容易理解了 aaaaa if|for|while: bbbb #这里b缩进了4个空格 if|for|while: ccccc #c缩进了8个空格 ccccc

    50420发布于 2021-01-22
  • 来自专栏XINDOO的专栏

    妹子Python入门指北(四)

    1*1=1 1*2=2 2*2=4 1*3=3 2*3=6 3*3=9 1*4=4 2*4=8 3*4=12 4*4=16 1*5=5 2*5=10 3*5=15 4*5=20 5*5=25 1*6=6 2*6=12 3*6=18 4*6=24 5*6=30 6*6=36 1*7=7 2*7=14 3*7=21 4*7=28 5*7=35 6*7=42 7*7=49 1*8=8 2*8= 16 3*8=24 4*8=32 5*8=40 6*8=48 7*8=56 8*8=64 1*9=9 2*9=18 3*9=27 4*9=36 5*9=45 6*9=54 7*9=63 8*9=72 3层 4层 5层可不可以?   一般的文章在这个时候会告诉大家『这里我就不公布答案了,大家可以去尝试下』,然而我这里我偏要告诉大家答案很明显都是yes yes,你试不试就和我无关了。   

    59210发布于 2021-01-21
  • 来自专栏XINDOO的专栏

    妹子Python入门指北(一)

    《萌妹子Python入门指导》系列,以下简称萌妹子系列是教没有任何编程基础的妹子如何去写python代码,最终实现一些小工具的开发,请Python大牛们直接绕道。 首先我要做的就是下载python的安装包,这里主要以windows的为例,因为本人的萌妹子用的是windows系统。

    68810发布于 2021-01-22
  • 来自专栏全栈程序员必看

    爬取煎蛋XXOO妹子图片

    和firefox自带了headless的访问,然后就去各个blog看,最后爬下了这个网站: 1 import unittest 2 import requests 3 import time 4 1 def test_multiscraping(self): 2 p = Pool()#默认大小是cpu的核数,你可以修改比如说双核Pool(2) 3 #这里假设我是4个进程 ,所以range(5) 4 for i in range(5): 5 p.apply_async(scraping, args = (i, )) 6

    62720编辑于 2022-09-07
  • 来自专栏python3

    python-python爬取妹子图片

    1 # -*- conding=utf-8 -*- 2 3 import requests 4 from bs4 import BeautifulSoup 5 import io 6 获取图片的地址 16 for i in range(1,10): 17 #herf 为访问的地址 18 herf = url +'/'+ str(i) 19 #在次解析新的url(这个url就是妹子的连接 html = requests.get(herf,headers=headers) 21 beautiful = BeautifulSoup(html.text,'lxml') 22 #获取妹子的图片连接

    86041发布于 2020-01-17
  • 来自专栏C语言入门到精通

    如何优雅地给妹子优化电脑?

    4.存在即合理。--黑格尔 你效率很高,打开了电脑。 然后发现自己还是太年轻。 因为屏幕右下角赫然显示着一行大字: 您的开机时间4分59秒,已击败1%的电脑。 在你看来。 几乎是这样的。

    6352018发布于 2020-12-23
  • 来自专栏艺述论专栏

    什么代码会遭人耻笑,什么妹子会受人喜欢?从妹子角度戏说代码优劣。

    目录 好的标准是什么 - 可读性 = 清晰 - 复用性 = 没脾气 - 扩展性 = 有所为、有所不为 代码实例讲解 - 变量 - 函数 好的标准是什么 在人类中,好妹子一般都具有什么特征呢? 就像好脾气的妹子,和什么样的人都能聊得来,大家都喜欢她;脾气不大好的妹子,只能和一部分人聊得来,只愿意和一部分人交朋友,为什么? 因为她有个人好恶,不能平等地看待芸芸众生;脾气特差的妹子,是不能和任何人交朋友的,像李莫愁李师姐,她逢人就送一枚毒针,尤其是遇到性陆的人,脾气爆的很,为什么? 先秦宋玉在《登徒子好色赋》中形容邻家妹子的美,说“增之一分则太长,减之一分则太短”。对比于此处,代码中描述的对象,信息即不要缺失,也不要冗余,刚刚好,就是好。 就像一个易相处的妹子,每次和她相处,都不会留下社交阴影,即副作用;反之,如果每次和妹子相处,她都发些小脾气,产生一些副作用,也就称不上易相处了。这种情况在代码中就是复用性差。

    53630发布于 2019-09-27
  • 来自专栏程序员互动联盟

    老码农如何追到漂亮妹子

    最近看到知乎上有人提问:程序员如何追妹子。接着看就知道楼主就是个程序员,看上心仪的妹子了,来征求大家的意见。 看到大家积极回复,不免感慨:“世上还是好人多!”此处省略几个字。 不少人都是来看热闹的,也有提供专业意见的,最受欢迎的就是下面的回答: 1.早晚问好,发什么都赞,不要点赞要搭讪直接夸 2.没话题的时候多讲讲自己,慢慢她也会让你了解她 3.多打电话约见面,少发消息 4. 我觉得最靠谱的追妹子的方法就是: 1.真心 真心的对她好,以实际行动来打动她。 2.自信 无论自己长得多丑,多没钱,都要自信。 3.大方 无论言行举止,还是请客吃饭,都要大方得体。 4.安全感 妹子如果说跟你在一块有安全感,那么你九成已经成功了。 5.实际行动 例如: 她没时间吃饭的时候给她带饭; 生病的时候帮她拿药; 她的电脑出问题的时候能给她修好; 适当的时候知道给她买花(说实话,妹子最喜欢花了) ?

    79860发布于 2018-03-13
  • 来自专栏日常学python

    Python爬虫 - 抓取divnil动漫妹子

    3、用大图地址下载该图片 这个很简单,看代码 先安装 Requests 和 BeautifulSoup 库 pip install requests bs4 导入库 import requestsfrom bs4 import BeautifulSoupimport sys 请求获取网页源代码 url = "https://divnil.com/wallpaper/iphone8/%E3%82%A2%E3% 83%8B%E3%83%A1%E3%81%AE%E5%A3%81%E7%B4%99_2.html" headers = { "User-Agent": "Mozilla/5.0 (X11; Linux 完成,贴上所有代码 import requests from bs4 import BeautifulSoup import sys import os class Divnil: def self.url = "https://divnil.com/wallpaper/iphone8/%E3%82%A2%E3%83%8B%E3%83%A1%E3%81%AE%E5%A3%81%E7%B4%

    1K40发布于 2018-12-27
  • 来自专栏FSociety

    Python使用BeautifulSoup爬取妹子

    最近突然发现之前写的妹子图的爬虫不能用了,估计是网站又加了新的反爬虫机制,本着追求真理的精神我只好又来爬一遍了! 效果 ? 文件夹 ? 妹子图 思路整理 页面地址:http://www.meizitu.com/ 获取首页分类标签地址,传入下一步 ? image.png 最后保存图片就好了 ---- 代码 所需包 import os import sys import urllib2 from bs4 import BeautifulSoup 最后按照思路一步步嵌套起来就可以啦,贴完整代码: # -*- coding: utf-8 -*- import os import sys import urllib2 from bs4 channel_title = (channel.get('title')) print '***开始查找 '+channel_title.encode('utf-8') +' 分类下的妹子

    1.7K20发布于 2018-09-11
  • 来自专栏小詹同学

    scrapy 也能爬取妹子图 ?

    本文授权转载自公众号:zone7 目录 前言 Media Pipeline 启用Media Pipeline 使用 ImgPipeline 抓取妹子图 瞎比比与送书后话 前言 我们在抓取数据的过程中,除了要抓取文本数据之外 IMAGES_MIN_HEIGHT = 128 IMAGES_MIN_WIDTH = 128 需要说明的是,你下载的图片名最终会以图片 URL 的 hash 值命名,例如: 0bddea29939becd7ad1e4160bbb4ec2238accbd9 .jpg 最终的保存地址为: your/img/path/full/0bddea29939becd7ad1e4160bbb4ec2238accbd9.jpg 使用 ImgPipeline 这是我 demo # 成功 [(True, {'path': 'full/0bddea29939becd7ad1e4160bbb4ec2238accbd9.jpg', 'checksum': '98eb559631127d7611b499dfed0b6406 抓取妹子图 ok,理论部分也讲完了,那我们来实践一下吧 spider spider 部分很简单,如下: class GirlSpider(scrapy.spiders.Spider): name

    91420发布于 2019-11-12
领券