首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏离别歌 - 信息安全与代码审计

    攻击Scrapyd爬虫

    0x02 如何攻击scrapyd 一顿信息搜集后,目标整个工作流程就清晰了:用户输入的URL被交给部署在scrapyd上的爬虫进行爬取,爬虫调用了Chrome渲染页面,并将结果中的链接返回给用户。 0x03 利用CSRF漏洞攻击浏览器爬虫 针对6800端口的攻击在本地可以复现了,但是目标网站的6800是开启在内网的,我们无法直接访问。 可以借助目标前端的那个SSRF吗? 另外,在MVVM架构日益流行的当下,爬虫也变得更加灵活,特别是借助Chrome Headless或splash的爬虫能够动态执行JavaScript这个特性,能让爬虫爬到的信息更加完善,但也让攻击者有更多攻击途径 对于此类动态爬虫攻击者可以对浏览器或js引擎本身进行攻击,或者如我这样利用JavaScript攻击内网里一些基础服务。 另外,经常会有人在运行爬虫的时候会设置--no-sandbox、--disable-web-security等危险选项,这也给攻击者提供了很多便利,我建议利用普通用户权限启动浏览器爬虫,以避免使用这些不安全的选项

    1.3K41发布于 2020-10-15
  • 来自专栏Hank’s Blog

    3-3 数据框的子集

    > x <- data.frame(v1=1:5,v2=6:10,v3=11:15) > x v1 v2 v3 1 1 6 11 2 2 7 12 3 3 8 13 4 4 9 14 5 5 10 15 > x$v3[c(2,4)] <- NA > x v1 v2 v3 1 1 6 11 2 2 7 NA 3 3 8 13 4 4 9 NA 5 5 10 15 > #找出第2列 > x[,2] [1] 6 7 8 9 10 > x[,"v2"] [1] 6 7 8 9 10 > x[

    77700发布于 2020-09-16
  • 来自专栏python3

    3-3 SQL Server 2005数

    3-3 SQL Server 2005数据库优化 了解数据库引擎优化顾问基本内容 掌握数据库引擎优化顾问的使用 掌握通过命令行的方式进行索引的优化——DTA 一个数据库系统的性能依赖于组成这些系统的数据库中物理设计结构的有效配置

    82120发布于 2020-01-07
  • 来自专栏偶尔敲代码

    网站防御爬虫攻击的几种方式

    适用网站:所有网站 爬虫:对于版权文字,好办,替换掉。对于随机的垃圾文字,没办法,勤快点了。 5、用户登录才能访问网站内容 搜索引擎爬虫不会对每个这样类型的网站设计登录程序。 适用网站:极度讨厌搜索引擎,且想阻止大部分爬虫的网站 爬虫:制作拟用户登录提交表单行为的模块。 爬虫:伪装HTTP_REFERER,不难。 而且这样对搜索引擎爬虫没影响。 适用网站:动态网站,并且不考虑用户体验 爬虫:一个网站模版不可能多于10个吧,每个模版弄一个规则就行了,不同模版采用不同采集规则。 但是,这对搜索引擎爬虫没多大影响。

    1.3K50编辑于 2023-04-28
  • 来自专栏叽叽西

    lagou 爪哇 3-3 dubbo 笔记

    Apache Dubbo是一款高性能的 Java RPC 框架。其前身是阿里巴巴公司开源的一个高性能、轻量级的开源 Java RPC框架,可以和 Spring 框架无缝集成。

    60910编辑于 2022-05-17
  • 来自专栏ZNing·腾创库

    爬虫和抗DDOS攻击技术实践

    导语 企鹅媒体平台媒体名片页反爬虫技术实践,分布式网页爬虫技术、利用人工智能进行人机识别、图像识别码、频率访问控制、利用无头浏览器PhantomJS、Selenium 进行网页抓取等相关技术不在本文讨论范围内 ,以便推广,那既然我们要做SEO优化为什么还要 “反爬虫” ? ,因为一般网页爬虫都不具备 js 之行能力,这样就增加了它抓取的成本。 起到一定的防DDOS攻击的效果 通过上图我们可以看到,关键就是两次票据的签发与验证,一次由浏览器签发,一次由后台签发,但是验证真伪都是在服务端进行,这样做的最终效果就是,要对我们的界面进行抓取或攻击的人 ,必须按照我们设定的套路运转,就会增加他下载js并执行我们js的过程,如果有攻击方利用xss 获的肉机,对我们的域名发起攻击时,由于我们有两次票据验证,而去其中有一个票据的有效期时间很短,基本上不太可能对我们的服务器造成连续伤害了

    6.1K20发布于 2017-04-26
  • 来自专栏悟道

    3-3欧几里得求最大公因子

    最大公因子,指两个或多个整数共有约数中最大的一个 private static int gc(int a, int b) { if(b==0){ return a; } if(a<b){ int temp=a; a=b; b=temp; } return gc(b,a%b); }

    51020发布于 2021-03-16
  • 来自专栏python3

    34补3-3 rhcs集群基础应用

    [root@node1 ~]# ansible ha -m shell -a 'service NetworkManager stop'

    93500发布于 2020-01-15
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 3-3 NumPy数据基础

    本系列是《玩转机器学习教程》一个整理的视频笔记。本小节主要介绍NumPy模块的一些基础知识。

    90000发布于 2019-11-13
  • 来自专栏coding for love

    3-3 使用loader打包静态资源(样式篇上)

    在制作网页时,我们必不可少地会使用css。那么webpack是如何打包css文件的呢?

    1.1K20发布于 2019-06-17
  • 来自专栏cwl_Java

    C++编程之美-结构之法(代码清单3-3)

    代码清单3-3 for(answer[0] = 0; answer[0] < total[number[0]]; answer[0]++) for(answer[1] = 0; answer

    20620编辑于 2022-11-30
  • 来自专栏python3

    3-3 File类的常用操作的静态方法练

    文本文件是我们接触频繁的一类文件,记事本程序经常操作的文件就是文本文件,很多应用程序会保存一些记录到日志文件里,这种日志文件也可以是文本文件。通过本小节的学习,可以掌握对文本文件的简单读写方法。

    81620发布于 2020-01-14
  • 来自专栏区块链入门

    攻击】日蚀攻击,女巫攻击,重放攻击,DDOS攻击的定义?

    <3>【重放攻击(Replay Attacks)】 又称重播攻击、回放攻击,是指攻击者发送一个目的主机已接收过的包,来达到欺骗系统的目的,主要用于身份认证过程,破坏认证的正确性。 在日蚀攻击中,攻击者不像在女巫攻击(Sybil attack)中那样攻击整个网络,而是专注于隔离和瞄准某个特定节点。这种攻击通常会导致受害者节点接收到被操纵的、伪造的区块链视图。 分布式拒绝服务攻击方式在进行攻击的时候,可以对源IP地址进行伪造,这样就使得这种攻击在发生的时候隐蔽性是非常好的,同时要对攻击进行检测也是非常困难的,因此这种攻击方式也成为了非常难以防范的攻击攻击方式: 1、SYN Flood攻击 SYN Flood攻击是当前网络上最为常见的DDoS攻击,它利用了TCP协议实现上的一个缺陷。 这种攻击的特点是可以绕过普通的防火墙防护,可通过Proxy代理实施攻击,缺点是攻击静态页面的网站效果不佳,会暴露攻击者的lP地址。

    5K30发布于 2020-09-25
  • 来自专栏WebJ2EE

    React:Table 那些事(3-3)—— 列宽自适应、列宽拖动

    《React:Table 那些事》系列文章,会逐渐给大家呈现一个基于 React 的 Table 组件的定义、设计、开发过程。每篇文章都会针对 Table 的某个具体功能展开分析:

    9.9K41发布于 2019-07-19
  • 来自专栏ops技术分享

    攻击科普:ARP攻击

    一.介绍 ARP攻击的局限性 ARP攻击仅能在以太网(局域网如:机房、内网、公司网络等)进行。 无法对外网(互联网、非本区域内的局域网)进行攻击。 ARP攻击就是通过伪造IP地址和MAC地址实现ARP欺骗,能够在网络中产生大量的ARP通信量使网络阻塞,攻击者只要持续不断的发出伪造的ARP响应包就能更改目标主机ARP缓存中的IP-MAC条目,造成网络中断或中间人攻击 ,将本应该发往电脑B的数据发送给了攻击者。 同样的,攻击者向电脑B也发送一个伪造的ARP响应,告诉电脑B:电脑A的IP地址192.168.0.1对应的MAC地址是00-aa-00-62-c6-03,电脑B也会将数据发送给攻击者。 至此攻击者就控制了电脑A和电脑B之间的流量,他可以选择被动地监测流量,获取密码和其他涉密信息,也可以伪造数据,改变电脑A和电脑B之间的通信内容。

    2.9K30发布于 2021-05-26
  • 来自专栏Python 爬虫

    【K哥爬虫普法】北京某公司惨遭黑客攻击13000000余次,连夜报警……

    我国目前并未出台专门针对网络爬虫技术的法律规范,但在司法实践中,相关判决已屡见不鲜,K 哥特设了“K哥爬虫普法”专栏,本栏目通过对真实案例的分析,旨在提高广大爬虫工程师的法律意识,知晓如何合法合规利用爬虫技术 该公司称自家 App 的短信验证码接口遭受了1300 余万次恶意攻击,而且被成功匹配了30 余万个注册账号 。 -使用Python就可以轻松写出撞库攻击脚本,实现自动批量验证账户,技术门槛不高。 -撞库攻击只依赖已泄露的账号,不需要自行获取,所以攻击的成本很低。 (图片来源:NordPass) K言K语 最后再说点儿题外话,很多人对爬虫有误解,特别是一些对行业一知半解的人,认为爬虫就是一种黑客技术,但K哥必须再次为咱们爬虫工程师正名,爬虫er≠黑客。 爬虫技术的诞生是为了高效的获取一些公开的信息,提高工作效率,而不是去入侵,攻击人家的服务器。 只不过掌握了爬虫技术的人,确实离黑灰产很近,但技术无罪,有罪的是人,一念天堂一念地狱。

    47610编辑于 2023-12-18
  • 来自专栏FreeBuf

    MOTS攻击之TCP攻击

    概述 继续进行MOTS类型攻击方式的进展。 这里再次强调一下,MOTS 是指 Man-On-The-Side,是一种在旁路监听模式下的攻击方式;和 MITM 不同,MITM 是指 Man-In-The-Middle,是中间人攻击。 这种类型的攻击比中间人攻击相对隐秘,其正常情况下只是监听,需要攻击时才进行攻击,并且攻击时只需要发送少量报文,不会出现大流量。所以具有隐蔽、难以发现、攻击效果明显等特点。 ? 不了解的可以点击文末的阅读原文查看下面两篇文章: 《MOTS攻击技术分析》 《MOTS攻击之UDP攻击》 学习过TCP/IP的同学都应该了解,传输层有两种协协议:TCP和UDP,这两种协议本身的特点决定了其应用场景的不同 针对TCP的攻击这里主要介绍两种方式:DOS和劫持,其他类型的攻击,大家可以完善、补充。 2.

    1.9K50发布于 2018-02-28
  • 来自专栏全栈程序员必看

    CSRFXSRF攻击和XSS攻击

    XSS攻击发生的条件是可以执行javascript脚本,一般在站点中总会有发表文章、留言等信息的表单,这种表单一般是写入到数据库中,然后在某个页面进行展示。 我们可以在这些表单中直接编写javascript代码(<script>alert("哈哈哈哈,你被攻击了!");</script>)进行测试,看是否可以执行。 如果在信息展示页面js代码可以执行,XSS攻击就成功了。 CSRF攻击能够成功,是因为黑客可以完全伪造用户的请求,该请求中所有的用户验证信息都是存在于cookie中,因此黑客可以在不知道这些验证信息的情况下直接利用用户自己的cookie 来通过安全验证。 可以在 HTTP 请求中以参数的形式加入一个随机产生的 token,并在服务器端建立一个拦截器来验证这个 token,如果请求中没有token或者 token 内容不正确,则认为可能是 CSRF 攻击而拒绝该请求

    1.1K20编辑于 2022-07-21
  • 来自专栏python学习教程

    python爬虫学习:爬虫与反爬虫

    二.爬虫分类 网络爬虫按照实现的技术和结构一般分为通用网络爬虫、聚焦网络爬虫。从特性上也有增量式网络爬虫和深层网络爬虫等类别,在实际的网络爬虫中,通常是这几类爬虫的组合体。 通用网络爬虫 通用网络爬虫(General Purpose Web Crawler)。通用网络爬虫又叫作全网爬虫,顾名思义,通用网络爬虫爬取的目标资源在全互联网中。 聚焦网络爬虫 聚焦网络爬虫(Focused Crawler)也叫主题网络爬虫,顾名思义,聚焦网络爬虫是按照预先定义好的主题有选择地进行网页爬取的一种爬虫,聚焦网络爬虫不像通用网络爬虫一样将目标资源定位在全互联网中 一般反爬虫策略多数用在比较低级的爬虫上,这类爬虫多为简单粗暴的不顾服务器压力不停访问,再一种为失控的或被人遗忘的爬虫,这类爬虫一般需要在第一时间封锁掉。 越是高级的爬虫,越难被封锁,相应高级爬虫的开发成本也越高。 在对高级爬虫进行封锁时,如果成本高到一定程度,并且爬虫不会给自己带来大的性能压力和数据威胁时,这时就无需继续提升成本和爬虫对抗了。

    4.8K62发布于 2019-07-10
  • 来自专栏华章科技

    干货:一文看懂网络爬虫实现原理与技术(值得收藏)

    在此,我们将以两种典型的网络爬虫为例(即通用网络爬虫和聚焦网络爬虫),分别为大家讲解网络爬虫的实现原理。 1. 通用网络爬虫 首先我们来看通用网络爬虫的实现原理。 如图3-3所示,假设有一个网站,ABCDEFG分别为站点下的网页,图中箭头表示网页的层次结构。 ? ▲图3-3 某网站的网页层次结构示意图 假如此时网页ABCDEFG都在爬行队列中,那么按照不同的爬行策略,其爬取的顺序是不同的。 所以,若按深度优先爬行策略,图3-3中的爬行顺序可以是:A → D → E → B → C → F → G。 在爬虫对网页爬取的过程中,爬虫必然需要访问对应的网页,此时,正规的爬虫一般会告诉对应网页的网站站长其爬虫身份。

    6.8K42发布于 2019-05-15
领券