首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Vue源码 & 前端进阶体系

    前端监控】日志

    前端监控系列,SDK,服务、存储 ,会全部总结一遍,写文不易,点个赞吧 前端监控上报数据的时候,是怎么发请求的呢,是每产生一条监控数据就上报一次吗 当然不是了,如果监控点很多,那估计请求都快发爆炸了, 请求发得多,不仅会加重服务器压力,数据丢失的概率也大,毕竟10条请求的成功率肯定比 一条请求 的成功率小嘛 所以才会出现日志池,这篇内容不属于前端监控的一部分,属于是其中的一个优化点 不多说了,开始正文 上报请求发生错误的时候,会进行重试,以免日志就这么丢失,这里在离线日志中有过相关处理 2、页面关闭发送剩余日志。因为我们使用定时发送的方式,可能会存在用户关闭界面的时候,还有缓存的日志没有发送。 所以需要在最后一刻发送一波 下面就来详细说下具体的处理逻辑 具体逻辑 看了上面基本就知道这里就有三个步骤 1、定时发送 2、错误重试 3、监听页面关闭发送日志 1定时发送 1、把所有日志数据都会先缓存到一个数组中 缓存进本地的日志,什么时候会重试?

    1K20发布于 2021-09-09
  • 来自专栏Vue源码 & 前端进阶体系

    前端监控】离线日志

    前端监控系列,SDK,服务、存储 ,会全部总结一遍,写文不易,点个赞吧 离线日志,一般指的是用户离线时产生的日志。 离线日志的作用主要有两点 第一,保证日志完整性。 用户没有网络的时候,日志数据无法上传,为了防止日志丢失,会在用户端存一份离线日志数据,等待网络恢复的时候,重新上传。 第二,优化上报日志过多。 1、每次上报数据的时候,会顺便读取本地数据,如果有数据,就带上并上报 2、收到用户反馈的时候,引导用户上传,把本地日志打包成 zip 并上传,以便开发下载排查日志 自动上传的大致的流程图如下 用户上传的流程如下 fail_log,表示上报失败的日志 值为 common_log,表示等级不高存本地的日志 这个字段只是为了方便本地区分 离线日志,对于监控数据没有意义,所以并不会上报这个字段上去 为了能快速查找出不同的离线日志 1、上报失败的日志 2、等级不足的日志 上报失败的日志 1、初始化的时候,会读取数据失败日志上报一次 2、之后每次调用上报方法的时候,会读取一次数据库存量的失败日志 等级不足的日志 提供方法供用户操作

    2.1K50发布于 2021-09-09
  • 来自专栏全栈程序员必看

    centos 日志审计_CentOS7 – 审计日志

    /var/log/audit/audit.log : 默认日志路径 1、监控文件或者目录的更改 auditctl -w /etc/passwd -p rwxa -w path : 指定要监控的路径,上面的命令指定了监控的文件路径 2、查找日志ausearch -a number #只显示事件ID为指定数字的日志信息,如只显示926事件:ausearch -a 926 -c commond #只显示和指定命令有关的事件,如只显示rm 命令产生的事件:auserach -c rm -i #显示出的信息更清晰,如事件时间、相关用户名都会直接显示出来,而不再是数字形式 -k #显示出和之前auditctl -k所定义的关键词相匹配的事件信息 3、日志字段说明

    4K20编辑于 2022-08-31
  • 来自专栏技术杂记

    日志服务器(7

    * uucp,news.crit /var/log/spooler local7. * uucp,news.crit /var/log/spooler local7. @h202 ~]# diff /tmp/before /tmp/after 11a12 > *.* @192.168.100.105 [root@h202 ~]# 增加了一条,将本地的日志记录到远程的服务器 system logger: [ OK ] [root@h202 ~]# ---- 审计本地所有操作 将客户端执行的所有命令写入系统日志

    1.3K20发布于 2021-10-20
  • 来自专栏全栈程序员必看

    查看远程连接日志_日志实时输出到前端

    我们一般都是在程序运行的本地电脑使用debugview查看日志输出,但其实debugview也支持C/S模式(服务端-客户端模式)的日志查看方式,通过这种方式我们就可以通过debugview远程查看某一台计算机上的日志输出了 debugview.exe /a 在近端(需要查看日志的计算机)运行debugview,点击connect,输入远端计算机的IP。 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。

    2.2K20编辑于 2022-11-19
  • 来自专栏Android群英传

    ELK前端日志分析、监控系统

    前端日志与后端日志不同,具有很强的自定义特性,不像后端的接口日志、服务器日志格式比较固定,大部分成熟的后端框架都有非常完善的日志系统,借助一些分析框架,就可以实现日志的监控与分析,这也是运维工作的一部分 什么是ELK ELK在服务器运维界应该是运用的非常成熟了,很多成熟的大型项目都使用ELK来作为前端日志监控、分析的工具。 我们使用Logstash来完成日志的解析、存储工作。 Kibana Kibana是一个优秀的前端日志展示框架,它可以非常详细的将日志转化为各种图表,为用户提供强大的数据可视化支持。 所以,借助ELK的这两大优势,我们可以让前端日志的分析与监控展现出强大的优势。 同时,这套东西虽然是后端的,但是『他山之石,可以攻玉』,我们将这套架构借用到前端,可以使用前端日志的分析工作,同样是非常方便的。这里我举一些常用的使用场景。

    2.4K31发布于 2018-07-20
  • 来自专栏coding个人笔记

    CSI.JS前端日志系统

    做了那么多项目,后端的日志系统是必须的,前端日志系统倒是从来没做过。如果有机会,倒是很想试试,今天 。 CSI.JS GitHub地址 CSI.JS简介: CSI.JS是一个前端日志系统,它将错误信息记录于本地localStorage中。无任何依赖、无入侵性。 npm的使用看看GitHub,如果是纯js引入的只有提供es的: <body>

    csijs前端日志系统,测试网页地址

    制造错误
    发送日志< 而前端的错误监控其实也挺简单,用window.onerror这个API就能完成: window.onerror = function(message, source, lineno, colno, error

    64210编辑于 2022-06-20
  • 来自专栏Sign

    精灵之息 开发日志7

    一部100分钟的电影,前面90分钟可能都是铺垫,而最后10分钟的反转才将整个电影升华给观众脑海里留下不可磨灭的印象。

    44730发布于 2021-08-17
  • 来自专栏对线JAVA面试

    MySQL中的7日志

    MySQL中一共有 7日志,多数人只知道其中的 3 种。 最近我在面试一个 DBA 时,得知一共有 7日志文件,今天我们一起来看看这些日志文件都有哪些作用,以帮助大家理解 MySQL 中的事物以及事物背后的原理。! MySQL中有七种日志文件,分别是: 重做日志(redo log) 回滚日志(undo log) 二进制日志(binlog) 错误日志(errorlog) 慢查询日志(slow query log) 一般查询日志 (general log) 中继日志(relay log) 其中重做日志和回滚日志与事务操作息息相关,二进制日志也与事务操作有一定的关系,这三种日志,对理解 MySQL 中的事务操作有着重要的意义。 每个事务提交时会将重做日志刷新到重做日志文件。 当重做日志缓存可用空间少于一半时,重做日志缓存被刷新到重做日志文件。

    66430编辑于 2022-10-27
  • 来自专栏李才哥

    前端面试系列(7

    css的盒模型本质是一个盒子,封装周围的HTML元素,包括:外边距、边框、内边距和实际内容。

    54420发布于 2019-07-30
  • 来自专栏达达前端

    前端技术前沿7

    使用response.writeHead()函数发送一个HTTP状态200和HTTP头的内容类型content-type,使用response.write()函数在HTTP相应主体中发送文本。

    68830发布于 2019-07-03
  • 来自专栏前端森林

    使用 Nginx 构建前端日志统计服务

    这个大的项目以 low code 为核心,囊括了编辑器前端、编辑器后端、C 端 H5、组件库、组件平台、后台管理系统前端、后台管理系统后台、统计服务、自研 CLI 九大系统。 3日志拆分 为何要拆分日志 access.log日志默认不会拆分,会越积累越多,系统磁盘的空间会被消耗得越来越多,将来可能面临着日志写入失败、服务异常的问题。 如何拆分日志 我们这里拆分日志的核心思路是:将当前的access.log复制一份重命名为新的日志文件,之后清空老的日志文件。 视流量情况(流量越大日志文件积累的越快),按天、小时、分钟来拆分。 ${fileName}`, error); } }); 7定时任务整合 到这里,日志的拆分、分析和清除都说完了,现在要用cron来对他们做整合了。 hl=zh-Hans#zippy=%2C%E6%9C%AC%E6%96%87%E5%8C%85%E5%90%AB%E7%9A%84%E4%B8%BB%E9%A2%98

    92930编辑于 2021-12-26
  • 来自专栏DevOps持续集成

    Centos7 安装ELK日志分析

    1.安装前准备 借鉴:https://www.cnblogs.com/straycats/p/8053937.html 操作系统:Centos7 虚拟机 8G内存 jdk8+ 软件包下载:采用rpm rpm -ivh elasticsearch-6.4.2.rpm rpm -ql elasticsearch # default /usr/share/elasticsearch #默认日志目录 /var /log/elasticsearch /etc/elasticsearch/elasticsearch.yml 配置文件 path.data #数据目录 path.logs #日志目录 network.host

    54250发布于 2019-10-18
  • 技术日志挑战——第7天:0730

    精度:大约7位十进制数字。范围:大约 1.2E-38 到 3.4E+38。用途:适用于空间和精度要求不高的场景,例如图形处理。double大小:通常占用8个字节(64位)。 解释浮点数值:输出表明float类型只能精确到约7位小数,而double类型可以精确到约15-16位小数。精度和范围:使用std::numeric_limits类,可以获取浮点数类型的精度和范围信息。

    49210编辑于 2024-07-30
  • 来自专栏运维知识

    Linux ContOS7 日志管理(rsyslog)

    目录 01. rsyslog 记录日志程序 02.日志文件 03.日志等级 Linux 日志文件是记录 Linux 系统运行信息的文件。 Linux 日志文件通常存储在 /var/log/ 目录中。该目录包含许多不同的日志文件,每个文件记录不同类型的信息。 01. rsyslog 记录日志程序 日志是哪里来的?? 日志服务是rsyslog程序提供的 是 Linux 系统中一个用于系统日志管理的工具。 .日志文件 这是/var/log下的不同日志文件 对应的 /var/log/messages *** 包含系统的一般日志消息 如:用户登录 进程启动 服务启动 /var/log/ 系统启动时的日志文件 /var/log/maillog 电子邮箱文件日志 举两个重要的例子 /var/log/messages 存放的是系统的日志信息 *

    53210编辑于 2024-06-03
  • 来自专栏2025开发者成长日志

    debug日志 | 线上商城前端错误日志分级与智能监控实践

    一、引言我们最近为线上商城增加了前端错误日志,当线上出现问题时,我们的前端监控群里就会收到消息。 基于以上标准,我们制定了不同级别错误的处理策略:Critical级别:立即通知相关人员,自动创建高优先级工单,24/7即时告警。Error级别:30分钟内创建中等优先级工单,工作日工作时间通知。 三、日志工具设计与实现3.1 日志工具封装为了实现统一的日志管理,我们封装了一个完整的Logger类,支持不同级别的日志输出、环境自适应和远程上报功能:/** * Logger 类用于统一管理前端日志输出和上报逻辑 3.3 日志收集系统架构完整的日志收集系统不仅包括前端SDK,还需要考虑后端接收、存储和展示环节。 通过实施本文介绍的日志分级体系和错误监控实践,前端开发团队可以更加高效地排查和解决问题,提升应用稳定性和用户体验。

    48720编辑于 2025-08-31
  • 来自专栏张戈的专栏

    nginx日志切割及7天前的历史日志删除脚本

    上次写到《服务器日志备份超节省空间的思路》,压缩后磁盘占用由 93%降到了 62%,效果还是不错的!为什么不直接删除呢?其实是因为这些日志涉及到支付等重要业务,保存半年以上也算是保守的做法。 结果,发现好几台 nginx 方向代理服务器的日志居然还没做分割处理,一个 access.log 居然近 200G 大小!真是 I 服了 U ? 于是,就有了下面这个日志切割脚本,按日期切割 nginx 日志,并自动删除 7 天前的日志日志均已同步至专用日志存储服务器,可放心删除历史日志。) #! 后的文件写内容,导致切割失败. kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'` #删除7天前的日志 -mtime +7 -name "*20[1-9][3-9]*" | xargs rm -f exit 0 将这个脚本添加到计划任务,每天执行一次即可: 1 0 * * * /usr/local/script

    2.4K30发布于 2018-03-23
  • 来自专栏webTower

    使用 centOS 7 部署前端项目

    将远程主机的最新内容拉到本地 'pre-deploy': 'git fetch --all', // 部署后执行,先下载 npm 模块,然后编译 typescript // 打包前端项目 pm2 start ls 查看 pm2 管理的项目; pm2 stop name 停止运行对应的项目; pm2 start name 运行对应的项目; pm2 logs name 查看某个项目的运行日志

    4.3K30发布于 2020-09-16
  • 来自专栏jojo的技术小屋

    前端代码异常日志收集与监控

    ☞ 收集日志的方法 平时收集日志的手段,可以归类为两个方面,一个是逻辑中的错误判断,为主动判断;一个是利用语言给我们提供的捷径,暴力式获取错误信息,如 try..catch 和 window.onerror ☞ 收集日志存在的问题 收集日志的目的是为了及时发现问题,最好日志能够告诉我们,错误在哪里,更优秀的做法是,不仅告诉错误在哪里,还告诉我们,如何处理这个错误。 收集日志的量 没有必要将所有的错误信息全部送到 Log 中,这个量太大了。如果网页 PV 有 1kw,那么一个必现错误发送的 log 信息将有 1kw 条,大约一个 G 的日志。 ☞ 收集日志布点位置 为了更加精准的拿到错误信息,有效地统计错误日志,我们应该更多地采用主动式埋点,比如在一个接口的请求中: // Module A Get Shops Data $.ajax({ ,catch 的错误日志: Uncaught ReferenceError: vd is not defined 自定义的错误日志: “生日模块中获取后端接口信息时,eval 解析出错,错误内容为

    1.4K100发布于 2018-05-03
  • 来自专栏前端进阶实战

    前端日志管理模块的设计与实现

    同时在前端质量要求下,我们会做“前端埋点”,用于远程上报一些关键行为信息,用于在出问题时还原用户的操作路径,复现 BUG,从而解决问题,而各种各样的上报若是能在业务开发中抹平差异,也有助于研发提效。 需要区分 info、warn、error 三种类型的日志,实现如下: 定义日志枚举类型: const enum LogLevel { /** 普通日志 */ Log, /** 警告日志 * 而埋点上报一般有三类:代码埋点、可视化埋点、无痕埋点 我们这里通过给 Logger 增加远程上报的方式就是代码埋点 一般情况下,埋点上报属于“前端监控”方面,前端监控是一个独立的管理系统,它的职能是负责前端项目的监控 、异常报警等,因此通常会有用于项目集成的前端 SDK 有了 Logger 实例,我们可以在 Logger 中直接统一集成“前端监控 SDK”的主动上报方法即可! public reportEvent() { this.info() } public reportException() { this.error() } 至于为什么添加着两个方法,实际是根据“前端监控

    1.4K30编辑于 2022-07-29
领券