首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Vue源码 & 前端进阶体系

    前端监控】日志

    前端监控系列,SDK,服务、存储 ,会全部总结一遍,写文不易,点个赞吧 前端监控上报数据的时候,是怎么发请求的呢,是每产生一条监控数据就上报一次吗 当然不是了,如果监控点很多,那估计请求都快发爆炸了, 请求发得多,不仅会加重服务器压力,数据丢失的概率也大,毕竟10条请求的成功率肯定比 一条请求 的成功率小嘛 所以才会出现日志池,这篇内容不属于前端监控的一部分,属于是其中的一个优化点 不多说了,开始正文 上报请求发生错误的时候,会进行重试,以免日志就这么丢失,这里在离线日志中有过相关处理 2、页面关闭发送剩余日志。因为我们使用定时发送的方式,可能会存在用户关闭界面的时候,还有缓存的日志没有发送。 所以需要在最后一刻发送一波 下面就来详细说下具体的处理逻辑 具体逻辑 看了上面基本就知道这里就有三个步骤 1、定时发送 2、错误重试 3、监听页面关闭发送日志 1定时发送 1、把所有日志数据都会先缓存到一个数组中 缓存进本地的日志,什么时候会重试?

    1K20发布于 2021-09-09
  • 来自专栏Vue源码 & 前端进阶体系

    前端监控】离线日志

    前端监控系列,SDK,服务、存储 ,会全部总结一遍,写文不易,点个赞吧 离线日志,一般指的是用户离线时产生的日志。 离线日志的作用主要有两点 第一,保证日志完整性。 用户没有网络的时候,日志数据无法上传,为了防止日志丢失,会在用户端存一份离线日志数据,等待网络恢复的时候,重新上传。 第二,优化上报日志过多。 1、每次上报数据的时候,会顺便读取本地数据,如果有数据,就带上并上报 2、收到用户反馈的时候,引导用户上传,把本地日志打包成 zip 并上传,以便开发下载排查日志 自动上传的大致的流程图如下 用户上传的流程如下 fail_log,表示上报失败的日志 值为 common_log,表示等级不高存本地的日志 这个字段只是为了方便本地区分 离线日志,对于监控数据没有意义,所以并不会上报这个字段上去 为了能快速查找出不同的离线日志 1、上报失败的日志 2、等级不足的日志 上报失败的日志 1、初始化的时候,会读取数据失败日志上报一次 2、之后每次调用上报方法的时候,会读取一次数据库存量的失败日志 等级不足的日志 提供方法供用户操作

    2.1K50发布于 2021-09-09
  • 来自专栏全栈程序员必看

    查看远程连接日志_日志实时输出到前端

    我们一般都是在程序运行的本地电脑使用debugview查看日志输出,但其实debugview也支持C/S模式(服务端-客户端模式)的日志查看方式,通过这种方式我们就可以通过debugview远程查看某一台计算机上的日志输出了 debugview.exe /a 在近端(需要查看日志的计算机)运行debugview,点击connect,输入远端计算机的IP。 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。

    2.2K20编辑于 2022-11-19
  • 来自专栏技术杂记

    日志服务器(8

    qishToW6PlZC.UewgjQaLp9YPPTFqvLbh47F6QUhHqPhrLT6fqdEfqYr6TIGyOl0XuAiUnlvJflixfO/:16545:0:99999:7::: [root@h202 ~]# ---- 服务端检查日志 通过这种方式已经可以实现操作审记了 ---- 查看服务端数据库中的日志 检查数据库确保数据也写了一份到mysql中 [root@h105 ~]# mysql -u root -p Enter password

    1.1K20发布于 2021-10-20
  • 来自专栏Android群英传

    ELK前端日志分析、监控系统

    前端日志与后端日志不同,具有很强的自定义特性,不像后端的接口日志、服务器日志格式比较固定,大部分成熟的后端框架都有非常完善的日志系统,借助一些分析框架,就可以实现日志的监控与分析,这也是运维工作的一部分 什么是ELK ELK在服务器运维界应该是运用的非常成熟了,很多成熟的大型项目都使用ELK来作为前端日志监控、分析的工具。 我们使用Logstash来完成日志的解析、存储工作。 Kibana Kibana是一个优秀的前端日志展示框架,它可以非常详细的将日志转化为各种图表,为用户提供强大的数据可视化支持。 所以,借助ELK的这两大优势,我们可以让前端日志的分析与监控展现出强大的优势。 同时,这套东西虽然是后端的,但是『他山之石,可以攻玉』,我们将这套架构借用到前端,可以使用前端日志的分析工作,同样是非常方便的。这里我举一些常用的使用场景。

    2.4K31发布于 2018-07-20
  • 来自专栏coding个人笔记

    CSI.JS前端日志系统

    做了那么多项目,后端的日志系统是必须的,前端日志系统倒是从来没做过。如果有机会,倒是很想试试,今天 。 CSI.JS GitHub地址 CSI.JS简介: CSI.JS是一个前端日志系统,它将错误信息记录于本地localStorage中。无任何依赖、无入侵性。 npm的使用看看GitHub,如果是纯js引入的只有提供es的: <body>

    csijs前端日志系统,测试网页地址

    制造错误
    发送日志< 而前端的错误监控其实也挺简单,用window.onerror这个API就能完成: window.onerror = function(message, source, lineno, colno, error

    64210编辑于 2022-06-20
  • 来自专栏Sign

    精灵之息 开发日志8

    所以数据没变很正常呀,虽然我以为改了很多东西,但是对那些玩家来说,其实根本就没有变化。

    43230发布于 2021-08-20
  • 来自专栏万丈高楼平地起

    前端面试(8)拷贝

    js 的基本数据类型的赋值,就是值传递。引用类型对象的赋值是将对象地址的引用赋值。这时候修改对象中的属性或者值,会导致所有引用这个对象的值改变。如果想要真的复制一个新的对象,而不是复制对象的引用,就要用到对象的深拷贝。

    48020编辑于 2022-03-09
  • 来自专栏李才哥

    前端面试系列(8

      方案一:思想 首先对数组进行排序(小 》大),第一项为最小值,最后一项为最大值

    43330发布于 2019-08-02
  • 来自专栏达达前端

    前端技术前沿8

    = "0" + i; } return i; } </script> function formatTime(ms) { ms = new Date("2018/8/ 8 14:20:00").getTime() - Date.now(); if(ms <= 0){ document.getElementById("showTime").innerHTML image.png <head> <meta charset="UTF-<em>8</em>"> <title>简单时长倒计时</title> <SCRIPT type="text/javascript"> image.png <head> <meta charset="UTF-<em>8</em>"> <title>js简单时分秒倒计时</title> <script type="text export function encryptByDES(message) { var key = '$7%9R5Hh&yGDt' var keyHex = CryptoJS.enc.Utf<em>8</em>.

    6.2K60发布于 2019-07-03
  • 来自专栏前端森林

    使用 Nginx 构建前端日志统计服务

    这个大的项目以 low code 为核心,囊括了编辑器前端、编辑器后端、C 端 H5、组件库、组件平台、后台管理系统前端、后台管理系统后台、统计服务、自研 CLI 九大系统。 如何拆分日志 我们这里拆分日志的核心思路是:将当前的access.log复制一份重命名为新的日志文件,之后清空老的日志文件。 视流量情况(流量越大日志文件积累的越快),按天、小时、分钟来拆分。 这里有一个很重要的点要提一下:node在处理大文件或者未知内存文件大小的时候千万不要使用readFile,会突破 V8 内存限制。 // 定时删除过期日志文件 rmLogsTiming(); 8总结 ok,到这里,一个简易的统计服务就完成了。 hl=zh-Hans#zippy=%2C%E6%9C%AC%E6%96%87%E5%8C%85%E5%90%AB%E7%9A%84%E4%B8%BB%E9%A2%98

    92930编辑于 2021-12-26
  • 来自专栏测试基础

    【JMeter系列-8】JMeter自定义日志日志分析

    JMeter自定义日志日志分析 JMeter日志概览 JMeter与Java程序一样,会记录事件日志日志文件保存在bin目录中,名称为jmeter.log。 当然,我们也可以在面板中直接察看日志,点击右上角黄色标志物可以打开日志面板,再次点击收起。 ? 可见,通过日志可以帮助我们定位一些不容易直接察觉的问题。 另外,JMeter可以很方便地设置日志输出级别: ? 自定义日志 前面所看到的都是系统日志,也就是JMeter本身所打印的日志。如果我们自己想输出一些日志,该怎么办呢? 在该请求下添加Beanshell断言,运行后,日志中输出了相应内容: ? 日志分析 针对该日志写一个日志分析脚本logAnalysis.sh: #!

    3.6K32发布于 2020-09-16
  • 来自专栏2025开发者成长日志

    debug日志 | 线上商城前端错误日志分级与智能监控实践

    一、引言我们最近为线上商城增加了前端错误日志,当线上出现问题时,我们的前端监控群里就会收到消息。 针对线上商城场景,我们需要的是一套完整的前端错误日志分级体系,能够自动捕获、分类和上报错误,根据错误严重程度进行差异化处理,并结合业务场景提供有针对性的解决方案。 三、日志工具设计与实现3.1 日志工具封装为了实现统一的日志管理,我们封装了一个完整的Logger类,支持不同级别的日志输出、环境自适应和远程上报功能:/** * Logger 类用于统一管理前端日志输出和上报逻辑 3.3 日志收集系统架构完整的日志收集系统不仅包括前端SDK,还需要考虑后端接收、存储和展示环节。 通过实施本文介绍的日志分级体系和错误监控实践,前端开发团队可以更加高效地排查和解决问题,提升应用稳定性和用户体验。

    48720编辑于 2025-08-31
  • 技术日志挑战——第8天:0731

    上午看了一下后续形心曲线算法的相关逻辑,跑了一下之前的程序,结果跑了一天都没有算出结果,应该是bug。

    45700编辑于 2024-07-31
  • 来自专栏FunTester

    Fabric8 Kubernetes 日志工具实践

    最近在使用 Fabric8 Kubernetes Client 的过程中发现了新大陆一样,感觉利用这个库可以进行很多有趣的功能尝试,其中一个便是日志的本地化。 当我看到 Fabric8 Kubernetes Client 的日志相关 API 的时候我就立刻冒出来写一个日志小工具的想法。 API简介 首先我们简单介绍一下 API,以方便快速进入场景。 后续等我自觉学得差不多了,再来列个专题给大家分享 Fabric8 Kubernetes Client 的全部 API 实践经验。 以下是 Fabric8 Kubernetes Client 日志功能的结构化总结: 功能点与 API 对照表 首选日志流 对于日志需求来讲,流式调用自然是最好不过了,可以及时获取最新的日志信息,还不用后期干预 : import com.auto.fault.framework.funtester.frame.SourceCode import com.auto.fault.framework.utils.k8s.K8sLog

    44410编辑于 2025-04-22
  • 来自专栏运维小路

    Kubenetes(k8s)-集群日志

    我们在执行kubeclt命令也好,还是查看控制节点的日志也好,默认的日志级别较低,部分日志并不会显示出来,比如我们前面介绍的其他组件的时候就调整过组件的日志。 首先要知道的是Kubernetes的组件默认的日志级别都是5,最高是10。所以如果要查看更详细的日志,需要调整日志级别,通过更详细的日志来分析问题。 - --v=8 kube-controller-manager 添加以后,根据静态Pod特性它会自动重启kube-controller-manager容器。 会产生的日志大小也不相同,需要合理考虑。 尤其是静态Pod的未做日志切割的情况下。测试环境验证功能可以随意调整,但是生产环境调整参数还是要慎重。

    23010编辑于 2025-02-28
  • 来自专栏jojo的技术小屋

    前端代码异常日志收集与监控

    ☞ 收集日志的方法 平时收集日志的手段,可以归类为两个方面,一个是逻辑中的错误判断,为主动判断;一个是利用语言给我们提供的捷径,暴力式获取错误信息,如 try..catch 和 window.onerror ☞ 收集日志存在的问题 收集日志的目的是为了及时发现问题,最好日志能够告诉我们,错误在哪里,更优秀的做法是,不仅告诉错误在哪里,还告诉我们,如何处理这个错误。 收集日志的量 没有必要将所有的错误信息全部送到 Log 中,这个量太大了。如果网页 PV 有 1kw,那么一个必现错误发送的 log 信息将有 1kw 条,大约一个 G 的日志。 ☞ 收集日志布点位置 为了更加精准的拿到错误信息,有效地统计错误日志,我们应该更多地采用主动式埋点,比如在一个接口的请求中: // Module A Get Shops Data $.ajax({ ,catch 的错误日志: Uncaught ReferenceError: vd is not defined 自定义的错误日志: “生日模块中获取后端接口信息时,eval 解析出错,错误内容为

    1.4K100发布于 2018-05-03
  • 来自专栏前端进阶实战

    前端日志管理模块的设计与实现

    同时在前端质量要求下,我们会做“前端埋点”,用于远程上报一些关键行为信息,用于在出问题时还原用户的操作路径,复现 BUG,从而解决问题,而各种各样的上报若是能在业务开发中抹平差异,也有助于研发提效。 需要区分 info、warn、error 三种类型的日志,实现如下: 定义日志枚举类型: const enum LogLevel { /** 普通日志 */ Log, /** 警告日志 * 而埋点上报一般有三类:代码埋点、可视化埋点、无痕埋点 我们这里通过给 Logger 增加远程上报的方式就是代码埋点 一般情况下,埋点上报属于“前端监控”方面,前端监控是一个独立的管理系统,它的职能是负责前端项目的监控 、异常报警等,因此通常会有用于项目集成的前端 SDK 有了 Logger 实例,我们可以在 Logger 中直接统一集成“前端监控 SDK”的主动上报方法即可! public reportEvent() { this.info() } public reportException() { this.error() } 至于为什么添加着两个方法,实际是根据“前端监控

    1.4K30编辑于 2022-07-29
  • K8S 日志系统部署Tips

    在生产环境中,具体部署方案中,日志收集代理需要以 DaemonSet 控制器应用的形式在集群各节点上运行一个副本,甚至包括各个主节点。 但 Elasticsearch 是一个有状态应用,需要使用 StatefulSet 控制器创建并管理相关的 Pod 对象,且它们还分别需要专用的持久存储系统来存储日志数据。 我们应该把监控系统和日志系统部署在生产环境之外的自主环境或 Kubernetes 集群之上,或者直接使用第三方的完整解决方案。

    15810编辑于 2025-09-25
  • 来自专栏数据库相关

    k8s nginx 的日志切割

    默认情况下,ingress-nginx日志是没有做切割的,这就造成了很糟糕的体验, 日志越来越大,占着磁盘空间。

    1.4K20发布于 2020-03-20
领券