MySQL数据库基础练习系列目标 很多学生或者说是初学者在学习完成数据库的基础增删改查后就自认为在数据库这里就很熟悉了,但是不接触项目根本部知道需求,我这里准备了50个项目的基本需求来让大家来熟练各类项目的列信息 数据库环境 MySQL版本:5.7.31-log 数据库字符集,所有数据库通用字符集与排序规则,支持中文数据。 日志记录:允许用户或系统自动记录日志信息,包括日志内容、时间戳、所属分类等。 日志查询:提供多种查询条件,如时间范围、日志类型、关键词等,便于用户快速找到所需日志。 @example.com', '接收系统警告的电子邮件地址'), ('log_level', 'INFO', '系统日志记录级别'); 遵循的数据库三范式 数据库建表的三范式(3NF,Third Normal Form)是关系型数据库设计的基本原则,用于确保数据库结构的逻辑性和减少数据冗余。
/var/log/audit/audit.log : 默认日志路径 1、监控文件或者目录的更改 auditctl -w /etc/passwd -p rwxa -w path : 指定要监控的路径,上面的命令指定了监控的文件路径 2、查找日志ausearch -a number #只显示事件ID为指定数字的日志信息,如只显示926事件:ausearch -a 926 -c commond #只显示和指定命令有关的事件,如只显示rm 命令产生的事件:auserach -c rm -i #显示出的信息更清晰,如事件时间、相关用户名都会直接显示出来,而不再是数字形式 -k #显示出和之前auditctl -k所定义的关键词相匹配的事件信息 3、日志字段说明
* uucp,news.crit /var/log/spooler local7. * uucp,news.crit /var/log/spooler local7. @h202 ~]# diff /tmp/before /tmp/after 11a12 > *.* @192.168.100.105 [root@h202 ~]# 增加了一条,将本地的日志记录到远程的服务器 system logger: [ OK ] [root@h202 ~]# ---- 审计本地所有操作 将客户端执行的所有命令写入系统日志
一部100分钟的电影,前面90分钟可能都是铺垫,而最后10分钟的反转才将整个电影升华给观众脑海里留下不可磨灭的印象。
MySQL中一共有 7 种日志,多数人只知道其中的 3 种。 最近我在面试一个 DBA 时,得知一共有 7 种日志文件,今天我们一起来看看这些日志文件都有哪些作用,以帮助大家理解 MySQL 中的事物以及事物背后的原理。! innodb_log_group_home_dir 指定日志文件组所在的路径,默认./ ,表示在数据库的数据目录下,innodb_log_files_in_group 指定重做日志文件组中文件的数量,默认为 二进制日志(binlog) 作用 用于复制,在主从复制中,从库利用主库上的 binlog 进行重播,实现主从同步;用于数据库基于时间点的还原。 ,是数据库层面的(当然也可以精确到事务层面的)。
1.安装前准备 借鉴:https://www.cnblogs.com/straycats/p/8053937.html 操作系统:Centos7 虚拟机 8G内存 jdk8+ 软件包下载:采用rpm rpm -ivh elasticsearch-6.4.2.rpm rpm -ql elasticsearch # default /usr/share/elasticsearch #默认日志目录 /var /log/elasticsearch /etc/elasticsearch/elasticsearch.yml 配置文件 path.data #数据目录 path.logs #日志目录 network.host
精度:大约7位十进制数字。范围:大约 1.2E-38 到 3.4E+38。用途:适用于空间和精度要求不高的场景,例如图形处理。double大小:通常占用8个字节(64位)。 解释浮点数值:输出表明float类型只能精确到约7位小数,而double类型可以精确到约15-16位小数。精度和范围:使用std::numeric_limits类,可以获取浮点数类型的精度和范围信息。
目录 01. rsyslog 记录日志程序 02.日志文件 03.日志等级 Linux 日志文件是记录 Linux 系统运行信息的文件。 Linux 日志文件通常存储在 /var/log/ 目录中。该目录包含许多不同的日志文件,每个文件记录不同类型的信息。 01. rsyslog 记录日志程序 日志是哪里来的?? 日志服务是rsyslog程序提供的 是 Linux 系统中一个用于系统日志管理的工具。 .日志文件 这是/var/log下的不同日志文件 对应的 /var/log/messages *** 包含系统的一般日志消息 如:用户登录 进程启动 服务启动 /var/log/ 系统启动时的日志文件 /var/log/maillog 电子邮箱文件日志 举两个重要的例子 /var/log/messages 存放的是系统的日志信息 *
Current Version:V1.0.0 Latest Version:主机、数据库日志收集 Create Time:2016-04-08 Update Time:2016-04-08 15:24 一、主机系统日志收集: Linux AIX HP-UX Solaris Windows 二、数据库告警日志收集: Oracle 一、主机系统日志收集: 创建主机日志收集目录: --Unix/Linux 创建存放系统日志的文件夹: # mkdir -p /var/collect/OS Linux Linux系统日志文件: /var/log/messages 将最近1000条日志输出到linux1000 .log文件中: # tail -1000 /var/log/messages > /var/collect/OS/linux1000.log AIX AIX系统日志文件收集: 将日志输出到aix.log 二、数据库告警日志收集: Oracle 告警日志检查: 10g告警日志默认所在路径:ORACLE_BASE/admin/ORACLE_SID/bdump/alert*.log 11g告警日志默认所在路径
上次写到《服务器日志备份超节省空间的思路》,压缩后磁盘占用由 93%降到了 62%,效果还是不错的!为什么不直接删除呢?其实是因为这些日志涉及到支付等重要业务,保存半年以上也算是保守的做法。 结果,发现好几台 nginx 方向代理服务器的日志居然还没做分割处理,一个 access.log 居然近 200G 大小!真是 I 服了 U ? 于是,就有了下面这个日志切割脚本,按日期切割 nginx 日志,并自动删除 7 天前的日志(日志均已同步至专用日志存储服务器,可放心删除历史日志。) #! 后的文件写内容,导致切割失败. kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'` #删除7天前的日志 -mtime +7 -name "*20[1-9][3-9]*" | xargs rm -f exit 0 将这个脚本添加到计划任务,每天执行一次即可: 1 0 * * * /usr/local/script
注: 日志启用时会非常占用硬盘的读写资源,使正常读写数据库的效率大大降低,因为日志文件很大,之前我们有个服务器一直起着日志,一个月就达到 500G 的大小了,平时的一个操作都几十兆的涨。 可以用下面两种方式来启用和关闭日志。 【启用关闭方式一】 -- 启用日志 sp_set_para_value(1,'svr_log',1); -- 关闭日志 sp_set_para_value(1,'svr_log',0); 效果图: -- 开启日志 alter system set 'SVR_LOG' = 1; -- 关闭日志 alter system set 'SVR_LOG' = 0; 看到提示执行失败了,但实际上已经成功了,可以用上面的方法查询确认下 达梦数据库下的 log 文件夹里的 dmsql 开头的文件就是日志文件。 ? 下面是一次日常操作过程的记录。
初步支持在kvm上模拟ARM架构 5 x86平台支持虚拟机的TPM,前提是有硬件TPM 6 支持cpu添加 具体改进可以查看以下链接 http://wiki.qemu.org/ChangeLog/1.5 7月 1日 libvirt 1.1.0发布 主要是bug修改和小的功能提升 具体改进可以查看以下链接 http://www.libvirt.org/news.html 7月2日 fedora 19 发布 虚拟化方面最激动人心的功能是带存储的迁移即在线不需要共享存储迁移虚拟机 具体改进可以查看以下链接 https://fedoraproject.org/wiki/Releases/19/FeatureList 7月3日 libguest 1.23.7发布 2013-07-03
CentOS 7 下搭建ELK日志分析平台 2018-6-18 一、系统配置 Centos7 1核4G(个人开发机搭来自己分析压测日志的,若是公司级的建议32核64G以上。 //10.33.121.31:9200" # 配置es服务器的ip,如果是集群则配置该集群中主节点的ip logging.dest: /var/log/kibana.log # 配置kibana的日志文件路径 ,不然默认是messages里记录日志 #启动 systemctl start kibana 访问:http://10.33.121.31:5601/ 查看页面 五、安装logstash yum hosts => "localhost:9200" #ES地址 index => "matrixlog" #索引名称 } } 然后再执行,设置默认日志路径 ,并检查日志格式 .
1、开始vsftp记录日志。 xferlog_enable 如果启用该选项,系统将会维护记录服务器上传和下载情况的日志文件。默认情况下,该日志文件为 /var/log/vsftpd.log。 前者是 wu-ftpd 类型的传输日志,可以利用标准日志工具对其进行分析;后者是Vsftpd类型的日志。 syslog_enable 如果启用该选项,则原本应该输出到/var/log/vsftpd.log中的日志,将输出到系统日志中。 同时,该方案启用dual_log_enable,表明启用了双份日志。
mysql-m-5.6.32/mysql_error.log pid-file = /data/mysql-m-5.6.32/mysql.pid log-bin = mysql-bin #开启bin日志 ,并设置名称 server-id = 1 #设置serviced,不可重复 expire_logs_days = 2 #设置日志过期时间 2、从配置 [mysqld mysql-s-5.6.32/mysql_error.log pid-file = /data/mysql-s-5.6.32/mysql.pid server-id = 2 #服务唯一id 二、执行主数据库 三、从数据库配置 1、登陆从数据库 mysql -uroot -P63307 -S /data/mysql-s-5.6.32/mysql.sock 2、设置同步 change master to master_host 3、查看从数据库状态 show slave status\G ?
程序出错时,几乎占了一半是写错了sql语句,而定位出错位置和找错是非常麻烦的,这时候就可以借助mysql的日志记录 打开mysql文件夹的my.ini 在最底部或者最前面换行重新添加一句 log="G :/mysqllog/mysql.sql" G:是盘符,然后后面是你想要放数据库日志的目录和文件名 保存后重启mysql,如果在目录没发现你的文件,请自行添加目录和文件名,然后重启 ? 这样,你可以在程序出错的时候去看mysql的日志,但是这个日志记录的是全部执行过的语句,时间久了数据量是非常巨大的,如果查完请记得删除以免影响性能 ?
) for package: 2:postfix-2.10.1-6.el7.x86_64 ---> Package mysql-community-libs.x86_64 0:5.7.29-1.el7 _64 2:2.10.1-7.el7 will be an update --> Finished Dependency Resolution Dependencies Resolved ===== | 30 kB 00:00:00 (5/7): postfix-2.10.1-7.el7.x86_64.rpm | 26 MB 00:00:10 (7/7): mysql-community-server-5.7.29-1.el7.x86_64.rpm _64 0:5.7.29-1.el7 numactl-libs.x86_64 0:2.0.12-3.el7_7.1
随着使用,数据库日志会越来越大,直接影响数据库的性能,这时候就需要对数据库的日志进行瘦身了,下面的脚本可以对数据库的日志进行清理(dbname为数据库名,dbname_log为数据库的日志文件名(不带扩展名 ---- 本文作者:老徐 本文链接:https://bigger.ee/archives/7.html 转载时须注明出处及本声明
很多时候网站打开速度变慢,为了定位是否为数据库导致的,我们需要知道在访问网站的同时,站点执行了哪些SQL,每条SQL耗时多长。 为此,查看数据库日志是最直接的。 一般情况下,数据库日志默认是关闭的,因此需要先激活日志功能: 1. 使用root用户登陆到数据库后,检查“数据库日志”是否开启 SHOW VARIABLES LIKE 'general%'; # 这份日志会保存到数据库的安装目录, Centos7默认的目录是 /var 另外,还有一个相关的“慢查询日志”,检查是否开启: SHOW VARIABLES LIKE '%slow_query_log%'; # 这份日志会保存到数据库的安装目录, Centos7默认的目录是 无需重启数据库,直接刷新站点,发现 VM_211_224_centos.log 日志有内容,VM_211_224_centos-slow.log日志无内容(当然这是针对我的情况而言,mysql/mariadb
ELK7.x日志系统搭建 2. Nginx、Cluster等日志收集 接着上篇文章,我们把环境搭建好后,我们需要对一些应用程序进行日志收集了,方便我们对整个项目的监控和管理。 ,面对各种应用程序日志输出都需要输送到 ES 里面,但是日志文件的格式化输出方式却是各有千秋。 那么这个时候我们收集日志只有两种处理方式: 不修改源日志格式 简单的说就是在logstash中转通过 grok方式进行过滤处理,将原始无规则的日志转换为规则日志(Logstash自定义日志格式) 这样 grok 过滤功能,这样就等于可以跳过 filter 阶段 修改源日志格式 将需要的日志格式进行规则输出,logstash只负责日志的收集和传输,不对日志做任何过滤处理(生产者自定义日志格式) 这个就是在收集生产日志的过程中 ;是企业首选方案 我们的例子都以配置好的日志格式进行传输,有兴趣了解 grok 的去官网看看 收集多节点nginx日志 配置nginx日志输出 ## # Log Format ## log_format