插入方法 db.collection.insertOne() 插入单条文档到集合中 db.collection.insertMany() 插入多条文档到集合中 db.collection.insert( writeConcern 看着是一种出错捕捉机制,搞清楚要干嘛再更新吧 ordered true:对数组中的文档执行有序插入,其中一个文档发生错误,MongoDB 将返回而不处理数组中的其余文档(默认 ) false:无序插入,其中一个文档发生错误,则继续处理数组中的其他文档 三种 insert 方法的返回内容 // 插入单条文档 > db.test.insert({}) WriteResult({ id 值为设置的 id 值 插入文档数组 插入的多个文档无须具有相同的字段 db.test1.insert( [ { _id: 11, item: "pencil", qty: _id 字段和一个 type 字段 第二个和第三个文档不包含 _id 字段 因此,在插入过程中,MongoDB 将会为第二个和第三个文档创建默认 _id 字段 db.test1.find() { "_
那么其中的reopen,就是我们今天的主角,我们可以使用reopen来实现日志切割。 原理解析: 发送信号,其实是执行: kill -USR1 `cat /usrlocal/nginx/logs/nginx.pid` 以上两种方式都可以实现日志切割,你可以任意选择。 定期执行: 日志切割时企业中常规动作,我们不会每天去手工执行一遍命令,通常是让脚本自己执行,于是我们可以将这个动作写进任务计划,每天凌晨自动执行。 脚本: #! -eq 0 ];then echo "$(date +%F) 日志切割成功" fi 写入任务计划: 在/var/spool/cron/root文件中添加如下代码,每天11:59分自动切割日志 : 59 23 * * * /bin/sh nginx_cut_log.sh >>/tmp/nginx_cut.log 2>&1 到这里简单的日志切割工作就完成啦。
两款图片切割工具 ShoeBox:http://renderhjs.net/shoebox/ 下面试下ShoeBox。ShoeBox是一个图片处理软件,体积很小。 我主要用第三个功能拆开图片。
我们只需要配置你所需要切割的参数就可以。 很多程序的会用到logrotate滚动日志,比如nginx。它们安装后,会在/etc/logrotate.d这个目录下增加自己的logrotate的配置文件。 /etc/logrotate.conf include /etc/logrotate.d 常见参数 dateext: 切割的日志带上日期 monthly: 日志文件将按月轮循。 定制化nginx日志切割 /var/log/nginx/*.log { daily dateext missingok rotate 14 logrotate /etc/logrotate.conf # 要为某个特定的配置调用logrotate logrotate /etc/logrotate.d/log-file 调试配置 模拟日志切割
于是,就有了下面这个日志切割脚本,按日期切割 nginx 日志,并自动删除 7 天前的日志(日志均已同步至专用日志存储服务器,可放心删除历史日志。) #! bin/bash #初始化 LOGS_PATH=/data/nginx/logs/www.domain.com YESTERDAY=$(date -d "yesterday" +%Y-%m-%d) #按天切割日志 }/access.log ${LOGS_PATH}/access_${YESTERDAY}.log #向 Nginx 主进程发送 USR1 信号,重新打开日志文件,否则会继续往mv后的文件写内容,导致切割失败 . kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'` #删除7天前的日志 cd $ -mtime +7 -name "*20[1-9][3-9]*" | xargs rm -f exit 0 将这个脚本添加到计划任务,每天执行一次即可: 1 0 * * * /usr/local/script
1.nginx_log_rotate.sh文件 #nginx日志切割脚本 #author: joshau317 #!
日志切割 当网站访问量大后,日志数据就会很多,如果全部写到一个日志文件中去,文件会变得越来越大,文件大速度就会慢下来,比如一个文件几百兆,写入日志的时候,就会影响操作速度. 手动切割 --进入日志目录 cd /usr/local/nginx/logs/ --重命名日志文件 [root@host1 logs]# mv access{,. 编辑子配置文件 [root@host1 /]# vim /etc/logrotate.d/nginx /usr/local/nginx/logs/access.log { daily rotate 7 usr/local/nginx/logs/access.log 指定需要轮转处理的日志文件 daily 日志文件轮转周期,可用值为'daily/weekly/yearly' rotate 7 轮转次数,即最多存储7个归档日志,会删除最久的归档日志 missingok 忽略错误信息 dateext 以当前日期作为命名格式 compress 轮循结束后,已归档日志使用gzip
考虑到日后日志大小过大,NodeJs读取会花太多时间,所以是要按天来切割日志,刚开始我写了一个简单的脚本。利用 crontab 的定时功能。
7 01:06 catalina.2019-07-07.log 16-rw-r----- 1 ghl ghl 6102 7月 7 00:24 catalina.out 17-rw-r---- - 1 ghl ghl 8409 7月 7 01:06 catalina.out.2019-07-07.out 18-rw-r----- 1 ghl ghl 0 7月 7 00:21 host-manager.2019-07-07.log 19-rw-r----- 1 ghl ghl 0 7月 7 00:21 localhost.2019-07-07.log 20-rw-r ----- 1 ghl ghl 147 7月 7 00:21 localhost_access_log.2019-07-07.txt 21-rw-r----- 1 ghl ghl 0 7 月 7 00:21 manager.2019-07-07.log
该命令用于将一个文件分割成多个,默认每1000行切割成一个小文件。 参数 说明 -d 以数字为后缀,如果省略,则以字母为后缀 -b 输出每一个文件的大小 # 切割文件 split -b 10M -d aaa.tar.gz aaa # 合并文件 cat aaa0* >
logs/error_notice.log notice; error_log logs/error_info.log info; ##可以将不同的错误类型分开存储 日志切割 向nginx主进程发信号重新打开日志 kill -USR1 `cat /run/nginx.pid` chmod +x logaccess.sh 设置定时任务 crontab -e #每分钟进行日志切割 */1 * * * * sh /root/logaccess.sh > /dev/null 2>&1 按日切割: vim log2.sh #!
背景 nginx的日志默认是不会自动切割的,所以日志体积会越来越大,因此有必要对日志进行切割 nginx日志切割实现方式 脚本切割 logrotate 脚本切割 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 切割脚本 #! 07 * * * root cd /devilf/script;sh del_log.sh &>/dev/null 这里将日志记录保存七天,七天之前的日志将删除 1 2 3 4 5 6 7 : 1 2 3 4 5 6 7 8 9 10 [root@xs_82_208 /home/wwwlogs]# ll total 631828 drwxr-xr-x 2 root root 计划任务 1 2 3 4 5 6 7 8 9 [root@xs_test01 logrotate.d]# cat /etc/cron.daily/logrotate #!
", "url":"http://x.co/6nc82" } { "_index" : "blog", "_type" : "_doc", "_id" : "5P2-O2gBNSQY7o-KMw2P : { "_index" : "blog", "_type" : "_doc", "_id" : "1", "_version" : 7, : "Xshell教程"} } { "index": { "_index": "blog", "_type": "_doc", "_id": "4" }} { "title": "4、CentOS 7. x基本设置" ,"author":"chengyuqiang","content":"CentOS 7.x基本设置","url":"http://x.co/6nc85" } { "create": { x基本设置", "author" : "chengyuqiang", "content" : "CentOS 7.x基本设置", "url"
sqlite nc -y 下载安装解压zimbra wget https://files.zimbra.com/downloads/8.8.10_GA/zcs 8.8.10_GA_3039.RHEL7_ 64.20180928094617.tgz 解压 tar -zxvf zcs-8.8.10_GA_3039.RHEL7_64.20180928094617.tgz 移动到zimbra目录 mv zcs- 8.8.10_GA_3039.RHEL7_64.20180928094617 zimbra 开始安装 cd /Zimbra 运行目录下的install.sh脚本 . FOUND: NPTL FOUND: nmap-ncat-6.40-7 FOUND: sudo-1.8.6p7-16 FOUND: libidn-1.28-4 FOUND: gmp-6.0.0-12 FOUND to install Install zimbra-ldap [Y] #需要安装ldap服务从7CFB
具体规则参考【pytest文档2-用例运行规则】 ? 显示选项 默认情况下,“ 结果”表中的所有行都将被展开,但具测试通过的行除外Passed。 可以使用查询参数自定义此行为:? 更多功能 更多功能查看官方文档【https://github.com/pytest-dev/pytest-html】
# 日志切割脚本 脚本如下 注:安装zip命令 #!
考虑到日后日志大小过大,NodeJs读取会花太多时间,所以是要按天来切割日志,刚开始我写了一个简单的脚本。利用 crontab 的定时功能。
Mongodb日志切割 依据客户端查询来设计集合的片键及索引,最近几天突然需要查询历史数据进行分析,我们的有些集合count达到亿条以上,每个文档几百个字段。 遇到问题第一反应是看日志文件,拿到notepad之后由于文件太大无法打开,只能采用重启,然后开始查询mongodb日志管理的文档。Mongodb官网提出可以对日志进行切换。
这是一段Linux的Shell脚本,用于切割Nginx的日志,可通过crontab设置每日零点执行这段脚本实现自动切割。 #!