首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏开源能源管理系统

    Linux上的Podman

    --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。

    67100编辑于 2025-05-23
  • 来自专栏python3

    使用Helm部署微服务应用PiggyMetrics

    piggymetrics-config     restart: always     ports:       - 8888     logging:       options:         max-size kompose.service.type: loadbalancer     ports:       - 8761:8761     logging:       options:         max-size kompose.service.type: loadbalancer     ports:       - 4000:4000     logging:       options:         max-size : always     ports:       - 5000     depends_on:       - config     logging:       options:         max-size : always     ports:       - 6000     depends_on:       - config     logging:       options:         max-size

    1.7K32发布于 2020-05-15
  • 来自专栏服务化进程

    csv导入导出组件jcsv

    zip template: /template/aa.csv importc: - id: throng-0 desc : "上传member_id" max-size {1,10}$", hint: "请填写10位以内的数字",required: true} - id: throng-1 desc : "上传email+语言+站点" max-size site_id,required: true,hint: "站点错误" ,td-id: 13 } - id: throng-3 desc: "上传member_id+占位符" max-size : "^\\d{1,10}$", hint: "请填写10位以内的数字",required: true} - id: throng-4 desc: "上传email" max-size

    2.4K10发布于 2019-08-20
  • 来自专栏Albert陈凯

    2019-11-26 Hazelcast Map配置文档

    If you want max-size to work, set the "eviction-policy" to a value other than NONE. Available max-size policies are as follows: - PER_NODE: Maximum number of map entries in each cluster It is available only in Hazelcast Enterprise HD. * "eviction-percentage": When "max-size" is reached, It has the following sub-elements: - "max-size": Maximum size of the Near Cache. : policy: PER_NODE max-size: 0 eviction-percentage: 25 min-eviction-check-millis: 100 merge-policy

    1K30发布于 2019-11-26
  • 来自专栏myems

    MyEMS的安装部署与数据读取查看

    --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。 --log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。 --log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。 --log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。 --log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。 --log-opt max-file=2 可以存在的最大日志文件数。

    1.7K10编辑于 2023-12-24
  • 来自专栏飞鸟的专栏

    Reids集群部署(二)

    redis/redis.conf \ -v /work/redis-cluster/redis-node1/logs:/var/log/redis \ --log-opt max-size redis/redis.conf \ -v /work/redis-cluster/redis-node2/logs:/var/log/redis \ --log-opt max-size redis/redis.conf \ -v /work/redis-cluster/redis-node3/logs:/var/log/redis \ --log-opt max-size redis/redis.conf \ -v /work/redis-cluster/redis-node4/logs:/var/log/redis \ --log-opt max-size redis/redis.conf \ -v /work/redis-cluster/redis-node5/logs:/var/log/redis \ --log-opt max-size

    33431编辑于 2022-02-24
  • 来自专栏技术墨客

    Hazelcast集群服务(4)——分布式Map

    如果期望max-size生效,必须eviction-policy将设置为NONE之外的其他值。 max-size中包含一个属性参数——policy,他定义了max-size对应的存储策略,回收机制会根据这个策略检查数据。 PER_NODE:max-size指定单个集群成员中map条目的最大数量。这是max-size的默认策略。如果使用这个配置,需要注意max-size的值必须大于分区的数量(默认为271)。      PER_PARTITION:max-size指定每个分区存储的map条目最大数。 FREE_HEAP_PERCENTAGE:max-size指定单个JVM的最小空闲空间的百分比。

    4.2K30发布于 2018-08-15
  • MyEMS开源系统安装(四)Linux/macOS上的Docker

    --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。 --log-opt max-size=2m 滚动前日志的最大大小。正整数加上表示度量单位(k、m或g)的修饰符。--log-opt max-file=2 可以存在的最大日志文件数。

    33622编辑于 2025-05-13
  • 来自专栏雨过天晴

    原 荐 docker清理

    限制日志大小和文件 在容器启动配置(/etc/docker/daemon.json)中设置 : {   "log-driver":"json-file",   "log-opts":{     "max-size ":"10m",     "max-file":3   } } 或在docker run时携带参数: --log-opt max-size=10m --log-opt max-file=3 附 查看文件夹占用空间

    1.2K20发布于 2018-06-04
  • 来自专栏生信菜鸟团

    SRA数据库官方工具—SRA Toolkit

    最小化使用 ##下载数据 prefetch SRR000001 ##提交后台下载(example) nohup prefetch -O ~/project/b_rawdata SRR24304118 --max-size reads会单独放在一个文件夹里 其中 fasterq-dump reads拆分默认是 split-3 split-3 split-spot split-files prefetch 可选参数 --max-size 设置最大下载文件大小,默认所20G --max-size u 设置为u,则下载大小不设限制 -T:指定要下载的文件类型,默认为 sra -t:指定传输方式,默认是both ;可以选择 http(传统的 nohup prefetch -O /home/project/b_rawdate4 --option-file /home/project/b_rawdate4/srr_acc_list.txt --max-size u 1>down.log 2>&1 & ##方法二:并行下载 cat srr.list |while read id;do ( nohup prefetch --max-size u $id &

    3.8K11编辑于 2023-12-06
  • 来自专栏凯哥Java

    在Docker中安装kafka遇到问题记录

    命令含义解答:在docker安装kafka的时候,启动kafka的时候会执行下面语句:docker run -d  --log-driver json-file --log-opt max-size=100m -v /etc/localtime:/etc/localtime wurstmeister/kafka那么docker run -d --log-driver json-file --log-opt max-size --log-driver json-file --log-opt max-size=100m --log-opt max-file=2: 这些是日志驱动相关的选项,用于配置容器的日志。 启动命令:docker run -d --log-driver json-file --log-opt max-size=100m --log-opt max-file=2 --name kafka - 即修改为PLAINTEXT://宿主机ip地址:9092,例如:docker run -d --log-driver json-file --log-opt max-size=100m --log-opt

    1.5K10编辑于 2023-12-21
  • 来自专栏精益码农

    临近年关,发生两起磁盘占满引发的服务下线故障

    配置每个容器的docker-compose中的max-size logging: driver: "json-file" options: max-size: 添加log-dirver和log-opts参数 # vim /etc/docker/daemon.json { "log-driver":"json-file", "log-opts": {"max-size

    65010发布于 2021-01-07
  • docker清除空间

    您可以通过编辑/etc/docker/daemon.json文件来调整日志级别,例如: { "log-driver": "json-file", "log-opts": { "max-size ) && docker system prune -a -f --volumes 或者是限制容器的日志大小 修改deamon.json 配置 { "log-opts": { "max-size

    4.7K21编辑于 2024-07-08
  • 还在忽视 Docker 日志?下一个宕机的就是你!

    vim /etc/docker/daemon.json 添加如下配置(如果已有内容,合并即可): { "log-driver": "json-file", "log-opts": { "max-size ": "100m", "max-file": "3" } } 配置项 说明 max-size 每个日志文件最大 100MB max-file 最多保留 3 个轮转日志文件(总共最大约 300MB docker run \ --log-driver=json-file \ --log-opt max-size=100m \ --log-opt max-file=3 \ -d your_image_name 发通知) 定期清理无用镜像、容器、日志等: docker system prune -a ✅ 小结 Docker 默认日志策略不安全,务必开启日志轮转; 建议统一使用 json-file 驱动 + max-size

    55810编辑于 2025-07-18
  • 来自专栏叼同学

    AWS 免费服务器ECS2实例,从免费薅到上手使用。

    e API_INTERFACE=modwebapi -e WEBAPI_URL=需要对接的地址 -e WEBAPI_TOKEN=前端设置的token --network=host --log-opt max-size MYSQL_HOST=MYSQL地址 -e MYSQL_USER=mysql用户名 -e MYSQL_DB=数据库名 -e MYSQL_PASS=数据库密码 --network=host --log-opt max-size

    12.8K30发布于 2021-08-09
  • 来自专栏编程技术分享

    Vue 图片上传组件(base64 版):vue-upload-imgs

    files:[{ url: 'xxx', name: 'xxx.jpg'}] label 属性值 上传按钮 '点击上传' String limit 属性值 限制上传的图片数量,0 为不限制 0 Number max-size 移除文件前的钩子函数 null Function,参数为要预览的图片索引值 index 和图片 file,返回值为 true 则删除图片,为 false 则不进行任何操作 oversize 事件 图片大小超过 max-size

    1.3K10发布于 2020-09-28
  • 来自专栏技术派

    wildfly 21的domain配置

    server-groups> <server-group name="main-server-group" profile="default"> <jvm name="default"> <heap size="64m" max-size ="512m"/> <permgen size="128m" max-size="128m"/> </jvm> <socket-binding-group ref="standard-sockets"/ server-group> <server-group name="other-server-group" profile="bigger"> <jvm name="default"> <heap size="64m" max-size ref="standard-sockets" port-offset="150"/> <jvm name="default"> <heap size="64m" max-size 最后,我们看下在host.xml中的jvm的定义: <jvms> <jvm name="default"> <heap size="64m" max-size="128m"/>

    98230发布于 2021-06-22
  • 来自专栏HUC思梦的java专栏

    Docker安装kafka

    /localtime wurstmeister/zookeeper $ docker run -d --restart=always --log-driver json-file --log-opt max-size /etc/localtime wurstmeister/kafka $ docker run -d --restart=always --log-driver json-file --log-opt max-size

    12.3K41发布于 2020-09-03
  • 来自专栏飞鸟的专栏

    ELK集群部署(三)

    /bin/bash docker run -d -p 5601:5601 --name kibana \ --restart=always \ --log-opt max-size bin/bash docker run -d -p 5044:5044 --name=logstash \ --restart=always \ --log-opt max-size

    61851编辑于 2022-02-24
  • 来自专栏阿杜的世界

    Java Web技术经验总结(一)

    <task:executor/>标签对应的实现类是ThreadpoolExecutor pool-size(core-size和max-size):有异步请求到达时,如果当前线程数小于core-size 时,则启动一个新线程提供服务;如果当前线程数达到core-size,则将新请求放入Blockqueue;如果BlockQueue也满了,则启动新线程提供服务,直到线程池内的线程数达到max-size; queue-capacity:BlockQueue的大小 keep-alive:超过core-size的那部分线程,任务完成后在线程池中存活的时间; rejection-policy:线程池内线程超过max-size

    57320发布于 2018-08-06
领券