本文提供WindowsPowerShell和Linux双平台的完整部署方案,包含所有常见问题的解决方案,让你一次部署成功,不再踩坑。 ,将latest替换为具体标签(如v3.6.5),完整标签列表可查看轩辕镜像-思源笔记标签页:https://xuanyuan.cloud/zh/r/b3log/siyuan容器部署Linux系统部署部署前准备创建数据目录 /opt/siyuan/workspace端口确认:思源笔记默认使用6806端口,部署前确保该端口未被占用:展开代码语言:BashAI代码解释netstat-tuln|grep6806启动容器命令展开代码语言 数据卷挂载(必须挂载到/siyuan/workspace,不是/app/data)-eSIYUAN_ACCESS_AUTH_CODE=你的授权码:设置访问授权码(Docker部署强制要求,否则无法启动) 一句话部署命令Linux:展开代码语言:BashAI代码解释mkdir-p/opt/siyuan/workspace&&chown-R1000:1000/opt/siyuan/workspace&&dockerrun-d
JanusGraph提供了多种存储和索引后端选项,可以灵活地部署它们。本章介绍了一些可能的部署方案,以帮助解决这种灵活性带来的复杂性。 注意:本章中介绍的场景仅是JanusGraph如何部署的示例。 每个部署都需要考虑具体的用例和生产需求。 1. 基础部署 这种方案是大多数用户在刚开始使用JanusGraph时可能想要选择的方案。 后者描述了将部署向高级部署转换的方式。 任何可扩展存储后端都可以通过这种方案来使用。 但是,对于Scylla,当托管与此方案中的其他服务共存时,需要进行一些配置。 高级部署 高级部署是在第8.1节“基础部署”上的演变。 它们不是将JanusGraph Server实例与存储后端以及可选的索引后端一起部署,而是在不同的服务器上部署。 这种部署方案提供了不同组件的独立可伸缩性,因此使用可扩展的后端存储/索引当然也是最有意义的。 3. 简单部署 也可以在一台服务器上将JanusGraph Server与后端一起部署。
spring为开发者提供了一个名为spring-boot-devtools的模块来使Spring Boot应用支持热部署,提高开发者的开发效率,无需手动重启Spring Boot应用。 接下来我们就通过编码的方式实现springboot热部署。 groupId> <artifactId>spring-boot-devtools</artifactId> </dependency> 二)修改ide配置&浏览器缓存禁用 为了实现热部署 请求能够被正常的接收和处理,也就是说明我们配置的springboot热部署已经生效。 总结 springboot热部署在开发阶段特别实用,我们对应用修改之后不需要手动点构建和部署就能自动重启后看到效果,当然可能springboot实现热部署还有其他方式,这里暂不做过多探讨,有兴趣的可以自己研究一下
安装思源笔记可以远程SSH连接中输入此安装代码dockder部署:https://github.com/siyuan-note/siyuan/blob/master/README_zh_CN.md#docker -%E9%83%A8%E7%BD%B2mkdir -p /data/docker/siyuandocker run --name siyuan \-itd --restart=always \-v / data/docker/siyuan:/siyuan/workspace \-p 6806:6806 \b3log/siyuan \--workspace=/siyuan/workspace \--accessAuthCode CREATED STATUS PORTS NAMESbf9ace8e130a 总结通过本文,我们详细介绍了如何在腾讯云轻量应用服务器上部署私有笔记工具。从环境准备到软件安装,每一个步骤都清晰明了。
下载地址: 推荐在微软商店中下载APP:SiYuan – Microsoft Apps 你也可以直接下载安装包:https://release.b3log.org/siyuan/siyuan-2.10.12 Markdown PDF、Word 和 HTML 复制到微信公众号、知乎和语雀 数据库 表格视图 间隔重复 模板片段 JavaScript/CSS 代码片段 Android/iOS APP Docker 部署 准备 在开始部署之前,你需要安装 docker。 具体安装见:【docker】在服务器上安装docker/docker-compose 3.部署 使用docker部署的思源笔记有以下限制: 不支持桌面端和移动端应用连接,仅支持在浏览器上使用。 /docker_data/SiYuan:/siyuan/workspace -p 6806:6806 -u 1000:1000 b3log/siyuan --workspace=/siyuan/workspace
对于这类服务的部署,需要解决两个大的问题:一个是状态保存,另一个是集群管理 (多服务实例管理)。kubernetes中提的StatefulSet方便了有状态集群服务在上的部署和管理。 通常来说,通过下面三个手段来实现有状态集群服务的部署: 通过Init Container来做集群的初始化工 作。 通过Headless Service来维持集群成员的稳定关系。 因此,在K8S集群里面部署类似kafka、zookeeper这种有状态的服务,不能使用Deployment,必须使用StatefulSet来部署,有状态简单来说就是需要持久化数据,比如日志、数据库数据、 ,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers 的Cluster Domain集群根域 二、部署过程记录(NAS存储) 这里使用K8S搭建一个三节点的kafka容器集群,因为kafka集群需要用到存储,所以需要准备持久卷(Persistent Volume
parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8< -- 热部署 --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId xml version="1.0" encoding="UTF-<em>8</em>"?> <! .dao.User"> <select id="getUserList" resultType="com.<em>siyuan</em>.app.h5.model.UserModel"> select useUnicode=true&characterEncoding=utf8 username: root password: 123456 driver-class-name:
部署 docker run --name siyuan -itd -p 6806:6806 -v /opt/my_siyuan_path:/opt/siyuan --restart always b3log /siyuan 备份 sudo su # 查看容器列表 docker ps -a # 制作备份 docker commit -p 7409ce6aae7b siyuan_backup # 其中 403e6db0c jenkins_backup是备份名称 # 查看备份是否成功 docker images # 将镜像制作成文件 docker save -o [filename] [image] docker save -o siyuan_backup.tar siyuan_backup ls # 在 /home/ubuntu/ 中可以看到制作后的压缩包
二、dubbo的部署 下载地址:https://codeload.github.com/apache/dubbo/zip/2.5.x 1、下载解压,然后找到admin文件夹 image.png parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8< xml version="1.0" encoding="UTF-<em>8</em>"? parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8< xml version="1.0" encoding="UTF-<em>8</em>"?
二、下载镜像 在群辉 docker 中“注册表”搜索 siyuan 或 b3log/siyuan 下载镜像。 使用命令行拉取镜像:docker pull b3log/siyuan。 六、命令 拉取镜像 docker run -v /volume4/docker/siyuan:/siyuan -p 6806:6806 b3log/siyuan -workspace /siyuan/ 部署镜像 docker run -v /volume4/docker/siyuan:/siyuan -p 6806:6806 -u 1000:1000 b3log/siyuan --workspace= /siyuan/ PS:冒号后面的 /siyuan 是通过后面的启动参数 --workspace=/siyuan/ 指定的镜像里的笔记存储位置,如果不用 --workspace 参数指定,默认就是 /root /Documents/SiYuan。
3306 3、解压安装包 #进入mysql目录 #解压 tar -xvf mysql-8.0.20-1.el7.x86_64.rpm-bundle.tar 4、安装 此处内容需要评论回复后方可阅读 8、
Loki, Elasticsearch, InfluxDB, Postgres and many more.grafana文档:Technical documentation | Grafana Labs部署 grafana腾讯云可观测平台购买grafana参考:腾讯云可观测平台 创建实例_腾讯云k8s/tke部署grafana参考grafana官方文档:Deploy Grafana using Helm Charts 如果生产环境可以考虑使用ingress和自定义域名暴露 部署/卸载grafana参考命令如下创建namespace:monitoringkubectl create namespace monitoring value.yaml卸载grafana命令helm uninstall my-grafana -n monitoring测试运行grafana查看grafana是否正常运行,如果pod没有Running,需要按照k8s kubectl get all -n monitoring部署grafana成功后,可以通过clbVIP访问grafana。
apiVersion: v1kind: PersistentVolumeClaimmetadata: name: grafana-pvc namespace: kube-monspec: accessModes: - ReadWriteOnce resources: requests: storage: 10Gi storageClassName: nfs-client---apiVersion: apps/v1kind: Deploymentmetadata: label
k8s为什么叫k8s呢? 因为k8s是Kubernetes的简称,因为K和S之间有8个字母,所以才会被称为k8s。 关于k8s详细介绍可参考k8s中文文档 一、环境准备 主机名 IP 角色 基于服务 docker-k8s01 192.168.171.151 master docker docker-k8s02 192.168.171.150 部署docker服务可参考:部署 Docker 二、部署前准备工作 1、检查docker版本、关闭防火墙及Selinux、清空iptables规则、禁用Swap交换分区 注:以下操作需要在三台docker 群集 1、安装部署k8s相关工具 注:以下操作在master主机上进行 #安装k8s的master所需组件 [root@docker-k8s01 ~]# yum -y install kubelet-1.15.0 v1.15.0 5、部署后的优化配置 为了以后更为方便的使用k8s,建议优化以下几项: 设置table键的默认间距; 设置kubectl命令自动补全; 优化开机自启配置。
1 目标 在本地,一键启动 k8s 集群,并将服务部署到 k8s 集群上。 2 部署 k8s 2.1 部署 minikube minikube 是一个虚拟机,启动后会在内部自动创建一个 k8s 集群。 2.1.4 其它命令 停止 minikube: minikube stop 删除 k8s 集群: minikube delete 2.2 部署 Lens Lens 是 k8s 集群的操作界面,可方便地与 中 TCP 服务的端口映射到主机: [将 k8s 中 TCP 服务的端口映射到主机] 内置了 Helm,Helm 用来管理 k8s 应用,可发现、共享和使用为 k8s 构建的软件。 例如,在 k8s 安装 redis 或 nats: [安装 redis 或 nats] 3 部署 Nginx 部署: docker run -d --name xremote_nginx --network 4 部署服务 4.1 部署文件 deployment.yml:定义资源如何部署。
看到很多部署 prometheus 到 k8s 集群的教程,发现都是非常麻烦的各种配置,懒人的我就想整个一键部署的,开箱即用的,既然有了 helm 那肯定只要一个 charts 就可以搞定了吧,想着就是这样 下面记录一下使用过程,方便以后进行部署。 PS: 本文适用于开发者单 k8s 集群部署 prometheus,如果是运维可建议进行独立部署,一方面不需要占用集群内部资源并保证多活,另一方面可以支持多集群扩展。 而当我们使用 k8s 部署 prometheus 的时候就会发现这件事很容易了。 k8s 内部的 prometheus 能很容易获取到 k8s 中各种指标和参数,使用 helm 部署也非常方便,基本一个命令就搞定了 如果你只需要基本的 cpu 和内存信息,那么这样就已经完全够用了,
apiVersion: v1 kind: PersistentVolumeClaim metadata: name: nexus-pvc # 自定义 namespace: nexus # 自定义,与本文前后所有命名空间保持一致 labels: pvc: nexus-pvc # 自定义 spec: storageClassName: nfs-client # 创建的StorageClass的名字 accessModes: - ReadWriteOnce resources:
环境 CentOS 8 + 禅道16.x + Nginx + Mysql + PHP PHP 配置 centos 自带的有 php环境 sudo dnf module list php # 查看版本,默认
直接使用centerOS 虚拟机 通过docker 命令拉取 docker pull elastic/filebeat:7.6.1 部署单机版elasticsearch 创建部署文件 [root@k8s-master 查看services 是否启动成功 [root@k8s-master elk]# kubectl get services NAME TYPE CLUSTER-IP -76ffcf4f9c-8mnjb Name: elasticsearch-76ffcf4f9c-8mnjb Namespace: default Priority: 内存不足导致运行失败 删除pod,重修修改 k8s-es.yml 文件 的启动内存大小重新启动即可 [root@k8s-master elk]# kubectl delete deployment elasticsearch READY STATUS RESTARTS AGE elasticsearch-76ffcf4f9c-8mnjb 0/1 Running 0 7s 部署集群版
系统:Centos 8 mariadb-10.5.2 2. libjpeg-devel libjpeg \ libpng-devel freetype freetype-devel libicu-devel \ libzip cmake ncurses-devel 安装部署