首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI

    腾讯OpenCloudOS 9系统部署OpenTenBase数据库详细教程

    GTM Node (Global Transaction Manager):负责集群事务信息的管理,以及集群的全局对象(如序列)系统要求硬件要求:内存:最低4GB RAM操作系统:OpenCloudOS 9服务器 :腾讯CVM实例软件依赖:gcc make readline-devel zlib-devel openssl-devel uuid-devel bison flex git环境准备1. 部署和初始化集群# 启动pgxc_ctl工具pgxc_ctl# 在pgxc_ctl命令行中执行:deploy allinit all# 退出pgxc_ctlexit# 设置opentenbase用户的SSH vkGc9jehXXIzfXSJ2+ZAnFP5IDvIc.5. pgxc_ctl 提供的标准化配置与脚本驱动完成“部署-初始化-启动-监控”的最小化闭环。

    77800编辑于 2025-08-28
  • 来自专栏DotNet NB && CloudNative

    .NET9 AOT部署

    C# AOT部署和JIT部署两种不同的编译和部署方式对比 AOT(Ahead-of-Time)部署: AOT是将C#程序提前编译为机器代码(通常为平台特定的二进制文件),在应用程序启动之前完成编译过程。 缺点: 编译时间长:AOT需要在部署前进行编译,可能导致部署的时间较长。 平台依赖:AOT编译会生成特定平台的机器码,因此跨平台部署需要针对每个平台生成不同版本的代码。 选择AOT还是JIT部署,需要根据具体的应用场景、性能需求、开发周期和平台要求来权衡。 tabs=dotnet9&pivots=os-linux-ubuntu-2204 添加存储库 sudo add-apt-repository ppa:dotnet/backports 安装SDK sudo tabs=linux-ubuntu%2Cnet9plus sudo apt-get install clang zlib1g-dev 4、把解决方案代码上传到Linux系统某个文件夹上并转到要发布的项目

    86300编辑于 2025-03-17
  • 来自专栏Linux

    玩转Rocky Linux 9 部署Redis指南

    玩转Rocky Linux 9 部署Redis指南大家好,我是星哥。今天,咱们来盘一盘Redis,Redis作为高性能的键值数据库,在缓存、消息队列、实时数据处理等场景中扮演着举足轻重的角色。 功能介绍功能介绍:Rocky Linux 9系统中源码包安装 Redis 的shell脚本安装版本:redis-7.4.1端口:63920配置所在的目录: /data/conf/密码: YpassWord666 redis_端口号.log快速安装使用:gitee:wget https://gitee.com/funet8/Rocky-Linux-Shell/raw/main/shell/Rocky_Linux_9_ /Rocky-Linux-Shell/refs/heads/main/shell/Rocky_Linux_9_Install_Redis.shsh Rocky_Linux_9_Install_Redis.sh1 最后写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!

    59210编辑于 2025-07-21
  • opencloudos9安装NGINX部署证书

    一、安装 Nginx在 OpenCloudOS 9 系统上,首先使用以下命令更新系统的软件包列表:yum update -y这个步骤确保系统的软件包索引是最新的,以便安装最新版本的 Nginx。 二、部署证书(以 SSL 证书为例)准备证书文件通常,您需要从证书颁发机构(CA)获取 SSL 证书文件。 重新加载 Nginx 配置在修改完 Nginx 配置文件后,需要重新加载配置使新的 SSL 配置生效:systemctl reload nginx 验证证书部署可以使用在线的 SSL 检查工具(如 SSL Labs 的测试工具),输入您的域名,检查证书是否正确部署,以及 SSL 配置是否安全。

    99820编辑于 2024-12-26
  • 来自专栏远哥制造

    基于 AlmaLinux 9 部署 GitLab Runner 实战

    前言本文是一个系列,本篇为系列文章的第五篇:基于 AlmaLinux 9 部署 GitLab Runner 实战第一篇:基于 AlmaLinux 9 安装 GitLab 社区版实战第二篇:基于 AlmaLinux 9 配置 GitLab 社区版实战第三篇:基于 AlmaLinux 9 备份 GitLab 社区版实战第四篇:记一次跨 6 个大版本通宵升级 17 次 GitLab 社区版的经历本文仍基于在腾讯购买的轻量机 真实升级经历结尾提及下一篇文章开始介绍 GitLab CI/CD 的相关实践,计划从部署GitLab Runner 说起没错,这篇文章就从部署 GitLab Runner 讲起0x01. 安装 Runner这里基于在腾讯购买的轻量机 cn-tx-bj7-a9 上演示安装过程同 GitLab 的安装,仍然选择进程的方式进行安装参照官方文档:https://docs.gitlab.com/ 注册 Runner因为可以在不同于 GitLab 安装的机子上部署 GitLab Runner,所以安装后需要配置接入哪个 GitLab也就是注册的意思,可以参照官方文档的命令示例参照官方文档:https

    43910编辑于 2024-11-08
  • 来自专栏Node.js开发

    计算代码部署

    在使用计算函数的需要部署代码,此前一直使用文件上传的方式,但这种方式有个缺点就是文件大小有限制,而官方建议使用工具,也就是fun工具,使用fun工具需要如下几个步骤: 1、首先安装fun npm install TIMEOUT是部署文件超时时间。 2、这里有个分支是在本地建立函数然后传递到线上还是在线上建立函数然后拉到本地开发。 template.yml文件: image.png 这里有几个比较重要的字段: Resources中lot是服务的名称,在控制台创建的服务的名称,然后是deviceBindTag是函数的名称,Timeout是部署上传文件时的超时时间 目录结构如下: image.png 开发完成后,我们可以执行fun deploy命令进行部署。 3.2第二种方式,我们将代码和配置文件导出,然后再本地修改,并配置.env文件,然后执行 fun deploy进行部署代码。 以上便是腾讯匀计算函数的使用方法,希望对你有所帮助。

    1.2K70发布于 2021-01-11
  • winform部署yolov9的onnx模型

    C# WinForms 部署 YOLOv9 ONNX 模型简介 在当今的计算机视觉领域,目标检测是不可或缺的一项技术。 为了在C# WinForms应用程序中部署YOLOv9模型,我们首先需要将其转换为ONNX(Open Neural Network Exchange)格式。 这使得YOLOv9模型可以在C#环境中得到高效利用。 在部署过程中,我们可以使用ONNX Runtime这一跨平台的库来加载和运行ONNX模型。 通过C# WinForms部署YOLOv9的ONNX模型,我们可以为用户提供一个功能强大的目标检测工具。 、弹幕量 0、点赞数 0、投硬币枚数 0、收藏人数 0、转发人数 0, 视频作者 未来自主研究中心, 作者简介 未来自主研究中心,相关视频:C++使用纯opencv部署yolov9的onnx模型,将yolov8

    44910编辑于 2025-07-20
  • 来自专栏YP小站

    Sentry9-1-2部署

    三、Docker部署Sentry服务 官方提供Docker部署配置 官方Docker部署仓库 环境要求 Docker 17.05.0+ Docker-Compose 1.17.0+ 服务器配置只少需要3G sentry-dingding~=0.0.2 # 钉钉通知插件 django-smtp-ssl~=1.0 # 发邮件支持SSL协议 redis-py-cluster==1.3.4 四、构建 Docker build 注意:部署

    2K10发布于 2020-06-04
  • GLM-4-9B-Chat WebDemo 部署

    transformers_stream_generator==0.0.4 pip install tiktoken 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM-4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境 snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('ZhipuAI/glm-4-9b-chat " A streamlit chatbot powered by Self-LLM") # 定义模型路径 mode_name_or_path = 'autodl-tmp/ZhipuAI/glm-4-9b-chat

    45610编辑于 2025-07-21
  • 来自专栏张善友的专栏

    腾讯 开发 部署 Blazor网站

    Blazor 应用程序除了在 Github Pages/Gitee Pages等静态资源部署以外,现在你有了一个新的选择,那就是使用开发静态网站功能来部署啦! 网站 创建一个开发环境 我们来创建一个开发环境,用来部署 Blazor。 打开腾讯控制台,在产品中找到开发 ? 进入到开发的管理控制台,点击新建环境,新建一个环境来进行部署 ? 在开通环境以后, 记住你的环境 ID,这个 ID 后续我们会用到。 确认授权后,你会看到控制台输出相应的命令 这样,你的开发 cli 就初始化好了。 接下来,就可以进入到最后一个环节,上传部署 Blazor了。 只需简单的几步,你就可以轻松实现将 Blazor 应用部署开发上,不仅如此,如果你是一个自动化爱好者, 还可以试着把开发 Cli 配置到你的 CI 环境中,实现自动部署哦~ 点击以下链接快速开始用开发静态网站托管部署你的站点

    11.4K41发布于 2020-09-14
  • 腾讯环境下基于Websoft9的多WordPress集群自动化部署实践

    原生技术快速发展的背景下,企业级用户对多站点WordPress部署需求呈现指数级增长。 本文将以腾讯CVM为技术载体,详细解析如何利用Websoft9应用镜像实现高可用WordPress集群的自动化部署,重点探讨容器化部署、负载均衡配置及数据库分离等关键技术实现。 一、多WordPress部署架构设计 在腾讯环境中构建多WordPress集群,建议采用三层架构模型:前端负载层:使用CLB(Cloud Load Balancer)实现HTTPS流量分发,配置基于域名的七层转发规则 基础环境初始化:# 安装基础设施wget https://mirrors.tencent.com/install/websoft9.shchmod +x websoft9.sh. proxy_cache_valid 200 302 10m; proxy_cache_use_stale error timeout updating;} 通过上述技术方案的实施,在腾讯环境下使用网九镜像部署

    23600编辑于 2025-04-21
  • 来自专栏WalkingCloud

    AlmaLinux 9(RHEL9)下安装部署漏洞扫描系统Nessus-10.6.0

    AlmaLinux 9(RHEL9)下安装部署漏洞扫描系统Nessus-10.6.0 1、获取AlmaLinux 9的ISO镜像 https://almalinux.org/get-almalinux -rw-r--r-- 1 root root 470974100 Sep 1 20:49 Nessus-10.6.0-es9.x86_64-Auto-Installer-20230831.bundle [root@almalinux opt]# chmod 777 Nessus-10.6.0-es9.x86_64-Auto-Installer-20230831.bundle [root@almalinux /Nessus-10.6.0-es9.x86_64-Auto-Installer-20230831.bundle Unpacking... Nessus 10.6 for RHEL 9 Installer ===================================== Powered by XXXXXXX Please enter

    76010编辑于 2023-09-06
  • 来自专栏IT笔记

    Linux下JProfiler 9安装部署及使用

    软件 jprofiler_windows-x64_9_1_1.zip windows下安装使用 jprofiler_linux_9_1_1.rpm linux下安装 一、linux下安装 rpm包 rpm -ivh jprofiler_linux_9_1_1.rpm 二、windows下安装 下一步下一步即可 1、选择 新建一个连接 ? 8.png 9、监听的端口默认即可。 ? 9.png 10、设置为待会启动,点击完成 ? 10.png 这时候会在目录下生成一个start_jprofiler.sh的文件。

    2.3K90发布于 2018-04-16
  • 来自专栏腾讯云TVP

    腾讯 开发 部署 Blazor网站

    Blazor 应用程序除了在 Github Pages/Gitee Pages等静态资源部署以外,现在你有了一个新的选择,那就是使用开发静态网站功能来部署啦! 网站 创建一个开发环境 我们来创建一个开发环境,用来部署 Blazor。 打开腾讯控制台,在产品中找到开发 image.png 进入到开发的管理控制台,点击新建环境,新建一个环境来进行部署 image.png 在开通环境以后, 记住你的环境 ID,这个 ID 后续我们会用到 image.png 只需简单的几步,你就可以轻松实现将 Blazor 应用部署开发上,不仅如此,如果你是一个自动化爱好者, 还可以试着把开发 Cli 配置到你的 CI 环境中,实现自动部署哦~ 点击以下链接快速开始用开发静态网站托管部署你的站点:https://console.cloud.tencent.com/tcb?

    13K9371发布于 2020-09-10
  • 使用python部署yolov9的onnx模型

    【框架地址】 https://github.com/WongKinYiu/yolov9 【yolov9简介】 在目标检测领域,YOLOv9 实现了一代更比一代强,利用新架构和方法让传统卷积在参数利用率方面胜过了深度卷积 因此,YOLOv9 深入研究了数据通过深度网络传输时数据丢失的重要问题,即信息瓶颈和可逆函数。 对于新发布的 YOLOv9,曾参与开发了 YOLOv7、YOLOv4、Scaled-YOLOv4 和 DPT 的 Alexey Bochkovskiy 给予了高度评价,表示 YOLOv9 优于任何基于卷积或 【效果演示】 【代码演示】 from Yolov9Onnx import * weight_path = "weights/yolov9-c.onnx" image = cv2.imread("images /bus.jpg") detector = Yolov9Onnx(model_path=f"{weight_path}", names=Yolov9Onnx.load_labels('labels.txt

    27000编辑于 2025-07-20
  • GLM-4-9B-Chat vLLM 部署调用

    vLLM 简介 vLLM 框架是一个高效的大型语言模型(LLM)推理和部署服务系统,具备以下特性: 高效的内存管理:通过 PagedAttention 算法,vLLM 实现了对 KV 缓存的高效管理,减少了内存浪费 易用性:vLLM 与 HuggingFace 模型无缝集成,支持多种流行的大型语言模型,简化了模型部署和推理的过程。兼容 OpenAI 的 API 服务器。 //download.pytorch.org/whl/cu118 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 vLLM 的环境镜像,该镜像适用于任何需要 vLLM 的部署环境 vLLM 部署实现 OpenAI API 协议的服务器非常方便。默认会在 http://localhost:8000 启动服务器。 速度测试 既然说 vLLM 是一个高效的大型语言模型推理和部署服务系统,那么我们就来测试一下模型的生成速度。看看和原始的速度有多大的差距。

    1.5K20编辑于 2025-07-21
  • GLM-4-9B-chat FastApi 部署调用

    0.24.1 pip install tiktoken==0.7.0 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM-4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境 snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('ZhipuAI/glm-4-9b-chat ': # 加载预训练的分词器和模型 tokenizer = AutoTokenizer.from_pretrained("/root/autodl-tmp/ZhipuAI/glm-4-9b-chat 的端口映射到本地,从而在本地使用api uvicorn.run(app, host='0.0.0.0', port=6006, workers=1) # 在指定端口和主机上启动应用 Api 部署 默认部署在 6006 端口,通过 POST 方法进行调用,可以重新开启一个终端使用 curl 调用,如下所示: curl -X POST "http://127.0.0.1:6006" \ -

    61910编辑于 2025-07-21
  • 来自专栏优惠券代金券

    腾讯部署项目步骤

    最近,自己用Java WEB完成了一个网站,然而,不知道如何部署到腾讯服务器上。百度了很多,也没有完整的,后来自己摸索,完成了部署。本文,将介绍如果将web项目部署到腾讯服务器上。 服务器的话,如果你是学生用户的话,服务器只能买入门级的。土豪当然是买贵的好啦。 在输入框输入Windows服务器的公网IP(在服务器“管理视图”页面可查看服务器的公网IP),如下图所示: 2. 点击密码输入框后的箭头图标,即可登录到Windows服务器。 三、环境搭建 按照上一步成功之后,即可进入到云端服务器,如下图所示。 接下来,我们要对服务器进行环境的配置。 环境变量配置成功之后,接下来就是部署项目。 将项目的war包放到Tomcat/webapp目录下,如图所示。 然后将你的sql数据库导入进来。

    11.4K51发布于 2019-09-25
  • 来自专栏小义思

    StableDiffusion Kaggle部署指南

    kaggle平台给每个用户提供30小时/每周的GPU使用时间,本篇文章将利用kaggle平台搭建stablediffusion绘图工具,免费白嫖算力。前提是需要特殊的网络设置,俗称魔法。

    1.8K11编辑于 2024-04-10
  • 来自专栏JAVA开发专栏

    腾讯部署springboot项目

    ​ 目录首先需要进行登陆到腾讯,进行宝塔的设置​第二步,进入终端输入命令xshell命令使用使用java -jar的命令部署项目xftp工具的使用宝塔的处理设置数据库----首先需要进行登陆到腾讯, 进行宝塔的设置具体步骤如下第一步,登陆腾讯,进入控制面板在执行的过程中,需要输入一个y,然后大概一分钟之后,就会生成宝塔的地址,用户名、密码;xshell命令使用使用java -jar的命令部署项目java

    5.9K41编辑于 2022-11-21
领券