首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏开发笔记

    部署Python应用

    /usr/bin/python2 部署文件 关于依赖安装的问题,使用批量安装的方式生成依赖清单,多了很多奇奇怪怪的东西,就直接手动使用pip安装了 另外,linux系统无法识别模块的问题通过:

    1.4K10发布于 2020-08-11
  • 来自专栏golang云原生new

    Statefulset部署应用

    Statefulset Statefulset 资源 Statefulset 也是和 ReplicaSet 一样的属于 K8S 中的一种资源,可以管理 pod 的,但是 Statefulset 是可以专门定制一类应用 ,并且这些应用每一个实例都是不可替代的,可以说是独一无二 正因为 ReplicaSet 无法解决上述的问题,Statefulset 就来帮忙解决了,那么我们来看一下 Statefulset 为什么能解决

    74720编辑于 2023-09-01
  • 来自专栏cwl_Java

    Docker应用部署

    4 应用部署 4.1 MySQL部署 (1)拉取mysql镜像 docker pull centos/mysql-57-centos7 (2)创建容器 docker run -di --name=tensquare_mysql :容器运行端口 -e 代表添加环境变量 MYSQL_ROOT_PASSWORD 是root用户的登陆密码 (3)远程登录mysql 连接宿主机的IP ,指定端口为33306 4.2 tomcat部署 -name=mytomcat -p 9000:8080 -v /usr/local/webapps:/usr/local/tomcat/webapps tomcat:7-jre7 4.3 Nginx部署 (1)拉取镜像 docker pull nginx (2)创建Nginx容器 docker run -di --name=mynginx -p 80:80 nginx 4.4 Redis部署 (1)拉取镜像

    1.4K20发布于 2019-12-25
  • 来自专栏云计算linux

    Docker 应用部署

    Docker 应用部署 一、部署MySQL 搜索mysql镜像 docker search mysql 拉取mysql镜像 docker pull mysql:5.6 创建容器,设置端口映射、目录映射 进入容器,操作mysql docker exec –it c_mysql /bin/bash 使用外部机器连接容器中的mysql 二、部署Tomcat 搜索tomcat镜像 docker search 将容器的8080端口映射到主机的8080端口 **-v $PWD:/usr/local/tomcat/webapps:**将主机中当前目录挂载到容器的webapps 使用外部机器访问tomcat 三、部署 日志目录 使用外部机器访问nginx 四、部署Redis 搜索redis镜像 docker search redis 拉取redis镜像 docker pull redis:5.0 创建容器,设置端口映射

    62410编辑于 2024-12-13
  • 来自专栏GPUS开发者

    【讲座预告】利用 Metropolis SDK,快速开发和部署 AI 应用

    直播时间:4月27日,下午15:00-16:00 演讲简介 NVIDIA Metropolis SDK - 提供一套端到端的应用开发工具和框架,从数据中心到边缘端,实现应用的高效开发和加速部署。 基于 Metropolis 工具链,如何实现端到端的应用开发流程 3. 基于 EGX 平台,如何实现应用的高效云边协同和轻松部署 演讲嘉宾 崔晓楠  NVIDIA开发者发展经理 毕业于北京航空航天大学,软件工程硕士,2018年加入英伟达,负责开发者生态和行业解决方案的落地 ,聚焦于 Metropolis SDK 和 EGX 企业加速平台在视频分析领域,智能制造及泛交通等行业的应用和推广。 扫描二维码报名: 参考资料: NVIDIA Metropolis 如何帮助企业部署AI解决方案

    2.1K10编辑于 2022-04-19
  • Skill-adapter:让SKILL快速部署到你的ai应用

    SKILL随着 AI Coding 和智能体开发越来越普及,越来越多开发者开始把大模型接入真实应用中。 一个很常见的问题也逐渐暴露出来:同类 prompt 在不同场景中反复编写、重复维护,导致能力难以复用,系统也越来越臃肿,以 open_deep_research( https://github.com/langchain-ai install/skillhub.mdSKILL-adapter这些 skill 很容易装进 Claude Code / Codex / OpenClaw 之类的 coding agent,但对很多自建 LLM 应用 extra_body)当我们有了SKILL-adapter之后呢,它通过用户 Query → Skill Routing → Skill 选择 → Prompt Augmentation → 现有 LLM 应用的流程 ,以低侵入的方式直接接入ai应用中from skill_adapter import SkillRuntimeruntime = SkillRuntime(skill_dirs=[".

    25520编辑于 2026-03-23
  • 来自专栏玩转OpenClaw

    AI 部署】通过 Lighthouse、OrcaTerm AI 助手部署 OpenClaw

    一、什么样的用户,最适合通过 AI 助手部署 OpenClaw ?在所有部署方式里,AI 助手部署并不是“唯一方案”,但它是最省心的方案之一。  只要在 AI 助手中表达一句清晰的意图,例如:“帮我部署 OpenClaw”AI 助手就会自动识别你的需求,并进入部署引导流程2️⃣ 操作极简, AI 会替你处理「最烦人的部分」整个过程高度“自动化”, 第一步:进入 Lighthouse 控制台登录腾讯云控制台,进入 Lighthouse 轻量应用服务器。 第二步:唤起 AI 助手面板点击 AI 助手后,右侧会弹出对话面板。在首屏你通常可以看到一些推荐的快捷问题,例如部署、运维、诊断类操作。 第三步:触发 OpenClaw 部署你可以选择以下任意方式:● 直接点击首屏的 「帮我部署 OpenClaw」 快捷提示● 或者手动输入:帮我部署 OpenClaw四、接下来的操作流程:你负责"点",AI

    13.1K38编辑于 2026-03-06
  • 来自专栏人工智能

    TI平台:一键部署DeepSeek模型,加速AI应用开发

    但是AI模型的开发和应用往往面临着技术门槛高、开发周期长、资源投入大等挑战,为了帮助我们更便捷地使用深度学习模型,腾讯推出了TI(Tencent AI)平台,提供从模型训练、部署到推理的一站式服务,TI 通过TI平台,我们可以轻松获取高性能的深度学习模型,并快速部署到实际业务场景中,从而大幅降低AI应用开发的门槛和成本。 那么本文就来介绍如何在TI平台上快速部署和体验DeepSeek系列模型,助力开发者快速构建AI应用。 TI平台支持模型训练、部署、推理全流程,并提供弹性可扩展的计算资源,帮助开发者快速构建和部署AI应用。 结束语通过本文的介绍,在TI平台上部署和体验DeepSeek系列模型,可以帮助我们快速构建AI应用,提升开发效率和应用性能,我觉得随着TI平台和DeepSeek系列模型的不断发展,将会为AI技术的普及和应用带来更多可能性

    86421编辑于 2025-02-08
  • 来自专栏开源部署

    Django的应用部署

    一、Django简介 Django的官方站点:https://www.djangoproject.com Django是一个开放源代码的Web应用框架,由Python写成。 五、创建单独的页面(视图和URL配置) 1、创建一个单独的website应用 # django-admin.py startapp website 2、定义视图文件 # cd website/ #

    1.1K10编辑于 2022-07-03
  • 来自专栏MyTechnology

    Docker部署常见应用

    一、部署MySQL 搜索mysql镜像 docker search mysql 拉取mysql镜像 docker pull mysql:5.6 创建容器,设置端口映射、目录映射 # 在/root目录下创建 日志目录-v 进入容器,操作mysql docker exec -it mysql /bin/bash 二、部署Tomcat 搜索tomcat镜像 docker search tomcat 拉取tomcat 三、部署Nginx 搜索nginx镜像 docker search nginx 拉取nginx镜像 docker pull nginx 创建容器,设置端口映射、目录映射 # 在/root目录下创建nginx 四、部署Redis 搜索redis镜像 docker search redis 拉取redis镜像 docker pull redis 创建容器,设置端口映射 docker run -id --name

    2.3K40发布于 2020-07-31
  • 来自专栏L宝宝聊IT

    puppet部署应用

    4)服务器把结果记录日志 3、puppetmaster的配置:分模块配置结构和目录结构两部分 模块配置中可以创建许多应用模块,每一个应用模块必须有一个入口,文件(主配置文件)init.pp文件,可以只有这一个文件也可以包含其他文件 5、配置实例(应用) 案例应用的背景:为了保护linux的ssh端口爆破,批量修改客户端sshd端口,将端口22修改为9922,并实现重启工作。

    1.7K40发布于 2018-06-20
  • 来自专栏C++开发学习交流

    AI模型】AI模型部署概述

    AI模型部署方法 在AI深度学习模型的训练中,一般会用Python语言实现,原因是其灵活、可读性强。但在AI模型实际部署中,主要会用到C++,原因在于其语言自身的高效性。 MediaPipe 还有助于将机器学习技术部署到各种不同硬件平台上的演示和应用程序中,为移动、桌面/云、web和物联网设备构建世界级ML解决方案和应用程序。 3. AI模型部署平台 AI 模型部署是将训练好的 AI 模型应用到实际场景中的过程。 以下是一些常见的 AI 模型部署平台: 云端部署 云端部署是最流行的 AI 模型部署方式之一,通常使用云计算平台来托管模型和处理请求。 移动设备部署 移动设备部署是将 AI 模型部署到移动设备上的过程,允许设备在本地执行推理而不需要依赖网络连接。这种部署方式对于需要快速响应和保护用户隐私的应用非常有用。

    1.8K10编辑于 2024-07-24
  • 来自专栏编程随想曲

    如何部署JavaWeb应用

    准备 公网主机一台(推荐云服务器) 数据库安装包 JDK安装包 Tomcat安装包 WAR包(web应用包) 部署 安装所需软件,并测试基本环境是否可用 执行sql脚本,创建数据库并导入数据 将WAR包解压至Tomcat目录下的webapps目录下 修改涉及ip地址的所有配置文件,更改为公网ip 测试 启动Tomcat服务器 打开浏览器访问web应用地址 正常访问则部署成功

    87720编辑于 2022-04-21
  • 来自专栏大数据-BigData

    Flink应用部署模式

    Flink 是一个多功能框架,以混合搭配的方式支持许多不同的部署场景。 下面,我们简要介绍 Flink 集群的构建块、它们的用途和可用的实现。 在部署 Flink 时,每个构建块通常有多个选项可用。 我们在图下方的表格中列出了它们。 应用程序级数据源和接收器 虽然应用程序级别的数据源和接收器在技术上不是 Flink 集群组件部署的一部分,但在规划新的 Flink 生产部署时应该考虑它们。 部署模式 Flink 可以通过以下三种方式之一执行应用程序: in Application Mode, in a Per-Job Mode, in Session Mode. 与 Per-Job 模式相比,Application Mode 允许提交由多个作业组成的应用程序。 作业执行的顺序不受部署模式的影响,但受用于启动作业的调用影响。

    2.3K20编辑于 2022-09-08
  • 来自专栏Goboy

    Nacos部署应用

    在解压的路径下找到conf文件夹,里面有一个叫nacos-mysql.sql 的文件,把它下载下来。

    89010编辑于 2023-12-28
  • 来自专栏python3

    Istio 部署Bookinfo 应用

    一、概述 这个示例部署了一个用于演示多种 Istio 特性的应用,该应用由四个单独的微服务构成。 这个应用模仿在线书店的一个分类,显示一本书的信息。 下图展示了这个应用的端到端架构。 ? Bookinfo 应用中的几个微服务是由不同的语言编写的。 二、部署应用 环境说明 操作系统:centos 7.6 主机名:k8s-master ip地址:192.168.31.236 配置:2核2g 操作系统:centos 7.6 主机名:k8s-node01 ,无需对应用自身做出任何改变。 最终的部署结果将如下图所示: ?  

    1.4K10发布于 2021-01-21
  • 来自专栏PY的开发实践

    前端应用部署工具

    基本流程部署工具基本包含以下三大块:触发器、CI、CD触发器触发器指的是触发部署动作,分为两大类:cli: 腾讯云 TCD, vercel-cli 这类工具实现本地命令行登陆账号,通过本地命令行出发构建部署 CD产物部署阶段需要进入生产环境中,分为以下三类:静态资源:静态资源,无法部署 node 服务,通常用户静态资源的CDN加速场景,适用于博客类,无法部署API。 serverless:云函数类,部署的是函数服务,使用场景受限,适合轻量的 API 服务容器:微信云托管,托管容器,最为灵活,可以部署任何你想部署的东西,和企业级的部署方式类似。 | ✅ || 数据库 | ❌ | ✅ || 对象存储 | ❌ | ✅ || 用户管理 | ❌ | ✅ |可以看到,云函数Serverless在函数服务细分模块的功能要更强大一点,而云开发则应用面更广 ,写好对应逻辑,暴露API对应端口推送代码,触发 CI 流程CI 执行 dockerfile 构建镜像CD 应用镜像,启动容器,开启服务数据库服务微信云托管还提供了 mysql 数据库服务,这是非常让人意外的

    7K41编辑于 2022-07-12
  • 来自专栏代码如诗

    Kubernetes(二) 应用部署

    目录 Kubernetes(二) 应用部署 前言 理解描述文件 如何访问服务 部署本地项目 打包Docker镜像 推送到远程仓库 部署 私库支持 开始部署 部署集群 参考文献 欢迎关注公众号(代码如诗 ) Kubernetes教程之应用部署 文章地址: https://blog.piaoruiqing.com/2019/09/28/kubernetes-2-deploy/ 前言 本文将与读者一起 , 学习如何在Kubernetes上部署应用. 包括: 如何部署应用、发布文件讲解、将本地项目打包发布等. 阅读这篇文章你能收获到: 学会如何在k8s部署应用 如何打包Docker镜像、上传到私有库 阅读本文你需要: 熟悉Linux命令. [root@nas-centos2 ~]$ curl 10.33.30.95/k8s-test/timestamp 1569512136028 部署集群 现在, 我们已经成功地在Kubernetes上部署了一个应用实例

    1.3K20发布于 2019-12-20
  • 来自专栏雪雁的专栏

    使用Kubectl部署应用

    目录 使用Kubectl部署应用 Kubectl部署流程 部署一个简单的Demo网站 使用Kubectl部署应用 一旦运行了Kubernetes集群,就可以在其上部署容器化应用程序。 接下来,我们讲述使用Deployment(部署)对象来部署一个简单网站。 Kubectl部署流程 使用Kubectl的部署流程如下所示: ? 接下来我们根据这个流程部署一个简单的Demo网站。 部署一个简单的Demo网站 这里,我们可以通过创建Kubernetes Deployment对象来运行应用程序。那么我们需要编写一个YAML文件来定义Deployment对象。 执行创建部署之后,我们可以通过命令“kubectl get Deployment demo-deployment”来检查部署对象是否已经创建,部署是否已经完成: ? AVAILABLE则表示用户可以使用的应用程序副本数。 AGE表示应用已运行的时间。

    1.1K40发布于 2019-08-23
  • 来自专栏magicodes

    使用Kubectl部署应用

    目录 使用Kubectl部署应用  Kubectl部署流程  部署一个简单的Demo网站  一旦运行了Kubernetes集群,就可以在其上部署容器化应用程序。 接下来,我们讲述使用Deployment(部署)对象来部署一个简单网站。 Kubectl部署流程 使用Kubectl的部署流程如下所示: ? 接下来我们根据这个流程部署一个简单的Demo网站。 部署一个简单的Demo网站 这里,我们可以通过创建Kubernetes Deployment对象来运行应用程序。那么我们需要编写一个YAML文件来定义Deployment对象。 执行创建部署之后,我们可以通过命令“kubectl get Deployment demo-deployment”来检查部署对象是否已经创建,部署是否已经完成: ? AVAILABLE则表示用户可以使用的应用程序副本数。 AGE表示应用已运行的时间。

    1.3K20发布于 2019-09-12
领券