首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数据云团

    Django进阶-8-ORM

    对多关系表 找到该对象; 通过该对象,反向操作,找到第三张关系表; 通过第三张关系表,正向操作,找到和该对象有关系的对象; 只要对象 1 和对象 2 中间有关系表建立了关系;对象 1 反向操作到关系表 (girl_list) obj = models.Boy.objects.filter(name='Bob').first() obj.m.clear() ②反向操作 obj.小写的表名_set 和外键跨表一样都是

    74610发布于 2019-07-18
  • 来自专栏huofo's blog

    k8s集群管理

    集群的切换是K8s运维中比不可少的问题,常见的基于多个集群进行切换的方法有三种: 切换config文件 通过context进行集群切换 用kubecm进行集群切换 切换config文件 我们先看看放在 kubernetes contexts: - context: cluster: kubernetes user: "2xxxxxxxxx7" name: 2xxxxxxxxxxxxxxxx8 current-context: 2xxxxxxxxxxxx8 kind: Config preferences: {} users: - name: "2xxxxxxxxxxx27" user: current-context: 2xxxxxxxxxxxx8 kind: Config preferences: {} users: - name: "2xxxxxxxxxxx27" user: 切换到第二个集群: $ kubectl config use-context 2xxxxxxxxxxx8 Switched to context "21xxxxxxxxxxxxx9648".

    81940编辑于 2022-03-18
  • 来自专栏后端进阶

    Docker stack 服务编排

    之前 swarm 集群中docker service create一次只能部署一个微服务,我们可以使用 docker stack + compose 一次启动多个服务。 stack 是一组相互关联的服务,它是服务的上一层,这些服务共享依赖关系,并且可以一起编排和缩放。单个 stack 能够定义和协调整个应用程序的功能,简单来说 stack 就是一组服务的集合。 constraints: [node.role == manager] networks: overlay: 该 compose 文件制定部署 3 个服务 ,分别指定了服务的端口、服务实例个数、网络、镜像名称等等, 其中的 visualizer 服务提供一个可视化页面,我们可以从浏览器中很直观的查看集群中各个服务的运行节点。 visualizer 也可以在服务器里面查看服务运行情况: $ docker stack ps mynet ?

    2.9K40发布于 2020-05-07
  • 来自专栏饶文津的专栏

    「2017 Multi-University Training Contest 8」2017校训练8

    求有向图最大生成树,要求n的父节点尽量小。 我们将所有wi变为-wi,这题就变成了有向图最小生成树的模板题。对于f(n)尽可能小的要求,可以令所有wi扩大1000倍,然后 对于yi=n的点将1000-xi计入wi中,这样就保证了在W尽可能大的情况下f(n)尽可能小。有向图最小生成树的部分我们可以 O(nm)解决,大体思路是先找到每个点边权最小的父向边,然后这样连边可能会构成一些环,我们把这些环缩成一个点,然后把这个环向外连的边的权值减去向内连的边的权值,然后将这个图缩小,重复上述操作直至不再构成环。由于每次点数至少会减1,所以这样的操作至多做O(n)次,因此时间复杂度就是O(n*m)。 朱刘算法中不能记录路径,其中的fa[i]对应缩点后的下标。不过没关系,父节点非常好求,就是答案对1000取模。

    33410发布于 2020-06-02
  • 来自专栏IT大咖说

    应用、租户、终端的SaaS平台开发框架,SaaS服务平台

    ◆ 一、开源项目简介 SAPI++ 是应用、租户、终端的SaaS平台开发框架。 基于ThinkPHP6.x的应用模式开发,开发者不需要二次学习,就可以开发自己的应用租户SaaS服务平台,简单好用是SAPI++的特点。 应用接口同上 │ └─event.php 事件定义文件 │ ├─common.php 全局公共函数文件 │ ├─provider.php 服务提供定义文件 │ ├─service.php 全局系统系统服务定义文件 │ └─middleware.php 全局中间件定义文件 ├─config 全局配置目录 log_from=672fddf8ae233_1649813542472 “IT大咖说”欢迎广大技术人员投稿,投稿邮箱:aliang@itdks.com 来都来了,走啥走,留个言呗~  IT大咖说  

    7.5K30编辑于 2022-04-14
  • 来自专栏mukekeheart的iOS之旅

    Android基础总结(8)——服务

    protected void onCreate(Bundle savedInstanceState) { 7 super.onCreate(savedInstanceState); 8 { 6 public void startDownload(){ 7 Log.d(MyService, startdownload executed); 8 onBind(Intent intent) { 5 // TODO Auto-generated method stub 6 return null; 7 } 8 5 // TODO Auto-generated method stub 6 //return mBinder; 7 return null; 8 7 另外根据IntentService的特性,这个服务在运行结束后应该是会自动停止的,所以我们又重写了onDestroy()方法,在 8 这里也打印l一行日志,以证实是不是停止掉了

    1.8K80发布于 2018-02-27
  • 来自专栏iSharkFly

    CentOS 8 启用 NTP 服务

    NTP 服务是什么和为什么我们需要在我们的服务器启用 NTP 服务? 可能很多人都不是非常了解,简单来说就是我们希望我们服务器的时间是准确的没有偏差的。 安装 NTP 服务 在 CentOS 8 中,我们使用 chronyd 来提供 NTP 的服务。 在 CentOS 上执行下面的命令来进行安装,如果你已经安装过的话,系统会进行提示。 dnf install chrony 开启启用 NTP 服务 在 CentOS 8 中,执行下面的命令,来让服务进程随开机自动启动。 chronyc -a makestep 服务器的输入内容是: [root@vps-c853c8ac home]# chronyc -a makestep 200 OK [root@vps-c853c8ac date 通过这个设置,我们就可以在服务器上使用 NTP 进行同步了,你就不需要对服务器的时间进行调整了。 https://www.ossez.com/t/centos-8-ntp/555

    2K00发布于 2020-10-06
  • 来自专栏技术杂记

    日志服务器(8

    qishToW6PlZC.UewgjQaLp9YPPTFqvLbh47F6QUhHqPhrLT6fqdEfqYr6TIGyOl0XuAiUnlvJflixfO/:16545:0:99999:7::: [root@h202 ~]# ---- 服务端检查日志 通过这种方式已经可以实现操作审记了 ---- 查看服务端数据库中的日志 检查数据库确保数据也写了一份到mysql中 [root@h105 ~]# mysql -u root -p Enter password

    1.1K20发布于 2021-10-20
  • 来自专栏jeremy的技术点滴

    使用prometheus监控k8s集群

    最近在做k8s相关的开发工作,涉及不少k8s的相关知识,这里记录下。 问题引出 遇到一个需求,要使用prometheus监控多个k8s集群。 但甲方觉得上述方案中每个k8s集群都要部署prometheus,增加了每套k8s集群的资源开销,希望全局只部署一套prometheus,由它统一采集多个k8s集群的监控指标。 prometheus采集当前k8s监控数据 首先分析prometheus是如何采集单个k8s集群的监控指标。 prometheus_io_scrape: true annotation的service,从匹配到的service列表中每个service抓取该service暴露的监控指标(这里通过blackbox这个服务来抓取 ,需要在prometheus所在的namespace部署blackbox服务) - job_name: kubernetes-services params: module: - http

    10.3K82发布于 2019-03-13
  • 来自专栏CNCF

    通过“服务镜像”实现集群Kubernetes

    在我们之前的文章集群Kubernetes的架构设计,我们概述了构建一个简单但有弹性的Kubernetes集群方法的三个要求:支持分层网络、保持集群状态的独立性、不引入共享控制平面。 介绍 构建一个有效的集群Kubernetes架构面临许多挑战,包括配置、监视、部署和流量管理。 今天,通过跨多个集群独立运行Linkerd、将度量聚合到外部Prometheus或Thanos、在DNS中共享服务信息、使用cert-manager在集群入口控制器上旋转cert,可以构建一个集群设置来实现上述许多目标 敏锐的读者可能会注意到,服务镜像实际上并不需要服务网格。相反,服务镜像是一个独立的组件,可以与其他项目很好地组合在一起。这不仅适用于服务镜像的潜在用户,也适用于服务镜像本身。 折衷之处在于,集群通信并不是特殊情况,服务就像第三方服务一样暴露,而且内部和外部服务之间的工具是相同的。 由于本例中没有私有网络,数据将通过公共internet。

    1.4K20发布于 2020-03-04
  • 来自专栏架构师之路

    服务架构“微”才合适?

    @侯滇滇 同学提到: 多了一层服务层,架构实际上是更复杂了,需要引入一系列机制对服务进行管理,RPC服务化中需要注意: (1)RPC服务超时,服务调用者应有一些应对策略,比如重发 (2)关键服务例如支付 ,要注意幂等性,因为重发会导致重复操作 (3)服务要考虑并发操作,相当单服务的锁机制比如JAVA中的synchronized @黄明 同学提到: 服务化之后,随着规模的扩大,一定要考虑“服务治理”,否则服务之间的依赖关系会乱成麻 二、互联网微服务架构“微”才适合 大家也都认可,随着数据量、流量、业务复杂度的提升,服务化架构是架构演进中的必由之路,今天要讨论的话题是:微服务架构“微”才合适? 细节:微信单对单消息是一个写读少的业务,故没有缓存。 三、粒度粗细的优劣 上文中谈到的服务化与微服务,不同粒度的服务化各有什么优劣呢?

    1.6K61发布于 2018-03-01
  • 来自专栏云服务器活动

    Nginx实现单服务代理域名

    一、功能介绍 通过一台nginx服务器代理多个域名进行跳转,原理很简单,重点在玩法!适用于公司处理域名紧急备案问题。 二、准备 域名: www.hx123.com www.hx456.com nginx服务器: ginx.conf 三、实现: www.hx123.com 域名连接到nginx服务器自动代理到 http: //192.168.95.180:8080 www.hx:456.com域名连接到nginx服务器自动代理到 http://192.168.95.181:8181 server { listen

    3.8K00发布于 2019-08-31
  • 来自专栏桃子小白

    【k8s】service服务和job服务

    Service服务发现 使用Service 使用Service实验使用的目录病创建后端的httpd-Dy [root@master servicefile]# vim httpd-dy.yaml kind 创建httpd-service.yaml文件 [root@master servicefile]# vim httpd-service.yaml 创建service并查看该信息(下kubernetes服务是系统服务 ) 测试服务可用性,通过curl命令查看服务是否正常 [root@master servicefile]# curl 10.102.124.67:8080 可以删除刚刚创建的服务 创建httpd-expose.yaml     - sleep 30000 创建并进入Pod命令行 [root@master servicefile]# kubectl apply -f client.yaml 使用nslookup命令查看服务域名 ,wget命令通过域名访问服务 实训任务 创建deployment1 要求: 2 副本,镜像类型 httpd 创建deployment2 要求: 3副本,镜像类型 httpd 创建 service1

    62020编辑于 2023-06-10
  • 来自专栏JavaEdge

    服务应用的机房部署

    为了实现高可用性,微服务一般部署在机房,只要部署到机房就万无一失了? 考虑如下问题: 1 机房负载均衡 当服务部署在多个机房时,最简单的就是遵循用户就近访问原则,比如北方用户访问联通机房,南方用户访问电信机房。 这是最理想情况,实际部署时经常会遇到: 某机房流量较大,但该机房服务器不足以支撑线上流量 某机房服务有问题,需切一部分流量到另外一个机房 因此实际部署时,有时并不能完全遵循就近访问原则,而是要根据需要调配流量 想要实现服务部署到机房,供用户访问是有前提的,即每个机房的数据都一样,这就要求机房间数据必须保持同步。 高并发访问的服务,数据通常都会有两层存储即缓存层和数据库层 要保证机房的数据一致,不仅要保证数据库层的数据一致,还需要保证缓存层的数据一致,应该如何实现呢?

    89330编辑于 2021-12-07
  • 来自专栏媒矿工厂

    服务反射及其使用案例

    目录 回顾网络地址转换 使用场景 从外部设施获取内容 分发内容到外部设施 分发内容到公共云 通过单播广域网连接设施 目的地控制 服务反射功能使用户能够将外部收到的播地址转换为符合组织内部寻址策略的地址 ,目的设备只能接收到转换后的流 Egress NAT,在流进入别的外部设备时进行转换 使用服务反射的好处包括: 允许用户将外部接收的播或单播目的地地址转换为符合其公司内部寻址政策的播或单播地址。 服务反射支持以下类型的转换: 播到播目的地转换 播到单播目的地转换 单播到播目的地转换 播到播目的地分割 播到网播目的地分割 单播到播目的地分割 提供私人和公共组播网络之间的逻辑分离 播单播转换可以变得非常方便,这就为什么要做服务反射。你可以把单播转换回播,然后到达这个设施内的任何目的地。 单播到服务反射 目的地控制 我们看到了入站播网络,出站播网络,播到单播服务反射和单播到服务反射,这基本覆盖了我遇到的用例,但还不是全部。

    1.1K20编辑于 2022-01-20
  • 来自专栏无量测试之道

    K8s服务编排

    前置说明: k8s_host=192.168.214.50 //定义k8s_host变量,此ip为k8s管理机 yaml_host=192.168.214.100:9999 //相关服务的配置存放机 的管理机上,为服务生成service服务代理 ''' k8s分配给Service一个固定IP,这是一个虚拟IP(也称为ClusterIP),并不是一个真实存在的IP,而是由k8s虚拟出来的。 在k8s系统中,实际上是由k8s Proxy组件负责实现虚拟IP路由和转发的,所以k8s Node中都必须运行了k8s Proxy,从而在容器覆盖网络之上又实现了k8s层级的虚拟转发网络。 做服务部署到K8s集群中去 jenkins_job: 编译代码并生成镜像,且上传到镜像仓库 ---- namespace='test'  //定义一个变量 mvn clean install -DskipTests tail -f /var/log/yum.log //打印日志,表明服务是存活的 '> .

    59120编辑于 2022-07-04
  • 来自专栏NetCore 从壹开始

    服务模式下,实现前后端资源服务调用

    其实我们简单的思考一下就知道了,无论是一对一,还是一对,甚至是的情况,核心的问题,都是如何处理跨域的问题,如果浏览器不存在跨域的话,我们就可以任意的连接任何资源api了。 这样不仅可以实现连接,还可以方便服务管理,是不是很方便。 但是也有一个小问题,就是不好做服务之间的业务处理,比如我要在blogcore某个业务中,使用is4的用户数据,也就是跨项目跨数据库实现业务逻辑和事务,该怎么办呢,别着急,我项目中已经集成了库操作,来看看吧 其实这种写法呢,应该不符合今天内容的主旨,这么写虽然可以任意的再后端做库处理,写业务了,但是如果微服务多了怎么办,又不好做控制,负载什么的。 那为什么我还要拿出来说一下呢,主要是想引出第四种方案,就是微服务下,在使用网关、做服务治理、负载均衡的情况下,如何实现服务之间的调用。 5、如果有第四种方案?

    92820编辑于 2022-04-11
  • 来自专栏cloudskyme

    一起玩转微服务8)——服务拆分原则

    •X 轴 :水平复制,即在负载均衡服务器后增加多个web服务器。•Y 轴 :功能分解,将不同职能的模块分成不同的服务。 •Y轴 :面向服务分割,基于功能或者服务分割,例如电商网站可以将登陆、搜索、下单等服务进行Y轴的拆分,每一组服务再进行X轴的扩展。 •Z轴 :面向查找分割,基于用户、请求或者数据分割,例如可以将不同产品的SKU分到不同的搜索服务,可以将用户哈希到不同的服务等。 总结 要做好微服务的分层:梳理和抽取核心应用、公共应用,作为独立的服务下沉到核心和公共能力层,逐渐形成稳定的服务中心,使前端应用能更快速的响应多变的市场需求。 对于服务的拆分,要使用迭代演进的方式,不能一次性完成所有的服务的拆分,需要确保团队可接受,粒度适中,同时需要优先考虑API的版本兼容性。不能够单纯以代码量来对服务拆分的成果进行评估。

    1.2K20发布于 2020-06-22
  • 来自专栏用户7873631的专栏

    laravel8.x 单文件上传接口开发

    } }else{ return ['code' => 400, 'msg' => '非法请求']; } } } 文件上传

    63920编辑于 2023-10-16
  • 来自专栏John Wong's Blog

    KubeSphere3.0启用k8s集群

    概述 集群功能涉及到多个集群之间的网络连通,了解集群之前的网络拓扑有助于减少接下来的工作量。 集群功能需要创建一个 Host Cluster,实际即是一个开启了集群功能的 KubeSphere 集群,简称 H 集群。 如果 H 集群不能直接访问 M 集群,可以通过暴露 H 集群代理服务地址,M 集群通过代理来创建和 H 集群的网络连接。 代理连接的方式适用于 M 集群处在非公开的 IDC 机房等私有环境,而 H 集群有能力暴露代理服务的场景。 3.1. tower,type 为 LoadBalancer 的代理服务

    1.5K20编辑于 2021-12-23
领券