首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏山河已无恙

    CephCeph 是什么?

    Ceph 是什么? 我们今天要讲的 Ceph 也是其中的一种。 然后 SUSE 公司开始将 Ceph 用于其企业级存储产品,这标志着 Ceph 开始商业化。 完善和社区增长(2014-2017):Ceph 在此时已经成为大规模存储领域主要的开源解决方案之一。 与此同时,Ceph 社区也不断扩大,包括了来自多个公司和组织的贡献者。Ceph 还加入了 OpenStack 等重要的开源项目,使得 Ceph 在云计算领域得到了广泛应用。 Ceph 可以在普通硬件上运行,并且可以扩展到数百个节点。使用 CRUSH 算法来实现 数据分布和数据恢复,这使得 Ceph 具有高度可扩展性和高可用性。

    80920编辑于 2023-08-21
  • 来自专栏容器计算

    CephCeph安装源

    https://ralph.blog.imixs.com/2020/02/28/howto-install-ceph-on-centos-7/ 在 /etc/yum.repos.d/ 创建 Ceph [ceph] name=Ceph packages for $basearch baseurl=https://download.ceph.com/rpm-nautilus/el7/$basearch enabled=1 priority=2 gpgcheck=1 gpgkey=https://download.ceph.com/keys/release.asc [ceph-noarch] name gpgcheck=1 gpgkey=https://download.ceph.com/keys/release.asc [ceph-source] name=Ceph source packages ://download.ceph.com/keys/release.asc 然后直接安装就好了 yum install ceph

    1.1K11发布于 2021-01-07
  • 来自专栏开源部署

    Ceph监控Ceph-dash安装

    Ceph的监控有很多啊,calamari或inkscope等,我开始尝试安装这些的时候,都失败了,后来Ceph-dash走入了我的眼帘,Ceph-dash根据官方描述,我个人觉得是最简单安装的了,但是安装过程中出现的不好使用的情况 版本:0.80.7 进入正题: 首先下载ceph-dash,如果不好用,就到 https://github.com/Crapworks/ceph-dash下载 下载完毕后,按照官网给的提示安装,步骤如下 clone this repository place it on one of your ceph monitor nodes run ceph-dash.py point your browser to http://ceph-monitor:5000/ enjoy! 因为ceph-dash是Python写的,我没有成功是缺少了ceph的一些额外的软件包:Flask,安装完成Flask之后,再运行ceph-dash应该就OK了,如果你还是不OK,那么我也没办法了,因为我就遇到的是这个错误

    68210编辑于 2022-07-03
  • 来自专栏sktj

    ceph OpenStack与Ceph对接

    1、 image.png image.png image.png image.png image.png image.png image.png image.png

    68840编辑于 2022-05-18
  • 来自专栏全栈程序员必看

    ceph S3_ceph minio

    ceph后遇到麻烦可以使用以下命令进行清除包和配置 #ceph-deploy purge ceph1 ceph2 ceph3 #ceph-deploy purgedata ceph1 ceph2 ceph3 #ceph-deploy forgetkeys 初始化,创建配置文件 cd ~/ceph-cluster ceph-deploy new ceph1 ceph2 ceph3 在生成的ceph.conf 中加入(写入[global] 段下) osd pool default size = 2 安装ceph ceph-deploy install cephadmin ceph1 ceph2 ceph3 配置初始 monitors ceph-deploy mon create-initial 新建osd 分别在ceph1,ceph2,ceph3节点上创建osd1,osd2,osd3目录 ssh ceph1 mkdir osd2 ceph3:/var/local/osd3 ceph-deploy osd activate ceph1:/var/local/osd1 ceph2:/var/local/osd2 ceph3

    85130编辑于 2022-09-27
  • 来自专栏sktj

    ceph CloudStack+KVM对接ceph

    1 image.png image.png

    68620编辑于 2022-05-18
  • 来自专栏zhangdd.com

    zhangdd谈ceph(一)初识ceph

    最近在研究ceph分布式存储,刚开始接触时感觉很混乱,无从下手的感觉。 今天第一篇,ceph历史此处不在多说,大家只需清楚ceph的最大特点:充分发挥存储本身的计算能力和去除所有的中心点。 Ceph有以下优势: CRUSH算法 Crush算法是ceph的两大创新之一,简单来说,ceph摒弃了传统的集中式存储元数据寻址的方案,转而使用CRUSH算法完成数据的寻址操作。 在国内一些公司的云环境中,通常会采用ceph作为openstack的唯一后端存储来提升数据转发效率。 二、CEPH的基本结构 Ceph的基本组成结构如下图: ? · MDS(可选)为Ceph文件系统提供元数据计算、缓存与同步。在ceph中,元数据也是存储在osd节点中的,mds类似于元数据的代理缓存服务器。

    96630发布于 2018-08-01
  • 来自专栏学习之旅

    Ceph理解

    说明:整理ceph资料。 前言 2006年Sage Weil发表了Ceph论文,启动一个伟大的开源项目ceph。 ---- Ceph简介 Ceph的设计思路以及基本组件,用于理解Ceph的架构设计、CRUSH、RADOS等概念,并且知道基于Ceph的RBD、RGW和CephFS等服务。 backup_ceph_conf=/etc/ceph/ceph.conf backup_ceph_user=cinder-backup backup_ceph_chunk_size=134217728 ---- Ceph监控 这一章将介绍Ceph的监控与运维,搭建Ceph是一次性的工作,但运维Ceph却是长久的任务,幸运的是Ceph本身提供了很好的监控管理工具,方便我们管理Ceph集群。 通过本章我们可以学到Ceph官方提供的ceph-rest-api,并带领大家一步一步实现基于ceph-rest-api的Web监控管理工具 ---- Ceph-rest-api 简介 Ceph-rest-api

    2.7K21发布于 2019-02-27
  • 来自专栏容器计算

    CephCeph集群的pg auto scale

    运维 Ceph 集群的朋友应该会感受到,如果经常扩容,上了 OSD 之后,又还需要去计算一遍 pg 的个数,然后再设置一次,还是比较麻烦的,而且公式本身比较简单,为什么不能让 pg 打到阈值之后自动分裂扩展呢 ceph osd pool autoscale-status ceph osd pool set default.rgw.buckets.index pg_autoscale_mode on 开启之后会发现

    1.8K20发布于 2020-11-24
  • 来自专栏容器计算

    Ceph】Minio Browser浏览ceph对象文件

    MiniO Browser 可以对接支持 S3 协议的 Ceph RGW,因为用 s3cmd 这些工具去管理对象文件还是比较麻烦,而且不够直观的,Minio Browser 正好提供了一套 UI 来访问 、上传对象文件,创建桶和分享文件这些功能,还是相当实用的,如果不想自己开发基于 Ceph RGW 的对象文件页面管理,那么可以直接用 MiniO Browser。

    1.5K10发布于 2021-03-02
  • 来自专栏zhangdd.com

    ceph优化记录 ceph.conf优化详解

    记录一下一些ceph优化的设置,部分内容来自网络,有些请根据自己需求相应修改 1、  Kernel pid max echo 4194303 > /proc/sys/kernel/pid_max 2、  echo “deadline” >/sys/block/sd[x]/queue/scheduler echo “noop” >/sys/block/sd[x]/queue/scheduler 6、  ceph.conf /mon/ceph-$id mon clock drift allowed = 1 #默认值0.05#monitor间的clock drift mon 等待的秒数 ############################################################## [osd] osd data = /var/lib/ceph/osd /ceph-$id osd journal size = 20000 #默认5120 #osd journal大小 osd journal = /var/lib

    2.9K30发布于 2018-08-01
  • 来自专栏全栈程序员必看

    ceph常用命令详解_ceph osd

    查看OSD的状态 # 查看集群的osd状态 # 查看指定osd的状态:ceph osd dump 3 [root@node1 ~]# ceph osd dump epoch 242 fsid a1001d7b-e11e 开启OSD #开启后再次接收数据 [root@node1 ~]# ceph osd unpause 16. 查看OSD参数 [root@node1 ~]# ceph --admin-daemon /var/run/ceph/ceph-osd.1.asok config show 17. #ceph osd primary-affinity <osd-id> <weight> [root@node1 ~]# ceph osd primary-affinity 2 1.0 # 提取crush图 # 提取最新crush图 # ceph osd getcrushmap -o {compiled-crushmap-filename} [root@node1 ~]# ceph osd

    1.9K20编辑于 2022-11-17
  • 来自专栏一个默默无闻的工程师的日常

    使用ceph-ansible部署Ceph Octopus

    之前用的是 ceph-deploy 部署 ceph 集群,在官网的最新介绍中有如下描述: ceph-deploy is no longer actively maintained. node02.ceph.local node03.ceph.local [mgrs] node01.ceph.local node02.ceph.local node03.ceph.local [ osds] node01.ceph.local node02.ceph.local node03.ceph.local [rgws] node01.ceph.local node02.ceph.local node03.ceph.local [mdss] node01.ceph.local node02.ceph.local node03.ceph.local [grafana-server] node01 .ceph.local ceph-ansible配置 1.下载 ceph-ansible 下载 5.x 版本的 ceph-ansible # wget https://github.com/ceph/ceph-ansible

    4.7K30发布于 2021-01-03
  • 来自专栏jeremy的技术点滴

    初识ceph

    Ceph存储集群包含两种类型的守护进程: Ceph监视器、Ceph OSD守护进程。 Ceph监视器维护着集群运行图的主副本。一个监视器集群确保了当某个监视器失效时的高可用性。 存储集群客户端向Ceph监视器索取集群运行图的最新副本。 Ceph OSD守护进程检查自身状态、以及其它OSD的状态,并报告给监视器们。同时Ceph OSD守护进程负责将数据存储为扁平的对象。 Ceph客户端要进行IO读写操作流程如下: Ceph客户端负责把展现给用户的数据格式(一块设备映像、 REST 风格对象、 CephFS 文件系统目录)转换为可存储于 Ceph 存储集群的对象 Ceph 客户端先连接到某个 Ceph 监视器、获得最新的集群运行图副本 Ceph客户端根据对象的ID及存储池的ID计算得出目标PG的ID Ceph客户端得到目标PG的主OSD地址,连接该OSD进行读写操作 ? 在管理节点执行下面的命令 ceph-deploy install ceph-client ceph-deploy admin ceph-client CentOS6需升级内核才能有brd内核模块,所以在

    1.2K60发布于 2018-05-10
  • 来自专栏云计算与大数据

    Ceph|历史

    直至 2017 年底,上游 Ceph 项目都采取每年发布两个稳定版本的做法。自“Mimic”发行版起,Ceph 项目将按 9 个月发布计划运作。 在过去,红帽都使红帽 Ceph 存储的发行版与上游 Ceph 的 LTS 版一致。自“Infernalis”稳定发行版起,上游 Ceph 项目已采用了新的版本号编号方案。每一稳定发行版递增主要版本号。 Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式的存储系统。 “统一的”意味着Ceph可以一套存储系统同时提供对象存储、块存储和文件系统存储三种功能,以便在满足不同应用需求的前提下简化部署和运维。 而“分布式的”在Ceph系统中则意味着真正的去中心结构和没有理论上限的系统规模可扩展性。 ? ? ?

    1.1K10发布于 2020-07-21
  • 来自专栏学习之旅

    Ceph CookBook

    up ceph-node1 ceph-node2 ceph-node3 //包在国外,注意访问外国网站 vagrant status ceph-node1 ceph-node2 ceph-node3 ceph-node3 ceph -v //查看安装好的ceph版本信息 在ceph-node1上创建第一个Ceph monitor: sudo ceph-deploy mon create-initial 到ceph-node2与ceph-node3: cd /etc/ceph sudo ceph-deploy mon create ceph-node2 sudo ceph-deploy mon create 这时仿照ceph-node1创建osd的过程在ceph-node2.ceph-node3上创建osd sudo ceph-deploy disk list ceph-node2 ceph-node3 / ---- 实践中使用ceph集群 简单的命令来体验ceph集群:#1.检查ceph安装状态 ceph -s ceph status //同上 #2.观察集群健康状况 ceph -w #3.检查Ceph

    1.9K31发布于 2019-02-27
  • 来自专栏Godev

    外包技能--ceph-deploy安装ceph集群

    ceph-deploy安装ceph集群一、主机环境主机IPceph版本ceph集群角色192.168.201.14413.2.8mon、mgr、osd192.168.201.14513.2.8mon、mgr 、osd192.168.201.14613.2.8mon、mgr、osd二、安装部署2.1、配置ceph yum源echo '[ceph-noarch]name=Ceph noarch packagesbaseurl =https://mirrors.aliyun.com/ceph/rpm-mimic/el7export CEPH_DEPLOY_GPG_URL=https://mirrors.aliyun.com/ceph 部署工具yum install -y ceph-deploy2.5、初始化Mon配置mkdir /etc/ceph && cd /etc/ceph/ceph-deploy new --public-network ## 添加了可以删除osd pool参数2.7、ceph集群ceph-deploy install --release mimic ceph0{1,2,3}2.8、初始化mon和秘钥证书ceph-deploy

    87520编辑于 2023-08-02
  • 来自专栏Thierry的云原生分享

    Ceph简介

    当时Ceph并不稳定(Ceph发布的第四个版本 Dumpling v0.67),而且架构新颖,复杂,当时人们对Ceph在生产落地如何保障数据的安全,数据的一致性存在怀疑。 服务架构一个 Ceph 存储集群至少需要一个 Ceph Monitor(监视器)、Ceph Manager(管理器) 和 Ceph OSD(对象存储守护进程)。 ceph-osd 相互之间协调工作时,需要从 ceph-mon 中获取这些表的信息。ceph-mon 还负责管理 ceph-osd 和客户端之间的身份验证。 文件存储不管是来自 Ceph 块设备、 Ceph 对象存储、 Ceph 文件系统、还是基于 librados 的自定义存储,将数据存储到 Ceph 集群上的步骤大致相同,大概可以归纳为Ceph客户端将数据存放在存储对象中 Ceph编排工具Ceph社区开发了多种编排工具,方便你快速构建一个Ceph集群。如果你想在物理机上以传统后台服务的方式运行你的集群,可以使用基于ansible框架开发的ceph-ansible。

    2.4K72编辑于 2022-11-08
  • 来自专栏开源部署

    Fedora 19使用ceph-deploy部署Ceph笔记

    最近用一组Fedora 19的虚拟机部署了一下ceph 0.81,由于ceph有了简化的部署工具ceph-deploy,看起来部署是个相当简单的过程,理论上应该就是下面几步: 0. 实验环境下,删除所有iptables规则以及在所有机器间建立ssh信任,添加ceph的yum repo ceph-deploy new MON OSD1 OSD2 OSD3 ceph-deploy install MON OSD1 OSD2 OSD3 ceph-deploy mon create-initial MON ceph-deploy gatherkeys MON OSD1 OSD2 OSD3 ceph-deploy osd prepare OSD1:/dir OSD2:/dir OSD3:/dir ceph-deploy osd activate OSD1:/ 本人在实际操作中发现需要做如下补充: fedora 19需要安装几个ceph需要的软件包(为什么ceph-deploy不能自己检测一下?)

    33030编辑于 2022-07-03
  • 来自专栏容器计算

    Cephceph cluster log瞬间打满日志盘

    ceph cluster log 定位为记录 ceph 事件的日志,通常情况下,ceph -w 也能捞到跟默认日志 /var/log/ceph/ceph.log 一样的信息,如下图。 ? 昨天出现一种异常的情况,就是 ceph 突然发了很多事件,导致这个日志文件突然暴增,一分钟能写好几个 G,仔细一看,原来这个日志等级默认是 debug,因为我们部署的时候 ceph mon 是放在根分区下面 ,跟日志是一起的,如果这个日志突然暴增,很容易导致 mon 因为本地空间不足而挂掉,这样不管是 ceph -s 还是其他命令,全部都会因为 mon 挂掉而卡住。

    1.1K40发布于 2021-01-18
领券