首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数据和云

    YH10:分布式存储解决方案zData

    ,研发出一套分布式存储解决方案 zData. 高达超百万IOPS,吞吐量超过10GB/s。 ? ? zData方案以下面两种形态为企业提供优质服务: 分布式存储管理软件zData Light Storage zData Light Storage 充分利用基于x86服务器的内部直连式存储来创建虚拟的、 在基准测试下,三个存储节点的zData架构,可以实现近 100万 IOPS,以及超过10GB/s的吞吐量。 现在基于zData的PaaS平台,能够低成本、低要求的实现数据库的部署、运维和扩展,通过zData分布式存储管理软件将资源池化,实现资源的按需分配和灵活回收。 ?

    1.9K40发布于 2018-03-07
  • 来自专栏明志德到的IT笔记

    分布式存储

    分布式存储 分布式存储的思想是什么 分布式存储的思想是将数据分散存储在多个节点上,以提高数据的可靠性、可扩展性和性能。 RAID 10:也称为RAID 1+0或镜像条带化(Mirrored Striping),将多个RAID 1组合成一个RAID 0阵列。 RAID 10提供了较好的读写性能和冗余备份,但需要更多的硬盘空间。 除了上述常见的RAID级别外,还有其他一些RAID级别,如RAID 2、RAID 3、RAID 4、RAID 7等。 定期进行数据备份是保护重要数据安全的重要措施 分布式存储的组成元素:数据的使用者、数据的索引者、数据的存储分布式存储是一种将数据存储在多个节点上的存储系统,它包含以下三个主要组成元素: 数据的使用者 索引和存储节点之间的协作使得分布式存储系统能够提供高性能、高可用性和可扩展性的数据访问服务。 分布式数据库 分布式数据库是一种将数据存储在多个节点上的数据库系统。

    2K10编辑于 2023-12-18
  • 来自专栏WalkingCloud

    Ceph分布式存储之对象存储

    为了使用 REST 接口, 首先需要为 S3 接口初始化一个 Ceph 对象网关用户. 然后为 Swift 接口新建一个子用户.

    4.5K30发布于 2020-01-17
  • 来自专栏devops_k8s

    longhorn分布式存储

    1 简介 Longhorn是用于Kubernetes的开源分布式存储系统; 如今,基于云和容器的部署规模日益扩大,分布式存储系统也正变得越来越复杂,单个存储控制器上的volume 2000年代初,存储控制器上的volume数量只有几十个,但现代云环境却需要数万到数百万的分布式存储卷。存储控制器变成了高度复杂的分布式系统。 分布式存储本身比其他形式的分布式存储(如文件系统)更简单。无论系统中有多少volume,每个volume只能由单个主机进行装载。 replica是在底层磁盘或网络存储上精简配置的。 为每个volume创建一个专用的存储控制器:这可能是与大多数现有的分布式存储系统相比,Longhorn最具特色的功能。 大多数现有的分布式存储系统通常采用复杂的控制器软件来服务于从数百到数百万不等的volume。

    3.1K20发布于 2021-11-13
  • 来自专栏Web前后端、全栈出发

    分布式数据存储

    分布式数据存储 海量数据的存储问题 如今随着互联网的发展,数据的量级也是成指数的增长 从GB到TB到PB 对数据的各种操作也是愈加的困难,传统的关系型数据库 已经无法满足快速查询与插入数据的需求 在有些场合NoSQL一些折衷是无法满足使用场景的,就比如 有些使用场景是绝对要有事务与安全指标的 这个时候NoSQL肯定是无法满足的,所以还是需要使用关系性数据库 如果使用关系型数据库解决海量存储的问题呢 此时就需要做数据库集群 为了提高查询性能将一个数据库的数据,分散到不同的数据库中存储。 --> <dataHost name="localhost1" maxCon="1000" minCon="<em>10</em>" balance="0" writeType="0" dbType="mysql"

    1.2K10编辑于 2024-08-06
  • 来自专栏开源部署

    分布式存储-GlusterFS

    一、分布式存储介绍 我们知道NAS是远程通过网络共享目录, SAN是远程通过网络共享块设备。那么分布式存储你可以看作拥有多台存储服务器连接起来的存储输出端。 常见的分布式存储开源软件有:GlusterFS,Ceph,HDFS,MooseFS,FastDFS等。 介绍 glusterfs是一个免费,开源的分布式文件系统(它属于文件存储类型)。 ;如果两台存储服务器不同,就会出现木桶效应 复合卷 distribute replica volume 分布式复制卷: 图片 说明:是分布式卷与复制卷的组合,兼具两者的功能,若干brick组成1个复制卷 : 分散式(冗余式),例如,数据保存在10个brick中,每个brick有1T,10个brick中有3个是作为冗余brick,作为数据校验,不做存储

    7.4K20编辑于 2022-09-15
  • 来自专栏大话IT架构

    存储05-传统存储分布式存储对比

    传统存储经过这些年的发展,目前已经进入逐步沦落为烂大街的现象;而这几年分布式存储在如火如荼的发展中,尤其是在X86服务器作为存储硬件的事实标准下大大降低了存储的准入门槛,引发了无数的新兴创业公司涌入存储领域 客户使用4-5年的时候厂家停止维保,生命周期周期结束) 3)存储生命周期结束之前1年,客户要进行新存储采购和数据迁移 4)容量和性能水平扩展性有限 5)数据迁移期间业务有感知,各种协调业务 2.分布式存储的优点 4)可以避免每隔几年就进行一次数据迁移(重复劳动且没有任何意义,纯粹为了换硬件而迁移) 5)对业务友好,对存储管理部门友好(底层操作对业务来说无感知,业务不需要陪着存储部门一起折腾) 特别说明 1)分布式存储也不便宜 ,和传统存储一样价格高昂;反正都是价格高昂,但是分布式存储可以避免后面一系列的因为产品寿命到期替换折腾。 2)分布式存储贵是贵在软件上;传统存储不仅软件贵,硬件也同样贵 3)分布式特指存储产品的架构,可以scale-out 4)分布式存储完全可以满足各种业务场景(如数据库、海量文件存储等) ?

    3.8K21发布于 2020-03-31
  • 来自专栏分布式存储

    ceph 分布式存储-块存储(RBD)搭建

    管理存储池 1.1 创建存储池 PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值) #ceph crush-ruleset-name] $ ceph osd pool create test_pool 512 512 replicated pool 'test_pool' created 1.2 删除存储池 ceph osd pool delete test_pool test_pool --yes-i-really-really-mean-it pool 'test_pool' removed 1.3 重命名存储池 test_data,3 test_metadata,5 test,6 benmark_test,7 .rgw.root,8 default.rgw.control,9 default.rgw.meta,10 下面的命令将创建一个10GB大小的块设备: $ rbd create --size 10240 test_image -p test_pool 2.2 删除块设备镜像 #rbd rm {pool-name

    4.6K20发布于 2020-07-20
  • 来自专栏分布式存储

    ceph分布式存储-对象存储(RGW)搭建

    bucket.name, created=bucket.creation_date, ) 4.2.3 执行测试 $ python s3_test.py my-new-bucket 2017-10

    5.6K20发布于 2020-07-20
  • 来自专栏分布式存储

    ceph 分布式存储-文件存储(CephFS)搭建

    存储池 2.1 创建存储池数据 #ceph osd pool create cephfs_data <pg_num> $ ceph osd pool create cephfs_data 128 pool 'cephfs_data' created 2.2 创建存储池元数据 #ceph osd pool create cephfs_metadata <pg_num> $ ceph osd pool create cephfs_data 128 pool 'cephfs_metadata' created 2.3 查看存储池 $ ceph osd lspools 1 rbd,2 test_data, 3 test_metadata,5 test,6 benmark_test,7 .rgw.root,8 default.rgw.control,9 default.rgw.meta,10 default.rgw.log #Ceph 存储集群默认要求认证,需指定相应的密钥环文件 #sudo ceph-fuse -n client.

    6.2K30发布于 2020-07-20
  • 来自专栏码上遇见你

    分布式基础概念-分布式存储

    如何实现分库分表 将原本存储于单个数据库上的数据拆分到多个数据库,把原来存储在单张数据表的数据拆分到多张数据表中,实现数据切分,从而提升数据库操作性能。 具有一定的业务可读性,强依赖db、存在性能瓶颈,存在暴露业务信息的风险 可以利用Redis,MongoDB,ZK等中间件:增加了系统的复杂度和稳定性 雪花算法 雪花算法原理 第一位符号位固定为0,41位时间戳,10 Session的分布式方案 采用无状态服务,抛弃session 存入cookie(有安全风险) 服务器之间进行Session同步,这样可以保证每个服务器上都有全部的Session信息,不过当服务器数量比较多的时候 使用Nginx(或其他复杂均衡软硬件)中的IP绑定策略,同一个IP只能在指定的同一个机器访问,但是这样做失去了负载均衡的意义,当挂掉一台服务器的时候,会影响一批用户的使用,风险很大; 使用Redis存储 把Session放到Redis中存储,虽然架构上变得复杂,并且需要多访问一次Redis,但是这种方案带来的好处也是很大的: 实现了Session共享; 可以水平扩展(增加Redis服务器); 服务器重启

    71220编辑于 2023-11-13
  • 来自专栏星汉技术

    Redis入门:分布式存储

    Redis入门:分布式存储 要完成数据的分片存储,需要多个redis实例。 1 多个REDIS实例 前面的单个redis节点实例的启动时默认配置端口号6379。 size is needed, it is possible to specify 9 # it in the usual form of 1k 5GB 4M and so forth: 10 save 300 10 当300秒以内,至少10条数据变动,保存文件。 save 60 10000 当60秒内,有10000条数据变动,保存文件。 保持默认规则即可,也可按照实际需求进行配置。

    1.7K30编辑于 2022-03-24
  • 来自专栏全栈程序员必看

    分布式文件存储——简介

    1、分布式文件系统种类简介: 常见的分布式文件系统有:GlusterFS、GoogleFS、FastDFS、TFS等,各自适用的领域不同,它们都不是系统级的分布式文件系统,而是应用级的分布式文件存储服务 用于大型的、分布式的、对大数据进行访问的应用。运用在廉价的硬件上。 FastDFS:一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储、文件同步、文件访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。 TFS:TFS(Taobao FileSystem)是一个高可扩展、高可用、高性能、面向互联网服务的分布式文件系统,主要针对海量的非结构化数据,它构筑在普通的Linux机器集群上,可为外部提供高可靠和高并发的存储访问 2、fastDFS简介: FastDFS是一个开源的高性能分布式文件系统(DFS)。 它的主要功能包括:文件存储,文件同步和文件访问,以及高容量和负载平衡。

    4.6K30编辑于 2022-08-14
  • 来自专栏DevOps

    分布式存储:alluxio简介

    它为数据驱动型应用和存储系统构建了桥梁, 将数据从存储层移动到距离数据驱动型应用更近的位置从而能够更容易被访问。 这还使得应用程序能够通过一个公共接口连接到许多存储系统。 Alluxio 的优势包括: 内存速度 I/O :Alluxio 能够用作分布式共享缓存服务,这样与 Alluxio 通信的计算应用程序可以透明地缓存频繁访问的数据(尤其是从远程位置),以提供内存级 I 简化云存储和对象存储接入 :与传统文件系统相比,云存储系统和对象存储系统使用不同的语义,这些语义对性能的影响也不同于传统文件系统。 将 Alluxio 与云存储或对象存储一起部署可以缓解这些问题,因为这样将从 Alluxio 中检索读取数据,而不是从底层云存储或对象存储中检索读取。 当Alluxio与本地计算一同部署时,Alluxio可管理计算集群的存储并将应用所需数据本地化,从而实现: 通过智能分布式缓存提高读写性能 减少数据复制,从而节约网络成本 提供灵活API接口和云存储安全模式

    1.4K10编辑于 2024-03-29
  • 来自专栏分布式存储

    ceph分布式存储-块存储BlueStore性能测试

    per=3.33%, avg=80770.99, stdev=4432.59 lat (usec) : 1000=0.04% lat (msec) : 2=0.25%, 4=0.55%, 10 per=3.34%, avg=40089.91, stdev=6232.06 lat (usec) : 1000=0.03% lat (msec) : 2=2.71%, 4=0.86%, 10 11.71%, avg=67662.34, stdev=44038.16 lat (usec) : 1000=0.01% lat (msec) : 2=2.62%, 4=9.49%, 10 s] [0/141/0 iops] [eta 00m:08s] read-libaio: (groupid=0, jobs=30): err= 0: pid=40883: Tue Jan 16 15:10 min= 410, max=128000, per=12.24%, avg=70326.68, stdev=40733.29 lat (msec) : 2=2.17%, 4=9.19%, 10

    10.7K20发布于 2020-07-20
  • 来自专栏CSDN技术博客

    Glusterfs分布式存储部署

    (1) 分布式卷(distribute voulme) 分布式模式,既DHT,是GlusterFS的默认模式,在创建卷时,默认选项是创建分布式卷。 在配置时指定条带数必须等于卷中Brick 所包含的存储服务器数,在存储大文件时,性能尤为突出,但是不具备冗余性。 类似RAID 10,是 Striped 与 AFR 的组合型。 先组成RAID1,然后组成RAID0 RAID 10(又叫RAID 1+0)特点: 先按RAID 0分成两组,再分别对两组按RAID 1方式镜像 兼顾冗余(提供镜像存储)和性能(数据条带形分布) 主要是在IB-verbs或10G的以太网上用。

    4.8K50发布于 2021-08-10
  • 来自专栏全栈程序员必看

    分布式文件存储—fastDFS

    简单了解: • FastDFS 是一个轻量级的开源分布式文件系统 • 解决了大容量文件存储和高并发访问的问题,文件存取时实现了负载均衡 • FastDFS 实现了软件方式的 RAID ,可以使用廉价的 IDE 硬盘进行存储 • 支持存储服务器在线扩容 • 支持相同内容的文件只保存一份,节约磁盘空间, 配合 FastDHT 进行文件上传去重 • 特别适合大中型网站使用,用来存储资源文件 (图片,文档,音频,视频等等) 架构设计: 各个tracker server之间相互独立;同组的storageserver上的文件一致;不同组的 Storage Server:存储服务器,文件和meta data都保存到存储服务器上。

    90530编辑于 2022-09-05
  • 来自专栏方才编程

    图解分布式存储技术

    Hello 我是方才,10人研发leader、4年团队管理&架构经验。 文末,方才送你一份25年最新的架构师备考资料,记得领取哟! 一般大型的分布式微服务项目,都会涉及海量数据、高并发读写等场景,就需要用到分布式数据存储。 常见的包括MySQL集群、分布式数据库、搜索引擎、分布式对象存储分布式缓存系统等。 分布式缓存系统后续方才会单独讲解,今天我们先了解其他几个分布式数据存储架构。 TiDB(分布式数据库) 通过上面的内容,我相信大家能感受到使用MySQL集群去应对分布式存储的场景,技术复杂度和实施成本是极高的。 MinIO 是一个高性能、分布式、云原生的对象存储系统,专为存储和管理海量非结构化数据(如图片、视频、日志、备份文件等)设计。

    71210编辑于 2025-04-11
  • 来自专栏首富手记

    FastDFS 分布式文件存储

    FastDFS 分布式文件存储 什么是FastDFS? FastDFS是一个开源的轻量级的分布式文件系统。他解决了大量数据存储和负载均衡等问题。 FastDFS是一款开源的轻量级分布式文件系统,他是由纯 C 实现,支持Linux,FreeBSD等UNIX系统类,不是通用的文件系统,只能通过专有的API访问,目前提供了C、Java和PHP API为互联网应用量身定做 ,解决大容量文件存储问题,追求高性能和高扩展性FastDFS可以看做是基于文件的key value pair存储系统,称作分布式文件存储服务更为合适。 Storage server 存储服务器 存储服务器,又称为存储节点或者数据服务器,文件和文件属性(meta-data)都保存在存储服务器上。 sync_binlog_buff_interval=10 sync_stat_file_interval=300 thread_stack_size=512KB upload_priority=10

    2.7K31发布于 2019-12-24
  • 来自专栏开源部署

    搭建Ceph分布式存储

    配置node1节点的osd1存储设备: [yzyu@node1 ~]$ sudo fdisk /dev/sdc...sdc ##格式化硬盘,转换为GPT分区 [yzyu@node1 ~]$ / [yzyu@node1 ~]$ ls -ld /var/local/osd1/ [yzyu@node1 ~]$ df -hT [yzyu@node1 ~]$ exit 配置node2节点的osd1存储设备 6789/0,node2=10.199.100.172:6789/0}             election epoch 6, quorum 0,1 node1,node2      osdmap e10 /ceph/ceph.client.admin.keyring [yzyu@dlp ceph-cluster]$ ceph osd pool create cephfs_data 128   ##数据存储池 pool 'cephfs_data' created [yzyu@dlp ceph-cluster]$ ceph osd pool create cephfs_metadata 128   ##元数据存储

    1.7K10编辑于 2022-07-28
领券