首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 【vSAN分布式存储服务器数据恢复】VMware vSphere vSAN ESXi超融合HCI分布式存储数据恢复案例

    整个VMware vSphere共控制多个集群,其中出现故障的集群使用的vSAN分布式结构存储,该vSAN由10台华为2288H V5 存储构成,每一台存储由2块HDD(物理盘)和一块SSD(闪存盘)构成 2.恢复方案为确保数据的安全性,需要将10台存储的所有硬盘单独取出,并逐一进行完整的扇区镜像,再对镜像盘进行恢复操作;逐一镜像完成后,使用我司自主研发的VMware vSAN数据恢复系统对镜像文件进行扫描 三:案例总结随着数据存储量越来越大,一般的存储难以满足很多大公司的使用需求,故数据中心服务器出现了各种虚拟化平台,这些平台为了更好的幸好和方便管理,都自研了一些独有的存储方式,其中最常见的就是分布式存储是基于 VMware vSphere ESXi虚拟机所创建的vSAN分布式存储架构。 在恢复vSAN数据的过程中,获取组件信息是最关键的,因为组件是每个对象的重要组成部分。

    61020编辑于 2024-08-16
  • 【vSAN分布式存储服务器数据恢复】VMware vSphere vSAN 分布式存储虚拟化平台VMDK文件1KB问题数据恢复案例

    一:案例描述知己知彼,方能百战百胜,数据恢复也是一样,详细了解数据丢失的过程,可以使数据恢复更加简单,与客户详细沟通得知故障原因如下:整个VMware vSphere共控制多个集群,其中出现故障的集群使用的 vSAN分布式结构存储,故障原因是一台存储中的1个磁盘组的闪存盘出现故障,磁盘指示灯报错,但是数据能够正常使用,于是更换一块新的SSD硬盘上去,但之前的磁盘组不认这个硬盘,故磁盘组失效,维护人员重新选择该磁盘组的 但没有使用该策略的虚拟机则不能自动恢复,出现数据丢失。 第三步:依据获取的虚拟对象ID,从硬盘提取隶属于该ID的组件成员,重组RAID,获取丢失的数据,提取vSAN分布存储在该磁盘组中的组件数据,可以提取出整个虚拟对象的组件,然后重组RAID即可恢复出丢失的数据 三:案例总结vSAN是一种以vSphere内核为基础进行开发,基于VMware ESXi虚拟化平台的可扩展的分布式存储架构。vSAN通过在vSphere集群主机当中安装闪存和硬盘来构建vSAN存储层。

    53620编辑于 2024-08-16
  • 来自专栏数据恢复案例

    实例解析vsan分布式存储架构故障如何恢复数据

    VSAN是一种应用于服务器、存储的以vSphere内核为基础进行开发、可扩展的分布式存储架构。VSAN通过在服务器vSphere集群主机当中安装闪存和硬盘来构建VSAN存储层。 这些设备由VSAN进行控制和管理,VSAN形成一个供vSphere集群使用的统一共享存储层。 vsan数据恢复;服务器数据恢复成功案例;北亚数据恢复中心.png 二、服务器数据恢复检测过程 服务器数据恢复中心接到客户的咨询电话后30分钟内从北京总部安排工程师上门进行服务器数据恢复故障检测,服务器数据恢复工程师到达客户现场后首先对客户服务器上的所有原始硬盘进行镜像备份 由于客户的服务器内存储的文件类型是数据库文件,所以服务器数据恢复工程师提取所有数据后首先在数据恢复服务器上安装客户的数据库环境将恢复出来的数据库文件还原到数据恢复服务器上进行正确性验证。 四、服务器数据恢复结果验证 服务器数据恢复完成后由客户管理员对数据恢复结果进行验证,经验证所有数据全部恢复,本次数据恢复成功率为100%。

    1.7K20发布于 2019-12-03
  • 来自专栏散尽浮华

    GlusterFS分布式存储数据恢复机制(AFR)的说明

    GlusterFSFS恢复数据都是基于副本卷来说的,GlusterFSFS复制卷是采用镜像的方式做的,并且是同步事务性操作。 那么在写某一个副本时发生故障没有写成功,或者运行过程中某一个节点断电了,造成数据丢失了,等等,就能通过另一个副本来恢复。 现在这里说一个疑问: 就是GlusterFS写副本时同步写的,就是客户端同时写两份数据,这样就会产生两倍的流量,测2副本的分布式复制卷性能时,能明确看到性能只有无副本的一半,或者只有读的一半;另一个分布式文件系统 ceph就不是这样,是异步来写副本的,就是写到一个主OSD(ceph的存储单元)就返回了,这个OSD再通过内部网络异步写到其他的OSD,这样不是更快了。 涉及到数据恢复,有如下几种场景: 1)所有文件都是IGNORANT,这是手动触发了heal,也就是通过命令,这是怎么恢复呢,就找UID最小的文件作为源,去恢复大小为0的那些文件。

    2.2K50发布于 2018-04-18
  • 来自专栏数据恢复案例

    VSAN存储结构解析+存储数据恢复案例

    伴随着计算机网络的快速发展,vsan的存储结构也在不断的更新换代过程中,传统的存储管理机制中的底层存储不了解虚拟化和文件系统,新一代的存储管理机制将更新为基于对象存储系统、虚拟数据存储分布式存储。 VSAN数据数据存储结构;数据恢复案例.png VSAN数据存储是一个对象存储,以文件系统的形式呈现给vSphere主机,这个对象存储服务会从启用VSAN集群中的每台主机上加载卷。 将他们展现为单一的、在所有节点上可见的分布式共享数据存储,VSAN简化了存储配置,对于虚拟机来说,只有一个数据存储,这个分布式数据存储来自VSAN集群中每一台vSphere主机上的存储空间,通过磁盘组进行配置 vsan存储数据恢复案例。 ,因为现有的虚拟化程序没有针对VSAN的架构来恢复虚拟机的,北亚的工程师在分析底层数据存储结构的时候,也在做相应的程序开发,来测试数据分布信息的准确性。

    1.8K30发布于 2019-10-18
  • 【服务器数据恢复】H3C华三Ceph分布式存储文件丢失数据恢复案例

    2.恢复挑战在服务器没有备份容灾的情况下进行数据恢复是极具挑战性的,主要挑战包括:无备份可用:传统的恢复方式依赖于已有的备份,而在没有备份的情况下,需要通过日志文件、元数据和其他剩余数据来重建丢失的配置 系统复杂性:云平台与Ceph分布式存储的配置复杂,恢复过程中稍有不慎就可能造成数据的永久性丢失。时间紧迫:在实际业务环境中,服务的中断会带来巨大的损失,因此需要快速而准确地进行恢复。 3.案例评估客户已经找过多家数据恢复公司进行恢复操作,虽未能成功恢复数据文件,但已经把三台物理机的87块硬盘全部镜像为虚拟磁盘的镜像文件。 4.恢复方案1、初步解析在工作站上使用winhex查看物理盘和闪存盘,发现底层为ceph分布式存储,其下层是基于bluestore的分布式结构,“上层”使用leveldb算法,“中间层”使用rocksdb 4、将自建的SQL数据库与每块硬盘(osd)关联5、通过ID→head→空间信息→获取分配的地址信息5、开始数据文件的恢复提取五:案例总结经过紧张而有序的工作,我方技术团队终于成功恢复了Ceph分布式存储服务器集群的配置文件

    22310编辑于 2025-12-19
  • 来自专栏Web前后端、全栈出发

    分布式数据存储

    分布式数据存储 海量数据存储问题 如今随着互联网的发展,数据的量级也是成指数的增长 从GB到TB到PB 对数据的各种操作也是愈加的困难,传统的关系型数据库 已经无法满足快速查询与插入数据的需求 但是,在有些场合NoSQL一些折衷是无法满足使用场景的,就比如 有些使用场景是绝对要有事务与安全指标的 这个时候NoSQL肯定是无法满足的,所以还是需要使用关系性数据库 如果使用关系型数据库解决海量存储的问题呢 此时就需要做数据库集群 为了提高查询性能将一个数据库的数据,分散到不同的数据库中存储数据切分 什么是数据库分片 简单来说,就是指通过某种特定的条件 将我们存放在同一个数据库中的数据分散存放到多个数据库主机上,以达到分散单台设备负载的效果。 数据节点:dataNode 数据切分后,一个大表被分到不同的分片数据库上面,每个表分片所在的数据库就是分片节点(dataNode) 数据主机:dataHost 数据节点所在的主机 就是 数据主机 即:具体物理数据所在的数据库地址

    1.2K10编辑于 2024-08-06
  • 来自专栏北亚数据恢复中心

    RAID6存储断电数据恢复案例

    本次分享的案例是由于机房突然断电导致整个存储瘫痪,加电后存储依然无法使用。经过用户方工程师诊断后认为是断电导致存储阵列损坏。 由于部分虚拟机的数据盘很大,而数据很少。像这种情况就可以直接导出数据,然后新建一个虚拟磁盘,最后将导出的数据拷贝至新建的虚拟磁盘中即可。 统计了一下整个存储中虚拟机的数量,大约有200台虚拟机。 目前的情况只能通过上述方式将恢复的虚拟机一台一台的恢复到用户的ESXI中。由于是通过网络传输,因此整个迁移的过程中网络是一个瓶颈。 经过不断的调试以及更换主机最终还是无法达到一个理想的状态,由于时间紧张,最终还是决定在当前的环境迁移数据。 整个恢复过程,用户方要求紧急,我方也安排工程师加班加点,最终在最短的时间内将数据恢复出来。 后续的数据迁移过程中由我方工程师和用户方工程师配合完成,本次数据恢复圆满成功。

    1.2K20发布于 2021-09-27
  • 来自专栏北亚数据恢复中心

    存储崩溃MySQL数据恢复案例

    RAID5磁盘阵列,由于未知的原因导致存储忽然崩溃无法启动,RAID5阵列中的虚拟机全部丢失,其中3台虚拟机为重要数据,需要主要针对该3台虚拟机进行数据恢复。 一、分析存储底层次结构 工程师通过与客户的沟通及对RAID阵列的分析得出故障存储的底层结构为若干物理磁盘组成一个存储池,划分了多个LUN,需要进行数据恢复的为LUN1,其中包含重点恢复的3台虚拟机。 二、通过重组的RAID阵列提取LUN 通过对存储结构的进一步分析我们可以获取到存储划分的MAP块,进而对各个LUN的数据块指针进行解析,通过编写数据提取程序、提取LUN碎片。 四、通过分析数据库页提取数据 本次数据恢复的虚拟机内有mysql数据库,可以利用数据库底层存储的特殊性进行数据页扫描,提取数据。 七、数据验证 因为两个版本的数据库表结构不同,所以联系了客户方的应用工程师进行调试。调试完成后导入平台,平台调试成功,本次数据恢复成功。

    5.6K20发布于 2021-10-22
  • 来自专栏数据恢复案例

    存储上的数据丢失了怎么恢复

    一.服务器数据恢复故障描述 需要进行数据恢复的服务器共10个磁盘柜,每个磁盘柜满配24块硬盘。其9个存储柜用作数据存储使用,另外1个存储柜用作元数据存储使用。 存储及文件系统架构大致如下图一: 服务器数据恢复案例之硬盘离线数据恢复1.png 注:Meta_LUN(元数据卷) Data_LUN(用户数据卷) 二.磁盘备份 为防止服务器数据恢复过程中由于误操作对原始磁盘造成二次破坏 备份过程如下图二所示: 服务器数据恢复案例之硬盘离线数据恢复2.png 对故障RAID中的6块成员盘进行编号标记,将硬盘从存储柜中拔出,接入到准备好的备份平台上,对6块硬盘进行全盘备份。 登陆昆腾存储设备的管理界面,获取到StorNext文件系统中卷相关的一些基本信息,如下图四: 服务器数据恢复案例之硬盘离线数据恢复4.png 继续对StorNext文件系统中的Meta卷和Data卷进行分析 文件节点如下图六: 服务器数据恢复案例之硬盘离线数据恢复6.png 目录块如下图七: 服务器数据恢复案例之硬盘离线数据恢复7.png 四.数据恢复 通过分析研究我们已经获取到了恢复工作所需全部信息,开始编写程序

    2.7K40发布于 2019-08-21
  • 来自专栏北亚数据恢复中心

    IBM存储RAID5数据恢复案例

    本次北亚小编分享的案例是关于IBM存储DS3512,6块盘,坏了多块盘,导致阵列失效,数据丢失。 故障情况:IBM存储DS3512,6块盘,坏了多块盘,导致阵列失效,数据丢失。 【数据恢复过程】 客户存储中6块硬盘,一组RAID5,划分一个LUN,其中LUN分配给LINUX服务器,并格式化成ocfs2文件系统,之后共享给虚拟化使用,存放虚拟机文件。 6、数据提取 此次数据恢复工作中,我们根据客户的需求,首先由于部分虚拟机的优先级别和实效性非常高,需要尽快将其恢复出来,我们根据客户提供的具体的文件信息列表,编写脚本,读取数据库并重构文件的目录树,针对着急的虚拟机优先提取恢复数据恢复结果】 此次恢复工作共为客户挽回近1.4T数据,24台虚拟机、压缩包和配置文件,与客户紧密配合,24台虚拟机可以全部启动,虚拟机里布置的业务应用也成功启动,及时有效的为客户完成了全部的数据恢复

    1.8K30发布于 2021-02-01
  • 来自专栏数据恢复案例

    存储崩溃的数据恢复通用方法

    服务器数据恢复指的是通过技术手段将原本存储在服务器、存储设备内的,由于误操作、硬件故障、恶意攻击等原因丢失的数据进行修复提取的专业技术。 在介绍服务器数据恢复前我们首先需要了解服务器的数据结构、文件存储原理,今天小编通过一起华为s5300服务器数据介绍该型号服务器的数据存储结构和数据恢复原理。 表空间内存在大量坏块、所有控制文件被破坏,undotbs02丢失,数据数据恢复工程师只好对数据库文件进行修复,修复过程见下图: 服务器硬盘离线数据恢复成功案例1.png 北亚数据恢复中心服务器硬盘离线数据恢复成功案例 _01.png 北亚数据恢复中心服务器硬盘离线数据恢复成功案例_02.png 北亚数据恢复中心服务器硬盘离线数据恢复成功案例_03.png 北亚数据恢复中心服务器硬盘离线数据恢复成功案例_04.png 【服务器数据恢复结果验证】 经过数据数据恢复工程师对数据的修复和验证,最终成功恢复服务器内的数据库,服务器数据恢复工程师将修复成功的数据数据导入数据恢复服务器进行验证,所有数据正常,联系客户进行现场数据验证均无异常

    1.2K11发布于 2019-12-10
  • 来自专栏区块链交易系统

    区块链存储方式——分布式数据存储VS中心化存储

    区块链采用的分布式存储的方式。今天我们就来讲讲区块链的分布式存储和中心化存储的一些区别。 中心化存储VS分布式存储 在过去当中,一些中心化的数据存储数据量压力巨大导致网络堵塞,如果服务器出现宕机或者故障,或者服务器停止运营,则很多数据就会丢失。 区块链上的数字记录,不可篡改、不可伪造,智能合约让大家更高效地协同起来,从而建立可信的数字经济秩序,能够提高数据流转效率,打破数据孤岛,打造全新的存储模式。 每一次新旧秩序的更迭都会带来巨大的机会,而放在我们眼前的机会就是分布式存储。 随着5G通信时代的到来,传统的中心化存储必将逐渐被分布式存储所代替。 通过分布式技术解决了存储空间和网络资源的浪费,可以自动重新分配数据,从而实现了弹性扩展。它旨在建立新型的分布式加密存储网络,为用户提供高效的存储服务。

    2.7K31发布于 2020-11-19
  • 来自专栏北亚数据恢复中心

    EMC存储崩溃恢复案例

    本次分享的案例为EMC FC AX-4存储崩溃,整个存储空间由12块1TB STAT的硬盘组成的,其中10块硬盘组成一个RAID5的阵列,其余两块做成热备盘使用。 【备份数据】 考虑到数据的安全性以及可还原性,在做数据恢复之前需要对所有源数据做备份,以防万一其他原因导致数据无法再次恢复。 【数据恢复过程】 1、分析故障原因 由于前两个步骤并没有检测到磁盘有物理故障或者是坏道,由此推断可能是由于某些磁盘读写不稳定导致故障发生。 然后根据这些信息使用北亚RAID恢复程序,解释LUN的数据MAP并导出LUN的所有数据。 由用户方工程师进行验证,验证结果都没有问题,数据均完整,本次数据恢复成功。

    2.3K30发布于 2020-11-24
  • 来自专栏reizhi

    群晖存储空间损毁 Btrfs 数据恢复教程

    由于囊中羞涩,reizhi 一直在使用黑群晖作为家庭存储方案。不知何故,几天前突然提示存储空间已损毁。这种情况下白群晖是可以直接联系技术支持的,无奈我只好自己想办法解决。 如果你的群晖提示存储空间损毁,但 RAID 并没有异常,可以无需进行 RAID 清理。通过查看 S.M.A.R.T 状态,发现所有硬盘均处于健康状态,于是跳过这一步。 在原机安装 Ubuntu 时请注意不要将系统安装至存有数据的硬盘。安装镜像以及教程可以直接在官网获取,这里便不再赘述了。另外由于恢复过程耗时较长,不建议使用 LiveCD 来操作。 等待运行完成后终端会返回命令提示符,这时我们打开 /tmp/root.txt 文件,可以看到如下内容: 我们需要用到的数据是 Well block 后面的这一串数字,其后的 gen 数字越高,恢复的可能性越大 btrfs restore /dev/md/2 /tmp -D -v -F -i -t 此时仍然使用上一步中的 <block> 值,将 /tmp 改为导出目录,需要确保留有足够空间存储文件。

    11.8K20编辑于 2022-09-26
  • 来自专栏运维监控日志分析

    Elasticsearch 快照存储库实现数据灾备在线恢复

    可以使用数据和状态快照备份您的 Elasticsearch 索引和集群。快照很重要,因为快照会在出现问题时提供数据的副本。如果需要回滚到旧版本的数据,则可以从存储库中还原快照。 快照中的数据是增量进行了,即当前快照里面某个index的数据不在比它早的快照数据中,因此可以多次进行快照操作,而不用担心占用过多存储空间。 ? 数据节点:由于数据发布在各个节点,因此复制操作必须由数据节点执行,每个数据节点将快照请求中本地存储的主分片复制到仓库。 :TcqinZLhbJDFFgCqXF8r http://192.168.10.235:9200/_snapshot/repository/123 数据恢复到集群中 1、恢复单条索引 curl-XPOST-uelastic 编辑存储库 ? 验证存储库 ? 创建策略 ? ? ? ? 查看策略 ? 查看快照 ? 快照恢复 ? 快照恢复参数 ? 执行还原 ? 查看还原操作 ? 创建快照恢复索引名称 ? 查看快照恢复数据 ?

    2.6K31发布于 2020-12-08
  • 来自专栏小徐学爬虫

    分布式爬虫数据存储开发实战

    分布式爬虫的数据存储开发是保证系统高效、可靠、可扩展的核心环节。下面我将结合实战经验,深入讲解分布式爬虫数据存储的设计要点、常见方案、技术选型以及开发注意事项。 数据一致性: 分布式环境下,如何保证数据(特别是状态数据)的最终一致性或强一致性。容错与恢复: 节点故障时,数据不丢失,任务能重新分配。 数据存储架构设计要点通常采用分层存储策略,针对不同类型的数据选择最合适的存储方案:URL 状态与任务队列:需求: 高速读写、持久化、分布式锁、去重、优先级队列。 容错与恢复机制:存储层高可用: 选择支持副本、主从切换或分布式架构的存储(Redis Sentinel/Cluster, PostgreSQL Streaming Replication/PGPool, 测试恢复流程!

    40610编辑于 2025-07-01
  • 来自专栏全栈程序员必看

    恢复服务器安装信息被破坏了,服务器存储瘫痪数据恢复成功案例-服务器数据恢复

    一、服务器数据恢复故障描述 机房突然断电导致整个存储瘫痪,加电后存储依然无法使用。经过用户方工程师诊断后认为是断电导致存储阵列损坏。 数据盘大小不确定,并且数据盘都是精简模式。 二、服务器数据恢复备份数据 将故障存储的所有磁盘和备份sss数据的目标磁盘连入到一台Windows Server 2008的服务器上。 列表如下: 图五: 六、恢复数据 1、生成数据;北亚工程师跟客户沟通并且描述了目前恢复的情况。用户经过对几台重要的虚拟机验证后,用户反应恢复数据可以接受,接着北亚工程师立即着手准备恢复所有数据。 2、数据恢复总结;数据恢复过程中由于坏道数量太多,以致备份数据时花费了很长世间。整个存储是由坏道引起的,导致最终恢复数据有部分破坏,但不影响整体数据,最终的结果也在可接受范围内。 整个恢复过程,用户方要求紧急,我方也安排工程师加班加点,最终在最短的时间内将数据恢复出来。后续的数据迁移过程中由我方工程师和用户方工程师配合完成。

    3.9K30编辑于 2022-06-24
  • 【服务器数据恢复数据中心私有云Ceph分布式集群文件丢失数据恢复案例

    系统复杂性:KVM平台与Ceph分布式存储的配置复杂,恢复过程中稍有不慎就可能造成数据的永久性丢失。时间紧迫:在实际业务环境中,服务的中断会带来巨大的损失,因此需要快速而准确地进行恢复。 1.2分布式存储中元数据概述提取之前,首先要科普1下元数据的作用,方便大家理解:在分布式存储系统中,元数据是系统运转的关键,它不仅支撑了数据存储、访问、复制和恢复,还在负载均衡、安全管理、去重等方面发挥了重要作用 由于分布式存储系统的复杂性和规模性,元数据的管理和优化对系统的性能、可靠性和可扩展性有着直接影响。大概归类为:数据定位与访问:在分布式存储系统中,数据通常被拆分成多个块,并分布在不同的存储节点上。 如在本作的Ceph分布式存储系统中,CephMonitor维护了集群的元数据,包括存储池、数据副本位置和状态等。故障检测与恢复分布式存储系统需要处理节点故障、数据损坏等问题。 五:案例总结经过紧张而有序的工作,我方技术团队终于成功恢复了Ceph分布式存储服务器集群的配置文件,并确保了整个系统环境的稳定运行。

    25410编辑于 2025-12-18
  • 来自专栏北亚数据恢复中心

    DELL EQ存储恢复虚拟机文件恢复案例

    本次分享的是关于一台DELL EqualLogic PS 6011的存储恢复虚拟机文件的恢复案例,其底层是16块硬盘组成的RAID5,这组崩溃RAID5划分的VMFS文件系统,其中存放的是虚拟机文件, 从存储上硬盘的指示灯看到有两块盘亮黄灯,对收集到的日志信息进行分析,分析两块硬盘的掉线时间,从而得知哪块硬盘里面的数据是最新,用最新数据的硬盘进行数据恢复。 北亚数据恢复中心会对存储的所有硬盘都进行相应的备份。对镜像文件进行分析,保证用户的原介质的安全。 终于在用户需求的时间内将数据完整恢复,整个恢复过程一共历时7天。我们之前研究过DEll Equallogic的存储原理。 知道了DEll Equallogic的存储原理以后,关于它的所有数据灾难都可以进行恢复。 客户对数据进行验证后,发现数据可用,本次数据恢复成功。

    1.7K20发布于 2021-10-18
领券