在SAP S/4HANA迁移过程中需要考虑很多问题,而管理好数据足迹可以帮助企业取得成功。在本篇文章中,将了解SAP数据归档和系统停用如何简化迁移过程,从而为业务取得长期成功奠定基础。 但如果将未优化或未整理的数据迁移到新系统中可能会削弱这些优势。在迁移之前优化数据足迹可确保:■ 简化迁移过程,减少意外问题。■ 减少数据存储需求,节约成本。 S/4HANA迁移后的退役系统挑战在迁移到SAP S/4HANA后,企业通常为了保留历史数据而继续运行退役系统,但这会带来以下问题:■ 维护成本高:维持旧系统运行成本高昂且不可持续。 迁移到SAP S/4HANA是一项重要的任务。这不仅仅是系统升级的问题,更是重新思考企业如何管理数据、运营和发展的问题。■ 丰富的经验:凭借数十年的SAP转型项目经验,能够应对最复杂的迁移。 立即掌控您的数据足迹,携手SNP为成功的SAP S/4HANA迁移奠定基础。
S/4HANA 的引入和数据迁移到云是 SAP 用户公司的两个热门话题,到目前为止,这两个话题通常是单独讨论的。但是如果这两个项目能组合完成,在成本、系统停机时间和项目持续时间方面会具有明显优势。 图片03在这种情况下,SNP 的选择性迁移方法提供了哪些机会?SAP 系统在大多数公司中已经运行了多年,这通常会导致系统环境更复杂。数据质量通常是异构的,有许多自定义区域和大量接口。 我们的选择性迁移方法(Bluefield)作为云和S/4HANA转换的一部分提供了目标系统优化的机会:可以选择切断或存档某个关键日期之前未使用的区域或历史数据。 其结果是一个更精简、更高性能的目标系统,具有显著提高的数据质量和降低的云运营成本。例如,如果数据库仅达到 5TB而不是7TB,则在典型的三年云订阅期内可以节省数千欧元。 通过这种方式,可以在项目开始之前消除客户对云迁移和 S/4HANA 迁移方式的犹豫。使决策者意识到转型对他们自己公司的重要性以及带来的好处。
关键要点选择性数据转换(SDT)在棕地和绿地迁移之间提供了更灵活的折中方案,将选择性数据迁移与系统现代化相结合。 棕地迁移包括历史数据和交易数据的完整传输。空壳转换和混合迁移方法支持选择性数据迁移,使企业能够决定哪些数据是相关的。历史数据迁移的范围可以根据模块、对象、采购订单等进行选取。 在迁移期间管理历史数据在考虑迁移到SAP S/4HANA时,是否需要包含历史数据是确定选择性数据转换(SDT)方法是否合适的关键因素。 SDT可以有选择地迁移历史数据,无论是按时间范围(例如过去一两年)、公司代码,甚至具体到特定业务对象,均可实现精准迁移。与系统转换不同,SDT在数据库层级进行操作,以更短的停机时间实现海量数据迁移。 这意味着交易数据(如采购订单)可以完全按照源系统中的存在方式进行迁移。重要的是,无需提前存档所有历史数据 – 只需选择和迁移所需的数据。
生产上遇到一个迁移场景,大概1T数据量左右,由于没用XTTS做过迁移,所以准备尝试一下,本次迁移采用XTTS(增强传输表空间) V3版本的DBMS_FILE_TRANSFER方式。 要迁移的表空间:USERS、ORCLTBS 二、文档及脚本 mos 1389592.1 使用rman_xttconvert_v3.zip脚本 文档及脚本放到网盘中,公众号回复XTTS获取网盘地址 三 、迁移流程 3.1 前置条件检查 XTTS使用限制较多,V3版本按照本节逐项检查 3.1.1 目标库操作系统不能为Window 源库:CentOS 5.7 目标库:CentOS Linux 7.6.1810 ,需要将这部分数据首先移动到业务表空间,详见:【迁移】Oracle分区表及索引迁移表空间(https://www.modb.pro/db/42030) 迁移完成后,检查结果如下: ? ,消耗时间最多的是收集统计信息耗费3小时,其次是最后一次增量备占用1小时,再次是坏块检查; 2、收集统计信息部分,事后咨询专家后知道其实收集0.01%就可以; 3、设置源库表空间为read only后的增量备时间有点长
二、一次成功的数据迁移:5天迁完3年数据,零丢失前段时间,我们帮一家已经使用主流埋点分析系统(神策)3 年多的用户,完成了一次完整的数据迁移。 全程通过 ClkLog数据迁移工具,将用户原系统的历史数据完整迁移到ClkLog中,并实现了迁移后数据的正常分析使用。 迁移实施场景如下:1 个开发5 天时间(实际工作量可能会有偏差)3 年历史数据数据量:804万事件数据、381万用户数据 迁移后可在ClkLog 中直接查询、做分析、跑模型、继续服务业务通过本次迁移案例 ,我们可以相信,使用ClkLog数据迁移工具可以快速、稳定、安全地完成神策历史数据迁移,且确保数据可以继续使用。 正是在这次真实迁移过程中,ClkLog 对数据迁移方案进行了系统化设计。这次迁移实现了:埋点不变、代码不动、分析不断、历史数据可延续。
Configuration File for keepalived global_defs { router_id LVS_slave01 } vrrp_instance VI_3 { state MASTER interface eth0 virtual_router_id 3 priority 85 advert_int 1 authentication pts/0 S+ 00:28 0:00 \_ grep keep [root@slave01 tmp]# ---- 再次检查,确认备份数据 这是最后一次备份原数据的机会
再次检查,确认备份数据 这是最后一次备份原数据的机会 ---- 切换keepalived ip 变更新master keepalived优先级,重载的方式切换 [root@new-master ~]# keepalived reload ; watch -n .2 ip a 使用给新master keepalived 升优先级重载的方式切IP 使用 watch 来观察ip变化 ---- 从两边密切监控观察检查应用与数据库状态 使用netstat 观察到数据库的连接比如 :3306 在数据库里可以使用 show processlist 来看连接 (必要的时候可以停止原master数据库) [root@origin-master
时隔一年多,gevent 的作者 Denis Bilenko 终于从创业的百忙之中,抽出时间打算 review 我在 2012 年的时候完成的 gevent 到 Python 3 的迁移工作。 我尝试了做 merge,发现结果不是很理想,再加上对当时修改又不是很满意了,于是乎,我选择了参考原来的改动,重新迁移一次。 插叙一段小插曲。 接下来我分段介绍我这几个月用业余时间几乎做完的第二次迁移工作,希望能对也在做向 Python 3 迁移工作的同学们有点帮助。 Denis 对迁移工作的要求是,用同一套代码,同时支持 Python 2.6, 2.7 和 3.3。 这个美好的功能在这次 gevent 的迁移最后引来了好大一个麻烦,等讲到时再细说。 (未完待续,附项目地址:https://github.com/fantix/gevent)
摘要 在上一篇中我们介绍了数据迁移的套路,但是没有介绍具体的方案,这篇着重介绍下具体的数据迁移方案 一. 设计目标 设计一个数据迁移的方案,需要实现以下目标 迁移速度 qps 需要达到1k,这样能保证1亿的数据能够在1~2天内跑完 迁移qps可控 迁移有可能对线上服务有影响,需要可动态调整qps 数据完整, 不丢失 不能遗漏数据,虽然事后我们有数据校验的过程,但是设计数据迁移方案时,需要尽可能的包装数据不丢失。 进度可控 迁移过程可中断,可重试。比如先迁移10分之一的数据,再继续来 二. 架构设计 数据迁移任务大致分为3个步骤,如下图所示 ? 因为有迁移速度的要求,我们将每个步骤进行分解,确保每个部分可以异步化,并发处理。这样可以提升速度。 遍历数据 完整遍历老的数据库。
SAP S4HANA 实战LTMC - 打响了第一炮! 随着SAP S/4HANA 1610版本的推出,SAP不再建议使用LSMW 作为数据迁移工具了,而是推出了新工具LTMC。 对于这么一个新的数据导入工具,SAP顾问是需要掌握。 笔者虽然在2019年开始就接触了SAP S4HANA系统,至今在2个项目上用到了S4HANA系统。 第一个项目是一个S4HANA的运维项目,项目实施团队的顾问还是使用LSMW工具来导入数据;第二个项目是一个基于S4HANA系统的global rollout项目,在其global template里,所有的主数据也是使用 这使得笔者虽然在这2个S4HANA的项目上,却都无机会实战LTMC。 作为资深顾问,也要不断更新知识结构,所以笔者下定决心,一定要掌握LTMC这个主数据导入的新工具,才能适应未来项目上的挑战。 3, 找到状态为Not Started的SourceList这个project。
三、迁移 原则上迁移也只需要以下几步操作: 在新的Jenkins服务器上安装配置好Jenkins(先不要启动Jenkins') 停掉老的Jenkins服务,并将老Jenkins服务器上的$JENKINS_HOME 跑一个项目,测试迁移是否成功 由于每个公司Jenkins的配置不一样,所以在步骤a中配置也不一样。这里以我们公司Jinkensi环境为例,看看我们配置Jenkins需要做哪些事情。 这里要强调的是新Jenkins服务器这几个工具的HOME目录路径最好和老Jenkins服务器一样,因为将老Jenkins服务器的数据导入到新的服务器上时,由于使用的老的配置,所以这几个工具的安装路径也会是老服务器上配置的路径 Jenkins启动后去更改 B、拷贝settings.xml文件 在Jenkins服务器上随便运行一个mvn命令,例如#mvn -v,这样会在家目录下生成一个.m2的隐藏目录 drwxr-xr-x 3
但是从ECC到S4HANA的升级,则不管是底层数据库结构,系统架构,前台功能界面等,都有不小的变化。其中的一些变动动作不小,极具颠覆性。 3,借助第三方工具在原系统上升级:利用SAP官方工具或者第三方工具,按照目标架构的要求,有选择性地、将部分的数据或者功能模块从老系统搬到新系统里,减少系统宕机时间,目前第三方工具有SNP BLUEFIELD BLUEFIELD™方法通过高端软件极大地加快了数据迁移的速度,使项目的实施更为高效。 为了使迁移的价值最大化,企业需要在进行迁移之前,在数字化转型之旅中取得有意义的进展。干净的数据和良好的数据管理是释放S/4HANA全部潜力的关键。 Datavard简介Datavard是一家创新的 SAP 数据管理、SAP S/4HANA 迁移、数据仓库现代化、遗留系统退役、SAP 数据集成、大数据和系统环境转换的智能解决方案和咨询服务供应商。
文章目录 一、集中治理 1.1与业务伙伴和MDG通用架构相关 1.2与物料主数据和BOM处理相关 1.3与财务主数据相关 二、强化的流程分析能力 三、数据合并与批量处理 四、数据质量管理 五、主数据的交互 MDG 基于SAP S/4HANA 2020的创新: SAP Master Data Governance主数据治理基于SAP S/4HANA 2020在主数据集中治理,数据合并和数据质量管理模块带来了众多创新功能 2)加强了变更请求列表和具体主数据对象属性的显示 3)扩充了MDG BP数据模型和对应的UI 1.2与物料主数据和BOM处理相关 4)提升了物料主数据多重处理的性能 5)加强了物料搜索功能(保存所有搜索信息 (意味着即使你你在前序流程中参与了数据合并处理,也不一定可以继续参与后续的流程步骤); 2)扩展的数据模型,覆盖业务伙伴BP 信用管理数据; 3)可以在数据校验和激活步骤复用MDG 数据质量管理中的规则 四、数据质量管理 1)允许导出和导入数据质量规则; 2)单条数据质量规则可以复用在多个主数据管理流程,例如数据合并和批量处理流程; 3)在SAP 分析云中启用MDG数据质量分析 五、主数据的交互 新提供端到端的供应商数据集成
SAP S4HANA 2023 PCE系统上的VKM3? 在SAP S4HANA 2023 PCE系统上, 试图执行事务代码VKM3,为某个销售订单释放客户信用冻结,系统报错:无法执行事务VKM3(SAP Note 2476734),添加描述详细报错信息:无法执行事务 VKM3 (SAP Note 2476734)消息编号 00977诊断系统配置(黑名单监控)已禁用事务执行。
究竟怎么如何操作才能达到最佳效果; 起源: (1):起初仅仅是为了测试用,所以迁移的时候不必把数据库中的数据全部迁移过去,仅仅需要数据库的架构即可; (2):某些时候需要更换服务器,那么此时已经在内部存储了大量数据了 ,此时只能把架构+数据全部迁移过来; 解说: 以本地“Login”数据库为例,帮助大家理解四种迁移方式; 一:“分离”—>“附加” 说明: (1)或许会遇到分离数据库后,无法在其它服务器附加数据库的问题 (权限不够,自行更改属性) (2)推荐把数据库放到默认的数据库文件存放目录(E:\Microsoft SQL Server\实例根目录\MSSQL12.SQLEXPRESS\MSSQL\DATA); ( 3)数据库文件可以设置jia兼容级别,高版本兼容低版本 ---- 二:“脱机”—>“附加” 说明:暂时脱离管理数据库,进行资料拷贝后,在重新联机即可; ---- 三: “备份”—>“还原” 说明:为的是还原原始数据 ,防止误操作,类似于保存不同版本信息; ---- 四:生成“SQL脚本” 说明:兼容性最好,轻松避免数据库迁移的其它问题 ----
为持续推进企业系统现代化进程,该企业启动了大规模ERP转型项目,计划从SAPECC和DeltekCostpoint系统迁移至SAPS/4HANA平台。 公司内各业务部门都倚赖我们的团队在不影响日常运营的前提下快速完成迁移。SNP成功应对了这一挑战,不仅满足了紧迫的时间要求,更准时完成了整个项目。” 项目范围:从SAPECC和DeltekCostpoint迁移到SAPS/4HANA项目周期:九个月用户:70,000SNP解决方案:KyanoPlatform,KyanoCrossway项目优势缩短迁移周期业务中断精确管控整合并转化跨 SAP和非SAPERP系统的数据增强未来转型的灵活性成果:成功上线并建立紧密合作关系诺斯罗普·格鲁曼公司成功为70,000名用户部署SAPS/4HANA系统,成为这家业务复杂、规模庞大的企业在数字化转型中的关键里程碑 目前,双方战略协作持续加强,正共同规划后续转型项目,涵盖更多从ECC到S/4HANA的升级及非SAPERP向S/4HANA的迁移。
在使用ClickHouse过程中免不了需要数据迁移,比如更新表结构、迁移数据到新的集群。如何尽量将影响降低,加快迁移过程是数据迁移的关键。 海量数据迁移且希望低资源开销 数据插入不可停止的实时迁移 部分可变:可以修改表meta 执行查询前务必将max_execution_time设置为0或者一个极大值,避免数据插入一半因为超时被中止。数据迁移一旦中途中止,需要手动清理目标实例中迁移的数据后重试,否则会有数据重复。 该方案需要额外的zookeeper,但是可以同时执行大量数据迁移。 使用clickhouse-copier时,源表、目标表的数据插入都要停止。迁移时设置好数据时间范围,方便迁移完成后补全迁移期间空档数据。
按照计划在周二开始了数据迁移,本来之前也做了不少的准备工作。但是还是在迁移的过程中出现了一些问题。简单做一个总结。 1.constraint导致的数据reject 在数据加载的时候,报了如下的错误。 3.关于datapump加载一个较大的表,含有clob字段,数据5000万条 impdp xxxx/xxxx file=exp_test.dmp logfile=imp_test.log TABLE_EXISTS_ACTION Broadcast Message from uxadmin3 (pts/8) Wed Jun 11 01:08:29... PLEASE LOG OFF NOW ! ! ! 4.sequence检查对于sequence的检查也是数据迁移的重中之重,在最后的检查中,尽管之前的sequence的值做了一个很大的buffer,胆识还是有一些sequence的问题。
数据迁移 迁移就像是数据库的版本控制, 允许团队简单轻松的编辑并共享应用的数据库表结构,迁移通常和 Laravel 的 数据库结构生成器配合使用,让你轻松地构建数据库结构。 如果你曾经试过让同事手动在数据库结构中添加字段,那么数据库迁移可以让你不再需要做这样的事情。 每个迁移文件名都包含时间戳,以便让 Laravel 确认迁移的顺序。 --table和--create选项可用来指定数据表的名称,或是该迁移被执行时是否将创建的新数据表。 这些选项需在预生成迁移文件时填入指定的数据表: php artisan make:migration create_users_table --create=users php artisan make migrate:reset 复制代码 使用单个命令来执行回滚或迁移 migrate:refresh命令不仅会回滚数据库的所有迁移还会接着运行migrate命令。
S4HANA实施方法论 方法一:全新实施,就是不管以前的系统是non-SAP,还是SAP的ECC版本,S4重新部署,把原有系统的数据迁移过来,S4重新配置,重新测试,这个就是正常的实施差不多,主要是自定义 /自开发的东西的迁移,和原系统是分开的,较大的限制是数据不能连续了,适用于系统已经实施多年,比较老旧,想重新定义业务流程、数据的业务场景。 此时会用到S4中提供的数据迁移工具(migration cockpit/ Rapid Data Migration) 方法二:系统转换,在原有老系统的基础上升级,一般是ECC版本,这有一系列的工具帮助, 方法三:选择性数据迁移,SNP BLUEFIELD 可以将SAP标准化实施方法相结合,无论是保留历史数据出发,还是将系统做数据有的变更,SNP bluefield 可以在一次项目中实现。 大大缩减企业宕机时间,按需迁移数据,简单、灵活、快速实现迁移 更多SAP S4HANA信息请查看: SAP入门篇(1)——SAP S/4 HANA的演变过程和版本更新