这里将探讨,HANA内存和磁盘的关系,以及扩容条件的判断,不对之处还请指正。
一、一些结论:
1、HANA不能存储大于磁盘大小的数据量,但是这不意味着小于这个数据量时就能正常运行。影响的因素在于内存,如果运行所需内存大于HANA内存时,会发生错误。
2、运行的内存难以判断,因为内存会常驻,如果不够时,会把可以不用的内存数据替换掉。
3、理想情况,运行的内存应该至少是当前要处理数据的两倍,这是因为要给数据处理预留50%的内存。
4、磁盘到内存的加载机制是:内存只会加载需要的分区列,这是磁盘加载到内存的最小单位。这同时说明,磁盘的数据大于内存是可行的,因为内存只会从磁盘中加载需要的数据,个人认为与磁盘优先的传统数据库的加载方式区别在于这个粒度。
二、扩容考虑:
1、磁盘的扩容条件是历史数据的大小,可以数据增长来估算磁盘是否需要扩展,这部分的扩展是纯硬件的,SAP不会收取额外费用。
2、内存的扩容取决于,峰值时需要的内存量,这个值很难通过直接估算。原因在于:
内存的扩容是SAP收费的标准。
3、运行时长可作为cpu的扩容依据,一般通过水平扩展机器来解决,或针对分布式的架构从并发角度优化。
参考:
How and when HANA SP7 loads and unloads data into memory | SAP Blogs
原文地址:https://www.jb51.cc/wenti/3288391.html
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。