今日头条
该医院创建于1999年,是深圳市政府投资建成的集医疗、教学、科研和预防为一体的现代化三级综合性医院。2017年通过三级甲等医院复审。2018年,医院年门急诊总量约292万人次,年出院病人近7.4万人次,年手术量4.9万台次。 该院在深圳有较高的知名度和认可度。
行业挑战
随着该医院门诊量的爆发式增长,放射科等科室新增了大量影像采集设备,PACS存储了大量的非结构化数据,原有的存储系统面临如下挑战:
l 访问性能不足
大批影像采集设备产生的海量影像图片需要经过PACS的并发处理与存储,会导致现有存储面临较大的性能压力,并影响临床科医生调阅影像速度。
l 数据增长快,数据量大
影像文件每月新增数量接近1千万,每年增长量达到上亿,存储空间高达PB级,且文件保存时间要求不低于15年,传统存储无法满足需求。
l 数据无分级和归档
此前PACS系统设置的归档存储设备品牌种类多,无统一的数据生命周期管理,需要存储系统根据性能和容量的不同进行合理分级和归档,满足法规遵从要求。
l 影像文件无法实时调阅
此前影像存储系统支持6个月内的影像数据调阅,如超出6个月,临床科医生无法及时甚至不能调阅历史影像文件,进而影响看诊效率,急需高效、智能的存储系统满足业务需求。
l 信息需集中管理和共享
此前PACS只能把处理好的影像手工复制到影像发布系统,并提供给临床科医生进行调阅诊断,其他科室的数据存储在各科室工作站,信息无法集中管理和共享。
解决方案
基于此,医疗单位必须通过升级传统存储架构及数据调用模式,才能应对当下对于快速扩张的存储的需求。经过多次的行业调研及产品对比测试,该院最终采用杉岩数据分布式对象存储解决方案,架构如下图所示:
底层存储改造成云存储池架构,并异构原有的传统存储,进行统一管理。影像发布系统直接读取热存储池近一年的影像数据,并且无需生产PACS进行影像复制,节省存储资源,并加快了PACS系统和发布系统的运行效率。其他科室(皮肤科等)的文档统一采用seafile文档管理系统进行集中管理和共享,数据集中存储在温存储池。云存储池可以直接设置归档策略,无需上层系统进行数据分级归档。
相关容量方案设计:
此前该三甲医院PACS系统一天产生30万张影像,每张CT图像大小为500K,每张DR、胸片大小为12M。一天增长近200G的数据量,一年增长高达72T。
数据类型 | 文件类型 | 文件大小 | 每天文件增数 | 每天数据增量 | 每月数据增量 | 一年数据增量 |
CT等 | 小图片 | 500K | 30万 | 200G | 6T | 72T |
DR 胸片 |
图片 | 12M |
生产PACS系统历史归档数据总量为150T,其他科室(皮肤科、妇产科、神经内外科等)需要30T存储空间进行集中存储和管理。云存储裸空间需求为500T (热存储池裸容量200T, 温存储池250T,光存储池50T),底层数据采用副本或纠删的保护机制保障数据的安全。
最新设计的分布式存储方案中,热池和温池分别按照存放1年和2年的数据进行容量设计,即19年数据直接写入热池, 17年到18年两年的数据直接迁移至温池,17年以前的数据直接归档迁移到光存储。数据在磁盘存储停留3年之后,离线归档到冷存储(光存)。按照目前的统计,该院每年新增约80TB影像数据,按照存放时间,热池和温池分别设计100TB和200TB的可用空间,后续业务增长,只需扩容光存储即可。如果因业务增长,每年数据增速提高,则按需求和比例对热、温、冷进行扩容。
存储设备的最终裸容量P的计算应该综合考虑业务可用容量需求p,硬盘折损率r,以及副本或纠删码(4+1)的可用空间率s,其中,硬盘折损率r的计算公式为:r=(1000/1024)4 = 0.91
两副本的可用空间率s1:s1=1/2=0.5;纠删码的可用空间率s1:s2=4/5=0.8
裸容量P和可用容量p,以及硬盘折损率r,纠删码可用空间率s之间的关系是:p=P*r*s
因此裸容量(按硬盘厂商的规格计算)可用通过如下公式进行计算:P=p/(r*s)
按一年的数据增长量为72T-80T,并且考虑到未来影像数据的增加和影像清晰度的要求,影像需调阅原图。 PACS系统规划的热存储池可用容量100T(保存一年的数据),由于读写性能要求比较高,建议采用两副本存储方案。而且主要是小文件频繁读写,为了综合考虑成本,存储主要采用SATA机械盘,利用两块SATA SSD做一些关键元数据存储加速。
热存储池的可用容量计算公式如下:200T*0.91*0.5=91T
温存储池由于读写性能要求没有热存储池高,采用EC纠删码存储方案,另外其他科室(皮肤科等)的数据统一存储在温存储池,存储服务器可以考虑多盘位的服务器,降低存储硬件成本。
可用空间计算公式:250T*0.91*0.8=182T(保存两年数据),冷存储池(光存储)的可用空间为50T。
方案价值
通过此次方案改造,借助杉岩数据的海量对象存储(SandStone MOS)解决方案,充分利用原有存储设备,将PACS影像系统的文件存储替换成SandStone MOS,生产系统将文件存储在一个易扩展、容量大的存储池,简化架构,便于统一管理和运维监控。将1年的数据转移到更低成本的硬件上;2年以上的数据归档到蓝光存储上永久保存,满足法规15年以上保留要求。通过纳管原有存储系统,实现数据集中管理和无缝迁移。系统采用哈希计算替代索引查找访问文件,在数据存储方面采用创新性的文件合并方式,优化了小文件的访问性能。SandStone MOS内置检索引擎,打破数据孤岛,实现数据共享,大大提升了PACS的运行效率。
全部0条评论
快来发表一下你的评论吧 !