机房360首页
  1. 武松娱乐
  2. 云计算
  3. IDC
  4. UPS
  5. 机房制冷
  6. 集中监控
  7. 发电机
  8. 防雷与接地
  9. 综合布线
  10. 服务器
  11. 存储
  12. 虚拟化
  13. 安全
  14. CIO
  15. 外包
  16. 绿色IT
  17. 文库
  18. 新闻
  19. 论坛
  20. 产品报价
  21. 更多
    1. 机房工程
    2. 机房节能
    3. 武松娱乐
    4. 企业名录
    5. 工具下载
当前位置:首页 » 管理 » HDS主存储重复数据删除 帮助NAS"减肥"

HDS主存储重复数据删除 帮助NAS"减肥"

来源:机房360 作者:yuxin编辑 更新时间:2013-4-10 14:36:18
摘要:HNAS是HDS从收购BlueArc获得的硬件加速文件存储,该系统依赖于可编程芯片(FPGA)来加速操作。HUS阵列的文件控制器使用了BlueArc硬件引擎和软件。
  近日,日立数据系统(HDS)首席技术官HuYoshida表示,公司已经将主存储重复数据删除加入到他们的网络附加存储(HNAS)和日立统一存储(HUS)中端阵列当中。
  
  HNAS是HDS从收购BlueArc获得的硬件加速文件存储,该系统依赖于可编程芯片(FPGA)来加速操作。HUS阵列的文件控制器使用了BlueArc硬件引擎和软件。HuYoshida说这种重复数据删除功能可以:
  
  实现自动化,适时去重数据,而不是只在字节写入时;
  
  一旦文件工作负载达到阈值就会减慢(去重处理)速度;
  
  使用密码散列算法,确保数据完整性,重复数据删除一台文件设备的整个可用空间,也就是256TB。
  
  “一旦系统空闲,一个智能重复数据删除进程得知新的数据写入,并自动启动重复数据删除引擎。”这位CTO在他公司的网站上写道。如果系统反应文件读写请求繁忙,那么它会减慢去重的速度。重复数据删除利用文件并使用一个哈希表(hash)数据库来识别数据中重复的块。然后它们会被删除,腾出空间给其它数据使用。
  
  重复数据删除在其FPGA硬件中加速散列算法和分块,而不是在通用CPU上单纯的软件。HuYoshida在本周的博客中提到:“一个基础的散列/分块引擎许可是免费的。三个额外的散列/分块引擎可以许可,重复数据删除的性能提升将近四倍。”我们解释下,这个的意思是指HUS文件和对象可以被重复数据删除,而不是HUS块。
       
  
  HuYoshida说,一位HDS的客户在16分钟内重复数据删除了120万个文件,但没有透净容量上的获益。关于重复数据删除效率的说法是,“可与其他重复数据删除算法较量”和“去重效率取决于数据集和文件系统块大小”。
    责任编辑:余芯
本文地址:http://www.jifang360.com/news/2013410/n549746831.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  1. 我要分享
更多
推荐图片
    谷歌CIO:科技行业法律不应由谷歌CIO:科技行业法律不应由
    如今大多数的立法者都跟不上现在[详细]
    云计算安全问题究竟是什么问题云计算安全问题究竟是什么问题
    《哈佛商业评论》前执行主编Nick[详细]
    美联储为迎大数据挑战或聘首席美联储为迎大数据挑战或聘首席
    美国联邦储备局理事会在新的战略[详细]
    Netlix设10万美元奖 鼓励开发Netlix设10万美元奖 鼓励开发
    Netflix最近开设了一项金额为10[详细]
    宝马引入Infosys帮助武松娱乐宝马引入Infosys帮助武松娱乐
    宝马集团已引进印度最大外包和咨[详细]
    最新调查:9成IT专家认为本地最新调查:9成IT专家认为本地
    9成的中小型企业更愿意把他们的[详细]
武松老虎机