成都创新互联网站制作重庆分公司

Hadoop回收站及fs.trash参数详解-创新互联

前言:

创新互联自2013年起,是专业互联网技术服务公司,拥有项目网站制作、成都做网站网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元仪陇做网站,已为上家服务,为仪陇各地企业和个人服务,联系电话:18982081108
  • Linux系统里,个人觉得大的不方便之一就是没有回收站的概念。rm -rf很容易造成极大的损失。而在Hadoop或者说HDFS里面,有trash(回收站)的概念,可以使得数据被误删以后,还可以找回来。
  • Hadoop里的trash选项默认是关闭的,所以如果要生效,需要提前将trash选项打开,修改conf里的core-site.xml即可,下面我们测试下开启前后的区别:
    1.不启用trash
    [hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 3 items
    -rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:49 /test.log
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
    # 删除test.log 注意提示
    [hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log
    Deleted /test.log
    # 重新查看 发现test.log被删除
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 2 items
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
    2.启用trash
[hadoop@hadoop000 hadoop]$ pwd
/opt/software/hadoop-2.8.1/etc/hadoop
# 增加fs.trash参数配置 开启trash(进程不需重启)
[hadoop@hadoop000 hadoop]$ vi core-site.xml
    
        fs.trash.interval
        1440
    
    
        fs.trash.checkpoint.interval
        1440
    
# fs.trash.interval是在指在这个回收周期之内,文件实际上是被移动到trash的这个目录下面,而不是马上把数据删除掉。等到回收周期真正到了以后,hdfs才会将数据真正删除。默认的单位是分钟,1440分钟=60*24,刚好是一天;fs.trash.checkpoint.interval则是指垃圾回收的检查间隔,应该是小于或者等于fs.trash.interval。
# 参考官方文档:http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-common/core-default.xml 

[hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
[hadoop@hadoop000 ~]$ hdfs dfs -ls /                           
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
# 删除test.log 注意提示的不同
[hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log                
18/05/23 16:54:55 INFO fs.TrashPolicyDefault: Moved: 'hdfs://192.168.6.217:9000/test.log' to trash at: hdfs://192.168.6.217:9000/user/hadoop/.Trash/Current/test.log
# 发现删除的文件在回收站里
[hadoop@hadoop000 ~]$ hdfs dfs -ls /user/hadoop/.Trash/Current
Found 1 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /user/hadoop/.Trash/Current/test.log
# 恢复误删除的文件
[hadoop@hadoop000 ~]$ hdfs dfs -mv /user/hadoop/.Trash/Current/test.log /test.log
[hadoop@hadoop000 ~]$ hdfs dfs -ls /
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


当前题目:Hadoop回收站及fs.trash参数详解-创新互联
本文地址:http://cxhlcq.com/article/hcsgh.html

其他资讯

在线咨询

微信咨询

电话咨询

028-86922220(工作日)

18980820575(7×24)

提交需求

返回顶部