Why is it required to format the namenode?
我想了解为什么在启动 hadoop 守护进程之前需要格式化 namenode。
我知道如何格式化它,但不知道我为什么要这样做。
- 我认为,您应该阅读有关该主题的文档,然后询问您是否仍有疑问。
-
@Harman我已经阅读了多个。而且我总是知道如何格式化守护进程。我还没有阅读任何其他说明为什么要格式化的文件?要求您在将其标记为否定之前理解所提出的问题。
-
此处的页面建议启动 Hadoop 安装的第一步是格式化 Hadoop 文件系统,该文件系统是在集群的本地文件系统之上实现的,并且此页面建议格式化 Namenode 会使 DataNode 存储位置无效 好吧,这就足够了开始。在此之后,您是否尝试在 Google 上搜索它?
-
一个简单的谷歌搜索会给你这些结果 stackoverflow.com/questions/27143409/mail-archives.apache.org/mod_mbox/hadoop-common-user/ 我对你的问题理解得很好,因此我投了反对票。尝试寻找它,你会找到它!希望,现在你明白为什么它被标记了。
-
我已经[很多次]浏览了您在评论中提供的链接。他们都没有提供任何关于格式化名称节点的实际原因的清晰图片。我提出的问题是一个重复的问题,但有由于解释不当而发布它。在您发布的所有链接中找到我一行,这就是为什么需要格式化名称节点的原因。 @Harman 如果可以的话,我会接受负面标记,否则由您决定。
-
启动 Hadoop 安装的第一步是格式化 Hadoop 文件系统,该文件系统是在集群的本地文件系统之上实现的。您需要在第一次设置 Hadoop 安装时执行此操作。格式化前,请确保 dfs.name.dir 目录存在。如果您只是使用默认值,那么 mkdir -p /tmp/hadoop-username/dfs/name 将创建目录。 (它只是初始化由 dfs.name.dir 变量指定的目录)这是 wiki 文章。
-
好吧,我不会进入那个。
当我们格式化 namenode 时,它??会格式化与数据节点相关的元数据。这样一来,数据节点上的所有信息都会丢失,它们可以重新用于新数据。
其实你不必每次启动hadoop守护进程时都要格式化。
设置集群时需要它。如果每次都格式化,那么您将丢失数据....因此建议不要格式化 namenode..只需重新启动并开始停止守护程序..
- 我知道每次启动守护程序时都不需要格式化它。我也知道格式化在 hdfs 中有数据的名称节点会导致数据丢失。