hadoop
-
写入HDFS只能复制到0个节点,而不是最小重复(=1) 我有3个数据节点正在运行,在运行作业时,我得到了下面给出的错误, java.io.IOException:文件 /user/ashsshar/olhcache/loaderMap9b663bd9 只能复制到 0 个节点,而不是最小重复 (=1)。此操作中有 3 个
-
如何在hadoop hdfs中列出目录中的所有文件及其子目录 我在hdfs中有一个文件夹,它有两个子文件夹,每个子文件夹有大约30个子文件夹,最后,每个子文件夹都包含xml文件。我想列出所有xml文件,只给出主文件夹的路径。在本地,我可以使用FileUtils.
-
HDFS 目录中的文件计数 在Java代码中,我想连接到HDFS中的目录,了解该目录中的文件数量,获取它们的名称并希望读取它们。我已经可以读取文件,但我无法弄清楚如何计算目录中的文件并像普通目录一样获取文件名
-
从 map 中键入密钥中的不匹配:expected org.apache.hadoop.io.Text,收到 org.apache.hadoop.io.LongWritable 我正在尝试在java中运行map/reducer。以下是我的文件 字数.java 我认为它无法找到Mapper和reducer类。我已经在main类中编写了代码,它正在获得默认的Mapper和reducer类。
-
Hadoop : java.lang.ClassCastException: org.apache.hadoop.io.LongWriteable can not cast to org.apache.hadoop.io.Text 我的程序看起来像 我相信类类型映射正确,, 请让我知道我在这里做错了什么?
-
Hadoop 2.2 和 Maven 我想从Hadoop 1.2.1切换到Hadoop 2.2。在我的项目中,我使用Maven,它可以处理 没有任何问题,但是将版本更改为2.2不起作用,因为它在中央maven存储库中不可用。 任何想法,我怎么能包括Hadoop 2.2
-
-
-
必填字段“client_protocol”未设置 我正在使用Hive 0.12,并且我正在尝试从apache的JDBC。当我尝试运行代码时,我会得到apache.thrift.TApplicationException。 我该如何解决这个问题?
-
使用 JDBC 从 Java 连接到 Hive 我正在尝试从 Java 连接到 Hive 服务器 1。我前段时间在这个论坛上发现了一个问题,但它不适合我。我正在使用这个代码: 有谁知道这里发生了什么?
标签