hive
-
集成测试 Hive 作业 我正在尝试使用Hive Thrift和JDBC接口编写一个不平凡的Hive作业,并且我在设置一个体面的JUnit测试时遇到问题。通过非平凡,我的意思是这项工作至少会导致一个MapReduce阶段,而不是只处理元存储
-
-
COLLECT_SET() 在 Hive 中,保留重复项? 有没有办法将重复项保留在 Hive 的收集集中,或者模拟 Hive 使用其他方法提供的聚合集合类型?我想将列中具有相同键的所有项目聚合到一个数组中,并带有重复项。 即:
-
-
-
写入HDFS只能复制到0个节点,而不是最小重复(=1) 我有3个数据节点正在运行,在运行作业时,我得到了下面给出的错误, java.io.IOException:文件 /user/ashsshar/olhcache/loaderMap9b663bd9 只能复制到 0 个节点,而不是最小重复 (=1)。此操作中有 3 个
-
-
必填字段“client_protocol”未设置 我正在使用Hive 0.12,并且我正在尝试从apache的JDBC。当我尝试运行代码时,我会得到apache.thrift.TApplicationException。 我该如何解决这个问题?
-
使用 JDBC 从 Java 连接到 Hive 我正在尝试从 Java 连接到 Hive 服务器 1。我前段时间在这个论坛上发现了一个问题,但它不适合我。我正在使用这个代码: 有谁知道这里发生了什么?
-
parquet.io.ParquetDecodingException:无法读取文件中块 -1 中 0 处的值 我已经使用方法在Hive中保存了一个远程数据库表,现在当我尝试使用CLI命令访问Hive表数据时,它会给我以下错误: 你知道我在这里可能做错了什么吗?
标签