热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

org.apache.hadoop.hive.ql.plan.ExprNodeColumnDesc.getTypeInfo()方法的使用及代码示例

本文整理了Java中org.apache.hadoop.hive.ql.plan.ExprNodeColumnDesc.getTypeInfo()方法的一些代码示例,展

本文整理了Java中org.apache.hadoop.hive.ql.plan.ExprNodeColumnDesc.getTypeInfo()方法的一些代码示例,展示了ExprNodeColumnDesc.getTypeInfo()的具体用法。这些代码示例主要来源于Github/Stackoverflow/Maven等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。ExprNodeColumnDesc.getTypeInfo()方法的具体详情如下:
包路径:org.apache.hadoop.hive.ql.plan.ExprNodeColumnDesc
类名称:ExprNodeColumnDesc
方法名:getTypeInfo

ExprNodeColumnDesc.getTypeInfo介绍

暂无

代码示例

代码示例来源:origin: apache/hive

@Override
public boolean isSame(Object o) {
if (!(o instanceof ExprNodeColumnDesc)) {
return false;
}
ExprNodeColumnDesc dest = (ExprNodeColumnDesc) o;
if (!column.equals(dest.getColumn())) {
return false;
}
if (!typeInfo.equals(dest.getTypeInfo())) {
return false;
}
if ( tabAlias != null && dest.tabAlias != null ) {
if ( !tabAlias.equals(dest.tabAlias) ) {
return false;
}
}
return true;
}

代码示例来源:origin: apache/drill

@Override
public boolean isSame(Object o) {
if (!(o instanceof ExprNodeColumnDesc)) {
return false;
}
ExprNodeColumnDesc dest = (ExprNodeColumnDesc) o;
if (!column.equals(dest.getColumn())) {
return false;
}
if (!typeInfo.equals(dest.getTypeInfo())) {
return false;
}
if ( tabAlias != null && dest.tabAlias != null ) {
if ( !tabAlias.equals(dest.tabAlias) ) {
return false;
}
}
return true;
}

代码示例来源:origin: apache/hive

/**
* Converts the skewedValue available as a string in the metadata to the appropriate object
* by using the type of the column from the join key.
* @param skewedValue
* @param keyCol
* @return an expression node descriptor of the appropriate constant
*/
private ExprNodeConstantDesc createConstDesc(
String skewedValue, ExprNodeColumnDesc keyCol) {
ObjectInspector inputOI = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(
TypeInfoFactory.stringTypeInfo);
ObjectInspector outputOI = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(
keyCol.getTypeInfo());
Converter cOnverter= ObjectInspectorConverters.getConverter(inputOI, outputOI);
Object skewedValueObject = converter.convert(skewedValue);
return new ExprNodeConstantDesc(keyCol.getTypeInfo(), skewedValueObject);
}

代码示例来源:origin: apache/drill

/**
* Converts the skewedValue available as a string in the metadata to the appropriate object
* by using the type of the column from the join key.
* @param skewedValue
* @param keyCol
* @return an expression node descriptor of the appropriate constant
*/
private ExprNodeConstantDesc createConstDesc(
String skewedValue, ExprNodeColumnDesc keyCol) {
ObjectInspector inputOI = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(
TypeInfoFactory.stringTypeInfo);
ObjectInspector outputOI = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(
keyCol.getTypeInfo());
Converter cOnverter= ObjectInspectorConverters.getConverter(inputOI, outputOI);
Object skewedValueObject = converter.convert(skewedValue);
return new ExprNodeConstantDesc(keyCol.getTypeInfo(), skewedValueObject);
}

代码示例来源:origin: apache/hive

private static boolean sameTypeIndexSearchConditions(List searchConditions) {
for (IndexSearchCondition isc : searchConditions) {
if (!isc.getColumnDesc().getTypeInfo().equals(isc.getConstantDesc().getTypeInfo())) {
return false;
}
}
return true;
}
}

代码示例来源:origin: apache/hive

@Override
protected ExprNodeDesc processColumnDesc(NodeProcessorCtx procCtx, ExprNodeColumnDesc cd) {
ExprNodeDesc newcd;
ExprProcCtx epc = (ExprProcCtx) procCtx;
if (cd.getTabAlias().equalsIgnoreCase(epc.getTabAlias())
&& cd.getIsPartitionColOrVirtualCol()) {
newcd = cd.clone();
} else {
newcd = new ExprNodeConstantDesc(cd.getTypeInfo(), null);
}
return newcd;
}
}

代码示例来源:origin: apache/drill

@Override
protected ExprNodeDesc processColumnDesc(NodeProcessorCtx procCtx, ExprNodeColumnDesc cd) {
ExprNodeDesc newcd;
ExprProcCtx epc = (ExprProcCtx) procCtx;
if (cd.getTabAlias().equalsIgnoreCase(epc.getTabAlias())
&& cd.getIsPartitionColOrVirtualCol()) {
newcd = cd.clone();
} else {
newcd = new ExprNodeConstantDesc(cd.getTypeInfo(), null);
}
return newcd;
}
}

代码示例来源:origin: apache/hive

&& !constant.getTypeInfo().equals(desc.getTypeInfo())) {
return typeCast(constant, desc.getTypeInfo());

代码示例来源:origin: apache/hive

@Override
protected ExprNodeDesc processColumnDesc(NodeProcessorCtx procCtx, ExprNodeColumnDesc cd) {
ExprNodeDesc newcd;
LBExprProcCtx ctx = (LBExprProcCtx) procCtx;
Partition part = ctx.getPart();
if (cd.getTabAlias().equalsIgnoreCase(ctx.getTabAlias())
&& isPruneForListBucketing(part, cd.getColumn())) {
newcd = cd.clone();
} else {
newcd = new ExprNodeConstantDesc(cd.getTypeInfo(), null);
}
return newcd;
}

代码示例来源:origin: apache/hive

columns.add(columnConstant.left);
names.add(columnConstant.left.getColumn());
typeInfos.add(columnConstant.left.getTypeInfo());

代码示例来源:origin: apache/drill

@Override
protected ExprNodeDesc processColumnDesc(NodeProcessorCtx procCtx, ExprNodeColumnDesc cd) {
ExprNodeDesc newcd;
LBExprProcCtx ctx = (LBExprProcCtx) procCtx;
Partition part = ctx.getPart();
if (cd.getTabAlias().equalsIgnoreCase(ctx.getTabAlias())
&& isPruneForListBucketing(part, cd.getColumn())) {
newcd = cd.clone();
} else {
newcd = new ExprNodeConstantDesc(cd.getTypeInfo(), null);
}
return newcd;
}

代码示例来源:origin: apache/drill

&& !constant.getTypeInfo().equals(desc.getTypeInfo())) {
return typeCast(constant, desc.getTypeInfo());

代码示例来源:origin: apache/hive

continue;
TypeInfo typeInfo = searchConditions.get(0).getColumnDesc().getTypeInfo();
if (typeInfo.getCategory() == Category.PRIMITIVE && PrimitiveObjectInspectorUtils.getPrimitiveGrouping(
((PrimitiveTypeInfo) typeInfo).getPrimitiveCategory()) == PrimitiveGrouping.NUMERIC_GROUP) {

代码示例来源:origin: apache/hive

ve.setInputTypeInfos(groupingIdColDesc.getTypeInfo());
ve.setInputDataTypePhysicalVariations(DataTypePhysicalVariation.NONE);

代码示例来源:origin: apache/hive

identityTypeInfo = colDesc.getTypeInfo();

代码示例来源:origin: apache/hive

private VectorExpression getColumnVectorExpression(ExprNodeColumnDesc exprDesc,
VectorExpressionDescriptor.Mode mode) throws HiveException {
int columnNum = getInputColumnIndex(exprDesc.getColumn());
VectorExpression expr;
switch (mode) {
case FILTER:
expr = getFilterOnBooleanColumnExpression(exprDesc, columnNum);
break;
case PROJECTION:
{
expr = new IdentityExpression(columnNum);
TypeInfo identityTypeInfo = exprDesc.getTypeInfo();
DataTypePhysicalVariation identityDataTypePhysicalVariation =
getDataTypePhysicalVariation(columnNum);
expr.setInputTypeInfos(identityTypeInfo);
expr.setInputDataTypePhysicalVariations(identityDataTypePhysicalVariation);
expr.setOutputTypeInfo(identityTypeInfo);
expr.setOutputDataTypePhysicalVariation(identityDataTypePhysicalVariation);
}
break;
default:
throw new RuntimeException("Unexpected mode " + mode);
}
return expr;
}

代码示例来源:origin: apache/drill

descs.add(columnDesc);
colNames.add(columnDesc.getExprString());
if (columnDesc.getTypeInfo().getCategory() == ObjectInspector.Category.PRIMITIVE
&& ((PrimitiveTypeInfo) columnDesc.getTypeInfo()).getPrimitiveCategory() == PrimitiveCategory.TIMESTAMP) {
if (timestampPos != -1) {
throw new SemanticException("Multiple columns with timestamp type on query result; "

代码示例来源:origin: apache/hive

TypeInfo typeInfo = exprDesc.getTypeInfo();
if (typeInfo.getCategory() == Category.PRIMITIVE &&
((PrimitiveTypeInfo) typeInfo).getPrimitiveCategory() == PrimitiveCategory.BOOLEAN) {

代码示例来源:origin: apache/drill

case FILTER:
TypeInfo typeInfo = exprDesc.getTypeInfo();
if (typeInfo.getCategory() == Category.PRIMITIVE &&
((PrimitiveTypeInfo) typeInfo).getPrimitiveCategory() == PrimitiveCategory.BOOLEAN) {

代码示例来源:origin: apache/hive

colType = encd.getTypeInfo().getTypeName();
countDistincts = numRows;
} else {

推荐阅读
  • 本文详细解析了Python中的os和sys模块,介绍了它们的功能、常用方法及其在实际编程中的应用。 ... [详细]
  • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
  • andr ... [详细]
  • Hadoop入门与核心组件详解
    本文详细介绍了Hadoop的基础知识及其核心组件,包括HDFS、MapReduce和YARN。通过本文,读者可以全面了解Hadoop的生态系统及应用场景。 ... [详细]
  • Scala 实现 UTF-8 编码属性文件读取与克隆
    本文介绍如何使用 Scala 以 UTF-8 编码方式读取属性文件,并实现属性文件的克隆功能。通过这种方式,可以确保配置文件在多线程环境下的一致性和高效性。 ... [详细]
  • 本文详细探讨了HTML表单中GET和POST请求的区别,包括它们的工作原理、数据传输方式、安全性及适用场景。同时,通过实例展示了如何在Servlet中处理这两种请求。 ... [详细]
  • 本文探讨了如何在给定整数N的情况下,找到两个不同的整数a和b,使得它们的和最大,并且满足特定的数学条件。 ... [详细]
  • 本文详细介绍了Java中org.w3c.dom.Text类的splitText()方法,通过多个代码示例展示了其实际应用。该方法用于将文本节点在指定位置拆分为两个节点,并保持在文档树中。 ... [详细]
  • 本文详细介绍了 Apache Jena 库中的 Txn.executeWrite 方法,通过多个实际代码示例展示了其在不同场景下的应用,帮助开发者更好地理解和使用该方法。 ... [详细]
  • 从 .NET 转 Java 的自学之路:IO 流基础篇
    本文详细介绍了 Java 中的 IO 流,包括字节流和字符流的基本概念及其操作方式。探讨了如何处理不同类型的文件数据,并结合编码机制确保字符数据的正确读写。同时,文中还涵盖了装饰设计模式的应用,以及多种常见的 IO 操作实例。 ... [详细]
  • 本文详细介绍了Java中的访问器(getter)和修改器(setter),探讨了它们在保护数据完整性、增强代码可维护性方面的重要作用。通过具体示例,展示了如何正确使用这些方法来控制类属性的访问和更新。 ... [详细]
  • 并发编程:深入理解设计原理与优化
    本文探讨了并发编程中的关键设计原则,特别是Java内存模型(JMM)的happens-before规则及其对多线程编程的影响。文章详细介绍了DCL双重检查锁定模式的问题及解决方案,并总结了不同处理器和内存模型之间的关系,旨在为程序员提供更深入的理解和最佳实践。 ... [详细]
  • 深入探讨CPU虚拟化与KVM内存管理
    本文详细介绍了现代服务器架构中的CPU虚拟化技术,包括SMP、NUMA和MPP三种多处理器结构,并深入探讨了KVM的内存虚拟化机制。通过对比不同架构的特点和应用场景,帮助读者理解如何选择最适合的架构以优化性能。 ... [详细]
  • 解决JAX-WS动态客户端工厂弃用问题并迁移到XFire
    在处理Java项目中的JAR包冲突时,我们遇到了JaxWsDynamicClientFactory被弃用的问题,并成功将其迁移到org.codehaus.xfire.client。本文详细介绍了这一过程及解决方案。 ... [详细]
  • 本题探讨了在一个有向图中,如何根据特定规则将城市划分为若干个区域,使得每个区域内的城市之间能够相互到达,并且划分的区域数量最少。题目提供了时间限制和内存限制,要求在给定的城市和道路信息下,计算出最少需要划分的区域数量。 ... [详细]
author-avatar
手机用户2502913717
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有