首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏中间件兴趣圈

    Elasticsearch Mapping之字段类型(field datatypes

    numeric datatypes(数字类型) long、integer、short、byte、double、float、half_float、scaled_float。 Geo datatypes 地图数据类型。 geo_point 地图坐标;存储经纬度。

    13.2K30发布于 2019-06-10
  • 来自专栏乐沙弥的世界

    ORA-00932: inconsistent datatypes: expected - got CLOB

    另外一个比较表现突出的是返回ORA-00932: inconsistent datatypes: expected - got CLOB错误,即不一致的数据类型,获得CLOB数据类型。 ---------------------------------------------------------- 30/13 PL/SQL: ORA-00932: inconsistent datatypes expected - got CLOB 30/13 PL/SQL: SQL Statement ignored 898/13 PL/SQL: ORA-00932: inconsistent datatypes id,wm_concat(val) new_val from t8 group by id * ERROR at line 1: ORA-00932: inconsistent datatypes

    2.8K30发布于 2018-08-13
  • 来自专栏方亮

    0基础学习PyFlink——用户自定义函数之UDTAF

    ([DataTypes.FIELD('name', DataTypes.STRING()), DataTypes.FIELD('english', DataTypes.FLOAT()), DataTypes.FIELD "name", DataTypes.STRING()), DataTypes.FIELD("score", DataTypes.FLOAT()), DataTypes.FIELD("class", DataTypes.STRING ([DataTypes.FIELD("name", DataTypes.STRING()), DataTypes.FIELD("score", DataTypes.FLOAT()), DataTypes.FIELD (DataTypes.ROW([DataTypes.FIELD("name", DataTypes.STRING()), DataTypes.FIELD("score", DataTypes.FLOAT DataTypes.ROW([DataTypes.FIELD("name", DataTypes.STRING()), DataTypes.FIELD("score", DataTypes.FLOAT

    46220编辑于 2023-10-28
  • 来自专栏方亮

    0基础学习PyFlink——用户自定义函数之UDF

    ([DataTypes.FIELD('word', DataTypes.STRING())]) tab_source = t_env.from_elements(map(lambda i: Row 下面我们看下入参不同时,UDF怎么写 入参并非表中一行(Row) @udf(result_type=DataTypes.ROW([DataTypes.FIELD("lower_word", DataTypes.STRING result_type我们设置为一个DataTypes.ROW([DataTypes.FIELD(“lower_word”, DataTypes.STRING())])。 ([DataTypes.FIELD('word', DataTypes.STRING())]) tab_source = t_env.from_elements(map(lambda i: Row ([DataTypes.FIELD("lower_word", DataTypes.STRING())]), input_types=[DataTypes.STRING()]) def colFunc

    65430编辑于 2023-10-27
  • 来自专栏前端小菜鸡yym

    sequlize 查询时间范围和多表查询

    where['createdAt'] = { [Op.between]: [createdAtFrom,createdAtTo] }) 多表查询 首先有两个表 用户表 const { DataTypes , allowNull: true, comment: '头像' }, register_date:{ type: DataTypes.DATE , allowNull: true, comment: '注册日期' }, login_date:{ type: DataTypes.DATE : true, comment: '标签' }, signature:{ type: DataTypes.STRING, allowNull : true, comment: '座右铭' }, email:{ type: DataTypes.STRING, allowNull:

    3.4K30编辑于 2023-01-12
  • 来自专栏技术学习

    Spark UDF1 返回复杂结构

    构建MapType的json String mapTypeJson = DataTypes.createMapType(DataTypes.StringType, DataTypes.StringType (DataTypes.StringType).json()); String mapTypeJson = DataTypes.createMapType(DataTypes.StringType, arrayStringDataType (DataTypes.StringType).json()); String mapTypeJson = DataTypes.createMapType(DataTypes.StringType, DataTypes.FloatType ("street", DataTypes.StringType, true)); structFieldList.add(DataTypes.createStructField("city ", DataTypes.StringType, true)); String jsonStr = DataTypes.createStructType(structFieldList)

    4.2K30发布于 2020-08-05
  • 来自专栏Lansonli技术博客

    客快物流大数据项目(一百零一):实时OLAP开发

    " => DataTypes.IntegerType case "UInt64" => DataTypes.LongType //DataTypes.IntegerType; case "UInt32 " => DataTypes.LongType case "UInt16" => DataTypes.IntegerType case "UInt8" => DataTypes.IntegerType > DataTypes.FloatType case "Float64" => DataTypes.DoubleType case "Decimal32" => DataTypes.createDecimalType " => DataTypes.StringType case "FixedString" => DataTypes.StringType case "Nothing" => DataTypes.NullType DataTypes.LongType => "Int64" case DataTypes.DateType => "DateTime" case DataTypes.TimestampType

    1.5K71编辑于 2022-12-29
  • 来自专栏方亮

    0基础学习PyFlink——用户自定义函数之UDAF

    ([DataTypes.FIELD('name', DataTypes.STRING()), DataTypes.FIELD('score', DataTypes.FLOAT()), DataTypes.FIELD ([DataTypes.FIELD("max", DataTypes.FLOAT()), DataTypes.FIELD("max tag", DataTypes.STRING()), DataTypes.FIELD ([DataTypes.FIELD("max", DataTypes.FLOAT()), DataTypes.FIELD("max tag", DataTypes.STRING()), DataTypes.FIELD ([DataTypes.FIELD('name', DataTypes.STRING()), DataTypes.FIELD('score', DataTypes.FLOAT()), DataTypes.FIELD ([DataTypes.FIELD('name', DataTypes.STRING()), DataTypes.FIELD('score', DataTypes.FLOAT()), DataTypes.FIELD

    49830编辑于 2023-10-28
  • 来自专栏xingoo, 一个梦想做发明家的程序员

    Spark SQL 用户自定义函数UDF、用户自定义聚合函数UDAF 教程(Java踩坑教学版)

    ( "a", DataTypes.StringType, true )); structFields.add(DataTypes.createStructField( "b", DataTypes.StringType , true )); structFields.add(DataTypes.createStructField( "c", DataTypes.StringType, true )); ( "field1", DataTypes.StringType, true )); return DataTypes.createStructType( structFields ); ( "a", DataTypes.StringType, true )); structFields.add(DataTypes.createStructField( "b", DataTypes.StringType ( "a", DataTypes.StringType, true )); structFields.add(DataTypes.createStructField( "b", DataTypes.StringType

    4.2K81发布于 2018-01-17
  • 来自专栏方亮

    0基础学习PyFlink——不可以用UDTAF装饰器装饰function的原因分析

    ()) def add(i, j): return i + j @udtf(result_types=[DataTypes.BIGINT(), DataTypes.BIGINT()]) def range_emit (s, e): for i in range(e): yield s, i @udaf(result_type=DataTypes.FLOAT(), func_type="pandas") def mean_udaf(v): return v.mean() 但是没有见到udtaf修饰function的案例,比如 # 错误的 @udtaf(result_type=DataTypes.ROW([DataTypes.FIELD ("word", DataTypes.STRING()) , DataTypes.FIELD("count", DataTypes.BIGINT())]), accumulator_type=DataTypes.ROW ([DataTypes.FIELD("word", DataTypes.STRING())]), func_type="general") def lower(line): yield Row('a'

    28120编辑于 2023-10-26
  • 来自专栏大数据进阶

    spark 编写udaf函数求中位数

    ("nums",DataTypes.IntegerType,true)); inputSchema=DataTypes.createStructType(inputFields); List<StructField> bufferFields = new ArrayList<>(); bufferFields.add(DataTypes.createStructField ("datas",DataTypes.StringType,true)); bufferSchema=DataTypes.createStructType(bufferFields); { return bufferSchema; } @Override public DataType dataType() { return DataTypes.DoubleType (DataTypes.IntegerType)); sqlContext.udf().register("media",new MedianUdaf()); sqlContext.sql

    1.3K41发布于 2019-09-17
  • 来自专栏暴走大数据

    Spark必知必会 | Spark SQL自定义函数UDF、UDAF聚合函数以及开窗函数的使用

    (Array[StructField]( DataTypes.createStructField("name",DataTypes.StringType,true), DataTypes.createStructField (Array[StructField]( DataTypes.createStructField("name",DataTypes.StringType,true), DataTypes.createStructField (Array[StructField]( DataTypes.createStructField("sum",DataTypes.DoubleType,true), DataTypes.createStructField ("name",DataTypes.StringType,true), DataTypes.createStructField("age",DataTypes.IntegerType,true ("name",DataTypes.StringType,true), DataTypes.createStructField("age",DataTypes.IntegerType,true

    5.2K10发布于 2021-09-18
  • 来自专栏技术学习

    Spark UDF1 输入复杂结构

    ("name", DataTypes.StringType, true)); // age structFieldList.add(DataTypes.createStructField (DataTypes.createArrayType(AddressEntity.dataType()).json()); structFieldList.add(DataTypes.createStructField (DataTypes.createArrayType(DataTypes.StringType).json()); structFieldList.add(DataTypes.createStructField ("street", DataTypes.StringType, true)); structFieldList.add(DataTypes.createStructField("city ", DataTypes.StringType, true)); String jsonStr = DataTypes.createStructType(structFieldList)

    3.3K00发布于 2020-08-08
  • 如何开发ERP(离散制造-MTO)系统中的技术管理板块(附架构图+流程图+代码参考)

    type: DataTypes.STRING }, spec: { type: DataTypes.TEXT }, // 简单规格 attrs: { type: DataTypes.JSONB } : DataTypes.FLOAT, defaultValue: 1 }, level: { type: DataTypes.INTEGER, defaultValue: 1 }, path: { : true, autoIncrement: true }, productId: { type: DataTypes.INTEGER }, name: { type: DataTypes.STRING }, stepIndex: { type: DataTypes.INTEGER }, machine: { type: DataTypes.STRING }, stdTimeMin: { type : DataTypes.FLOAT }, sopUrl: { type: DataTypes.STRING }, version: { type: DataTypes.INTEGER, defaultValue

    38610编辑于 2025-09-16
  • 来自专栏乐沙弥的世界

    SQL,PL/SQL 数据类型一览表

    The following is a list of datatypes available in Oracle. Character Datatypes The following are the Character Datatypes in Oracle: Data Type Syntax Oracle 9i Oracle (backward compatible) Numeric Datatypes The following are the Numeric Datatypes in Oracle: Data Type For example:interval day(2) to second(6) Large Object (LOB) Datatypes The following are the LOB Datatypes Rowid Datatypes The following are the Rowid Datatypes in Oracle: Data Type Syntax Oracle 9i Oracle 10g

    61730发布于 2018-08-14
  • 如何开发ERP(离散制造-MTO)系统中的生产管理板块(附架构图+流程图+代码参考)

    , primaryKey: true, autoIncrement: true }, code: DataTypes.STRING, name: DataTypes.STRING, uom: DataTypes.STRING }, wo_no: DataTypes.STRING, sales_order_no: DataTypes.STRING, material_id: DataTypes.BIGINT, qty: DataTypes.DECIMAL DataTypes.BIGINT, material_id: DataTypes.BIGINT, qty: DataTypes.DECIMAL(18,6), picked_qty: { type: DataTypes.DECIMAL , report_qty: DataTypes.DECIMAL(18,6), report_time: DataTypes.DATE, report_user: DataTypes.STRING, is_ok : true }, work_order_id: DataTypes.BIGINT, material_id: DataTypes.BIGINT, qty: DataTypes.DECIMAL(18,6

    59710编辑于 2025-09-19
  • 来自专栏LhWorld哥陪你聊算法

    【Spark篇】---SparkSql之UDF函数和UDAF函数

    String t1) throws Exception { return t1.length(); } }, DataTypes.IntegerType t1, Integer t2) throws Exception { return t1.length()+t2; } } ,DataTypes.IntegerType ("name", DataTypes.StringType, true)); StructType schema = DataTypes.createStructType(fields) (Arrays.asList(DataTypes.createStructField("bffer111", DataTypes.IntegerType, true))); } (Arrays.asList(DataTypes.createStructField("nameeee", DataTypes.StringType, true))); }

    1.4K20发布于 2018-09-13
  • 如何开发一套EHS健康安全环境管理系统中的健康管理板块?(附架构图+流程图+代码参考)

    , unique:true }, name: DataTypes.STRING, department: DataTypes.STRING, position: DataTypes.STRING, }, exam_date: DataTypes.DATE, exam_type: DataTypes.STRING, indicators: DataTypes.JSONB, report_path ') }, sku: { type: DataTypes.STRING, unique:true }, name: DataTypes.STRING, spec: DataTypes.STRING , qty: DataTypes.INTEGER, purpose: DataTypes.TEXT, approval_status: { type: DataTypes.STRING, defaultValue : DataTypes.STRING, content: DataTypes.TEXT, status: { type: DataTypes.STRING, defaultValue:'open'

    65310编辑于 2025-08-19
  • 来自专栏方亮

    0基础学习PyFlink——用户自定义函数之UDTF

    @udtf(result_types=[DataTypes.STRING()], input_types=row_type_tab_source) def rowFunc(row): pyflink.table import (EnvironmentSettings, TableEnvironment, Schema) from pyflink.table.types import DataTypes .build() t_env = TableEnvironment.create(env_settings) row_type_tab_source = DataTypes.ROW ([DataTypes.FIELD('word', DataTypes.STRING())]) tab_source = t_env.from_elements(map(lambda i: Row ().not_null()) \ .column("count", DataTypes.BIGINT()) \ .primary_key("word") \

    49310编辑于 2023-10-27
  • 来自专栏方亮

    0基础学习PyFlink——使用datagen生成流式数据

    stream_execution_environment=stream_execute_env) 定义行结构 schame = Schema.new_builder().column('seed', DataTypes.INT (DataTypes.INT())) \ .build() table_descriptor (DataTypes.STRING(), DataTypes.INT())) \ .build() (DataTypes.STRING())) \ .build() ([DataTypes.FIELD("id", DataTypes.BIGINT()), DataTypes.FIELD("data", DataTypes.STRING())])) \

    86110编辑于 2023-11-04
领券