首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark SQL中具有等效精度的Decimal类型

Spark SQL中具有等效精度的Decimal类型
EN

Stack Overflow用户
提问于 2018-07-10 02:53:41
回答 1查看 11.8K关注 0票数 3

Spark SQL数据类型等同于SQL中的DecimalType(2,9)是什么?

例如:print(column.dataType==X) =>应该给我True。在SQL中,列的数据类型是DecimalType(2,9)

已尝试:X= DataTypes.createDecimalType(2,9),工作正常

我正在寻找一个通用的DecimalType类来过滤数据帧中的所有DecimalType列,而不考虑精度和小数位数。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-07-10 03:02:15

每个DecimalType类型都是DecimalType类的一个实例:

代码语言:javascript
复制
from pyspark.sql.types import DecimalType

df = (spark
  .createDataFrame(["1.32"], "string")
  .selectExpr("CAST(value AS DECIMAL(4, 2)) AS value"))

isinstance(df.schema["value"].dataType, DecimalType)
# True
代码语言:javascript
复制
import org.apache.spark.sql.types._

val df = Seq("1.32").toDF("value")  
  .selectExpr("CAST(value AS DECIMAL(4, 2)) AS value")

df.schema("value").dataType match {
  case _: DecimalType => true
  case _ => false
}
// Boolean = true

当然,您永远不会遇到DECIMAL(2,9),因为小数位数不可能大于精度。

票数 6
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/51252288

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档