有人能帮我弄清楚我们如何将数据加载到TigerGraph DB中创建的元组中吗?我已经创建了下面的元组,并且我正在尝试使用Spark从一个文件中加载数据。
图名:MyGraph Tuple Name:MyTuple
MyTuple的属性:ID String(50),Datee Datetime
元组MyTuple作为边缘属性被引用到MyGraph的边缘(ed_newEdge)中。寻求帮助,了解如何使用Spark将数据加载到MyGraph中的元组中。
发布于 2021-01-22 03:38:35
您可以使用tigergraph驱动程序将数据插入到元组。您可以找到一个示例在这里https://github.com/tigergraph/ecosys/blob/master/tools/etl/tg-jdbc-driver/tg-jdbc-examples/src/main/java/com/tigergraph/jdbc/UpsertQuery.java
在按照上面的代码创建连接之后,您可以使用下面的代码片段
try (java.sql.Statement stmt = con.createStatement()) {
query = "INSERT INTO edge ed_newEdge(Vertex1, Vertex2) VALUES(MyTuple("1d123","2011-02-03 01:02:03"))";
stmt.addBatch(query);}或者,您可以在星火上处理数据,并在Parquet或csv文件上序列化数据。然后,您可以创建一个GSQL加载作业来读取该文件,并将该值插入到元组中。https://docs.tigergraph.com/dev/gsql-ref/ddl-and-loading/creating-a-loading-job#loading-a-user-defined-type-udt-attribute
TYPEDEF TUPLE <f1 INT (1), f2 UINT, f3 STRING (10), f4 DOUBLE > myTuple # define a UDT
CREATE VERTEX v_udt (id STRING PRIMARY KEY, att_udt myTuple)
CREATE GRAPH test_graph (v_udt)
CREATE LOADING JOB load_udt FOR GRAPH test_graph {
DEFINE FILENAME f;
LOAD f TO VERTEX v_udt VALUES ($0, myTuple($1, $2, $3, $4) );
# $1 is loaded as f1, $2 is loaded as f2, and so on
}
RUN LOADING JOB load_udt USING f="./udt.csv"现在,您可以使用rest请求https://docs.tigergraph.com/dev/gsql-ref/ddl-and-loading/running-a-loading-job调用上面创建的加载作业。
https://stackoverflow.com/questions/65829112
复制相似问题