如何在大型数据集dask_cudf上运行dask_cuML (例如逻辑回归)?
我不能在我的cudf dataframe上运行cuML,因为数据集太大了,所以只要我尝试任何东西,就会“内存不足”。好的一面是我有4个GPU可以和dask_cudf一起使用。
例如,有人知道在dask_cudf数据帧上运行逻辑回归的步骤吗?
关于我的cudf和cuml逻辑函数:
type(gdf)
cudf.core.dataframe.DataFrame
logreg = cuml.LogisticRegression(penalty='none', tol=1e-6, max_iter=10000)
logreg.fit(gdf[['A', 'B', 'C', 'D', 'E']], gdf['Z'])我的想法--步步为营:(不起作用!)
1-将gdf cudf转换为dask_cudf。
ddf = dask_cudf.from_cudf(gdf, npartitions=2) -- what's the number of partitions?2- meta_dtypes = dict(zip(ddf.columns, ddf.dtypes))
3-
def logistic_regression(gdf):
return logreg.fit(gdf[['A', 'B', 'C', 'D', 'E']], gdf['Z'])4- ddf = ddf .map_partitions(logistic_regression, meta=meta_dtypes)
ddf.compute().persist()如有任何建议或见解,欢迎光临!
发布于 2020-02-07 02:58:26
感谢您试用cuml!cuml的官方发布还没有多个gpu的逻辑回归(即将推出!)。我正在使用dask-glm和cupy实现一个变通方法。一旦我的笔记本准备好了,我就会在这个帖子里发布它。以下是一般步骤:
ddf = dask_cudf.read_csv("*.csv")将dask cudf数据帧转换为dask数组
X = ddf[['A', 'B', 'C', 'D', 'E']].values
y = ddf['Z'].values其中dask数组的每个块是cupy数组。
from dask_glm.estimators import LogisticRegression
clf = LogisticRegression()
clf.fit(X,y)https://stackoverflow.com/questions/60089009
复制相似问题