cudf专题提供cudf的最新资讯内容,帮你更好的了解cudf。
由于函数read_metadata与旧版本不兼容,为什么<a href="https://github.com/dask/dask/commit/7138f470f0e55f2ebdb7638ddc4dfe2e78
我想加载5.9 GB CSV,并且我不使用pandas库。我有4个GPU。我使用<a href="https://rapids.ai" rel="nofollow noreferrer">rap
我的目标是探索具有10,000至10M +记录的表格数据的GPU加速。我对熊猫最熟悉,因此cuDF似乎是一个不错的
我有一个大文件,想使用cudf.read_csv()加载。有问题的文件太大,无法放入单个gpu的内存中,但仍然足
我正在尝试使用加速(GPU支持)计算进行距离计算,但是在熊猫和Cudf之间的细微差别上遇到了很多麻烦
我正在寻找2个大型csv文件之间的匹配项。 我使用此函数来计算2个字符串之间的相似度。如果给定的比
应该可以使用cupy / cudf进行填充吗?这个想法是执行schimitt触发函数,例如: <pre><code># pandas version df =
我正在尝试对数据块使用cudf。 我开始关注<a href="https://medium.com/rapids-ai/rapids-can-now-be-accessed-on-databr
我有一个大数据集(大约8000万行),并且正在使用dask_cudf DataFrame的cuml训练KNearestNeighbors回归模型。 <
我正在尝试 RAPIDS cudf 和 cuspatial,想知道交叉连接两个导致 270 亿行的数据帧的更好方法是什么?
我有一项任务涉及在数据帧上运行许多查询。我比较了在 Xeon CPU (Pandas) 和 RTX 2080 (CUDF) 上运行这些查询
我在终端中使用以下几行来安装 Rapids,然后 dask cudf: <pre><code>conda create -n rapids-core-0.14 -c rapidsai -c nv
我正在使用以下代码将 csv 文件加载到 dask cudf 中,然后为 xgboost 创建一个 devicequantilematrix,这会产生错
我正在尝试读取一个巨大的 csv 文件 CUDF,但遇到内存问题。 <pre><code>import cudf cudf.set_allocator(&#34;manage
我正在将 Pandas 更改为 cudf 以加快聚合速度并降低处理速度。我想出了一个可以在 GPU 上使用 Pandas 的库
我通过混合正负对来制作成对的图像。这个过程的计算量很大,需要大量的 RAM 和处理器。为了加快速度
我正在实施 CUDF 以加快我的 Python 进程。首先,我导入 CUDF 并删除多处理代码,并使用 CUDF 初始化变量。
我想使用 RapidsAI 0.17,但根据其文档 (<a href="https://rapids.ai/start.html" rel="nofollow noreferrer">Rapids AI</a>),它仅
我在 Rapidsai docker 容器内结合使用 Rapids UMAP 和 HDBSCAN:<code>rapidsai/rapidsai-core:0.18-cuda11.0-runtime-ubuntu18.04-py3
我有一个 DF,我想使用 Groupby + Shift。我可以在 Pandas 中做到这一点,但我不能在 cuDF 中做到这一点,因