我想将数据帧转换为磁盘帧,然后计算第一列。当我尝试它时,它不计算列的唯一值的数量。看来是在
我将磁盘框架保存到其输出目录,然后重新启动R会话。
我想读取现有的磁盘框架,而不是在
我有一个带有这些列的磁盘架
<pre><code>setState()</code></pre>
说磁盘框为200M行,我想按key_b对其进行分
我在一个较大的数据集(> 20GB)上运行了一个分组,但似乎运行不正常
这是我的代码
<pre><code>my
我正在尝试在磁盘框架上执行分组,并且收到此错误
<blockquote>
serialize(data,node $ con)中的错误
我有两个磁盘框架,每个磁盘框架约有20GB的文件容量。
太大了,无法合并为数据表,因为该
我正在浏览<a href="https://cran.r-project.org/web/packages/disk.frame/disk.frame.pdf" rel="nofollow noreferrer">docs and</a>,但
我正在使用磁盘框架,到目前为止效果很好。
让我感到困惑的是块大小。我认为一小块可能会
我正在大文件(> 30GB)上运行n_distinct,它似乎无法产生确切的结果。
我有另一个数据参考点,并
尝试使用以下代码导入CSV时出现此错误:
<code>some.df = csv_to_disk.frame(list.files("some/path"))</code>
我有一个已保存到文件中的磁盘框架。它由十个块组成。
我将每一列都编码为字符,因为我打算将
默认设置为50,比例为1到100。
我的磁盘架特别大,正在考虑使用较大的磁盘架。
要考虑的重
这个问题是<a href="https://stackoverflow.com/questions/63851782/my-group-by-doesnt-appear-to-be-working-in-disk-frames">this thread<
我在30分钟的包装中大约有15 GB的压缩数据。使用unzip和readr或fread进行解压缩和读取都可以,但是ram的要求
我以这种方式读取了25 GB的文本文件,但是却收到与本地主机连接有关的错误:
<blockquote>
s4 <-csv_to
我有 500GB 的 .csv 数据,其中包括以下三个(和其他)变量:1. 乘客上火车的地点,2. 他们下车的地点和
我有一个 120GB 大小的 csv 文件,它是一组按分类变量分组的数值。
例如
<pre><code>df<-as.data.frame
我正在具有 16 GB RAM 的 Windows 10 笔记本电脑上尝试此操作。这里还值得一提的是,我已经将 R 的临时文件
我一直在尝试使用磁盘框架来加载大约 45 GB 的文件。我使用下面的代码将 csv 转换为磁盘框架:
<pre><