微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!
disk.frame专题提供disk.frame的最新资讯内容,帮你更好的了解disk.frame。
我想将数据帧转换为磁盘帧,然后计算第一列。当我尝试它时,它不计算列的唯一值的数量。看来是在
我将磁盘框架保存到其输出目录,然后重新启动R会话。 我想读取现有的磁盘框架,​​而不是在
我有一个带有这些列的磁盘架 <pre><code>setState()</code></pre> 说磁盘框为200M行,我想按key_b对其进行分
我在一个较大的数据集(> 20GB)上运行了一个分组,但似乎运行不正常 这是我的代码 <pre><code>my
我正在尝试在磁盘框架上执行分组,并且收到此错误 <blockquote> serialize(data,node $ con)中的错误
我有两个磁盘框架,​​每个磁盘框架约有20GB的文件容量。 太大了,无法合并为数据表,因为该
我正在浏览<a href="https://cran.r-project.org/web/packages/disk.frame/disk.frame.pdf" rel="nofollow noreferrer">docs and</a>,但
我正在使用磁盘框架,​​到目前为止效果很好。 让我感到困惑的是块大小。我认为一小块可能会
我正在大文件(> 30GB)上运行n_distinct,它似乎无法产生确切的结果。 我有另一个数据参考点,并
尝试使用以下代码导入CSV时出现此错误: <code>some.df = csv_to_disk.frame(list.files(&#34;some/path&#34;))</code>
我有一个已保存到文件中的磁盘框架。它由十个块组成。 我将每一列都编码为字符,因为我打算将
默认设置为50,比例为1到100。 我的磁盘架特别大,正在考虑使用较大的磁盘架。 要考虑的重
这个问题是<a href="https://stackoverflow.com/questions/63851782/my-group-by-doesnt-appear-to-be-working-in-disk-frames">this thread<
我在30分钟的包装中大约有15 GB的压缩数据。使用unzip和readr或fread进行解压缩和读取都可以,但是ram的要求
我以这种方式读取了25 GB的文本文件,但是却收到与本地主机连接有关的错误: <blockquote> s4 <-csv_to
我有 500GB 的 .csv 数据,其中包括以下三个(和其他)变量:1. 乘客上火车的地点,2. 他们下车的地点和
我有一个 120GB 大小的 csv 文件,它是一组按分类变量分组的数值。 例如 <pre><code>df&lt;-as.data.frame
我正在具有 16 GB RAM 的 Windows 10 笔记本电脑上尝试此操作。这里还值得一提的是,我已经将 R 的临时文件
我一直在尝试使用磁盘框架来加载大约 45 GB 的文件。我使用下面的代码将 csv 转换为磁盘框架: <pre><