如何解决当数据库很大时使用 couchdb mapReduce 超时
详情:
- Apache CouchDB v. 3.1.1
- 大约 5 GB 的 Twitter 数据已转储到分区中
我写的Map reduce函数:
{
"_id": "_design/Info","_rev": "13-c943aaf3b77b970f4e787be600dd240e","views": {
"trial-view": {
"map": "function (doc) {\n emit(doc.account_name,1);\n}","reduce": "_count"
}
},"language": "javascript","options": {
"partitioned": true
}
}
当我在邮递员中尝试以下命令时:
http://
我收到以下错误:
{
"error": "timeout","reason": "The request could not be processed in a reasonable amount of time."
}
请帮助我如何在如此庞大的数据上应用mapReduce?
解决方法
所以,在意识到自己的错误后,我想到了回答我自己的问题。答案很简单。只是需要更多时间,因为索引需要很多时间。您可以查看元数据以查看正在索引的数据库数据。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。