CouchDB 过滤器和带有视图和列表的分页

如何解决CouchDB 过滤器和带有视图和列表的分页

我们正在尝试使用 CouchDB 和 Golang 在 HL Fabric 中构建一个应用程序,它已经增长了太多,现在我们有很多数据类型,我们需要在数据库中进行连接等价物来过滤和显示数据.

我们的尝试:

使用 Mango Queries 通过代码加入链码(这似乎不是一个好的解决方案,但它是唯一真正有效的解决方案) 这是,获取父级,循环获取子级的结果(如果只是列出)

在过滤的情况下,事情变得更加复杂,因为我们需要按组过滤子项,获取 parentID,在另一个查询中使用那些带有我们想要避免的许多 ID 的可怕的“$or”

通过视图和列表加入 CouchDB

所以,我们提出了这个“解决方案”,但它有很多问题

  // Collaborator document
{
  "_id": "john.doe@email.com","_rev": "33-0a7f4e6f6c4a60d6ffded693ed794cb6","docType": "collaborator","id": "john.doe@email.com","levelID": "1@level",// this is what we want to filter events by (1@level,2@level,...)
  "name": "John","surname": "Doe","~version": "CgQCAsIA"
}

// Event document
{
  "_id": "0160ca22-6ffb-40d8-a8ad-e13ce5f0a0ef","_rev": "1-a23a010bcadf8b7969fb7a5aba93456a","creation": "2021-04-14T14:29:34-0300","docType": "event","id": "0160ca22-6ffb-40d8-a8ad-e13ce5f0a0ef","movement": "transfer",// we want to filter events by this field also
  "from": "jane.doe@email.com","to": "john.doe@email.com",// link to collaborator document
  "quantity": 10,"~version": "CgQCAk4A"
}



// Our view function
function (doc) {
    if (doc.docType == "event"){
        emit([doc.creation,doc.id],{_id: doc.id});
        emit([doc.creation,{_id: doc.to});
    }
}
// Our list function
function (head,req) {
  var row,last_key;
  var event,to;
  var key;
  var query = {};
  query.movement = req.query.movement;
  query.levelID = req.query.levelID;

  send('{"records" : [');
  
  while ((row = getRow())) {
    key = row.key[row.key.length-1];
    if (last_key != key) {
      if (last_key != "undefined") {
        sendJSON();
        event = undefined;
        to = undefined;
      }
      last_key = key;
    }
    if (row.doc) {
      if (row.doc.docType == "event") {
        event = row.doc;
      } else if (row.doc.docType == "collaborator"){
        to = row.doc;
      }
    }
  }
  sendJSON();
  send(toJSON({}));
  send("]}");   

  function sendJSON() {
    var pass = true;  

    if (event && to) {
      if (query.movement && event.movement != query.movement) {
        pass = false;
      }
      if (query.levelID && to.levelID != query.levelID) {
        pass = false;
      }
      if (pass) {
        event.to = to;
      }
    } else {
      pass = false;
    }
   
    if (pass) {
      send(toJSON(event));
      send(",");
    }
  }
};
   
// Then we call it with
http://127.0.0.1:5984/testchannel_huenei/_design/new_design/_list/result/events
?include_docs=true&levelID=1@level&movement=transfer
&startkey=["3000-01-01T24:00:00-0300",{}]&endkey=["1999-01-01T00:00:00-0300"]&descending=true

// And the result is something like this
{
  "records": [{
    "_id": "0160ca22-6ffb-40d8-a8ad-e13ce5f0a0ef","movement": "transfer"
    "from": "jane.doe@email.com","to": {
      "_id": "john.doe@email.com","name": "John","~version": "CgQCAsIA"
    },"quantity": 10,"~version": "CgQCAk4A"
    },{}
  ]
}

它可以工作,但看起来太复杂了,当使用 SQL 时,它可以通过简单的连接/查询来解决。深度嵌套的文档呢?

我们知道可以在 url 中过滤“移动”,但实际上我们还有许多其他字段要过滤,正如我们所读到的,键必须是有序的。 这意味着,如果我有emit([doc.to,doc.movement,null),我需要先指定“to”,即&startkey=[???,"transfer"]&endkey=[???,"transfer",{}] 我们尝试使用 &startkey=[null,"transfer"]&endkey=[\ufff0,{}],但没有用

但无论如何,嵌套文档的过滤是最有问题的

另一个主要问题是我们无法对结果进行分页,因为关键字“limit”仅在视图中有效,而在列表中无效

人们如何在真实的 Hyperledger Fabric 世界场景中解决这些问题?或者甚至在一个普通的 CouchDB 场景中?

谢谢

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res