如何解决如何使用 SPARQL 检索按使用情况排序的 Wikidata 的所有属性
我发现一个查询检索 Wikidata 的所有属性以及属性 ID、标签、描述和别名
PREFIX bd: <http://www.bigdata.com/rdf#>
PREFIX schema: <http://schema.org/>
PREFIX skos: <http://www.w3.org/2004/02/skos/core#>
PREFIX wikibase: <http://wikiba.se/ontology#>
SELECT ?p ?pt ?pLabel ?d ?aliases WHERE {
{
SELECT ?p ?pt ?d
(GROUP_CONCAT(DISTINCT ?alias; separator="|") as ?aliases)
WHERE {
?p wikibase:propertyType ?pt .
OPTIONAL {?p skos:altLabel ?alias FILTER (LANG (?alias) = "en")}
OPTIONAL {?p schema:description ?d FILTER (LANG (?d) = "en") .}
} GROUP BY ?p ?pt ?d
}
SERVICE wikibase:label {
bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en".
}
}
以及通过语句指向 Q46 的项目使用的查询计数属性
SELECT ?property ?count
WHERE {
SELECT ?property (COUNT(?item) AS ?count)
WHERE {
?item ?statement wd:Q46 . # items pointing to Q46 through a statement
?property wikibase:statementProperty ?statement . # property used for that statement
} GROUP BY ?property # count usage for each property pointing to that entity
} ORDER BY DESC(?count) # show in descending order of uses
我会在不依赖 Q46 的情况下组合它们,但我不知道具体如何。
解决方法
此类 SPARQL 查询将花费太多时间,导致执行超时。替代方案是:
- 开发和使用应用程序
- 从 Wikidata JSON 转储的 bzip2 存档中解压缩约 900 KiB 的块 (https://dumps.wikimedia.org/wikidatawiki/entities/latest-all.json.bz2)
- 将解压后的数据从块传递到 JSON 解析器(它可能是一个事件驱动的 JSON 解析器)
- 解析该 JSON 以提取有价值的数据
- 开发和使用应用程序
- 按照第 1 点所述读取 bzip2 转储存档
- 将解析的 JSON 数据导入 SQL 数据库
- 对您自己的数据库执行 SQL 查询以提取有价值的数据
- 另一种减少开发工作量的方法是:
- 提取 Wikidata JSON 转储存档 (~65 GiB) 生成~1.4 TB json 文件
- 开发一个小应用程序,使用事件驱动的解析器解析该类型的 json 文件
- 解析该 JSON 以提取有价值的数据
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。