如何解决如何将 Argo webhook 触发器参数放入工件中? 原始数据示例
我希望能够将大量数据发布到 Argo 中的 webhook。在我的传感器定义中,我从请求中获取数据并将其放入工作流上的“原始”工件中。由于数据是 base64 编码的,我使用 Sprig 模板对编码后的数据进行解码。
不幸的是,当我使用大量数据时,Kubernetes 拒绝处理生成的工作流定义。
原始数据示例
此示例适用于少量数据。
apiVersion: argoproj.io/v1alpha1
kind: Sensor
Metadata:
name: webhook
spec:
template:
serviceAccountName: argo-events-sa
dependencies:
- name: input-dep
eventSourceName: webhook-datapost
eventName: datapost
triggers:
- template:
name: webhook-datapost-trigger
k8s:
group: argoproj.io
version: v1alpha1
resource: workflows
operation: create
source:
resource:
apiVersion: argoproj.io/v1alpha1
kind: Workflow
Metadata:
generateName: webhook-datapost-
spec:
entrypoint: basefile
imagePullSecrets:
- name: regcred
arguments:
artifacts:
- name: filecontents
raw:
data: ""
templates:
- name: basefile
serviceAccountName: argo-events-sa
inputs:
artifacts:
- name: filecontents
path: /input.file
container:
image: alpine:latest
command: ["ls"]
args: ["/input.file"]
parameters:
- src:
dependencyName: input-dep
dataTemplate: "{{ .Input.body.basedata | b64dec }}"
dest: spec.arguments.artifacts.0.raw.data
数据集较大时出错
当我用一个小数据集触发上面的例子时,它按预期工作。但是当我使用大型数据集时,出现错误:
Pod "webhook-datapost-7rwsm" is invalid: Metadata.annotations: Too long: must have at most 262144 bytes
我知道这是因为将整个原始数据复制到工作流模板中。这个大模板随后被 Kubernetes 拒绝。
我正在寻找一种方法来将数据从 webhook POST 请求复制到工件中,而不会将整个有效负载复制到工作流模板中。 Argo 有可能吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。