两层 NGINX 反向代理,第二层带有 ssl_client_verify

如何解决两层 NGINX 反向代理,第二层带有 ssl_client_verify

我正在从事的项目是一个部署到 Kubernetes 集群并使用智能卡 PKI 方案进行身份验证的应用程序。该集群在多个应用程序之间共享,并非所有这些应用程序都需要(甚至应该具有)PKI 的客户端证书验证。因此,我们使用 ingress-nginx helm chart 处理进入集群的入口,然后定向到代理应用程序服务(Web 应用程序、api 服务器等)的第二个反向代理。两个代理都有 SSL 证书。

最初,我们使用 Ingress 注释并将 CA 证书安装到 ingress-nginx 部署中以处理客户端证书验证,但现在我们尝试在第二个代理上处理所有证书验证,以便我们有对其进行更多控制。 Ingress-nginx 是一个很棒的工具,但它抽象了很多服务器配置。

目前,我看到的问题是第一个代理 (ingress-nginx) 正在接收请求并将它们正确地代理到第二个代理上。但是,因为 ingress-nginx 没有 ssl_client_verify 指令,所以它不会请求客户端的证书。当请求到达第二个代理(它有 ssl_client_verify)时,该代理只返回 400 并表示客户端从未发送过证书(它没有发送)。

如何告诉第二个代理从第一个代理请求证书,然后第一个代理从用户那里请求证书?或者,如果有更简单的解决方案,我也愿意接受。

我们的 ingress-nginx 控制器的入口对象如下所示:(主机名填充了 kustomize)

apiVersion: networking.k8s.io/v1beta1
kind: Ingress
metadata:
  name: proxy
  namespace: web
  annotations:
    kubernetes.io/ingress.class: nginx
    cert-manager.io/issuer: cert-issuer
    nginx.ingress.kubernetes.io/force-ssl-redirect: "true"
    nginx.ingress.kubernetes.io/backend-protocol: "HTTPS"
spec:
  tls:
  - hosts:
    - placeholder.com
    secretName: web-cert
  rules:
  - host: placeholder.com
    http:
      paths:
      - backend:
          serviceName: proxy
          servicePort: 443
        path: /

我用于第二个代理的服务器配置如下所示:(环境变量在容器启动时替换为代理映像)

# nginx.conf
user nginx;
worker_processes auto;

error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;

events {
    worker_connections 1024;
}

http {
    include /etc/nginx/mime.types;
    default_type application/octet-stream;

    log_format main '$remote_addr - $remote_user [$time_local] "$request" '
        '$status $body_bytes_sent "$http_referer" '
        '"$http_user_agent" "$http_x_forwarded_for"';

    access_log /var/log/nginx/access.log main;

    sendfile on;

    keepalive_timeout 65;

    include /etc/nginx/conf.d/default.conf;

    client_max_body_size 0;
}
# default.conf
server {
    listen 443 ssl http2 default_server;
    listen [::]:443 ssl http2 default_server;
    server_name ${PROXY_DOMAIN} www.${PROXY_DOMAIN};

    ssl_certificate /etc/nginx/certs/certificate.pem;
    ssl_certificate_key /etc/nginx/certs/key.pem;
    ssl_protocols TLSv1.2 TLSv1.3;
    ssl_ciphers HIGH:!aNULL:!MD5;
    ssl_prefer_server_ciphers on;

    ssl_verify_client on;
    ssl_verify_depth 4;
    ssl_client_certificate /etc/nginx/certs/DoDRoots.crt;

    # Inform the proxyed app which user had connected to this TLS endpoint
    add_header X-Client-Verified $ssl_client_verify;
    add_header X-CLient-Certificate $ssl_client_escaped_cert;

    include /etc/nginx/conf.d/shared_locations.conf;
}

server {
    listen 80;
    server_name ${PROXY_DOMAIN} www.${PROXY_DOMAIN};
    return 301 https://$server_name$request_uri;
}
# shared_locations.conf
location / {
    proxy_pass http://${DOMAIN_FRONT}:${PORT_FRONT}/;
    proxy_set_header Host $host;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}

location /api/ {
    proxy_pass http://${DOMAIN_BACK}:${PORT_BACK}/api/;
    proxy_set_header Host $host;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}

解决方法

如何告诉第二个代理从第一个代理请求证书,然后第一个代理从用户那里请求证书?

这是不可能的。无法在第一个代理处终止 TLS 连接,同时在 TLS 级别通过客户端证书。除此之外,第一个代理上的 TLS 握手在与第二个代理的 TLS 握手甚至开始之前完成,例如没有办法让第二个代理发出需要客户端证书的信号。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res