8wDlpd.png
8wDFp9.png
8wDEOx.png
8wDMfH.png
8wDKte.png

在 EKS 上部署时使用 LDAP 向 Apache Spark History 服务器进行身份验证

joybaker 1月前

20 0

我们正在寻找一种方法来为我的 Apache Spark Web UI(历史服务器)配置 LDAP 身份验证。Spark 实例在 Kubernetes 集群内运行,我们选择了 S3 存储桶来存储...

我们正在寻找一种方法来为我的 Apache Spark Web UI(历史服务器)配置 LDAP 身份验证。Spark 实例在 Kubernetes 集群内运行,我们选择了 S3 存储桶来存储事件/日志。是否有一种机制可以在访问 Spark 历史服务器 UI 时使用 LDAP 对我的 AD 用户进行身份验证。

帖子版权声明 1、本帖标题:在 EKS 上部署时使用 LDAP 向 Apache Spark History 服务器进行身份验证
    本站网址:http://xjnalaquan.com/
2、本网站的资源部分来源于网络,如有侵权,请联系站长进行删除处理。
3、会员发帖仅代表会员个人观点,并不代表本站赞同其观点和对其真实性负责。
4、本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报
5、站长邮箱:yeweds@126.com 除非注明,本帖由joybaker在本站《kubernetes》版块原创发布, 转载请注明出处!
最新回复 (0)
  • 迄今为止最简单的方法是在前端放置一个基本的表单身份验证页面,然后代表用户查询 AD 以检索完整令牌或(更可能)仅检查他们是否是某个组的成员...不这样做的原因是应用程序受凭据信任...这不是典型的场景(即从零身份验证或授权开始)

  • Kbi 1月前 0 只看Ta
    引用 3

    由于 Apache Spark History Server 本身不支持 LDAP 身份验证,因此一种常见的方法是在 Spark History Server 前面部署身份验证代理。此代理可以处理 LDAP 身份验证并将经过身份验证的请求转发到 Spark UI。这是最简单的方法,您可以使用自定义配置的 Nginx:

    http {
        ldap_server ad_server {
            url ldap://your-ad-server.com:389/DC=yourdomain,DC=com?uid?sub?(objectClass=person);
            binddn "CN=bind_user,CN=Users,DC=yourdomain,DC=com";
            binddn_passwd "your_bind_user_password";
            group_attribute member;
            group_attribute_is_dn on;
            require valid_user;
        }
    
        server {
            listen 443 ssl;
            server_name spark-history.yourdomain.com;
    
            ssl_certificate /etc/nginx/certificates/your-cert.crt;
            ssl_certificate_key /etc/nginx/certificates/your-key.key;
    
            location / {
                auth_ldap "LDAP Authentication";
                auth_ldap_servers ad_server;
    
                proxy_pass http://spark-history-server-service:18080;
                proxy_set_header X-Real-IP $remote_addr;
                proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
                proxy_set_header Host $host;
            }
        }
    }
    

    使用 官方文档中提到的 Java Servelet 过滤器 ,因此您需要创建自己的过滤器并启用它 spark.ui.filters

返回
作者最近主题: