做网站的数据从哪里来企业管理系统的构成状况

张小明 2026/1/19 22:04:54
做网站的数据从哪里来,企业管理系统的构成状况,成都的科技公司有哪些,济宁网站建设常用解决方案一、概述 在kubernetes中#xff0c;pod是应用程序的载体#xff0c;我们可以通过pod的ip来访问应用程序#xff0c;但是pod的ip地址不是固定的#xff0c;这也就意味着不方便直接采用pod的ip对服务进行访问。 为了解决这个问题#xff0c;kubernetes提供了Service资源pod是应用程序的载体我们可以通过pod的ip来访问应用程序但是pod的ip地址不是固定的这也就意味着不方便直接采用pod的ip对服务进行访问。为了解决这个问题kubernetes提供了Service资源Service会对提供同一个服务的多个pod进行聚合并且提供一个统一的入口地址。通过访问Service的入口地址就能访问到后面的pod服务。 Service在很多情况下只是一个概念真正起作用的其实是kube-proxy服务进程每个Node节点上都运行着一个kube-proxy服务进程。当创建Service的时候会通过api-server向etcd写入创建的service的信息而kube-proxy会基于监听的机制发现这种Service的变动然后它会将最新的Service信息转换成对应的访问规则。二、 Kube-proxy的三种模式2.1 userspace 模式userspace模式下kube-proxy会为每一个Service创建一个监听端口发向Cluster IP的请求被Iptables规则重定向到kube-proxy监听的端口上kube-proxy根据LBLoadBalance负载均衡算法选择一个提供服务的Pod并和其建立链接以将请求转发到Pod上。该模式下kube-proxy充当了一个四层负载均衡器的角色。由于kube-proxy运行在userspace中在进行转发处理时会增加内核和用户空间之间的数据拷贝虽然比较稳定但是效率比较低。2.2 iptables 模式iptables模式下kube-proxy为service后端的每个Pod创建对应的iptables规则直接将发向Cluster IP的请求重定向到一个Pod IP。该模式下kube-proxy不承担四层负载均衡器的角色只负责创建iptables规则。该模式的优点是较userspace模式效率更高但不能提供灵活的LB策略当后端Pod不可用时也无法进行重试。2.3 ipvs 模式ipvs模式和iptables类似kube-proxy监控Pod的变化并创建相应的ipvs规则。ipvs相对iptables转发效率更高。除此以外ipvs支持更多的LB算法。# 此模式必须安装ipvs内核模块集群部署的时候已安装否则会降级为iptablesmodprobe ip_vs # 开启ipvscm configmap [rootk8s-master01 ~]# modprobe ip_vs [rootk8s-master01 ~]# yum install -y ipvsadm [rootk8s-master01 ~]# kubectl edit cm kube-proxy -n kube-system # 修改mode: ipvs [rootk8s-master01 ~]# kubectl delete pod -l k8s-appkube-proxy -n kube-system [rootnode1 ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags - RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.16.32.128:30080 rr - 172.16.79.79:80 Masq 1 0 0 TCP 172.16.32.128:32665 rr - 172.16.79.82:8443 Masq 1 0 0 TCP 172.17.0.1:30080 rr - 172.16.79.79:80 Masq 1 0 0 TCP 172.17.0.1:32665 rr - 172.16.79.82:8443 Masq 1 0 0 TCP 192.168.115.161:30080 rr - 172.16.79.79:80 Masq 1 0 0 TCP 192.168.115.161:32665 rr - 172.16.79.82:8443 Masq 1 0 0 TCP 192.168.115.166:30080 rr - 172.16.79.79:80 Masq 1 0 0 TCP 192.168.115.166:32665 rr - 172.16.79.82:8443 Masq 1 0 0 TCP 10.10.0.1:443 rr - 192.168.115.161:6443 Masq 1 0 0 - 192.168.115.162:6443 Masq 1 0 0 - 192.168.115.163:6443 Masq 1 1 0 TCP 10.10.0.10:53 rr - 172.16.122.139:53 Masq 1 0 0 - 172.16.122.140:53 Masq 1 0 0 TCP 10.10.0.10:9153 rr - 172.16.122.139:9153 Masq 1 0 0 - 172.16.122.140:9153 Masq 1 0 0 TCP 10.10.39.128:8000 rr - 172.16.79.80:8000 Masq 1 0 0 TCP 10.10.128.23:443 rr - 172.16.79.81:443 Masq 1 0 0 TCP 10.10.166.16:8000 rr - 172.16.79.79:80 Masq 1 0 0 TCP 10.10.195.192:443 rr - 172.16.79.82:8443 Masq 1 0 0 UDP 10.10.0.10:53 rr - 172.16.122.139:53 Masq 1 0 0 - 172.16.122.140:53 Masq 1 0 0三、Service资源类型常见的Service资源清单以下是基于提供的 YAML 结构生成的表格字段说明表格字段层级字段名称类型必填说明apiVersion-string是固定值v1表示 Kubernetes API 版本kind-string是资源类型固定值Servicemetadata-object是服务的元数据配置namestring是Service 的名称namespacestring否所属命名空间默认defaultlabelslist否自定义标签列表用于标识和筛选资源annotationslist否自定义注解列表存储非标识性元数据spec-object是Service 的详细配置selectormap否标签选择器匹配具有指定标签的 Podtypestring否访问方式类型ClusterIP/NodePort/LoadBalancer默认ClusterIPclusterIPstring否虚拟服务 IP 地址为空时自动分配sessionAffinitystring否会话粘性策略如ClientIPportslist是服务暴露的端口配置列表ports[]-object-单个端口配置namestring否端口名称可选protocolstring否协议类型TCP/UDP默认TCPportint是Service 监听的端口号targetPortint否转发到后端 Pod 的端口号默认与port相同nodePortint否NodePort类型时映射到物理机的端口号status-object否仅当typeLoadBalancer时生效loadBalancerobject-外部负载均衡器配置ingressobject-负载均衡器入口信息ipstring否负载均衡器的 IP 地址hostnamestring否负载均衡器的主机名资源清单案例以下是基于提供的 YAML 文件生成的表格展示了 Kubernetes Service 配置的关键字段及其说明字段层级字段名称示例值/选项说明apiVersion-v1资源版本Service 资源属于核心 API 组kind-Service资源类型固定为Servicemetadata--资源的元数据配置nameserviceService 的名称在命名空间内唯一namespacedev所属命名空间默认为defaultspec--Service 的核心配置selectorapp: nginx标签选择器匹配具有相同标签的 Pod 进行代理type(未指定)访问方式ClusterIP/NodePort/LoadBalancer/ExternalNameclusterIP(未指定)虚拟 IP 地址空值表示自动分配sessionAffinity(未指定)会话亲和性ClientIP基于 IP或None默认spec.ports[]--端口映射配置列表protocolTCP协议类型TCP/UDP/SCTPport3017Service 暴露的端口号targetPort5003Pod 内容器监听的端口号nodePort31122仅当type: NodePort时生效节点主机暴露的端口范围 30000-32767Service中的service.spec.type类型以下是整理后的Kubernetes服务类型及其含义的表格Kubernetes服务类型说明类型含义ClusterIP服务仅在集群内部可用通过集群内部IP访问默认服务类型。ExternalName服务映射到外部DNS名称通过CNAME记录返回不代理或暴露任何容器。LoadBalancer服务通过云提供商的外部负载均衡器暴露自动包含NodePort和ClusterIP功能。NodePort服务在每个节点的静态端口上暴露可通过节点IP访问同时保留ClusterIP。四、Service实战案例实验环境准备在使用service之前首先利用Deployment创建出3个pod注意要为pod设置appnginx-pod的标签创建deployment.yaml内容如下apiVersion: apps/v1 kind: Deployment metadata: name: pc-deployment namespace: dev spec: replicas: 3 selector: matchLabels: app: nginx-pod template: metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx ports: - containerPort: 80[rootk8s-master01 ~]# kubectl create -f deployment.yaml deployment.apps/pc-deployment created # 查看pod详情 [rootk8s-master01 ~]# kubectl get pods -n dev -o wide --show-labels NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES LABELS pc-deployment-59c564ffb7-8vzp5 1/1 Running 0 89s 172.16.79.83 k8s-worker01 none none appnginx-pod,pod-template-hash59c564ffb7 pc-deployment-59c564ffb7-fg2j8 1/1 Running 0 89s 172.16.69.206 k8s-worker02 none none appnginx-pod,pod-template-hash59c564ffb7 pc-deployment-59c564ffb7-sprp7 1/1 Running 0 89s 172.16.69.207 k8s-worker02 none none appnginx-pod,pod-template-hash59c564ffb7 # 为了方便后面的测试修改下三台nginx的index.html页面三台修改的IP地址不一致 [rootk8s-master01 ~]# kubectl exec -it pc-deployment-59c564ffb7-8vzp5 -n dev -- /bin/sh rootpc-deployment-59c564ffb7-8vzp5:/# echo 172.16.79.83 /usr/share/nginx/html/index.html [rootk8s-master01 ~]# kubectl -n dev exec -it pc-deployment-59c564ffb7-fg2j8 -- /bin/bash rootpc-deployment-59c564ffb7-fg2j8:/# echo 172.16.69.206 /usr/share/nginx/html/index.html [rootk8s-master01 ~]# kubectl -n dev exec -it pc-deployment-59c564ffb7-sprp7 -- /bin/bash rootpc-deployment-59c564ffb7-sprp7:/# echo 172.16.69.207 /usr/share/nginx/html/index.html #修改完毕之后访问测试 [rootk8s-master01 ~]# curl 172.16.79.83 172.16.79.83 [rootk8s-master01 ~]# curl 172.16.69.206 172.16.69.206 [rootk8s-master01 ~]# curl 172.16.69.207 172.16.69.2074.1 ClusterIP类型的Service创建service-clusterip.yaml文件apiVersion: v1 kind: Service metadata: name: service-clusterip namespace: dev spec: selector: app: nginx-pod clusterIP: 10.10.97.97 # service的ip地址如果不写默认会生成一个 type: ClusterIP ports: - port: 80 # Service端口 targetPort: 80 # pod端口# 创建service [rootk8s-master01 ~]# kubectl create -f service-clusterip.yaml service/service-clusterip created # 查看service [rootk8s-master01 ~]# kubectl get svc -n dev [rootk8s-master01 ~]# kubectl -n dev get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service-clusterip ClusterIP 10.10.97.97 none 8001/TCP 10s # 查看service的详细信息 # 在这里有一个Endpoints列表里面就是当前service可以负载到的服务入口 [rootk8s-master01 ~]# kubectl describe service -n dev Name: service-clusterip Namespace: dev Labels: none Annotations: none Selector: appnginx-pod Type: ClusterIP IP Family Policy: SingleStack IP Families: IPv4 IP: 10.10.97.97 IPs: 10.10.97.97 Port: unset 8001/TCP TargetPort: 80/TCP Endpoints: 172.16.69.206:80,172.16.69.207:80,172.16.79.83:80 Session Affinity: None Events: none # 查看ipvs的映射规则 [rootk8s-master01 ~]# ipvsadm -Ln TCP 10.97.97.97:80 rr - 10.10.1.39:80 Masq 1 0 0 - 10.10.1.40:80 Masq 1 0 0 - 10.10.2.33:80 Masq 1 0 0 # 访问10.10.97.97:8001观察效果 [rootk8s-master01 ~]# curl 10.10.97.97:8001 172.16.79.83 [rootk8s-master01 ~]# curl 10.10.97.97:8001 172.16.69.207 [rootk8s-master01 ~]# curl 10.10.97.97:8001 172.16.69.206Endpoint解析Endpoint是kubernetes中的一个资源对象存储在etcd中用来记录一个service对应的所有pod的访问地址它是根据service配置文件中selector描述产生的。一个Service由一组Pod组成这些Pod通过Endpoints暴露出来Endpoints是实现实际服务的端点集合。换句话说service和pod之间的联系是通过endpoints实现的。负载分发策略对Service的访问被分发到了后端的Pod上去目前kubernetes提供了两种负载分发策略如果不定义默认使用kube-proxy的策略比如随机、轮询基于客户端地址的会话保持模式即来自同一个客户端发起的所有请求都会转发到固定的一个Pod上# 查看ipvs的映射规则【rr 轮询】 [rootk8s-master01 ~]# ipvsadm -Ln TCP 10.97.97.97:80 rr - 10.10.1.39:80 Masq 1 0 0 - 10.10.1.40:80 Masq 1 0 0 - 10.10.2.33:80 Masq 1 0 0 # 循环访问测试 [rootk8s-master01 ~]# while true;do curl 10.97.97.97:80; sleep 5; done; 10.10.1.40 10.10.1.39 10.10.2.33 10.10.1.40 10.10.1.39 10.10.2.33 # 修改分发策略----sessionAffinity:ClientIP # 查看ipvs规则【persistent 代表持久】 [rootk8s-master01 ~]# ipvsadm -Ln TCP 10.97.97.97:80 rr persistent 10800 - 10.10.1.39:80 Masq 1 0 0 - 10.10.1.40:80 Masq 1 0 0 - 10.10.2.33:80 Masq 1 0 0 # 循环访问测试 [rootk8s-master01 ~]# while true;do curl 10.97.97.97; sleep 5; done; 10.10.2.33 10.10.2.33 10.10.2.33 # 删除service [rootk8s-master01 ~]# kubectl delete -f service-clusterip.yaml service service-clusterip deleted [rootk8s-master01 ~]# kubectl delete service service-clusterip -n dev service service-clusterip deleted4.2 HeadLiness类型的Service在某些场景中开发人员可能不想使用Service提供的负载均衡功能而希望自己来控制负载均衡策略针对这种情况kubernetes提供了HeadLiness Service这类Service不会分配Cluster IP如果想要访问service只能通过service的域名进行查询。创建service-headliness.yamlapiVersion: v1 kind: Service metadata: name: service-headliness namespace: dev spec: selector: app: nginx-pod clusterIP: None # 将clusterIP设置为None即可创建headliness Service type: ClusterIP ports: - port: 80 targetPort: 80# 创建service [rootk8s-master01 ~]# kubectl apply -f deployment-nginx-headliness.yaml service/service-headliness created # 获取service 发现CLUSTER-IP未分配 [rootk8s-master01 ~]# kubectl -n dev get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service-headliness ClusterIP None none 80/TCP 10s # 查看service详情 [rootk8s-master01 ~]# kubectl describe svc -n dev Name: service-headliness Namespace: dev Labels: none Annotations: none Selector: appnginx-pod Type: ClusterIP IP Family Policy: SingleStack IP Families: IPv4 IP: None IPs: None Port: unset 80/TCP TargetPort: 80/TCP Endpoints: 172.16.69.206:80,172.16.69.207:80,172.16.79.83:80 Session Affinity: None Events: none # 查看域名的解析情况 [rootk8s-master01 ~]# kubectl -n dev exec -it pc-deployment-59c564ffb7-8vzp5 -- /bin/bash [rootk8s-master01 ~]# kubectl -n dev exec -it pc-deployment-59c564ffb7-8vzp5 -- /bin/bash rootpc-deployment-59c564ffb7-8vzp5:/# rootpc-deployment-59c564ffb7-8vzp5:/# cat /etc/resolv.conf search dev.svc.cluster.local svc.cluster.local cluster.local nameserver 10.10.0.10 options ndots:5 [rootk8s-master01 ~]# dig 10.96.0.10 service-headliness.dev.svc.cluster.local service-headliness.dev.svc.cluster.local. 30 IN A 172.16.79.83 service-headliness.dev.svc.cluster.local. 30 IN A 172.16.69.206 service-headliness.dev.svc.cluster.local. 30 IN A 172.16.69.207 #删除service [rootk8s-master01 ~]# kubectl delete -n dev svc service-headliness service service-headliness deleted4.3 NodePort类型的Service在之前的样例中创建的Service的ip地址只有集群内部才可以访问如果希望将Service暴露给集群外部使用那么就要使用到另外一种类型的Service称为NodePort类型。NodePort的工作原理其实就是将service的端口映射到Node的一个端口上然后就可以通过NodeIp:NodePort来访问service了。创建service-nodeport.yamlapiVersion: v1kind: Servicemetadata: name: service-nodeport namespace: devspec: selector: app: nginx-pod type: NodePort # service类型 ports: - port: 80 nodePort: 30002 # 指定绑定的node的端口(默认的取值范围是30000-32767), 如果不指定会默认分配 targetPort: 80# 创建service [rootk8s-master01 ~]# kubectl apply -f deployment-nginx-nodeport.yaml service/service-nodeport created # 查看service [rootk8s-master01 ~]# kubectl -n dev get svc -o wide NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR service-nodeport NodePort 10.10.25.194 none 80:30002/TCP 29s appnginx-pod # 接下来可以通过电脑主机的浏览器去访问集群中任意一个nodeip的30002端口即可访问到pod #删除service [rootk8s-master01 ~]# kubectl delete -n dev svc service-nodeport service service-nodeport deleted4.4 LoadBalancer类型的ServiceLoadBalancer和NodePort很相似目的都是向外部暴露一个端口区别在于LoadBalancer会在集群的外部再来做一个负载均衡设备而这个设备需要外部环境支持的外部服务发送到这个设备上的请求会被设备负载之后转发到集群中。4.5 ExternalName类型的ServiceExternalName类型的Service用于引入集群外部的服务它通过externalName属性指定外部一个服务的地址然后在集群内部访问此service就可以访问到外部的服务了。创建service-externalname.yaml# 创建service [rootk8s-master01 ~]# kubectl apply -f deployment-nginx-externalname.yaml service/service-externalname created [rootk8s-master01 ~]# kubectl -n dev get svc -o wide NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR service-externalname ExternalName none www.baidu.com none 7s none [rootk8s-master01 ~]# kubectl describe -n dev svc Name: service-externalname Namespace: dev Labels: none Annotations: none Selector: none Type: ExternalName IP Families: none IP: IPs: none External Name: www.baidu.com Session Affinity: None Events: none # 域名解析 [rootk8s-master01 ~]# dig 10.10.0.10 service-externalname.dev.svc.cluster.local ; DiG 9.11.4-P2-RedHat-9.11.4-26.P2.el7_9.15 10.10.0.10 service-externalname.dev.svc.cluster.local ; (1 server found) ;; global options: cmd ;; Got answer: ;; WARNING: .local is reserved for Multicast DNS ;; You are currently testing what happens when an mDNS query is leaked to DNS ;; -HEADER- opcode: QUERY, status: NOERROR, id: 33580 ;; flags: qr aa rd; QUERY: 1, ANSWER: 4, AUTHORITY: 0, ADDITIONAL: 1 ;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION: ; EDNS: version: 0, flags:; udp: 4096 ;; QUESTION SECTION: ;service-externalname.dev.svc.cluster.local. IN A ;; ANSWER SECTION: service-externalname.dev.svc.cluster.local. 5 IN CNAME www.baidu.com. www.baidu.com. 5 IN CNAME www.a.shifen.com. www.a.shifen.com. 5 IN A 39.156.66.18 www.a.shifen.com. 5 IN A 39.156.66.14 ;; Query time: 127 msec ;; SERVER: 10.10.0.10#53(10.10.0.10) ;; WHEN: 四 1月 25 15:04:37 CST 2024 ;; MSG SIZE rcvd: 247
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

东莞官方网站设计网站搭建团队

网络协议与IP寻址全解析 在当今数字化的时代,网络已经成为人们生活和工作中不可或缺的一部分。了解网络协议和IP寻址的相关知识,对于理解网络的运行机制和进行网络管理都具有重要意义。本文将详细介绍网络协议的层次结构、TCP/IP协议、端口的作用,以及IP地址的分类和子网掩…

张小明 2026/1/17 16:05:29 网站建设

单位网站建设要记入无形资产吗聊城做网站推广哪家好

第一章:Open-AutoGLM 多模态理解行业排名在当前多模态人工智能技术快速发展的背景下,Open-AutoGLM 凭借其卓越的图文理解能力与高效的推理架构,在多个权威评测榜单中位列前茅。该模型由深度求索(DeepSeek)团队研发&…

张小明 2026/1/17 16:05:31 网站建设

福州优化搜索引擎win10一键优化工具

一、C中的左值引用和右值引用 1. 左值引用(Lvalue Reference) 基本概念 左值引用是传统的引用类型,使用 & 符号声明: int x 10; int& ref_x x; // ref_x是x的左值引用左值的特征 有名称的变量可以取地址有持久的状态通…

张小明 2026/1/17 16:05:33 网站建设

怎么做网站的内链外链网站开发 售后服务协议

目录具体实现截图项目介绍论文大纲核心代码部分展示可定制开发之亮点部门介绍结论源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作具体实现截图 本系统(程序源码数据库调试部署讲解)同时还支持Python(flask,django)、…

张小明 2026/1/17 16:05:32 网站建设

浙江平台网站建设设计长春建设平台网站的公司哪家好

LNMP环境快速搭建实战指南:从零到一部署完整Web服务 【免费下载链接】lnmp linuxeye/lnmp: 这是一个用于在Linux上快速部署LNMP(Linux、Nginx、MySQL、PHP)环境的Docker镜像。适合用于需要在Linux上快速部署LNMP环境的场景。特点:…

张小明 2026/1/17 16:05:34 网站建设

苏州专业网站建设开发公司职业教育网站建设可行性报告

Excalidraw科研假设模型:理论框架可视化 在一场跨学科的线上组会中,一位研究员突然停顿:“等等,你说的‘反馈回路’到底连接的是哪个模块?”——这样的场景在科研协作中并不陌生。当抽象概念仅靠语言传递时&#xff0c…

张小明 2026/1/17 16:05:35 网站建设