首页 > 编程知识 正文

docker集群搭建,同一台机器通过docker集群

时间:2023-05-03 14:47:19 阅读:150020 作者:2610

1环境准备#节点192.168.38.50文档节点1192.168.38.51文档节点2192.168.38.52文档节点3192.168.38.53文档节点密钥

vim/etc/sysctl.conf # fs.file-max主要构成系统的最大打开文件描述符数,655360多个fs.file-max=655360#更改为影响Java线程数VM.max _ map _ count=262144 vim/etc/security/limits.conf #可打开的文件描述符的最大数目,用于限制进程拥有的虚拟内存空间(VMA )的大小个人用户可以使用的最大进程数(软限制) * soft nofile 65536# )每个用户可以使用的最大进程数)硬限制) hard nofile 65536# )内存无限制) softmemlockunling 软限制vim/etc/security/limits.d/20-nproc.conf * soft nproc 40960 #生效sysctl -p 3群集构建3.1镜像#3节点dockerpulleling 创建插件目录mkdir-p/usr/local/elastic search/data mkdir-p/usr/local/elastic search/config mkdir-p/usr/usr/local/elastic search/configvielasticsearch.yml #必须设置群集名称,并且群集中所有节点的名称必须匹配。 cluster.name: es-cluster#设置节点名称,并且群集中的节点名称必须是唯一的。 node.name: node1#表示该节点是否为主节点,true表示会; false表示node.master: true#当前节点是否未用于存储数据。 是: true,否: falsenode.data: true#索引数据的存储位置path.data 3360/usr/share/elastic search/data # 日志文件存储位置path.logs3360此es network.host 3360192.168.38.50 # es用于锁定访问外部提供的http所需的物理内存的默认9200 http.post TCP的默认监听端口,默认9300 transport.TCP.port 33609300 #设置此参数,以便群集中的节点可以识别其他n个具有主资格的节点。 默认值为1。对于较大的群集,将候选主节点的设备地址设置为在较大值(2-4) discovery.Zen.minimum _ master _ nodes 3360 ) es7.x之后添加的配置启动服务后,启动主节点discovery.seed _ hosts : [ ' 192.168.38.5033609300 ',' 192.168.38.51:9300 ', ' 192.168.38.5233609300 ' ] discovery.Zen.FD.ping _ time out :1 mdiscovery.Zen.FD.ping _ retries 33605 #新该结构选出了master cluster.initial _ master _ nodes : [ ' 192.168.38.5033609300 ',' 192.168.38.51336093000] http.cors.enabled: true# “*”支持所有域名http.CORS.allow-origin : ' * ' 3.4 node 2配置文件CD/usr/usr/node.name: node2#表示该节点是否为主节点,true表示会; false-node.master : true #指示当前节点是否不用于存储数据。如果“是”:“真”、“否”:“false node.data 3360 true #”索引数据已存储

s: /usr/share/elasticsearch/logs# 需求锁住物理内存,是:true、否:falsebootstrap.memory_lock: false# 监听地址,用于访问该esnetwork.host: 192.168.38.51# es对外提供的http端口,默认 9200http.port: 9200# TCP的默认监听端口,默认 9300transport.tcp.port: 9300# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)discovery.zen.minimum_master_nodes: 1# es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点discovery.seed_hosts: ["192.168.38.50:9300", "192.168.38.51:9300","192.168.38.52:9300"]discovery.zen.fd.ping_timeout: 1mdiscovery.zen.fd.ping_retries: 5# es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举mastercluster.initial_master_nodes: ["192.168.38.50:9300", "192.168.38.51:9300","192.168.38.52:9300"]# 是否支持跨域,是:true,在使用head插件时需要此配置http.cors.enabled: true# “*” 表示支持所有域名http.cors.allow-origin: "*" 3.5 node3 配置文件 cd /usr/local/elasticsearch/configvi elasticsearch.yml# 设置集群名称,集群内所有节点的名称必须一致。cluster.name: es-cluster# 设置节点名称,集群内节点名称必须唯一。node.name: node3# 表示该节点会不会作为主节点,true表示会;false表示不会node.master: true# 当前节点是否用于存储数据,是:true、否:falsenode.data: true# 索引数据存放的位置path.data: /usr/share/elasticsearch/data# 日志文件存放的位置path.logs: /usr/share/elasticsearch/logs# 需求锁住物理内存,是:true、否:falsebootstrap.memory_lock: false# 监听地址,用于访问该esnetwork.host: 192.168.38.52# es对外提供的http端口,默认 9200http.port: 9200# TCP的默认监听端口,默认 9300transport.tcp.port: 9300# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)discovery.zen.minimum_master_nodes: 1# es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点discovery.seed_hosts: ["192.168.38.50:9300", "192.168.38.51:9300","192.168.38.52:9300"]discovery.zen.fd.ping_timeout: 1mdiscovery.zen.fd.ping_retries: 5# es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举mastercluster.initial_master_nodes: ["192.168.38.50:9300", "192.168.38.51:9300","192.168.38.52:9300"]# 是否支持跨域,是:true,在使用head插件时需要此配置http.cors.enabled: true# “*” 表示支持所有域名http.cors.allow-origin: "*" 3.6 启动 #三台节点docker run -d --network=host --privileged=true -e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" -e TAKE_FILE_OWNERSHIP=true --name es -v /usr/local/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /usr/local/elasticsearch/data:/usr/share/elasticsearch/data -v /usr/local/elasticsearch/logs:/usr/share/elasticsearch/logs -v /usr/local/elasticsearch/plugins:/usr/share/elasticsearch/plugins elasticsearch:7.6.1 3.7 head 插件 docker run -d --name es-head -p 9100:9100 mobz/elasticsearch-head:5

3.8 Kibana

描述: 192.168.38.53节点搭建kibana连接ES集群。

#拉取镜像docker pull kibana:7.6.1#创建配置文件mkdir -p /usr/local/kibana/configvi kibana.ymlserver.name: kibanaserver.host: "0"elasticsearch.hosts: [ "http://192.168.38.50:9200","http://192.168.38.51:9200","http://192.168.38.52:9200" ]xpack.monitoring.ui.container.elasticsearch.enabled: true#启动命令docker run --name kibana -v /usr/local/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml -p 5601:5601 -d kibana:7.6.1

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。