首页 > 编程知识 正文

ElasticSearch创建索引映射文档 IK分词器,elasticsearch创建索引

时间:2023-05-05 21:16:01 阅读:194417 作者:810

目录 1.ElasticSearch介绍2.配置文件3.安装head插件和Kibana 4.创建索引:4.1第一种:界面上直接新建4.2第二种:postman种新建 5.创建映射6.创建文档6.1 不指定ID,随机生成6.2 指定ID,推荐 7.搜索文档8.IK分词器8.1 测试分词器8.2 安装IK分词器8.3 两种分词模式8.3.1 ik_max_word 会将文本做最细粒度的拆分8.3.2 ik_smart:会做最粗粒度的拆分 8.4 自定义词库 9 修改映射10.搜索

1.ElasticSearch介绍

总结:

1、elasticsearch是一个基于Lucene的高扩展的分布式搜索服务器,支持开箱即用。

2、elasticsearch隐藏了Lucene的复杂性,对外提供Restful 接口来操作索引、搜索。
突出优点:

1.扩展性好,可部署上百台服务器集群,处理PB级数据。

2.近实时的去索引数据、搜索数据。

2.配置文件

elasticsearch.yml : 用于配置Elasticsearch运行参数
jvm.options : 用于配置Elasticsearch JVM设置
log4j2.properties: 用于配置Elasticsearch日志

elasticsearch.yml

cluster.name: wangnode.name: wang_node_1network.host: 0.0.0.0http.port: 9200transport.tcp.port: 9300node.master: truenode.data: true#discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]discovery.zen.minimum_master_nodes: 1bootstrap.memory_lock: falsenode.max_local_storage_nodes: 1path.data: D:ESelasticsearch-6.2.1datapath.logs: D:ESelasticsearch-6.2.1logshttp.cors.enabled: truehttp.cors.allow-origin: /.*/

常用的配置项如下:

cluster.name: ​ 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。

node.name:节点名,通常一台物理服务器就是一个节点,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理一个或多个节点组成一个cluster集群,集群是一个逻辑的概念,节点是物理概念
path.conf: 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/
elasticsearch path.data:设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开。
path.logs:设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins: 设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.memory_lock: true 设置为true可以锁住ES使用的内存,避免内存与swap分区交换数据。
network.host: 设置绑定主机的ip地址,设置为0.0.0.0表示绑定任何ip,允许外网访问,生产环境建议设置为具体的ip。

http.port: 9200 设置对外服务的http端口,默认为9200。

transport.tcp.port: 9300 集群结点之间通信端口

node.master: 指定该节点是否有资格被选举成为master结点,默认是true,如果原来的master宕机会重新选举新的master。

node.data: 指定该节点是否存储索引数据,默认为true。

discovery.zen.ping.unicast.hosts: [“host1:port”, “host2:port”, “…”] 设置集群中master节点的初始列表。

discovery.zen.ping.timeout: 3s 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些。
discovery.zen.minimum_master_nodes:主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1,比如:有3个符合要求的主结点,那么这里要设置为2。

node.max_local_storage_nodes: 单机允许的最大存储结点数,通常单机启动一个结点建议设置为1,开发环境如果单机启动多个节点可设置大于1.

3.安装head插件和Kibana

4.创建索引: 4.1第一种:界面上直接新建


4.2第二种:postman种新建

put http://localhost:9200/索引库名称

number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。
number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.

5.创建映射

post http://localhost:9200/wang-001/doc/_mapping

6.创建文档 6.1 不指定ID,随机生成

http://localhost:9200/wang-001/doc



或kibana页面

6.2 指定ID,推荐

post http://localhost:9200/wang-001/doc/1

7.搜索文档

get http://localhost:9200/wang-001/doc/1

8.IK分词器 8.1 测试分词器

post http://localhost:9200/_analyze

分词结果:

8.2 安装IK分词器

8.3 两种分词模式

ik分词器有两种分词模式:ik_max_word和ik_smart模式。
ik_max_word:会将文本做最细粒度的拆分
ik_smart:会做最粗粒度的拆分

8.3.1 ik_max_word 会将文本做最细粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_max_word”}

8.3.2 ik_smart:会做最粗粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_smart”}


8.4 自定义词库



添加词库

加入

9 修改映射

不能直接修改,只能添加

添加,存储用最细粒度,搜索用最粗粒度

"analyzer":"ik_max_word","search_analyzer":"ik_smart"

10.搜索

新增几条数据

搜索所有
http://localhost:9200/wang-001/doc/_search
根据搜索字段名搜索
http://localhost:9200/wang-001/doc/_search?q=desc:无能

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。