首页 > 编程知识 正文

java敏感字检验,敏感字检测java

时间:2023-05-04 00:54:25 阅读:228629 作者:855

之前项目里客户提出一个需求,需要对系统中使用文本转化成语音发送的功能进行敏感词检测,禁止用户提交有敏感词的语音。通过查询各方面资料,整理了大概几种方案:

项目启动时对载入敏感词库作为缓存(一个大map,敏感词为key,取任意值为value)。 对请求传入的文本分词,遍历分词结果,每个分词在map中查找,如果有值,则请求文本存在敏感词。

把敏感词库拼接成一个大的正则表达式,然后直接对文本匹配。

使用DFA(确定性有限状态自动机) DFA算法

对于方案选择,在网上参考了很多别人的代码。最简单的是方法2使用正则表达式,但是据说文本一长会有很大的效率问题。关于方法3DFA算法,由于在学校的时候算法课和编译原理没有认真听讲(惭愧= =||),直接就忽略这方法了,所以最后还是决定使用方法1。 其实方法1还是有很多可以改进的方法,后来又参考了这个帖子12楼中的方法,使用索引数组加关联数组的方式,提高了检索效率,甚至连分词的步骤都省掉了。整个实现代码如下。

package com.ffcs.cbox.common.utils;

import org.apache.commons.io.FileUtils;

import org.apache.commons.lang.StringUtils;

import java.io.IOException;

import java.util.ArrayList;

import java.util.HashMap;

import java.util.List;

import java.util.Map;

/**

* User: eternity

* Date: 2014/8/11

* Time: 16:17

* 敏感词检测类

* 敏感词检测初始化规则:

* 将敏感词从词库载入,按照2字、3字、4字、5字等字数各生成一个敏感词哈希表。

* 在将这些哈希表组成一个数组banWordsList,数组下标表示该敏感词表字数

* banWordsList[2] = {某马:true,屏蔽:true,啦啦:true};

* banWordsList[3] = {某个马:true,三个字:true,啦啦啦:true,小广告:true};

* banWordsList[4] = {某个坏银:true,四个字符:true,哈哈哈哈:true,就爱俊秀的犀牛:true};

* banWordsList[5] = {某个大法好:true,五个敏感字:true};

* 根据上面几组组敏感词,自动生成以下索引

* 生成规则为,索引名是敏感词第一个字,值是一个int

* 该int的规则为,该int转换成二进制时,第i位为1表示上面4表存在长度为i的敏感词,否则不存在长度为i的敏感词(10000)

* wordIndex = {二:0x04,三:0x08,四:0x10,五:0x20,某:0x3c,啦:0x0c,哈:0x10,小:0x08,就:0x10};

*

* 检查规则如下:

* 1,逐字检验,是否该字在wordIndex索引表中。

* 2,如果不在表中,继续检验

* 3,如果在表中,根据索引表该键的值,取此字以及此字后的若干字检验详细表banWordsList[索引词长]。

*

* 检验例子

* 有一段如下文字,检验其是否包含敏感词:

“我就打小广告,气死版主”

——检测“我”

|-不在索引表

——检测“就”

|-在索引表

|-“就”的索引值是0x10,表示有4字以“就”开头的敏感词

|-取“就”和后面的字共4个,组成“就打小广”

|-查4字敏感词表,没有这项,继续

——检测“打”

|-不在索引表

——检测“小”

|-在索引表

|-索引值是0x08,表示有3字长度的敏感词

|-取“小”和“小”后面的字,共3个字组成一个词“小广告”

|-“小广告”在3字敏感词中,此帖包含敏感词,禁止发布

*/

public class BanWordsUtil {

// public Logger logger = Logger.getLogger(this.getClass());

public static final int WORDS_MAX_LENGTH = 10;

public static final String BAN_WORDS_LIB_FILE_NAME = "banWords.txt";

//敏感词列表

public static Map[] banWordsList = null;

//敏感词索引

public static Map wordIndex = new HashMap();

/*

* 初始化敏感词库

*/

public static void initBanWordsList() throws IOException {

if (banWordsList == null) {

banWordsList = new Map[WORDS_MAX_LENGTH];

for (int i = 0; i < banWordsList.length; i++) {

banWordsList[i] = new HashMap();

}

}

//敏感词词库所在目录,这里为txt文本,一个敏感词一行

String path = BanWordsUtil.class.getClassLoader()

.getResource(BAN_WORDS_LIB_FILE_NAME)

.getPath();

System.out.println(path);

List words = FileUtils.readLines(FileUtils.getFile(path));

for (String w : words) {

if (StringUtils.isNotBlank(w)) {

//将敏感词按长度存入map

banWordsList[w.length()].put(w.toLowerCase(), "");

Integer index = wordIndex.get(w.substring(0, 1));

//生成敏感词索引,存入map

if (index == null) {

index = 0;

}

int x = (int) Math.pow(2, w.length());

index = (index | x);

wordIndex.put(w.substring(0, 1), index);

}

}

}

/**

* 检索敏感词

* @param content

* @return

*/

public static List searchBanWords(String content) {

if (banWordsList == null) {

try {

initBanWordsList();

} catch (IOException e) {

throw new RuntimeException(e);

}

}

List result = new ArrayList();

for (int i = 0; i < content.length(); i++) {

Integer index = wordIndex.get(content.substring(i, i + 1));

int p = 0;

while ((index != null) && (index > 0)) {

p++;

index = index >> 1;

String sub = "";

if ((i + p) < (content.length() - 1)) {

sub = content.substring(i, i + p);

} else {

sub = content.substring(i);

}

if (((index % 2) == 1) && banWordsList[p].containsKey(sub)) {

result.add(content.substring(i, i + p));

// System.out.println("找到敏感词:"+content.substring(i,i+p));

}

}

}

return result;

}

public static void main(String[] args) throws IOException {

String content = "含有敏感词的测试语句。";

BanWordsUtil.initBanWordsList();

List banWordList = BanWordsUtil.searchBanWords(content);

for(String s : banWordLis){

System.out.println("找到敏感词:"+s);

}

}

}

上面测试语文本里面其实没有敏感词(我也怕被屏蔽XD),测试的时候随便加入几个敏感词都能检测出来的。这样就实现了一个简易又快速的敏感词检测,当然如果有需要比较复杂的检测逻辑(比如说“弹吉他妈妈真漂亮”这样的),还是要用到分词工具把词拆分一下的。

第一次用Markdown写作,哈哈 :)

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。