Lucene 查询解析器使用过滤器进行通配符查询
Lucene query parser to use filters for wildcard queries
我的问题是如何使用 Lucene 解析通配符查询,查询词通过 TokenFilter
.
我正在使用自定义 Analyzer
和多个文件管理器(例如 ASCIIFoldingFilter
,但这只是一个示例)。我的问题是,每当 Lucene 的 QueryParser
检测到其中一个子查询是 WildcardQuery
时,它 通过设计 [1] 忽略 Analyzer
.
这意味着 über 的查询被正确过滤,
über -> uber
但是对 über*(带通配符)的查询根本没有通过过滤器:
über* -> über*
显然,这意味着 - 由于索引端所有标记都被过滤 - 在任何包含 ü 的查询中可能 没有 匹配项。 ..
问:如何强制 Lucene 也过滤 WildCard 查询的查询?我正在寻找一种至少可以稍微重复使用 Lucene 代码库的方法 ;-)
注意:作为输入,我收到一个查询字符串,因此无法以编程方式构建查询。
注意:我使用的是 Lucene 4.5.1.
[1] http://www.gossamer-threads.com/lists/lucene/java-user/14224
上下文:
// analyzer applies filters in Analyzer#createComponents (String, Reader)
Analyzer analyzer = new CustomAnalyzer (Version.LUCENE_45);
// I'm using org.apache.lucene.queryparser.classic.MultiFieldQueryParser
QueryParser parser = new MultiFieldQueryParser (Version.LUCENE_45, fields, analyzer);
parser.setAllowLeadingWildcard (true);
parser.setMultiTermRewriteMethod (MultiTermQuery.SCORING_BOOLEAN_QUERY_REWRITE);
// actual parsing of the input query
Query query = parser.parse (input);
好的,我找到了一个解决方案:我正在扩展 QueryParser
以覆盖 #getWildcardQuery (String, String)
。这样我就可以在检测到通配符查询之后和创建它之前拦截和更改术语:
@Override
protected Query getWildcardQuery (String field, String termStr) throws ParseException
{
String term = termStr;
TokenStream stream = null;
try
{
// we want only a single token and we don't want to lose special characters
stream = new KeywordTokenizer (new StringReader (term));
stream = new LowerCaseFilter (Version.LUCENE_45, stream);
stream = new ASCIIFoldingFilter (stream);
CharTermAttribute charTermAttribute = stream.addAttribute (CharTermAttribute.class);
stream.reset ();
while (stream.incrementToken ())
{
term = charTermAttribute.toString ();
}
}
catch (IOException e)
{
LOGGER.debug ("Failed to filter search query token {}", term, e);
}
finally
{
IOUtils.closeQuietly (stream);
}
return super.getWildcardQuery (field, term);
}
此解决方案基于类似问题:
Using a Combination of Wildcards and Stemming
How to get a Token from a Lucene TokenStream?
注意:在我的代码中,将所有过滤器都放在一个位置实际上有点复杂...
不过我还是觉得应该有更好的解决办法。
我的问题是如何使用 Lucene 解析通配符查询,查询词通过 TokenFilter
.
我正在使用自定义 Analyzer
和多个文件管理器(例如 ASCIIFoldingFilter
,但这只是一个示例)。我的问题是,每当 Lucene 的 QueryParser
检测到其中一个子查询是 WildcardQuery
时,它 通过设计 [1] 忽略 Analyzer
.
这意味着 über 的查询被正确过滤,
über -> uber
但是对 über*(带通配符)的查询根本没有通过过滤器:
über* -> über*
显然,这意味着 - 由于索引端所有标记都被过滤 - 在任何包含 ü 的查询中可能 没有 匹配项。 ..
问:如何强制 Lucene 也过滤 WildCard 查询的查询?我正在寻找一种至少可以稍微重复使用 Lucene 代码库的方法 ;-)
注意:作为输入,我收到一个查询字符串,因此无法以编程方式构建查询。 注意:我使用的是 Lucene 4.5.1.
[1] http://www.gossamer-threads.com/lists/lucene/java-user/14224
上下文:
// analyzer applies filters in Analyzer#createComponents (String, Reader)
Analyzer analyzer = new CustomAnalyzer (Version.LUCENE_45);
// I'm using org.apache.lucene.queryparser.classic.MultiFieldQueryParser
QueryParser parser = new MultiFieldQueryParser (Version.LUCENE_45, fields, analyzer);
parser.setAllowLeadingWildcard (true);
parser.setMultiTermRewriteMethod (MultiTermQuery.SCORING_BOOLEAN_QUERY_REWRITE);
// actual parsing of the input query
Query query = parser.parse (input);
好的,我找到了一个解决方案:我正在扩展 QueryParser
以覆盖 #getWildcardQuery (String, String)
。这样我就可以在检测到通配符查询之后和创建它之前拦截和更改术语:
@Override
protected Query getWildcardQuery (String field, String termStr) throws ParseException
{
String term = termStr;
TokenStream stream = null;
try
{
// we want only a single token and we don't want to lose special characters
stream = new KeywordTokenizer (new StringReader (term));
stream = new LowerCaseFilter (Version.LUCENE_45, stream);
stream = new ASCIIFoldingFilter (stream);
CharTermAttribute charTermAttribute = stream.addAttribute (CharTermAttribute.class);
stream.reset ();
while (stream.incrementToken ())
{
term = charTermAttribute.toString ();
}
}
catch (IOException e)
{
LOGGER.debug ("Failed to filter search query token {}", term, e);
}
finally
{
IOUtils.closeQuietly (stream);
}
return super.getWildcardQuery (field, term);
}
此解决方案基于类似问题:
Using a Combination of Wildcards and Stemming
How to get a Token from a Lucene TokenStream?
注意:在我的代码中,将所有过滤器都放在一个位置实际上有点复杂...
不过我还是觉得应该有更好的解决办法。