我发现很多关于模糊匹配的链接,将一个字符串与另一个字符串进行比较,看到哪个获得最高的相似性分数.
我有一个非常长的字符串,它是一个文档和一个子字符串.子串来自原始文档,但已被转换好几次,所以可能会引入奇怪的文物,比如这里的空格,破折号.子字符串将匹配原始文档中的一部分文本99%以上.我不匹配,看看这个字符串是从哪个文档,我试图在文档中找到字符串开始的索引.
如果字符串是相同的,因为没有引入随机错误,我将使用document.index(substring),但是如果还有一个字符差异,则失败.
我认为通过删除字符串和子字符串中除az之外的所有字符进行比较,比较,然后使用压缩字符串时生成的索引,将压缩字符串中的索引转换为真实文档中的索引.这一点在差异是空白和标点符号的情况下运行良好,但一旦一个字母不同,它就失败了.
该文档通常是几页到一百页,从几个句子到几页的子字符串.
解决方法
你可以试试amatch.它可以作为一个红宝石宝石,虽然我没有使用模糊逻辑很长一段时间,它看起来有你需要的. amatch的主页是:
http://flori.github.com/amatch/.
只是无聊和混乱的想法,一个完全未优化和未经测试的黑客的解决方案如下:
- include 'amatch'
- module FuzzyFinder
- def scanner( input )
- out = [] unless block_given?
- pos = 0
- input.scan(/(\w+)(\W*)/) do |word,white|
- startpos = pos
- pos = word.length + white.length
- if block_given?
- yield startpos,word
- else
- out << [startpos,word]
- end
- end
- end
- def find( text,doc )
- index = scanner(doc)
- sstr = text.gsub(/\W/,'')
- levenshtein = Amatch::Levensthtein.new(sstr)
- minlen = sstr.length
- maxndx = index.length
- possibles = []
- minscore = minlen*2
- index.each_with_index do |x,i|
- spos = x[0]
- str = x[1]
- si = i
- while (str.length < minlen)
- i += 1
- break unless i < maxndx
- str += index[i][1]
- end
- str = str.slice(0,minlen) if (str.length > minlen)
- score = levenshtein.search(str)
- if score < minscore
- possibles = [spos]
- minscore = score
- elsif score == minscore
- possibles << spos
- end
- end
- [minscore,possibles]
- end
- end
显然有很多改进可能,可能是必要的!几个顶部:
>一次处理文档并存储结果,可能在一个数据库.>确定字符串的可用长度进行初步检查,处理最初的子串在尝试匹配整个之前分段.>跟随上一个,预先计算起始片段那个长度.