PostgreSQL全文搜索随机丢弃lexemes

时间:2010-10-22 23:08:04

标签: postgresql full-text-search tsvector

(所有这些都是在Ubuntu 10.04,FWIW上使用PostgreSQL 9.0.1完成的。)

我已经尝试为PostgreSQL专门为名字编写自己的lexize函数,基于双元音译算法。为了产生C lexize函数,我从dict_xsyn示例开始,基本上交换双metaphone进行同义词查找。

但是可能有20%的时间to_tsvector被调用,它似乎正在减少词汇量。例如,我创建了一个包含US Census Bureau's list of names的表。

db=# select * from names order by rank limit 8;
   name   | freq  | cumfreq | rank 
----------+-------+---------+------
 SMITH    | 1.006 |   1.006 |    1
 JOHNSON  |  0.81 |   1.816 |    2
 WILLIAMS | 0.699 |   2.515 |    3
 JONES    | 0.621 |   3.136 |    4
 BROWN    | 0.621 |   3.757 |    5
 DAVIS    |  0.48 |   4.237 |    6
 MILLER   | 0.424 |    4.66 |    7
 WILSON   | 0.339 |       5 |    8
(8 rows)

然后我们可以添加一个矢量列,并使用我的metaphone词典的to_tsvector填充它:

db=# alter table names add column vec tsvector;
ALTER TABLE
db=# update names set vec=to_tsvector('public.names', name);
UPDATE 88799
db=# select * from names order by rank limit 8;
   name   | freq  | cumfreq | rank |              vec              
----------+-------+---------+------+-------------------------------
 SMITH    | 1.006 |   1.006 |    1 | 
 JOHNSON  |  0.81 |   1.816 |    2 | 'ANSN':1 'JNSN':1 'johnson':1
 WILLIAMS | 0.699 |   2.515 |    3 | 
 JONES    | 0.621 |   3.136 |    4 | 
 BROWN    | 0.621 |   3.757 |    5 | 
 DAVIS    |  0.48 |   4.237 |    6 | 
 MILLER   | 0.424 |    4.66 |    7 | 'MLR':1 'miller':1
 WILSON   | 0.339 |       5 |    8 | 'ALSN':1 'FLSN':1 'wilson':1
(8 rows)

一堆vec字段只是空的!事实上:

db=# select count(1) from names where vec = to_tsvector('');
 count 
-------
 41101
(1 row)

我可以进行批量更新,然后重复计算不匹配的字段,每次都得到不同的计数,因为不同的行无法计算实数向量。

但我觉得我的lexize功能本身还可以吗?

db=# alter table names drop column vec; alter table names add column lexemes varchar[];
ALTER TABLE
ALTER TABLE
db=# update names set lexemes=ts_lexize('dmetaphonedict', name);
UPDATE 88799
db=# select * from names order by rank limit 10;
   name   | freq  | cumfreq | rank |       lexemes        
----------+-------+---------+------+----------------------
 SMITH    | 1.006 |   1.006 |    1 | {smith,SM0,XMT}
 JOHNSON  |  0.81 |   1.816 |    2 | {johnson,JNSN,ANSN}
 WILLIAMS | 0.699 |   2.515 |    3 | {williams,ALMS,FLMS}
 JONES    | 0.621 |   3.136 |    4 | {jones,JNS,ANS}
 BROWN    | 0.621 |   3.757 |    5 | {brown,PRN}
 DAVIS    |  0.48 |   4.237 |    6 | {davis,TFS}
 MILLER   | 0.424 |    4.66 |    7 | {miller,MLR}
 WILSON   | 0.339 |       5 |    8 | {wilson,ALSN,FLSN}
 MOORE    | 0.312 |   5.312 |    9 | {moore,MR}
 TAYLOR   | 0.311 |   5.623 |   10 | {taylor,TLR}
(10 rows)
db=# select count(1) from names where array_length(lexemes,1)=0;
 count 
-------
     0
(1 row)

我可以一遍又一遍地做到这一点,每次都会出现0次不匹配。

我正在创建相关的文本搜索词典和配置:

CREATE OR REPLACE FUNCTION ddmetaphonedict_init(internal)
        RETURNS internal
        AS '$libdir/dict_dmetaphone'
        LANGUAGE C STRICT;

CREATE OR REPLACE FUNCTION ddmetaphonedict_lexize(internal, internal, internal, internal)
        RETURNS internal
        AS '$libdir/dict_dmetaphone'
        LANGUAGE C STRICT;

CREATE TEXT SEARCH TEMPLATE dmetaphonedict_template (
        LEXIZE = ddmetaphonedict_lexize,
        INIT   = ddmetaphonedict_init
);

CREATE TEXT SEARCH DICTIONARY dmetaphonedict (
        TEMPLATE = dmetaphonedict_template
);

COMMENT ON TEXT SEARCH DICTIONARY dmetaphonedict IS 'dictionary for names, using dmetaphone';

create text search configuration names (copy=english);
alter text search configuration names alter mapping for asciiword, asciihword, word, hword with dmetaphonedict;

非常直接来自dict_xsyn示例。

发生了什么事?我该怎么做才能找出这些东西被丢弃的地方?

已添加:仅使用9.1尝试此操作。 to_tsvector产生dud tsvector的速率大大降低(5(仅5,而不是5k)到80000+中的7000条记录)。但它们仍在那里。

1 个答案:

答案 0 :(得分:1)

我想首先消除to_tsvector()作为原因。

我可能会先尝试更改to_tsvector(),以便返回一个常量。例如,将其更改为返回“'ANSN':1'JNSN':1'johnson':1”,无论其输入参数是什么。 (即使输入参数为NULL。)如果批量更新仍然在“vec”列中留下漏洞,我认为这将清除to_tsvector()。

我是对的吗?

还要考虑一个两步过程,使用lexize()填充列“lexemes”,然后使用另一个函数来读取lexemes并在“vec”列中生成值。