deltajs wrote:
德温特的重点是对于信息本身的加工,这对于专利信息很重要。
其实专利信息本身是有很多问题的,举例来说:
1. 专利号出错;2. 专利权人拼错;3. 丢失优先权信息;4. 丢失字段等;5. EPO上的数据库英文数据不全,IPC,PA,IN等字段缺失严重等等。
这些问题大部分人都不会知道,也不会有感觉。很多人仅仅关心的是国家覆盖,多少条记录,岂不知背后的问题所在,而且这些问题给用户带来什么危害。
深加工数据库除了改写标题和文摘数据以外,还要处理这些错误。这也是国家知识产权局愿意花n多钱去自己加工数据的原因。
根据我的了解,国外很多公司确实也要自己整理数据库,但是大部分都是在深加工数据基础上,根据公司特点,自己标引数据,并非简单的到epo买个INPADOC/epodoc回来,自己加工。
有些事情自己是干不了的,
有的事情是要耗费大量精力去做的,得不偿失。
终于遇到个明白人,呵呵,那就多聊聊,确实同族这个问题是属于学术问题了,对于统计值的参照价值也是人者见仁.就比如去年房价统计上涨1.5% 如果是这样误导的统计结果是要遭人骂的.
我在另一个帖子专利地图那点事里说了,不要死在统计数量上,关键要把定量统计升华出定性的结论来.同样的一个统计量值没不同人的看也产生不同感觉.
在加上衡量专利的价值不应该从数量出发,而要看质量,核心专利一个顶100个都过分.
工作整理肯定费事费力了,有工具会好点,但关键还是要先掌握技巧. |