再见 MongoDB,你好 PostgreSQL

数据库 其他数据库 PostgreSQL MongoDB
某个时刻,我们需要从MongoDB中删除一百万个文档,以后再把这些数据重新插入到MongoDB里。在另一实例中我们注意到我们的应用程序的性能降低和设法跟踪到的 MongoDB 集群。这只是两个例子,我们已经有过许多这样的情况。这个问题的核心是,这不只数据库在运行,而且无论我们何时察看它都没有绝对的迹象表明是什么原因导致的问题。

Olery 差不多成立于5年前。始于Ruby代理开发的单一产品(Olery Reputation),随着时间的推移,我们开始致力于一系列不同的产品和应用程序。当今,我们的产品不仅有(Olery) Reputation,还有Olery Feedback, Hotel Review Data API,widgets ,在不久的将来它可以嵌入到网站和更多产品/服务中。

我们增加了很多应用程序的数量。当今,我们部署了超过25个不同的应用程序(全为Ruby),它们中的一些是web应用程序(Rails或者Sinatra),但大多数的是后台运行程序。

我们最引以为豪的是迄今为止我们所取得的成就,不过在这些成就的背后总闪现着一样东西,即基础数据库。从Olery成立之日起,我们就安装了数据库,它用 MySQL来存储(用户、合同等等)核心数据,用MongoDB来存储评论及其类似的数据(即哪些在数据丢失的情况下很容易恢复的数据)。一开始,这样的安装运行的非常好,然而,随着公司的成长,我们开始遇到了各种各样的问题,尤其是MongoDB的问题居多。其中一些问题是由于应用与数据库的交互方式而引起的,一些则是由数据库本身而产生的。

例如,某个时刻,我们需要从MongoDB中删除一百万个文档,以后再把这些数据重新插入到MongoDB里。这样的处理方法使得整个数据库几乎要被锁定数个小时,自然服务性能就会降低。而且直到对数据库执行修复(即在MongoDB上执行repairDatabase命令)后才会解锁。而且完成修复还要花费数个小时,修复所花的小时数要根据数据库的大小来确定。

在另一实例中我们注意到我们的应用程序的性能降低和设法跟踪到的 MongoDB 集群。然而,经过进一步检查,我们无法找到问题的真正原因。无论我们怎么安装,或使用什么工具敲了什么命令我们都找不到原因。直到我们更换了集群的初选,性能才恢复正常。

这只是两个例子,我们已经有过许多这样的情况。这个问题的核心是,这不只数据库在运行,而且无论我们何时察看它都没有绝对的迹象表明是什么原因导致的问题。

无模式的问题

另外,我们面对的核心问题是mongoDB的重要特征之一:模式的缺乏。模式的缺乏可能听起来是有趣的,并且在一些情况下是有好处的。然而,对于许多无模式存储引擎的用法,其导致了一些模式之间的内部问题。这些模式没有通过你的存储引擎定义而是通过你的应用的行为及其可能的需要而定义的。

例如:你可能有一页存储你的应用需要的字符串类型的title字段的集合。这儿这个模式是非常符合当前情形的,即使它没有被明确的定义。但如果这个数据结果改变超时,尤其是如果原来的数据没有被迁移到新的数据结构,这就成了问题(在一些无模式的存储引擎上是相当有问题的)。例如,你可能有下面这样的 Ruby代码:

  1. post_slug = post.title.downcase.gsub(/\W+/, '-'

这样,针对每一个有“title”字段并返回一个String的文档,它都能正常工作。然而,对于那些使用不同字段名字(例如:post_title)或者根本没有标题字段的文档来说,它将不能正常工作。为了处理这种情况,你需要将代码调整为下面内容:

  1. if post.title 
  2. post_slug = post.title.downcase.gsub(/\W+/, '-'
  3. else 
  4. # ... 
  5. end 

另一种处理方法是,在你的模型中定义一个模式。例如 Mongoid,一个流行的针对Ruby的MongoDB ODM,就能让你做到这一点。然而,当使用这些工具定义一个模式时,你可能会好奇为什么它们不在数据库内定义该模式。实际上,这样做可以解决另一个问题:可重用性。如果你只有一个应用程序,那么在代码中定义模式并不是什么大问题。然而,如果你有许多应用程序的话,这将很快会成为一个大麻烦。

无模式存储引擎希望通过删除对模式的限制的方式,让你的工作变得更简单。但现实的情况是,确保数据一致性的责任推到了用户自己的身上。有时候无模式引擎可以工作,但我打赌,更多的时候是事与愿违。

#p#

好数据库的需求

Olery有了更多的特殊需求后,迫使我寻求一款更好的数据库来解决问题。对于系统,特别是数据库,我们非常注重以下几点:

  1. 一致性
  2. 数据和系统行为的可视化
  3. 正确性和明确性
  4. 可拓展

一致性是重要的在于它有助于帮助我们对系统设定明确的期望。如果数据总是按照同样的方式存储,那么系统可以很方便的使用这些数据。如果在数据库层面要求表的莫一列必须存在,那么在应用层面就不用检查这列数据是否存在。数据库即使实在高压情况下,也必须保证每一次操作的完整性。没有什么事情比单纯的插入数据,过了几分钟后却找不到数据的事更让人沮丧了。

可见性包含了两点:系统本身以及从中获取数据的容易程度。如果一个系统出错那么应该易于调试。反过来,用户应很容易查到想要查询的数据。

正确性是指系统的行为如我们所期望的那样。如果某个字段定义为一个数值型,没有人可以像其中插入文本。这方面MySQL是臭名昭著,一旦你这样做你将得到伪结果。

可扩展性不仅针对性能而言,而且也涉及金融方面和系统能够多么好地应对不断变化的需求。一个系统在没有大量资金成本或减缓系统所依赖的开发周期情况下,很难表现得非常好。

搬离MongoDB

上面的需求牢记于心后,我们就开始寻找一个取代MongoDB的数据库。上面提到的特性通常是传统RDBM特征的一组核心集,所以我们锁定了两个候选者:MySQL和PostgreSQL。

本来,MySQL是第一候选,因为我们的一些关键数据已经在使用它存储。然而,MySQL也有一些问题。例如,当将一个字段定义为int(11)时,你却可以轻松地向该字段插入文本数据,因为MySQL会试图对它进行转换。下面是一些例子:

  1. mysql> create table example ( `number` int(11) not null ); 
  2. Query OK, 0 rows affected (0.08 sec) 
  3. mysql> insert into example (number) values (10); 
  4. Query OK, 1 row affected (0.08 sec) 
  5. mysql> insert into example (number) values ('wat'); 
  6. Query OK, 1 row affected, 1 warning (0.10 sec) 
  7. mysql> insert into example (number) values ('what is this 10 nonsense'); 
  8. Query OK, 1 row affected, 1 warning (0.14 sec) 
  9. mysql> insert into example (number) values ('10 a'); 
  10. Query OK, 1 row affected, 1 warning (0.09 sec) 
  11. mysql> select * from example; 
  12. +--------+ 
  13. | number | 
  14. +--------+ 
  15. | 10 | 
  16. | 0 | 
  17. | 0 | 
  18. | 10 | 
  19. +--------+ 
  20. 4 rows in set (0.00 sec) 

值得注意的是,MySQL在这些情况下会发出警告。但是,仅仅是警告而已,它们通常(若非总是)会被忽略。

此外,MySQL的另一个问题是,任何表的修改操作(例如:添加一列)都会导致表被锁,此时将无法进行读或写操作。这就意味着,使用这种表的任何操作都不得不等待修改完成之后才能进行。对于包含有大量数据的表,这可能会花费几个小时才能完成,很可能会导致应用程序宕机。这已经导致一些公司(例如 SoundCloud)不得不自己开发工具(例如lhm)来解决该问题。

了解到上面的问题后,我们开始调查PostgreSQL。PostgreSQL可以解决很多MySQL不能解决的问题。例如,PostgreSQL中你不能将文本数据插入一个数字字段:

  1. olery_development=# create table example ( number int not null ); 
  2. CREATE TABLE 
  3. olery_development=# insert into example (number) values (10); 
  4. INSERT 0 1 
  5. olery_development=# insert into example (number) values ('wat'); 
  6. ERROR: invalid input syntax for integer: "wat" 
  7. LINE 1: insert into example (number) values ('wat'); 
  8. olery_development=# insert into example (number) values ('what is this 10 nonsense'); 
  9. ERROR: invalid input syntax for integer: "what is this 10 nonsense" 
  10. LINE 1: insert into example (number) values ('what is this 10 nonsen... 
  11. olery_development=# insert into example (number) values ('10 a'); 
  12. ERROR: invalid input syntax for integer: "10 a" 
  13. LINE 1: insert into example (number) values ('10 a'); 

PostgreSQL 还具有在许多方式中不需要每一个操作都上锁就可以改写表的能力。例如,添加一列没有默认值却可以设置为null的列并能够快速完成无需锁定整个表。

还有其他各种有趣的功能,如在 PostgreSQL 可以:trigram 为基础的索引和检索,全文检索,支持JSON查询,支持查询/存储键-值对,支持发布/订阅等更多。

最重要的是PostgreSQL在性能,可靠性,正确性和一致性之间能够权衡。

#p#

迁移到PostgreSQL

最后,为了在所关心的各种项目之中达到平衡,我们决定使用PostgreSQL。但是,将整个平台从MongoDB迁移到一个截然不同的数据库并不是很容易的事。为了使转移工作简单化,我们将此过程分成了3个步骤:

  1. 搭建一个PostgreSQL数据库,并迁移数据的一个小子集。
  2. 更新所有依赖于MongoDB的应用程序,连同任何需要的重构,都用依赖于PostgreSQL的程序替代。
  3. 将产品数据迁移到新数据库上,然后部署新平台。

部分数据迁移

在考虑把所有数据迁移到新数据库之前,我们先迁移了一小部分数据来做测试。如果仅仅是迁移一小部分数据,就有非常多的麻烦的话,那么数据库迁移也就没什么意义了。

尽管有现成的工具可以利用,但还是有些数据(比如,列重命名,数据类型不一致)要做转换,对于这些数据我们自己开发了些工具。这些工具中,大部分都是Ruby写的一次性脚步,用于删除一些评论,整理数据编码,修正主键发生序列等等。

在测试开始阶段尽管有些数据上的问题,并没有出现大的会阻碍迁移的问题。例如,有些用户提交的数据没有完全按格式编码,导致这些数据被重新编码之前,不能被导入到新数据库。例外一个有意思的改变是,之前评论的数据存的是评论用的语言的名称(如“荷兰语”,“英语”等),现在改了存语言的编码,因为我们新的语义分析系统使用的是语言编码,而不再是语言名称。

更新应用

目前为止,花费时间最多的就是更新应用,尤其是那些严重依赖MongoDB聚合框架的应用。扔掉那少数几个遗留的Rails应用吧,光是测试就会花掉你几个星期的时间。更新应用的过程大致如下:

  1. 用PostgreSQL的相关代码来替换掉MongoDB的驱动/设置模块的代码
  2. 运行测试
  3. 修复Bugs
  4. 反复运行测试,直到所有测试通过

对于非Rails应用,我们推荐使用 Sequel,对于Rails应用,我们现在还无法摆脱ActiveRecord(至少是现在)。Sequel是一个非常好的数据库工具集,它支持绝大多数(如果不是全部)我们想使用的PostgreSQL特性。相较于ActiveRecord,它基于DSL的query要强大的多,尽管可能耗时会有点长。

举个例子,假设你想计算有多少用户使用某种语言,并计算每种语言所占的比例(相对于整个集合)。纯粹的SQL查询语句如下所示:

  1. SELECT locale,count(*) AS amount, 
  2. (count(*) / sum(count(*)) OVER ()) * 100.0 AS percentageFROM users 
  3. GROUP BY localeORDER BY percentage DESC; 

在我们的例子中,将会产生以下输出(当使用PostgreSQL命令行界面时):

  1. locale | amount | percentage 
  2. --------+--------+-------------------------- 
  3. en | 2779 | 85.193133047210300429000 
  4. nl | 386 | 11.833231146535867566000 
  5. it | 40 | 1.226241569589209074000 
  6. de | 25 | 0.766400980993255671000 
  7. ru | 17 | 0.521152667075413857000 
  8. 7 | 0.214592274678111588000 
  9. fr | 4 | 0.122624156958920907000 
  10. ja | 1 | 0.030656039239730227000 
  11. ar-AE | 1 | 0.030656039239730227000 
  12. eng | 1 | 0.030656039239730227000 
  13. zh-CN | 1 | 0.030656039239730227000 
  14. (11 rows) 

Sequel允许你使用纯Ruby编写上面的查询,而不需要字符串分段(ActiveRecord经常需要):

  1. star = Sequel.lit('*')User.select(:locale) 
  2. .select_append { count(star).as(:amount) } 
  3. .select_append { ((count(star) / sum(count(star)).over) * 100.0).as(:percentage) } 
  4. .group(:locale) 
  5. .order(Sequel.desc(:percentage)) 

如果你不喜欢使用“Sequel.lit(“*”)”,你也可以使用下面的语法:

  1. User.select(:locale) 
  2. .select_append { count(users.*).as(:amount) } 
  3. .select_append { ((count(users.*) / sum(count(users.*)).over) * 100.0).as(:percentage) } 
  4. .group(:locale) 
  5. .order(Sequel.desc(:percentage)) 

虽然这可能有些冗长,但是上面的两种查询都使得它们更易于重用,而无需进行字符串连接。

未来可能也会将我们的Rails应用程序迁移到Sequel,但是考虑到Rails与ActiveRecord耦合得如此紧密,所以我们还不完全确定这是否值得花费时间和精力。

迁移生产数据

最终我们来到迁移生产数据的过程。一般有两种方法来做这件事:

  1. 关掉整个平台,直到所有数据都已迁移完成。
  2. 迁移数据的同时保持系统运行

第一个选项具有一个明显的缺点:停机时间。第二个选项不需要停机但是很难处理。例如,在这个方案中,当你迁移数据的同时,你必须要考虑所有将要添加的数据,否则你就会损失数据。

幸运的是,Olery有一个独特的方案就是我们的数据库的绝大多数写操作都是相当定期的,经常变化的数据(例如用户通讯录信息)只占总数据量的一小部分,相比起我们检查数据,迁移它们花费的时间相当的小。

该部分的基础工作流是:

  1. 迁移诸如用户、联系人之类的关键数据,基本上所有我们无论如何都无法赔偿损失的数据
  2. 迁移不太重要的数据(如我们可以再抓取、再计算获得的数据等)
  3. 测试正常运行在一组独立服务器的一切
  4. 切换产品环境到新的服务器

再迁移步骤1的数据,确保在平均故障时间内创建数据不会丢失。

第2步是目前最耗时的,大约需要24小时。相反的是,步骤1和5中提到的数据迁移只需要45分钟。

#p#

结论

我们迁移完成并且直到非常满意大概过去了一个月。到现在为止除了那些积极的影响,还曾在各种情况中让应用的性能大幅提高。举例来说,我们的 酒店评论数据API(Hotel Review Data API)(在Sinatra运行)相比迁移之前交互延迟变低了许多:

迁移是在1月21日开始的,高峰表示应用性能的硬重启(在处理期间导致交互时间轻微变慢)。在21日之后交互的平均时间大致是原来的一半。

 

在另外一种被我们称作“评论持久化”(译者注:即存储评论)的过程中,我们发现了性能上巨大的提升。后台程序目标很简单:保存评论数据(评论内容,评论分数等等)。当我们最终完成了为迁移工作做的很多大的更改后,结果令人振奋:

 

抓取器也变的更快了:

抓取器性能提升没有评论存储的过程那样大,因为抓取器只用数据库来查询某个评论是否存在(一个相对很快的操作),所以这样的结果并不很令人吃惊。

 

最后来到程序里用来调度抓取过程的进程(简单称之为“调度器”):

 

因为调度器只是以固定频度运行,这个图可能有点难以理解,但是不管怎样,在迁移之后有一个很清晰的平均处理时间的下降。

最后,我们已经对现在的结果非常的满意,而且我们肯定不会怀念MongoDB了。它的性能非常好,它的处理方案使其它数据库相比之下黯然失色,并且查询数据的过程与MongoDB相比实在太令人满意了(尤其是对于non开发者而言)。尽管我们仍然还有一个服务(Olery Feedback)仍旧使用MongoDB(尽管这运行在一个独立的,相对小的集群上),我们仍然打算将来把它移植到PostgreSQL上。

原文链接:http://www.oschina.net/translate/goodbye-mongodb-hello-postgresql

责任编辑:Ophira 来源: oschina
相关推荐

2021-04-23 09:09:19

GraphQLREST查询

2012-08-01 09:50:09

HotmailOutlook微软

2021-01-13 11:13:46

ExcelPandas代码

2019-02-01 10:35:33

PythonGo语言编程语言

2021-07-27 05:56:53

CrocFTPSFTP

2018-01-02 08:40:19

云安全云迁移数据泄露

2023-11-28 17:24:45

2009-03-30 08:44:22

微软Windows 7操作系统

2020-09-27 11:15:37

可视化PandasPython

2011-01-07 18:05:37

QQ腾讯移动互联网

2014-11-27 14:26:46

苹果iPhone停产

2021-06-02 22:25:26

2G5G运营商

2011-09-23 14:24:58

惠普云计算李艾科

2020-10-29 10:44:59

斗鱼腾讯虎牙

2021-05-04 22:31:15

零信任网络安全网络攻击

2020-02-17 15:17:57

钉钉

2021-01-21 07:16:03

RocketMQKafka中间件

2019-07-30 07:10:11

容器Docker软件

2023-10-17 08:17:38

Jenkins开发

2018-07-02 09:48:34

数据库PostgreSQL Oracle
点赞
收藏

51CTO技术栈公众号