Mongodb数据库转换为表格文件的库

数据库 其他数据库
Mongo2file库是一个可以将 Mongodb 数据库转换为表格文件的库,不仅支持导出csv、excel、以及 json 文件格式, 还支持导出 pickle、feather、parquet 的二进制压缩文件。

前言

大家好,我是吴老板。今天给大家分享一个可将Mongodb数据库里边的文件转换为表格文件的库,这个库是我自己开发的。

Mongo2file库是一个 Mongodb 数据库转换为表格文件的库。

在我的日常工作中经常和 mongodb 打交道,而从 mongodb 数据库中批量导出数据为其他格式则成为了刚需。

如果您跟我一样每次导出数据时都需要重新编写或到处寻找 脚本代码 的话,这个库可能会对您产生帮助。

依赖于快速 PyArrow

mongo2file 依赖于 PyArrow 库。它是 C++ Arrow 的 Python 版本实现。

PyArrow 目前与 Python 3.7、3.8、3.9 和 3.10 兼容。

仓库地址: https://github.com/apache/arrow。

如果您在 Windows 上遇到任何的导入问题或错误,您可能需要安装 Visual Studio 2015。

警告: PyArrow 目前只支持到 win64 位 ( Python 64bit ) 操作系统。

其次,除了常见的 csv、excel、以及 json 文件格式之外, mongo2file 还支持导出 pickle、feather、parquet 的二进制压缩文件。

pickle、feather、parquet 是 Python 序列化数据的一种文件格式, 它把数据转成二进制进行存储。从而大大减少读取的时间。

安装

pip install mongo2file

基本用法

快速开始

当 MongoEngine 控制类指定了 mongodb 表名称时、将对数据表 (mongodb集合) 进行导出操作。

其类方法参数包括:

  • query: 指定对数据表的查询参数、只对指定表名时有效。
  • folder_path: 指定导出目录路径。
  • filename: 指定导出文件名、默认为 表名称 + 当前时间。
  • _id: 指定是否导出 _id、布尔型、默认为 False。
  • limit: 指定导出表的限制数据、int类型、默认为 -1、即不限制。
import os
from mongo2file import MongoEngine
"""
作用于 MongoEngine 类未指定表名称时
"""
M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_')
)
def to_csv():
result_ = M.to_csv()
assert "successfully" in result_
def to_excel():
result_ = M.to_excel()
assert "successfully" in result_
def to_json():
result_ = M.to_json()
assert "successfully" in result_
to_csv()

当 MongoEngine 控制类只指定了 mongodb 库名称时、将对数据库下所有集合进行导出操作。

面对 mongo2file 的瓶颈和改进

对于 mongodb 的全表查询、条件查询、聚合操作、以及索引操作(当数据达到一定量级时建议) 并不是直接影响 数据导出的最大因素。

因为 mongodb 的查询一般而言都非常快速,主要的瓶颈在于读取 数据库 之后将数据转换为大列表存入 表格文件时所耗费的时间。

这是一件非常可怕的事情。

当没有多线程(当然这里的多线程并不是对同一文件进行并行操作,文件写入往往是线程不安全的)、 数据表查询语句无优化时,并且当数据达到一定量级时(比如 100w 行),单表单线程表现出来的效果真是让人窒息。

在 mongo2file 在进行大数据量导出时表现的并没有多么优秀。导致的主要原因可能是:

  • 采用的 xlsxwriter 库写入 excel 时是积极加载(非惰性)的,数据全部加载至内存后插入表格。
  • 大数据量插入表格时、跟宿主机器的性能有关。
  • mongo2file 表现的不如人意时,我做出了一下改进。
  • 当数据量过大时,数据表分块读取,导出多表格。
  • 增加线程池的最大并发数、当选取的 block_size 值合适时,将发挥最大性能。

对于数据转换一些建议

  • 对于 xlsxwriter、openpyxl、xlwings 以及 pandas 引用的任何引擎进行写入操作时、都会对写入数据进行非法字符的过滤。这一点从部分源码中可以看得出来。
  • 由于行数据表中可能存在 excel 无法识别的非法字符 (比如空列表 []) , 当写至此行时将抛出 非法类型 的错误。
  • 而比较恰当合理的做法就是在存储 mongodb 文档时不要存入类似于 []、{} 的这种对原始数据无意义的空对象。

Reference API

MongoEngine

MongoEngine(
host='localhost',
port=27017,
username=None,
password=None,
database='测试库',
collection='测试表_200000'
)

to_csv(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数
:param is_block: 是否分块导出
:param block_size: 块大小、is_block True 时生效

to_excel(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数
:param is_block: 是否分块导出
:param block_size: 块大小、is_block True 时生效
:param mode: 导出模式, 枚举类型、sheet xlsx, is_block True 时生效
:param ignore_error: 是否忽略错误、数据表中存在非序列化类型时使用、这将一定程度上影响程序的性能

to_json(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数
:param is_block: 是否分块导出
:param block_size: 块大小、is_block True 时生效

to_pickle(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数

to_feather(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数

to_parquet(query, folder_path, filename, ...)

:param query: 数据库查询条件、字典类型、只作用于单表导出
:param folder_path: 指定导出的目录
:param filename: 指定导出的文件名
:param _id: 是否导出 _id 默认否
:param limit: 限制数据表查询的条数

总结

以上就是今天要分享的全部内容了,总的来说,Mongo2file库是一个可以将 Mongodb 数据库转换为表格文件的库,不仅支持导出csv、excel、以及 json 文件格式, 还支持导出 pickle、feather、parquet 的二进制压缩文件。欢迎大家积极尝试。

责任编辑:姜华 来源: Python爬虫与数据挖掘
相关推荐

2010-06-04 18:32:48

MySQL数据库

2011-04-08 10:16:13

文本文件ACCESS数据库

2011-07-11 10:42:23

SQL数据库横向数据纵向字段

2021-06-08 11:48:40

SQL数据库电子表格

2022-06-01 22:11:20

Oracle数据库

2022-02-25 17:38:15

Citus

2019-08-20 14:02:07

MongoDB数据库恢复数据

2010-07-01 11:14:36

SQL Server

2011-10-11 17:07:12

数据库Internet文件数据库

2010-09-09 08:42:28

MongoDB

2020-07-06 14:20:43

MongoDB数据库安全

2011-07-26 13:55:01

MongoDB备份与恢复

2010-05-05 10:19:19

Oracle数据导

2011-07-28 11:44:46

SQL Server数合并表格数据

2021-08-04 09:00:53

Python数据库Python基础

2009-05-19 10:22:29

数据库表格随机读取数据库

2010-05-05 14:44:50

Oracle数据库

2017-01-22 08:49:05

MongoDB数据库故障

2020-07-17 08:20:27

数据库开源技术

2011-08-03 13:28:08

Oracle数据库数据库控制文件
点赞
收藏

51CTO技术栈公众号