1条回答
默认
最新
回答交流
Markdown
请输入正文
提交
相关推荐
mongodb到kafka,什么组件比较好用?
回答 4
已采纳
Debezium(DBZ)了解一下,实测好用,支持多种异构数据库同步到kafkahttps://debezium.io/
python连接不上Mongo DB 超时
回答 1
已采纳
mongodb默认监听的是127.0.0.1:27017,因此是不允许远程访问的。所以安装mongodb时,如果要远程访问(使用ip访问),应当在配置文件配置开启IP访问。解决办法:在mongodb.
Mongodb 线上几十亿量的表直接drop命令风险大吗?
回答 1
删除大量数据,无论是在哪种数据库中,都存在风险。表的数据量到达一定量级后,数据量越大,表的查询性能会越差。毕竟数据量越大,需要的IO也会越多。
mongoDB一个集合一个1T的存储文件,这种有什么办法可以划分成小文件存储??
回答 1
已采纳
按照字段进行垂直分割垂直分割是将一个集合的数据按照字段进行划分,将每个字段存储到不同的集合中。例如,将一个包含用户信息的集合按照用户ID划分为多个子集合,每个子集合只包含特定用户的信息。这样可以将一个
mongodb中用mongod -f /etc/mongod.conf --shutdown来关闭的话,会不会丢失数据?
回答 1
内存中还没刷到硬盘的数据,开启oplog的情况下,因为oplog里也有操作记录,按照AWL机制,不会丢失。但极端情况下回有可能丢失数据。
mongodb4.0在windows server 2012 R2系统上,单机/副本集的单个collection大小是否有限制
回答 3
已采纳
问题已解决,经定位,并非mongodb问题,而是存储存在单个文件的限制,导出压根就没完成,导出时,单个文件达到4TB,数据无法继续写入。。。。
mongdb同步到mysql怎么做?有什么推荐的学习资料么?
回答 1
对于这方面没什么好的方式。直接把mongodb执行语句分解,用语句方式刷到mysql上面。mongob里oplog,changestream都可以捕捉到变化。或尝试ETL工具kettle也可以
mongodb里面有8KW多条数据 ,怎么快速删除半年以前的数据?
回答 1
已采纳
新建一个表,拿出要用的数据。把原来的表整表删除
MongoDB用企业版还是社区版?
回答 3
对的,可以安装企业版。技术支持和oraclemos类似,遇到问题,报case,还是不错的。
mongodb获取游标速度很慢,是什么原因?
回答 1
mongodb里也有explain命令,看下执行计划,具体分析一下。比如:db.collectionname.find().explain(“executionStats”);
问题信息
请登录之后查看
邀请回答
暂无人订阅该标签,敬请期待~~