代码编织梦想

如果你用group 命令的话可能会遇到下面两种错误:


a.)命令:db.flogsamplelog.group({cond:{datetimes":20111027},key:{"pid":"1"},initial:{"count":0},reduce:function(doc,prev){if(doc.pid==prev.pid)prev.count++;}})

error:

Mon Oct 31 12:00:00uncaught exception: group command failed: { 
"errmsg" : "exception: group() can't handle more than 10000 unique keys", 
"code" : 10043, 
"ok" : 0 
} 直接访问shard server端口

 

b.)命令:db.flogsamplelog.group({cond:{"pid":322963713,"datetimes":20111027},key:{"worktype":"1"},initial:{"count":0},reduce:function(doc,prev){if(doc.worktype==prev.worktype)prev.count++;}})

error:
Mon Oct 31 12:00:09 uncaught exception: group command failed: { "ok" : 0, "errmsg" : "can't do command: group on sharded collection" } 直接访问route server端口

 

其次我们在mongodb权威指南上也能发现这样的语句:

The price of using MapReduce is speed: group is not particularly speedy, but
MapReduce is slower and is not supposed to be used in “real time.” You run
MapReduce as a background job, it creates a collection of results, and then 
you can query that collection in real time.

经过测试发现group by效率在建立索引之后也没有实质性提高。

 

具体命令中涉及到的字段以及表定义,这里就不在敷衍。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/rjhym/article/details/8269918

mongodb 聚合group(一)-爱代码爱编程

  一.简介      db.collection.group()使用JavaScript,它受到了一些性能上的限制。大多数情况下,$ group在Aggregation Pipeline提供了一种具有较少的限制适用的替代。可以通过指定的键的集合中的文档和执行简单的聚合函数。在2.2版本中,返回的数组可以包含最多20000个元素;即最多20000个独特的

MongoDB 统计 group 操作用不了,试试 mapReduce 吧-爱代码爱编程

问题回顾 今天,同事小张 Q 我, 说自己辛苦花了一天的时间,基于 mongodb 数据库开发的待办统计功能一直报错! 于是笔者花了近半小时了解小张的开发需求以及代码实现方式,大致明白问题出在对待办 collection 做统计时,调用 collection 的分组 group 函数、聚合 aggregate 函数的使用方式不对。 待办 c

mongo mysql group by_NoSQL数据库学习之MongoDB之group by 限制-爱代码爱编程

如果你用group 命令的话可能会遇到下面两种错误: a.)命令:db.flogsamplelog.group({cond:{datetimes":20111027},key:{"pid":"1"},initial:{"count":0},reduce:function(doc,prev){if(doc.pid==prev.pid)prev.coun