doc.elasticsearch.cn解析成功了

cn域名解锁就是慢啊, 以后ES中文文档都放这里了:http://doc.elasticsearch.cn 下面是已完成的部分链接: 安装:http://doc.elasticsearch.cn/guide/reference/setup/ 配置:http://doc.elasticsearch.cn/guide/reference/setup/configuration.html API接口说明:http://doc.elasticsearch.cn/guide/reference/api/ QueryDSL查询:http://doc.elasticsearch.cn/guide/reference/query-dsl/ Mapping:http://doc.elasticsearch.cn/guide/reference/mapping/ 索引模块:http://doc.elasticsearch.cn/guide/reference/index-modules/store.html 事务日志:http://doc.elasticsearch.cn/guide/reference/index-modules/translog.html … 文档比较多,招志愿者一起翻译。

逃离burst.net

最近实在不能忍受84的抽风了,换服务器了,果然是便宜没好货,好货不便宜,在此强烈建议不买burst.net的vps,超售太严重了,服务器性能爆低,主要是磁盘,通过vmstat查看的话,cs常年在1w以上,母机一天要重启几次,一个字“烂”,算了。 快速搬家成功,几点经验,选择相同的版本,使用相同的软件,相同配置,基本上拷贝粘贴,网站、数据库什么的直接resync过来,启动,ok!新vps在网络驿站上买的,加州T2线路,速度不错,大家可以参考,这个是我的推介链接: http://member.netdak.com/aff.php?aff=016。 服务器换国内了。。。

新浪微博数据集抓取脚本

分享个刚写的python脚本,用来抓取新浪微博的数据,其实这个脚本写了很久了,之前用这个脚本抓了几十G的数据,扔硬盘里一直没有用,前阵子win8刚出来,头脑一热就装了,还全格式化了那块盘,后面想要用的时候,才发现忘记把里面抓到数据拷出来了,悲催啊,还好脚本还在,今天完善了下,共享给大家,主要有如下功能: 支持多线程下载 用户id通过文件加载 按时间分目录 通过用户id取模划分子目录(如果你的id够多的话,避免单个文件夹下太多文件) 支持参数配置skip_count 支持下载完之后自动关机 支持命令行参数配置,具体查看帮助: -h 打包下载

gitpage试玩并绑定域名

试玩下gitpage并绑定域名 创建medcl.gihub.com,注:必须是这种格式的repo:你的用户名.github.com。

DNS添加一条A记录 github.medcl.com 207.97.227.245 ok,访问下看看 http://github.medcl.com/ http://medcl.github.com/ http://github.medcl.com/ElasticSearch.Net/ 参考: http://pages.github.com/ http://kyle.xlau.org/2010/12/29/github-CNAME.html

vForum2011第一场Q/A问答

下午由于平台技术分享,错过了vForum2011的演讲,不过还是赶上了在线的“VMware技术专家专场技术交流”,这个必须赞,像这种直接的技术交流效果是最好的,大家问的问题也比较实际,学到不少,这份Q/A记录下。 ppt下载地址:http://vforum.cloudcommunity.com.cn/?mod=down_doc&id=62 或 http://vforum.cloudcommunity.com.cn/docs/1321368602__%E5%88%86%E4%BC%9A%E5%9C%BA1-%E8%99%9A%E6%8B%9F%E5%8C%96%E7%9A%84%E9%9D%A9%E5%91%BD%20%20-%20VMware%E4%BA%91%E8%AE%A1%E7%AE%97%E5%9F%BA%E7%A1%80%E6%9E%B6%E6%9E%84%E5%A5%97%E4%BB%B6%E6%A6%82%E8%A7%88%20%20.zip

elasticsearch里的search_type

elasticsearch里面的search_type共有如下几种: The type of the search operation to perform. Can be dfs_query_then_fetch, dfs_query_and_fetch, query_then_fetch, query_and_fetch. 【removed,since:http://groups.google.com/group/elasticsearch/browse_thread/thread/7aa5ea823afb499/d9e3cf3a1e1f6964】 Defaults to query_then_fetch. form google group:“ You get proper sorted results when you use query_then_fetch (across all top “size” results), if you use query_and_fetch, […]

[转]使用webalizer来分析nginx日志

webalizer是一个高效的、免费的web服务器日志分析程序。其分析结果是HTML文件格式,从而可以很方便的通过web服务器进行浏览。Internet上的很多站点都使用webalizer进行web服务器日志分析。Webalizer具有以下一些特性: 1.是用C写的程序,所以其具有很高的运行效率。在主频为200Mhz的机器上,webalizer每秒钟可以分析10000条记录,所以分析一个40M大小的日志文件只需要15秒。 2.webalizer支持标准的一般日志文件格式(Common Logfile Format);除此之外,也支持几种组合日志格式(Combined Logfile Format)的变种,从而可以统计客户情况以及客户操作系统类型。并且现在webalizer已经可以支持wu-ftpd xferlog日志格式以及squid日志文件格式了。 3.支持命令行配置以及配置文件。 4.可以支持多种语言,也可以自己进行本地化工作。 5.支持多种平台,比如UNIX、linux、NT, OS/2 和 MacOS等

Webalizer配置 webalizer的默认配置文件为/etc/webalizer.conf,当启动Webalizer时没有使用“-f“选项时,Webalizer就会寻找文件/etc/webalizer.conf,也可以使用“-f”来指定配置文件(当服务器有虚拟主机时,就需要配置多份不同的webalizer配置文件,不同的虚拟主机的webalizer使用不同的配置文件。 Webalizer.conf配置文件中需要修改的配置选项如下: LogFile /data1/logs/access.log LogType clf 指定的日志类型 用来指示配置文件的路径信息,webalizer会将该日志文件作为输入进行统计分析; OutputDir /data0/htdocs/blog/logs 用来指示生成的统计报表的保存目录,在前面我们使用alias,使得用户可以使用http://www.medcl.com/logs/来访问统计报表。 HostName www.medcl.com 用来指示主机名,统计报表中会引用该主机名。 其他选项就无需修改,配置文件修改完毕以后,就需要在定时webalizer,每天生成当日的统计分析。 以root身份运行:crontab -e 进入定时运行任务编辑状态,加入如下任务: 00 0 * * * /usr/bin/webalizer […]

elasticsearch技术交流群,欢迎加入

新建了2个qq群,欢迎大家一起交流elasticsearch方面的相关内容。 群1:190605846(已满) 群2:211682609(欢迎)2012/05/28更新 另外,已经刚申请了elasticsearch.cn域名,打算组建一个elasticsearch在国内的交流社区,整理收集相关的资料文档,方便新手学习elasticsearch和促进elasticsearch在国内的推广。 第一步,打算先将官方的站点的文档翻译下,毕竟目前还没有比那更完善的文档了,由于文档比较多,所以在这里希望能招募有共同想法的童鞋一起来完成这项伟大的工作。 有什么想法请留意或加QQ群吧。 you know for search , :)