> 文章列表 / Page 35

2015-10-25

在AngularJS+NodeJS+MongoDB+OAuth中搭建web Service

本文永久链接: https://www.askmaclean.com/archives/try-mean.html ‎   随着JavaScript的深入学习,在此我总结了web service的制作方法。编写了简单的Todo列表。 AngularJS+NodeJS(ExpressJS)+MongoDB   虽然搭建web service有很多方法,但这次主要讲解下述几种方法。 因为从服务器到客户端中,都可以用javascript来写。基于MonogoDB,我们称为MEAN栈。 以下我们将其取名为meanstack-sample,主要按顺序讲授直到启动为止所需要做的事。 Yeoman的设定   在制作网络应用的时候,使用yeoman的话,就可以简单地完成制作雏形以及调试,所以我很推荐大家使用。Yeoman是由Yo(项目管理)+bower(依赖性管理)+grunt(实施搭建测试)来组成的,这些都是能辅助JavaScript开发的nodejs的library。 npm install -g yo grunt-cli…
#POST 5 MIN READ
2015-10-25

NGINX的商用版更新 NGINX Plus R7支持HTTP/2 TCP负载均衡也得到了改良

本文永久链接地址:https://www.askmaclean.com/archives/nginx-new-edition.html NGINX的商用版更新 NGINX Plus R7支持HTTP/2  TCP负载均衡也得到了改良   投资着们所热切关心的,人气急剧上升的webserver 网页服务器 NGINX今天(美国时间9/16),发表声明称,服务器的最新商用发行中开始支持HTTP的次时代标准HTTP/2了。   在之前的免费的开源版本中,已经部分支持HTTP/2了,今天则正式对顾客们宣布NGINX Plus R7发行了。这个版本中,HTTP/2服务最大的看点在于,在代表同社的product中,也追加了一些其他的新功能。   HTTP/2的一部分是基于Google的SPDY协议的。但是,NGINX的市场顾问Peter Guagenti所述,浏览器方面的HTTP/2的支持还是有点问题的,在大部分的浏览器都实装了HTTP/2之前,默认的高速HTTP协议,使用SPDY会更好。但是HTTP/2的安全性非常优秀,试用应该从现在开始。   HTTP/2的NGINX的实装方式中,对于传统用户,用标准的HTTP1就可以简单地服务于页面。另外,在支持这个功能的客户端中,可以用HTTP/2以及SPDY来连接。但是,无法并行操作SPDY与HTTP/2。   在这次的更新中,NGINX Plus的TCP负载均衡得到了改良。在上次,首次的发行过程中,TCP的支持与NGINX的HTTP的支持无法良好匹配。。但今后,用户可以设定TCP连接的连接限制以及带宽限制。乍一看觉得这只是个次要的功能,但因为限制在流媒体服务中会频繁用到TCP连接,所以可以限制活跃的连接数的功能,对于防范DDoS是最重要的。
#POST 3 MIN READ
2015-10-22

回顾Oracle与Google的判决书概要

Oracle与Google的判决书概要   一大早听到了各种各样的有冲击性的消息,真是不平静的第一季度的最后一天啊。关于Oracle与Google的官司,我很在意其中到底还有些什么问题,所以我试着略读了一下判决书。   过程 2010年8月Oracle告了Google。当时争论的要点是侵犯专利。(publicKey1) 2012年4月旧金山联邦法院开始诉讼 2012年5月陪审团判决Google没有侵犯专利。但是fair use (US trademark law 美国商标方案)持不同意见 2012年6月Oracle对Google的Java/Android诉讼,协调成专利损害赔偿金为0。没能保护到这次讨论的37件Java API的著作权 2012年oracle不服“不承认java API是著作权的对象”的判决。再次上诉 2014年5月,控诉法院颠覆地方法院的判决,承认API是著作权的对象。这些API的使用是否符合Google主张的fair use的审理,被打回地方法院重审 2014年谷歌上诉美国联邦最高法院 美国联邦最高法院驳回谷歌的上诉申请…
#POST 6 MIN READ
2015-10-21

MongoDB NOSQL数据库连载 第11回 MongoDB的备份

  本文永久链接地址:https://www.askmaclean.com/archives/mongodb-backup.html   第11回  MongoDB的备份 在本连载中,至此我们一直注目MongoDB的功能方面的内容,这次开始我们将分几回介绍MongoDB的非功能方面的内容。这次我们将说明非功能特点中不可或缺的备份功能。另外,我们将使用MongoDB的最新版本v2.4。     关于命令标记 $ : 用命令行来实行的命令 > : 用mongo shell执行的命令 MongoDB的备份的概要   要对MongoDB进行备份,需要对数据进行备份以及对配置选项进行备份。   配置选项用mongod的启动命令或者配置文件来进行指定。无论那种情况,因为只要复制mongod启动shell以及配置文件等文件就可以进行备份了,所以在这次的文章中将省略说明。…
#POST 5 MIN READ
2015-10-21

第10回 MongoDB中的聚集aggregation 处理

本文永久链接地址:https://www.askmaclean.com/archives/mongodb-aggregation.html 第10回  MongoDB中的aggregation 聚集处理 MongoDB中的aggregation 聚集处理的概要   一般而言,在NoSQL的程序中,没有RDB的SQL这种Group以及Sum函数等聚集功能。要执行聚集的话,需要在应用上独立地写代码。 但是,MongoDB的开发方针是是一边维持NoSQL的性能,一边实装类似于RDB的功能,关于聚集功能早就实装了。在MongoDB中执行聚集处理的方法有三种。 Aggregation Framework   SQL中提供Group By语句以及Sum函数。可以从Mongo Shell中与查询一样实施。一部分的处理($group与$sort)就对应sharding,用各shard进行处理。   MongoDB的Map/Reduce功能   独立定义Map函数/Reduce函数,执行聚集处理。在Aggregation Framework中无法做到的复杂的聚集处理,使用这种方法。因为对应sharding,所以可以执行分散处理。…
#POST 6 MIN READ
2015-10-21

第7回 GridFS——在MongoDB中保存大容量文件的方法

翻译自 : http://gihyo.jp/dev/serial/01/mongodb/0007   本文永久链接地址:https://www.askmaclean.com/archives/mongodb-gridfs.html ‎   GridFS的概要   能在MongoDB中保存的Document尺寸一般有最大16Mbyte的限制。这对于保存一般的文本文件是非常足够的尺寸,但要保存一些巨大的文本文件以及视频等Binary data时,就会出现超出16Mbyte的情况。想在MongoDB中保存16Mbyte以上的文件时,通过使用GridFS这种接口,可以将数据进行多个分割来进行保存。这次,我将解说处理MongoDB中处理大尺寸文件的功能——GridFS。   GridFS的概要图       图:左青:大文件 左蓝:girdFS interface(mongofile或者是driver) 黄:1.将文件分割到chunk中,写入文件。 2.文件的元数据(文件名、尺寸等等)的写入…
#POST 5 MIN READ
2015-10-21

第5回 试试MongoDB的Sharding

翻译自: http://gihyo.jp/dev/serial/01/mongodb/0005 第5回 试试MongoDB的Sharding   前言   这次我将说明MongoDB的sharding。   Sharding是指将数据分散到多个服务器中的功能。这次我将先说明sharding,之后是sharding的概要,之后将解说在sharding中登场的几个关键词。第二章之后将解说sharding的架构顺序。   Sharding在MongoDB功能之中是很重要而复杂的。用手边的环境来架构的话,对sharding的理解有很大帮助,请一定好好参考本文再进行架构。   sharding的优点   Sharding通过将MongoDB进行水平Scaling的功能,有以下优点。   因为分散负荷所以可以提高性能   通过将数据分散到多个服务器中,可以减少CPU以及I/O的负荷。虽然是复述,但MongoDB可以用key的范围数据。通过设定合适的范围,可以将负荷进行水平Scaling。  …
#POST 7 MIN READ
2015-10-21

用Hadoop的各种语言来进行wordcount(3):Apache Crunch

  本文永久链接:https://www.askmaclean.com/archives/hadoop-wordcount-3.html       用Hadoop的各种语言来进行wordcount(3):Apache Crunch 这是Wordcount的最后一篇讲座了。今天用crunch在MapReduce与Spark两方面进行wordcount。   Crunch (MapReduce) Apache Crunch是apache project的OSS,所以这是将Google的Java Flume作为基础的。通过使用crunch,可以简单地记述mapreduce(现在是spark)的pipeline(现在是spark的program)的库。(即可以简单做到Apache Crunch:MapReduce 模块的java 库) Crunch是由Cloudera的首席数据科学家,Josh Will开发、维护的。国外的数据科学家都是自己开发必要的工具呢。(Cloudera Oryx、Impyla、其他)。真是太厉害了。…
#POST 15 MIN READ