码迷,mamicode.com
首页 >  
搜索关键字:pipeline    ( 994个结果
MongoDB基础教程系列--第七篇 MongoDB 聚合管道
在讲解聚合管道(Aggregation Pipeline)之前,我们先介绍一下 MongoDB 的聚合功能,聚合操作主要用于对数据的批量处理,往往将记录按条件分组以后,然后再进行一系列操作,例如,求最大值、最小值、平均值,求和等操作。聚合操作还能够对记录进行复杂的操作,主要用于数理统计和数据挖掘。在 ...
分类:数据库   时间:2017-04-11 00:57:57    阅读次数:809
【Tomcat】Tomcat 系统架构与设计模式,第 1 部分: 工作原理
这个分为两个部分的系列文章将研究 Apache Tomcat 的系统架构以及其运用的很多经典设计模式。本文是第 1 部分,将主要从 Tomcat 如何分发请求、如何处理多用户同时请求,还有它的多级容器是如何协调工作的角度来分析 Tomcat 的工作原理,这也是一个 Web 服务器首要解决的关键问题。 ...
分类:其他好文   时间:2017-04-10 09:48:18    阅读次数:293
Netty组件理解(转载)
转载的文章,写的非常好。 一、先纵览一下Netty,看看Netty都有哪些组件? 为了更好的理解和进一步深入Netty,我们先总体认识一下Netty用到的组件及它们在整个Netty架构中是怎么协调工作的。Netty应用中必不可少的组件: Bootstrap or ServerBootstrap Ev ...
分类:Web程序   时间:2017-04-07 20:09:01    阅读次数:275
代码19
这是text_tech1文件的样子: 这是调用corenlp的命令行: java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLP\ -props StanfordCoreNLP-chinese.properties -file file ...
分类:其他好文   时间:2017-03-26 17:28:42    阅读次数:179
用 GStreamer 简化 Linux 多媒体开发
一、基本概念 GStreamer 作为 GNOME 桌面环境推荐的流媒体应用框架,采用了基于插件(plugin)和管道(pipeline)的体系结构,框架中的所有的功能模块都被实现成可以插拔的组件(component), 并且在需要的时候能够很方便地安装到任意一个管道上,由于所有插件都通过管道机制进 ...
分类:系统相关   时间:2017-03-22 12:46:58    阅读次数:288
Redis之Python 使用 Redis
Python 使用 Redis 参考文档: http://redis.cn/clients.html#python https://github.com/andymccurdy/redis-py 安装Redis 简单的redis操作 字符串string操作 pipeline操作 管道(pipelin ...
分类:编程语言   时间:2017-03-22 00:09:22    阅读次数:241
Jenkins
Jenkins插件-Build Pipeline Jenkins安装目录配置 JENKINS_HOME=/data/.jenkinsexport JENKINS_HOME JENKINS通用构建脚本 脚本使用方法: 脚本共可以使用六类参数,参数列表如下: 脚本内容如下: #!/bin/bash#CF ...
分类:其他好文   时间:2017-03-21 15:58:34    阅读次数:217
Spark机器学习
Spark机器学习Pipelines中的主要概念MLlib提供的API可以通过Pipelines将多个复杂的机器学习算法结合成单个pipeline或者单个工作流。这个概念和scikit-learn里的概念类似,根据官方的说法是,此抽象概念的设计灵感来自于scikit-learn。·DataFrame:通过SparkSQL组件里的DataFram..
分类:其他好文   时间:2017-03-08 01:27:33    阅读次数:326
mongodb
http://www.tuicool.com/articles/2iqUZj http://www.runoob.com/mongodb/mongodb-aggregate.html http://www.cnblogs.com/AlvinLee/p/6085442.html https://doc ...
分类:数据库   时间:2017-03-08 01:07:46    阅读次数:219
爬虫7:Scrapy-爬网页
用Scrapy做爬虫分为四步 新建项目 (Project):新建一个新的爬虫项目 明确目标(Items):明确你想要抓取的目标 制作爬虫(Spider):制作爬虫开始爬取网页 存储内容(Pipeline):设计管道存储爬取内容 上一章节做了创建项目,接着用上一次创建的项目来爬取网页 网上很多教程都是 ...
分类:Web程序   时间:2017-03-07 18:06:48    阅读次数:226
994条   上一页 1 ... 68 69 70 71 72 ... 100 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!