码迷,mamicode.com
首页 >  
搜索关键字:进程    ( 45771个结果
(转)进程控制:进程的创建、终止、阻塞、唤醒和切换
进程控制:进程的创建、终止、阻塞、唤醒和切换进程控制的主要功能是对系统中的所有进程实施有效的管理,它具有创建新进程、撤销已有进程、实现进程状态转换等功能。在操作系统中,一般把进程控制用的程序段称为原语,原语的特点是执行期间不允许中断,它是一个不可分割的基本单位。进程的创建允许一个进程创建另一个进程。...
分类:系统相关   时间:2015-05-28 21:23:25    阅读次数:167
(转)几个常用的操作系统进程调度算法
几个常用的操作系统进程调度算法转自:http://blog.csdn.net/wanghao109/article/details/13004507一、先来先服务和短作业(进程)优先调度算法1.先来先服务调度算法先来先服务(FCFS)调度算法是一种最简单的调度算法,该算法既可用于作业调度,也可用于进...
分类:编程语言   时间:2015-05-28 21:17:59    阅读次数:434
端口占用
今天发现服务器上Tomcat 8080端口起不来,老提示端口已经被占用。使用命令:ps -aux | grep tomcat发现并没有8080端口的Tomcat进程。使用命令:netstat –apn查看所有的进程和端口使用情况。发现下面的进程列表,其中最后一栏是PID/Program name发现...
分类:其他好文   时间:2015-05-28 19:39:15    阅读次数:144
016_03浅谈远程Service和AIDL
如果需要访问不同进程间service中的数据或者方法,需要使用AIDL(android interface description language)工具,可以通过如下方法: public boolean bindService(Intent intent, ServiceConnection .....
分类:其他好文   时间:2015-05-28 19:37:11    阅读次数:221
Apache Spark源码分析-- Job的提交与运行
本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。实验环境搭建在进行后续操作前,确保下列条件已满足。1.下载sparkbinary0.9.12.安装scala3.安装sbt4.安装java启动spark-shell单机模式运行,即local模式local模式运行非常简单,只要运行以..
分类:Web程序   时间:2015-05-28 18:21:38    阅读次数:327
memcached介绍和基本命令
【介绍】: Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提供动态、数据 库驱动网站的速度。Memcached基于一个存储键/值对的hashmap。其守护进程(daemon )是用C写的,但是客户端可以用任何语言来编写,并通过memcached协议与守护进程通信。 【特点】: 1....
分类:系统相关   时间:2015-05-28 18:15:48    阅读次数:256
Apache Spark源码分析-- Job的提交与运行
本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。 实验环境搭建 在进行后续操作前,确保下列条件已满足。 1. 下载spark binary 0.9.1 2. 安装scala 3. 安装sbt 4. 安装java 启动spark-shell单机模式运行,即local模式 local模式运行非常简单,只要运行以下命令即可,假设当前目录是...
分类:Web程序   时间:2015-05-28 18:13:05    阅读次数:208
nginx常用命令
ps -ef | grep nginx在进程列表里面找master进程,它的编号就是主进程号了。 步骤2:发送信号 从容停止Nginx: kill -QUIT 主进程号 快速停止Nginx: kill -TERM 主进程号 强制停止Nginx: pkill -9 nginx
分类:其他好文   时间:2015-05-28 17:55:55    阅读次数:165
信号量
在内核中,为了解决使用多个进程或者中断竞争共同的资源问题,引进Semaphore信号量机制; 一.完成量:compation,常用于中断之间,以下是字符设备驱动,多个read进程来同时调用字符设备,而当么有write的时候,read只可以等着。 1 #include 2...
分类:其他好文   时间:2015-05-28 17:50:00    阅读次数:182
Apache Spark源码分析-- Job的提交与运行
本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。实验环境搭建在进行后续操作前,确保下列条件已满足。1. 下载spark binary 0.9.12. 安装scala3. 安装sbt4. 安装java启动spark-shell单机模式运行,即local...
分类:Web程序   时间:2015-05-28 17:39:19    阅读次数:231
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!