最近工作中需要用到python中的DES算法,虽然有现成的库,但总感觉用着不方便。于是把之前用的C和Java写的DES和MAC算法移植到python中。测试了下没问题。
这样以后就方便了,。在python中终于可以用DES算法了。之前把C写的DES算法封装成动态库,然后由python的ctypes调用,虽然可以但是不是很方便。
附:python版DES算法源码:
#!/usr/bin/env...
分类:
编程语言 时间:
2014-10-16 16:33:12
阅读次数:
261
安装pygame ?sudo?apt-get?install?python-pygame 第一个小程序:hello.py #!/usr/bin/env?python
?#?-*-?coding:?utf-8?-*-?
?
background_image_filename?=?‘sushiplate.jpg‘
mouse_image_filena...
分类:
其他好文 时间:
2014-10-15 22:18:01
阅读次数:
267
系统:#uname-a#查看内核/操作系统/CPU信息#cat/etc/issue#cat/etc/redhat-release#查看操作系统版本#cat/proc/cpuinfo#查看CPU信息#hostname#查看计算机名#lspci-tv#列出所有PCI设备#lsusb-tv#列出所有USB设备#lsmod#列出加载的内核模块#env#查看环境变量资源:#free-m#查看内..
分类:
系统相关 时间:
2014-10-15 21:54:22
阅读次数:
281
一、修改Hadoop配置文件1.修改core-site.xml文件添加如下属性,让MapReduce作业可以使用Tachyon文件系统作为输入和输出<property>
<name>fs.tachyon.impl</name>
<value>tachyon.hadoop.TFS</value>
</property>2.配置hadoop-env.sh在hado..
分类:
其他好文 时间:
2014-10-15 16:36:41
阅读次数:
175
四、配置Master容错1.修改Tachyon配置[root@node1conf]#pwd/usr/local/tachyon/conf
[root@node1conf]#tailtachyon-env.sh
JAVA_HOME=/usr/java/default
exportTACHYON_MASTER_ADDRESS=node1
exportTACHYON_UNDERFS_ADDRESS=hdfs://node2:9000
-Dtachyon.master.journal.folder..
分类:
其他好文 时间:
2014-10-15 16:04:11
阅读次数:
252
#!/usr/bin/env python#coding=utf-8import threadingimport urllibimport reimport timecur=0last=0totalcount=0depth=0t_mutex=threading.Condition() class M...
分类:
编程语言 时间:
2014-10-15 00:21:09
阅读次数:
297
#! /usr/bin/env python#coding=utf-8import ctypes,sysSTD_INPUT_HANDLE = -10STD_OUTPUT_HANDLE = -11STD_ERROR_HANDLE = -12# 字体颜色定义 ,关键在于颜色编码,由2位十六进制组成,分别...
分类:
编程语言 时间:
2014-10-14 23:47:39
阅读次数:
457
#! /usr/bin/env python#coding=utf-8from fabric.api import *from fabric.state import *env.roledefs = {'scan_proc_server': ['172.16.1.15','172.16.1.12',...
分类:
其他好文 时间:
2014-10-14 22:58:59
阅读次数:
361
一、Tachyon配置说明Tachyon配置参数分为4类:Master,Worker,Common(MasterandWorker),andUserconfigurations。环境变量配置文件在$TACHYON_HOME/conf/tachyon-env.sh,这些变量将会被TACHYON_JAVA_OPTS调用,这个文件的配置模版为$TACHYON_HOME/conf/tachyon-env.sh.template..
分类:
其他好文 时间:
2014-10-14 20:55:19
阅读次数:
242
spark执行任务时出现java.lang.OutOfMemoryError: GC overhead limit exceeded和java.lang.OutOfMemoryError: java heap space 最直接的解决方式就是在spark-env.sh中将下面两个参数调节的尽量大 ????...
分类:
编程语言 时间:
2014-10-14 13:47:28
阅读次数:
189