分页: 11/196 第一页 上页 6 7 8 9 10 11 12 13 14 15 下页 最后页 [ 显示模式: 摘要 | 列表 ]
May 3
最近看了《大上海》这部电影,在网上搜索了下影评,发现很多人在找少年阿宝卖艺时清唱的那首歌,据说是童菲唱的,不过没有找到确切的答案,在酷狗里搜索了一下,没有找到相关歌曲,最后还是功夫不负有心人,给找到了一个完整版的,已经上传到了百度网盘,感兴趣的朋友可以点击本文末尾处的下载地址下载,下面附上此曲的歌词及下载地址。


《回家去》

你带着我的心跑到哪儿去

难道你已忘了我们的甜蜜

你带着我的爱飞到哪儿去

老天也知道我爱你

古老的声音也轻轻叹息

天涯到海角如何能相依

愿我的歌声能翻山越岭

在你耳边哼着我爱你

无穷无尽爱意长在我心里

你我心心相印最好的光阴

如何让你了解思念的心情

老天也知道我爱你

古老的声音也轻轻叹息

天涯到海角如何能相依

愿我的歌声能翻山越岭

在你耳边哼着我爱你

让我的爱带你回家去

下载地址:http://pan.baidu.com/share/link?shareid=410785&uk=1879340428
May 2
如果 /opt/apache/目录下有 a b c d  这几个目录
现在要将 a b目录tar打包,不打包c d目录

命令如下,当前在opt目录下

opt>  tar -zcvf apache.tar.gz --exclude=c --exclude=d    apache

opt> tar -zcvf test.tar.gz --exclude=/apache/c --exclude=apache/d   apache


注意: 要打包的目录要放在最后面的!



tar分卷压缩:tar cvzpf - somedir | split -d -b 500m (-d不是split的选项,是shell的选项,表
示将tar命令的输出作为split的输入)
tar多卷合并:cat x* > mytarfile.tar.gz
Tags: ,
Apr 29
1.站点根目录下查找是否被放置webshell木马根据语句判断是不是PHP木马脚本

# find ./ -name “*.php” |xargs egrep “phpspy|c99sh|milw0rm|eval\(gunerpress|eval\(base64_decode|spider_bc”>/tmp/php.txt

# grep -r –include=*.php  ‘[^a-z]eval_r($_POST’  > /tmp/eval.txt

#grep -r –include=*.php  ‘file_put_contents(.*$_POST\[.*\]);’ > tmp/file_put_contents.txt

2.统计服务器访问日志中所有不同ip出现的次数

# cat access.log |awk ‘{print $4}’| sort | uniq -c |sort -rn

或者

#cat access.log  | awk ‘{print $4}’ | sort -n | awk ‘{S[$NF]++} END {for(a in S) {print a”\t” S[a]}}’ | sort +1 -2nr

awk ‘{print $4}’ :  通过管道将第四个字段也就是ip地址筛选出来。

sort -n :将ip地址进行排序

awk ‘{S[$NF]++} END{for(a in S) {print a”\t” S[a]}}:

$NF是awk里的一个变量,代表最后一个字段的内容,由于这晨只有一个字段,即:IP地址,所以$NF代表IP地址。

S[$NF]++里的S代表一个数组,然后统计IP地址出现的次数. 后面是一个for in 循环语句,将这个数组里的值和键打印出来。

sort +1 -2nr:以第二个字段,也就是每个IP的访问次数进行排序

3.分析出现次数最多的ip对网站的具体数据访问情况

# grep -e IP access.log > filename

# cat filename |awk ‘{print $8}’|sort|uniq -c|sort -rn

4.访问次数最多的文件或页面,取前20

# cat access.log|awk ‘{print $11}’|sort|uniq -c|sort -nr|head -20

5.列出传输最大的几个exe文件(分析下载站的时候常用)

# cat access.log |awk ‘($7~/\.exe/){print $10 ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -20

6.列出输出大于200000byte(约200kb)的exe文件以及对应文件发生次数

# cat access.log |awk ‘($10 > 200000 && $7~/\.exe/){print $7}’|sort -n|uniq -c|sort -nr|head -100

7.如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

# cat access.log |awk ‘($7~/\.php/){print $NF ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -100

8.列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

# cat access.log |awk ‘($NF > 60 && $7~/\.php/){print $7}’|sort -n|uniq -c|sort -nr|head -100

9.列出传输时间超过 30 秒的文件

# cat access.log |awk ‘($NF > 30){print $7}’|sort -n|uniq -c|sort -nr|head -20

10.统计网站流量(G)

# cat access.log |awk ‘{sum+=$10} END {print sum/1024/1024/1024}’

11.统计404的连接

# awk ‘($9 ~/404/)’ access.log | awk ‘{print $9,$7}’ | sort

12. 统计http status.

# cat access.log |awk ‘{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}'

# cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn

13.查找挂马内容进行批量清除

# find /webbase/ -type f -exec grep 'www.800816.com.cn' -l {} \;

# sed -i "s/body{.*www.800816.com.cn.*}//g" `grep www.800816.com.cn -rl ./`

14.批量转换GBK为UTF-8文件编码

# find default -type d -exec mkdir -p utf/{} \;

# find default -type f -exec iconv -f GBK -t UTF-8 {} -o utf/{} \;

15.find查找文件的时候怎么避开多个文件目录

# find /usr/sam \(-path /usr/sam/dir1 -o -path /usr/sam/file1 \) -prune -o -name "*.txt" -print

16.查看tcp的并发请求数及其TCP连接状态:

# netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'

# netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn

# netstat -n | awk '/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}'

# netstat -n | awk '/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}'

# netstat -n |awk '/^tcp/ {print $NF}'|sort|uniq -c|sort -rn

# netstat -ant | awk '{print $NF}' | grep -v '[a-z]' | sort | uniq -c

17.查找请求数前20的IP(常用于查找攻来源)

# netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20

# netstat -ant |awk '/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}' |sort -rn|head -n10

18.查看有多少个活动的php-cgi进程

# netstat -anp | grep php-cgi | grep ^tcp | wc -l

19.查找较多time_wait连接

# netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20

20.找查较多的SYN连接

# netstat -an | grep SYN | awk '{print $5}' | awk -F: '{print $1}' | sort | uniq -c | sort -nr | more

21.根据端口列进程

# netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1

22.抓包用来防止80端口被人攻击时可以分析数据

# tcpdump -c 10000 -i eth0 -n dst port 80 > /root/pkts

23.用tcpdump嗅探80端口的访问看看谁最高

# tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr |head -20

24.查看是哪些蜘蛛在抓取内容。

# /usr/sbin/tcpdump -i eth0 -l -s 0 -w - dst port 80 | strings | grep -i user-agent | grep -i -E 'bot|crawler|slurp|spider'


25.按域统计流量

# zcat squid_access.log.tar.gz| awk '{print $10,$7}' |awk 'BEGIN{FS="[ /]"}{trfc[$4]+=$1}END{for(domain in trfc){printf "%s\t%d\n",domain,trfc[domain]}}'

26.查看数据库执行的sql

# /usr/sbin/tcpdump -i eth0 -s 0 -l -w - dst port 3306 | strings | egrep -i 'SELECT|UPDATE|DELETE|INSERT|SET|COMMIT|ROLLBACK|CREATE|DROP|ALTER|CALL'

27.将匹配Root一行中no替换成yes

# sed -i '/Root/s/no/yes/' /etc/ssh/sshd_config

28.去掉第一列

# awk '{for(i=2;i<=NF;i++) if(i!=NF){printf $i" "}else{print $i} }' list

29.按内存从大到小排列

# ps -e -o "%C : %p : %z : %a"|sort -k5 -nr

30.按cpu利用率从大到小排列

# ps -e -o "%C : %p : %z : %a"|sort -nr

31.怎样知道某个进程在哪个CPU上运行

# ps -eo pid,args,psr

32.清除僵死进程。

# ps -eal | awk '{ if ($2 == "Z") {print $4}}' | kill -9

33.查看硬件制造商

# dmidecode -s system-product-name

34.查找占用磁盘IO最多的进程

# wget -c http://linux.web.psi.ch/dist/scientific/5/gfa/all/dstat-0.6.7-1.rf.noarch.rpm

# dstat -M topio -d -M topbio

35.检查I/O使用率(%util)是否超过100%

# iostat -x 1 2

36.磁盘空间,检查是否有分区使用率(Use%)过高(比如超过90%) 如发现某个分区空间接近用尽,可以进入该分区的挂载点,用以下命令找出占用空间最多的文件或目录:

# df -h

# du -cks * | sort -rn | head -n 10

37.CPU负载检查前三个输出值是否超过了系统逻辑CPU的4倍。

# cat /proc/loadavg

38.CPU的数量

# cat /proc/cpuinfo |grep -c processor

39.检查网络流量(rxbyt/s, txbyt/s)是否过高

# sar -n DEV

40.每隔1秒显示一下网络流量

# watch -n 1 "/sbin/ifconfig eth0 | grep bytes"

41.批量覆盖目录下的文件不用确定是否执行

# \cp -rf /svn/wwwroot /wwwroot

42.调试命令

# strace -p pid

43.跟踪指定进程的PID

# gdb -p pid

44.查看当前进程打开了多少个文件句柄

lsof -n |awk ‘{print $2}’|sort|uniq -c |sort -nr|more

45.查找最近一天被修改的HTML文件

find -mtime -1 -type f -name \*.html

46.修改网站的权限

find -type f -name \*.php -exec chmod 444 {} \;

find ./ -type d -exec chmod 555{} \;
Apr 29
查找一句话PHP木马:
# find ./ -name "*.php" |xargs egrep "phpspy|c99sh|milw0rm|eval\(gunerpress|eval\(base64_decode|spider_bc"> /tmp/php.txt

# grep -r --include=*.php  '[^a-z]eval($_POST' . > /tmp/eval.txt

# grep -r --include=*.php  'file_put_contents(.*$_POST\[.*\]);' . > /tmp/file_put_contents.txt

# find ./ -name "*.php" -type f -print0 | xargs -0 egrep "(phpspy|c99sh|milw0rm|eval\(gzuncompress\(base64_decode|eval\(base64_decode|spider_bc|gzinflate)" | awk -F: '{print $1}' | sort | uniq

查找最近一天被修改的PHP文件:
#   find -mtime -1 -type f -name \*.php

修改网站的权限:
# find -type f -name \*.php -exec chmod 444 {} \;

# find ./ -type d -exec chmod 555{} \;

建议将php相关危险函数在php.ini里面禁用掉。
disable_functions = system,exec,shell_exec,passthru
Tags: , ,
Apr 29
语句写法:
  find 对应目录 -mtime +天数 -name “文件名” -exec rm -rf {} \;
  例1:
  find /usr/local/backups -mtime +10 -name “*.*” -exec rm -rf {} \;
  将/usr/local/backups目录下所有10天前带”.”的文件删除
  find:Linux的查找命令,用户查找指定条件的文件
  /usr/local/backups:想要进行清理的任意目录
  -mtime:标准语句写法
  +10:查找10天前的文件,这里用数字代表天数,+30表示查找30天前的文件
  ”*.*”:希望查找的数据类型,”*.jpg”表示查找扩展名为jpg的所有文件,”*”表示查找所有文件,这个可以灵活运用,举一反三
  -exec:固定写法
  rm -rf:强制删除文件,包括目录
  {} \; :固定写法,一对大括号+空格+\+;
  若嫌每次手动执行语句太麻烦,可以将这小语句写到一个可执行文件中,再设置cron调度执行,那就可以让系统自动去清理相关文件。
例2:
  1.#touch /usr/local/bin/clear
  #chmod 777 clear
  新建一个可执行文件clear
  2.vi clear
  编辑clear文件如下:
  #!/bin/sh
  find /usr/local/backups -mtime +10 -name “*.*” -exec rm -rf {} \;
  ok,保存退出
  3.#crontab -e
  将clear文件加入到系统计划任务,到点自动执行
  输入:
  * 2 * * */usr/local/bin/clear
  这里的设置是每天凌晨2点执行clear文件进行数据清理,可以研究一下cron,制定自己需要的计划任务
  示例:
  #!/bin/sh
  find /usr/local/jboss-4.2.3.GA/server/default/log -mtime +6 -name “server.log.*” -exec rm -rf {} \;
  exit
  [root@web3 ~]# crontab -l
  * 2 * * * sh /root/AutoDelLog.sh
  这样每天晚上2点执行这个脚本,脚本是删除6天前的文件
扩展:
find /etc/rc.d -name ‘*crond’ -exec file {} \;
  查找/etc/rc.d目录下面所有以crond结束的文件,并使用file指令查看其属性,注意:exec和file间是一个空格,file和{}间是一个空格,{}和\;之间是一个空格,\;是一个整体。
分页: 11/196 第一页 上页 6 7 8 9 10 11 12 13 14 15 下页 最后页 [ 显示模式: 摘要 | 列表 ]