一次阿里云服务器的磁盘只读修复经历

今天,忽然想把一个网页做点小改变。当我连接上了服务器之后,忽然感觉气氛和平时不同。

然后我也没太在意,和往常一样的 cd /data {tab}{tab}。

呐尼,居然报错了。好吧,这个我不懂,先不急。

然后,我直接输入地址,vi index.php,然后从本地粘贴(起初我是用scp的,但是当scp报错之后,我只有亲自上阵了)。

然后 :wq   ,!!!居然提示我只读,我用的可是root啊,这是闹那样!

好吧,文件系统出错。系统盘和数据盘都出现问题了!

百度一下(祭奠一下逝去的谷歌):

fsck

好吧,系统盘貌似没问题了,tab 补全也可以使用了。

然后,继续,数据盘还是不可写 。

数据盘我挂在了 /data   ,然后我想 我是个菜鸟,重启一下就ok了吧!别这样乱来了。好吧,reboot……

cat /proc/mounts
/dev/xvdb1 /data ext4 ro,relatime,user_xattr,acl,barrier=1,data=ordered 0 0

哦,no!好吧,继续百度!

mount -o rw,remount /dev/xvdb1        失败

umount /dev/xvdb1  (提示device is busy)失败

然后我实在没办法了,

apt-get update

apt-get upgrade

umount /dev/xvdb1

呐尼,居然成功了 cat /proc/mounts 果然没有xvdb1 了

好吧  mount -a

vi index.php   -> :wq    OK

好吧,至此  成功修改一个页面

最后   更新大法好

(一篇略带娱乐的文章,希望真正懂的朋友可以留言给我说明原因,如果有什么地方不合适,大家不要介意,就当娱乐就行了)

十大堕落表现,你中枪几条?

①早晨从中午开始;

②晚上12点以后睡觉;

③越来越懒;

④空闲时间基本花在手机、电脑上;

⑤不管做什么都提不起兴趣;

⑥经常发呆,莫名烦躁;

⑦严重缺乏锻炼;

⑧沉迷于游戏、逛街、玩耍;

⑨三餐饮食不均;

⑩与家人缺乏交流。


个人感觉是被加特林扫到了,而且是你站在墙背后,被穿墙的子弹击中。

[预告片]Hello World—IT男的逆袭

中国第一部程序员题材的微电影《Hello World—IT男的逆袭》预告片重磅推出!

该片系由中国本土最大的开源技术社区——开源中国策划,看那些梦想着女神、财富、出人头地的IT屌丝男们如何逆袭!

作为对阿里云及全体程序员的献礼,全片将于10月25日阿里云开发者大会上首映,敬请期待!


嘛,开源中国是我见过最有特色最喜欢的It类网站了。加油,成为不断前进的程序员。

幻想未来的网站

最新学习UI中,所以找了很多网站看看。

基本主流就块状布局为主,大部分都是 logo、banner、导航、内容(一般是一列或者两列)、版权信息&友情链接。

我也学了很多,但是其中也有很个性的网站,非常吸引我。

我也在想,如何能够将网站做得震撼人心呢!我也看过好多flash站,的确非常震撼。但同样的,也有不足点,所以我开始想象,我心目中的网站是什么样子:

智能化:网站AI(网站 互动&导航 -AI程序,如同伪春菜一般,但是功能更加强大——导航、搜索、网页切换、消息提醒、改变UI等等,更重要的一点,我希望能够声控,如果google class一般,更加智能的帮助人们浏览网站。)

视听化:不只是flash,还有 css3 & html5 ,甚至我希望能够有 透明视频技术(只在想要展现的形态之上展现视频,其他采取透明技术,这样可以不妨碍获取信息而且使网站更精美,各种元素结合,如同电影大片一样的用户体验!)

系统化:(网站开始像操作系统一般,好像已经有了“云OS“,但是,我希望更加强大,可以抛弃一般的客户端程序。系统支持:网站可以跨出浏览器,真正的成为一种应用,更加便捷!)

这些东西想想我都觉得兴奋啊!期待那一天的到来!

些东西比较片面,但是,这只是我的希望而已,我希望能够更加便捷的、更加轻松的使用Internet,而不是渐渐的变得繁琐!QQ、weibo、twitter、gmail等等,我开始变得很累很累,希望以后交流能够轻松一点!

初学Python,一只小爬虫

说是爬虫,其实就是个网页下载的脚本。当然,作为第一次,我是献给了wordpress!

开始学习python,渐渐地想要做点什么。

有时候,我们去看别人的博客,无法看到全部的文章,有些或许已经遗失了,有些藏得太深,这是一份遗憾吧!

如果有个脚本能够帮我下载所有的存在文章就好了,我这样想到。
所以我写了这个爬虫,以下是源码。

[php]
#coding = utf-8
print u”’
#—————————————————————-
#程序:wordpress爬虫
#功能:直接下载整个wordpress站点所有文章
#只能用于wordpress搭建的站点,不排除有更改参数导致错误的的可能
#—————————————————————-
”’

import urllib2
import re

print u’请输入wordpress博客域名,例如:“gaobo.name”,’
url = raw_input(‘>’)
print u’请输入要下载的最大文章数’
p = int(raw_input(‘>’)) + 1

ps = range(1,p)
def getHtml():
print u’开始下载中’
for post in ps:
urls = bytes(‘http://’ + url + ‘/’ + ‘?p=’ + bytes(post))
try:

html = urllib2.urlopen(urls).read()

with open(bytes(post) + ".html","w+") as wp:
wp.write(html)
print bytes(post) + u’号文章ok’

except urllib2.HTTPError,e:
print bytes(post) +u’号文章发生错误,代码’+ bytes(e.code)

getHtml()
[/php]

现在看起来还有点别捏,不过这是前几天边看书边写的,现在虽然可以做得更好,但是还是想作为留念。

大致功能就是,把存在(已发布)的文章,或者元素(图片什么的),也就是wordpress不返回404的页面全部下载。
用的是”?p=”,这个get。应该是wordpress的pid吧。

目前还是功能太弱,只能下载网页,而且无法辨别文章标题;不过,作为第一次的脚本,我觉得很有成就感,O(∩_∩)O~


爬虫更新版,以下是代码。主要更新:以title保存文章,这样就能够找到感兴趣的文章了,好吧,已经可以了,此爬虫不在更新。
其实很简单,主要是中文编码不好办,搞了我一下午,结果是默认编码书写错误,应该用“:”的,我用错,用成“=”了。

[php]
# -*- coding: utf-8 -*-
print u”’
#—————————————————————-
#程序:wordpress爬虫
#功能:直接下载整个wordpress站点所有文章
#只能用于wordpress搭建的站点,不排除有更改参数导致错误的的可能
#—————————————————————-
”’

import urllib2
import re

print u’请输入wordpress博客域名,例如:“gaobo.name”,’
url = raw_input(‘>’)
print u’请输入要下载的最大文章数’
p = int(raw_input(‘>’)) + 1

patt = ‘<title>(.*?)|(.*?)</title>’

ps = range(1,p)
def getHtml():
print u’开始下载中’
for post in ps:
urls = bytes(‘http://’ + url + ‘/’ + ‘?p=’ + bytes(post))
try:

html = urllib2.urlopen(urls).read()
tt = re.search(patt,html).group(1).decode(‘utf-8′)

with open(tt + ".html","w+") as wp:
wp.write(html)
print bytes(post) + u’号文章ok’
print tt

except urllib2.HTTPError,e:
print bytes(post) +u’号文章发生错误,代码’+ bytes(e.code)

getHtml()
[/php]