AnotherMach

我的又一个博客,作作笔记,可能没营养

MIUI的一个增强

MIUI分稳定版和开发版。其中稳定版有Google Framework,但不自带root;开发版自带root,但没有Google Framework。

最简单的办法是先刷一个稳定版,在不清除用户数据的情况下装一个开发版。这样兼得Google框架和root权限。

折腾了一年才发现,被自己蠢哭了。

OSX Matlab下的中文显示

OSX下Matlab无法进入中文名的文件夹。或者可以用Tab键调出一堆乱码后进入。

修改/Applications/MATLAB_R2012a.app/bin/lcdata.xml<locale name="zh_CN" encoding="gb2312" xpg_name="zh_CN.2312">替换成<locale name="zh_CN" encoding="UTF-8" xpg_name="zh_CN.UTF-8">

需要一些权限。

租了个VPS

实验室的服务器有内网的IPv4地址和通用的IPv6地址,理论上外网可以访问IPv6,但是需要通过隧道,在Mac上折腾过,失败了。

这次迂回曲折的租了台VPS,有双栈的IPv4和IPv6,可以当跳板进到实验室服务器上跑实验了。

当中还碰到个问题,把自己的rsa公钥加到vps的authorized_keys还是不能通过认证。Google一圈发现是authorized_keys的权限问题,应当设置成644或者600,权限给多了还不认的。

本来还想配个VPN,Google到一篇文章,配置没成功。

于是直接ssh隧道,做sock5代理,也很方便。

1
ssh -D 9876 enzo@vps

这可能是最近买的最实惠的东西了。

最近看的文章

文章看累了,报个流水账。

Visual Tracking with Online Multiple Instance Learning

CVPR’09

Robust Object Tracking with Online Multiple Instance Learning

TPAMI’11

一作 Boris Babenko 教授 Serge Belongie

两篇文章大致是同一个工作。用tracking by detection框架作视觉追踪。 tracking by detection不新,做法是第一帧得到追踪目标的准确位置,作为正例,随机找一些负例,训练一个分类器。第二帧就应用这个分类器定位追踪目标,同时更新分类器。

期间肯定会累积很多误差,追踪器就挂了。所以怎么找正例和负例是关键。作者提的方法是把这个问题扔个学习算法去做,在ML里解决,而不是CV。

Multiple Instance Learing(MIL)正好可以解决这个问题。与一般分类器不同,MIL的训练集是一个集合X,包含很多样本x,如果存在一个x是正例,那么集合X的标注就是正的(1),负责就是0。MIL的解决方法很多,具体可以看作者文章里列出的。

所以新的算法是第一帧找到正例,以后在正例周围找一圈(追踪目标新的位置一定在里面),这个集合就是正的。负例比较好找。这样得到的结果正确性更有保障。但是问题就扔给MIL了。

最后作者用了一个基于Boosting的在线MIL。

The-MUCT-Landmarked-Face-Database

2010年发在一个不知名的会议/期刊上,学校叫做University of Cape Town 放出了一个新的人脸数据集(MUCT),带特征点(landmark)标注的。 用于ASM模型训练很有用。

比较好的地方是比较了现有的face landmark数据集。 有主页的 http://www.milbo.org/muct/index.html 其中XM2VTS是公认泛化能力最好的一个数据集,68个特征点。之前看Pfister做的工作里用到了一个68个点的人脸ASM,可能就是这个。 但是数据需要花钱买,还比较贵。 网上可以搜到训练好的68点ASM,可能就是这个。

Like Father, Like Son: Facial Expression Dynamics for Kinship VerificationICCV’13

这是在ICCV open access paper页面上搜索expression看到的,就一篇。 作者来自是荷兰阿姆斯特丹大学、Delf大学,土耳其Bogazici University 用表情(自发的微笑,spontaneous smile)做亲属识别,课题看上去还挺有趣的。不过做法比较复杂。 首先还是提取人脸特征点,没有用ASM,用了一个我没见过的东西;再作对齐(registration) 然后用嘴角离最中心的距离作为微笑的判定,将微笑分割成onset, apex, offset。完成时间分割之后用不同点的的坐标计算眼睑、眉毛等距离等特征,加上时间维可以做速度、加速度等等特征。 以上这个是dynamic feature。 另外可以抽CLBP-TOP特征(应该是LBP-TOP)的一个变种,融合了时间维的LBP特征。 这个是spatio-temporal特征。 分类器就是一个SVM,输入是两个人微笑时的特征差,输出两个人是或者不是亲属。 做法比较繁琐,手工设计特征也比较僵硬。可能是这个领域的工作不多。

Lipreading: A Graph Embedding Approach

ICPR’10

Towards a Practical Lipreading System

Lipreading with Local Spatiotemporal Descriptors

作者是芬兰Oulu大学,主力成员是赵国英。大老板是Matti Pietikainen。

两个亮点,一是graph embedding,在这个框架下做帧插入,先把特征映射到低维空间,再找一个逆映射,回到高维空间,这样在低维空间找连续帧,映射回到高维空间。

另一个亮点是LBP-TOP,加上时间维的LBP特征。

报流水账的时候就发现自己没看进去什么东西。。。汗

树莓派

上周在TB买了一个树莓派,在京东买了一张8GB class6的SD卡。这些几乎就是树莓派需要准备的所有硬件。 其他硬件包括:

  • 电源线。树莓派的电源是Micro USB的接口,现在很多手机也是。一端连接树莓派,另一端连接电脑或者市电都可以。
  • 键鼠。树莓派有两个USB接口。
  • 视频线。树莓派提供RCA和HDMI两种接口。我的显示器很久,是VGA的。所以用RCA连接家里的电视。

安装操作系统

树莓派的官方网站提供了操作系统的下载。有直接下载和BT下载两种方式,目前BT下载很快。

下载格式是zip,解压后有一个img文件。在*nix下安装都是通过dd直接写SD卡;Windows下需要一些工具。

例如:

1
$ dd if=/path/to/os.img of=/dev/disk1

不论解压前的大小,解压后的img文件都是2G。应该是在一张2G的SD卡上费劲装好在dd导出的。 如果要备份当前操作系统(例如想要换另一个发行版),可以用类似的方式在电脑上把SD卡dd到一个img文件。缺点是如果你用了一张4G的SD卡(几乎是必须的)或者更大的SD卡,那备份文件也会那么大。因为dd不需要理解文件系统。

执行上述dd命令后将是漫长的等待,建议用pv观察进度

1
$ dd if=/path/to/os.img | pv | dd of=/dev/disk1

启动

完成上述安装后把SD卡装进RPi里连上电源就启动了,可以看到LED灯亮。树莓派没有开关,通电断电就是开关。

如果你没有显示器也没有关系,给RPi插上网线,启动后ssh登陆即可。官网上每个发行版都注明了默认的用户名密码。

有线网络对树莓派还是很必要的,每次RPi都需要通过ntp同步一下时间。