我的一加 3 手机设置

最近屏幕摔碎了一次,维修过程中无奈抹掉了所有数据,于是只能从头开始开搞。这里只是简单的记录一下,以免哪一天又有同样的悲剧发生,当然不可能再有下次了。

刷回原厂设置

对于 Nexus 机型来说,Google 都提供了原厂镜像,一加同样也是,可以从官网下载 ,不过亲身经历一加官网的好多链接都挂掉了,直接从 xda 找反而要方便许多。官网的链接使用迅雷下载还遭遇了掉包,所以对于刷机包,一定要验证 md5,一定一定。

刷 Oxygen OS (氧 OS) , 有很多方法,如果使用的 stock recovery ,可以使用 adb sideload full-rom.zip 来刷入(官网有详细教程)。 而如果安装了 TWRP 或者 twrp-3.0.2-0_blu_spark_v11-op3.img 等等第三方的 recovery , 可以直接在 recovery 中 install ROM。虽然间隔遇到了一些问题,在使用 recovery 刷机的时候遇到 “this package is for OnePlus 3 devices this is one plus 3”,这样奇怪的错误。但是最后找原因还是因为 recovery 的关系,使用 TWRP 3.0.2 及以前的版本即可,或者 blu spark 的版本都可以完美解决。

root

使用下面地址给出的 superSu, systemless 可以完美 root。

https://forum.xda-developers.com/oneplus-3/how-to/oneplus-3-how-to-unlock-bootloader-t3398733

xda 终究是一切的开端,很多内容都是从这边开始,然后被无数人复制粘贴搬运到互联网的各个角落。因此,遇到任何刷机或者 root,或者 Android 相关的任何折腾的问题,用英语关键词来这里搜索有的时候比直接在 Google 搜索要灵得多。这有的时候就像是要查找某一款产品的型号或者功能时,直接在 jd.com 或者 淘宝搜索要来的快得多。或者垂直搜索领域确实值得深入发展一下,感觉这也是 Google 越来越担心亚马逊存在的原因之一吧。

修改 DPI

在 root 之后,开机进入,就会发现一加默认的 DPI 实在感人,远看像老人机,每一个图标都老大老大。Oxygen OS 默认的 DPI 是 480,实际使用感受设置在 420 到 440 最佳。基本上 Launcher 中一行 5 个 图标,原始设置一行只能放下 4 个图标。

一加 3 修改 DPI ,可以有很多方法,最最简单的方法就是下载 Le DPI Changer 这个应用,直接在应用中修改(记得上一次可以修改成功,但是这一次差点将系统搞坏,这里要注意,修改 build.prop 文件一定要备份,否则有可能遇到无法开机的情况。幸亏这一次在系统中找到了 build.prop 的备份,在 recovery 中恢复了之前的设置)。

另外一种情况就是,直接修改 /system/build.prop 系统目录下的 build.prop 文件,直接修改文件内容。

ro.sf.lcd_density=420

同样也可以利用 BuildProp Editor 应用来修改,开启应用,右上角设置,中添加,键为 ro.sf.lcd_density ,值为 420 的条目。重启手机便可以生效。记住修改 build.prop 文件,以及任何系统文件一定要备份系统,或者可以在 recovery 中能够恢复修改的内容,否则有可能无法开机。建议使用 BuildProp Editor 这个应用来修改。

Magisk

从 Play Store 中下载 Magisk Manager,安装打开,保证 ROOT,此时从 Magisk 中更新组件,重启,即可。

下文中的 boot.img 不要轻易刷入,其他未经验证的 boot.img 也不要轻易刷入。

  • https://forum.xda-developers.com/oneplus-3/how-to/guide-oneplus-3-magisk-install-android-t3433093
  • https://forum.xda-developers.com/apps/magisk/official-magisk-v7-universal-systemless-t3473445

Xposed

在安装好 Magisk 之后,从 Magisk 中可以选择安装 Xposed ,然后参照之前整理过的文章 我使用的 Xposed Module 安装一遍。还很快。

如果不想使用 Systemless 的 Xposed ,可以使用官网的地址,直接从 recovery 中刷入。

Kernel

一直使用的 ElementalX 的 kernel ,直接从 Play Store 上下载 ElementalX Manager,在应用中安装即可,应用会自动选择相应的版本。

中间遇到的几个问题

The dm-verity is not started in enforcing mode

原厂给我刷了 Android 7.0 的系统,在开机的时候除了解锁 bootloader 的提醒之外,还多了这个提醒,猜测可能是 Android 7.0 导致的,在刷完 Oxygen OS 3.2.8 (Android 6.0.1) 之后,这个提示就消失了。

Adblocker 被移除

在原本的 Xposed 列表中我曾经写过, Adblocker 这样一款广告去除 Module,但是这个 module 莫名其妙被 Xposed 仓库和 xda 移除,没有任何消息。有人说是因为有木马导致的,但是我更加觉得是因为去广告有用,得罪了不少人才导致下架的。

更多的细节可以参考下面的文章:

  • https://forum.xda-developers.com/xposed/happened-to-adblocker-t3453144
  • https://forum.xda-developers.com/android/general/guide-ad-blocking-t3218167
  • https://www.reddit.com/r/xposed/comments/50s0ow/discussion_the_adblocker_module_has_been_removed/

不过还是能从 Coolapk.com 来下载到下架版本。个人感觉还是能够屏蔽很多广告的。

至此所有系统级别设置都已经完成。附上一张桌面

OnePlus3 Wallpaper

reference


2017-02-26 oneplus , android , xposed , magisk , root

终端使用 sock5 代理

为了解决 Linux Mint/Ubuntu 下安装 Dropbox 的问题,而认识了 proxychains。proxychains 是 Linux 下的代理工具,他允许其他程序通过其代理上网,支持 HTTP, SOCKS4 和 SOCKS5 类型的代理服务器,并可配置多个代理方式。

一直使用的 Dropbox 因为其被屏蔽,所以安装及使用必须通过代理,而 Shadowsocks 作为天然的 socks5 代理成为了最佳选择,在安装 Dropbox(Linux) 之后,设置中可以设置 Socks5 代理。于是剩下的问题便是,如何安装 Dropbox 了。在 Dropbox 官网下载的安装程序会自动下载相关组件,但是因为没有走代理,几乎在直连的情况下无法成功。所以在解决这个问题的时候知道了 proxychains。在了解其作用之后,发现也可以利用其特性来达到在 Linux 终端下让任何命令走代理的目的。

安装 Proxychains

安装 proxychains 可以有很多方法,最简单的方式就是使用 apt

sudo apt install proxychains

如果想要使用最新版,也可以自己手动编译源码

# 安装
git clone https://github.com/rofl0r/proxychains-ng.git
./configure --prefix=/usr --sysconfdir=/etc
make
sudo make install
sudo make install-config

配置

在安装完成之后,一般在 /etc/proxychains.conf 处会有默认配置文件,编辑该文件

sudo vim /etc/proxychains.conf
# 然后将如下内容添加到文件末
socks5 127.0.0.1 1080

# 开启本地 socks5 代理

然后使用

proxychains dropbox start -i

就可以启动 Dropbox 安装程序。安装成功之后使用设置中内置的代理即可。

或者使用

proxychains wget https://www.google.com

使用 curl ip.gs 来验证是否成功

$ curl ip.gs 
当前 IP:124.xxx.xxx.xxx 来自:中国北京北京 电信

$ proxychains curl ip.gs
ProxyChains-3.1 (http://proxychains.sf.net)
|DNS-request| ip.gs 
|S-chain|-<>-127.0.0.1:1080-<><>-4.2.2.2:53-<><>-OK
|DNS-response| ip.gs is 45.116.12.10
|S-chain|-<>-127.0.0.1:1080-<><>-45.116.12.10:80-<><>-OK
当前 IP:106.xxx.xxx.xxx 来自:日本东京都东京linode.com kddi.com

来现在任何内容

延伸

在配置完 proxychains 之后,在终端如果任何命令无法连接成功时,在其前加上 proxychains 就可以走代理方式来执行该命令。

在网上查阅的时候同样发现还有其他类似的工具,比如 polipo,这是一个 socks5 转 http 的代理,设置之后可以使用 export http_proxy=http://localhost:port 来让终端走代理。

polipo 的使用也非常简单

sudo apt-get install polipo

然后再修改其配置

sudo vim /etc/polipo/config

放置以下配置:

logSyslog = true
logFile = /var/log/polipo/polipo.log

proxy:socksParentProxy = "localhost:1080"
socksProxyType = socks5

启用 polipo

sudo /etc/init.d/polipo start

默认端口为 8123 使用即可。

不过需要注意的是 Polipo 作者已经在 GitHub 宣布项目不再更新。推荐还是使用 proxychains。

reference


2017-02-25 Socks5 , Linux , Proxy , Ternimal

fastboot and adb 工具

早之前曾经写过过一篇文章 总结 adb 的常用命令,这次刷机也复习了一些命令,这里再补充一下刷机中必不可少的 fastboot 命令。

就像之前 adb 中说过的那样, adb 用来向开机的 Android 设备发送指令,而 fastboot 则是向开机的 Android bootloader 来发送指令,因此在刷机过程中,如果手机重启进入 bootloader 基本之后使用的 命令都离不开 fastboot。比如在安装第三方 recovery 时,要用到 fastboot flash recovery recovery.img 这样的指令。虽然不能依靠此命令来刷入 ROM,但是 fastboot 也能够做一些 adb 命令无法实现的功能。

安装

sudo apt-get install android-tools-fastboot

bootloader

关于 bootloader 部分可以参考 之前的文章

fastboot

adb 和 fastboot 两个工具都是跟随着 Android SDK 分发的,但是由于这两个工具需求过高,Google 单独提供了两个工具集的下载

在下载之后,需要将文件路径添加到系统环境变量中,以便于在各个路径下访问。

假设加压后的路径为 ~/Android/Sdk/platform-tools/, 那需要在 ~/.bashrc 或者 ~/.zshrc 中配置。

export PATH="$PATH:/home/einverne/Android/Sdk/platform-tools"

WIndows 同理,在系统配置环境变量。

然后在终端下使用 adb devices ,就能够查看连接的设备。同样在 bootloader 下,也可以使用 fastboot devices 来查看连接设备,如果未出现已经 USB 连接的设备,查看驱动是否安装完好即可。

查看设备

fastboot devices

用 boot.img 启动手机

用当前目录下的 boot.img 启动手机,在手机 boot 分区损坏的情况下可以用这个正常进入系统

fastboot boot boot.img

同理可以使用

fastboot boot recovery.img

来启动 recovery 模式

和手机上现有的系统完全无关,只要 PC 的 boot.img 或者 recovery.img 是可以正常工作的就可以。

修改分区

刷机的人经常会遇到下面一些场景。

将当前目录下的 boot.img 刷入手机的 boot 分区:

fastboot flash boot boot.img

将当前目录下的 recovery.img 刷入系统的 recovery 分区:

fastboot flash recovery recovery.img

将当前目录下的 system.img 刷入系统的 system 分区:

fastboot flash system system.img

同理,刷入 data 分区

fastboot flash userdata userdata.img

清理分区的命令,慎用!!!

fastboot erase system
fastboot erase cache
fastboot erase config
fastboot erase data
fastboot erase logs
fastboot erase factory

最后重启手机

fastboot reboot

2017-02-25 Android , Fastboot , adb

Android 反编译

本文介绍 Android 反编译工具,只介绍工具名字及工具简单使用,详细开来再具体讲吧。本文主要包含工具的作用,工作的简单用法,以及反编译的基本步骤。

概述

反编译 Android APK 主要需要依靠如下几个工具:

  • apktool:A tool for reverse engineering Android apk files 查看 APK 包中的 AndroidManifest.xml 等 XML 资源文件
  • dex2jar:Tools to work with android .dex and java .class files 将 APK 包中的 Dalvik 字节码文件(.dex)转换为 .jar 文件
  • JD-GUI:Java Decompiler is a tools to decompile and analyze Java 5 “byte code” and the later versions 查看 .jar 文件的 Java 源码

相关项目及工具地址后文贴出。

使用方法

apktool

Apktook 是一个反编译(reverse engineering) 工具,可以用来反编译Android APK。几乎可以将APK中的 resources.arsc, classes.dex9.png 以及 XMLs 等等源文件反编译得到。

安装需要:

  1. JRE 1.7 及以上
  2. 关于 Android SDK, AAPT 以及 smali 的基本知识

地址: https://ibotpeaches.github.io/Apktool/

apktool 安装

各平台的安装指南,如果使用 Linux 可以使用如下简易步骤:

  1. 右击链接 将 Linux 的脚本保存为 apktool,并移动到 /usr/local/bin/ 目录下
  2. 下载最新版本 apktool.jar (https://bitbucket.org/iBotPeaches/apktool/downloads/)
  3. 确保 Linux 64 位系统中安装了 ia32-libs,使用 apt search ia32 ,然后 apt install ia32-libs 安装,可跳过
  4. 将下载的 apktool-x.x.x.jar 重命名为 apktool.jar
  5. apktool.jarapktool 移动到 /usr/local/bin/ 目录中,需要 root 权限
  6. 给予以上两者执行权限 chmod +x /usr/local/bin/apktool
  7. 在终端执行 apktool

apktool 使用

  1. 拿到 APK 安装包,比如 xxx.apk
  2. 在APK同目录下,执行 apktool d xxx.apk
  3. 目录下会多一个与 APK 同名的文件夹,是解压后的 APK,其中的 XML 资源文件和各种 drawable 图片资源等可以直接看, 不想看 XML 文件的话,可以不用 apktool,直接将 APK 后缀改为 .zip 后解压即可,此时得到的解压目录中的结构和 apktool 解的是一样的,但是 XML 都处在压缩状态不能看。

Apktool 其实还可以用来做另外一件事情,就是汉化,或者将语言包替换之后,重新打包,此时需要使用 apktool b xxx.apk 来重新打包 APK。

dex2jar

dex2jar 能够将 dex 转换为 jar

地址:https://github.com/pxb1988/dex2jar

  1. 不使用 apktool,直接修改后缀解压 APK,将解压后 APK 中的 .dex 文件复制到 dex2jar 目录下
  2. 进入该目录执行 ./d2j-dex2jar.sh xxx.dex(注意赋予该 shell 可执行权限 chmod +x d2j-dex2jar.sh)

JD GUI

JD GUI 用来反编译源文件jar包,查看源代码

地址:http://jd.benow.ca/

  1. dex2jar 目录下会多一个 .jar 文件,用 GUI 工具 JD-GUI 打开看就可以了(当然,混淆过的代码中变量名都是 a, b, c, d)

总结

总的来说 apktool 可以让你轻松的拿到应用的资源文件,包括图片,xml等,而 dex2jar 和 JD GUI 可以反编译源代码,看到一些基础的代码结构。

Update

后来 Google 搞了一个 ClassyShark,看起来不错,不过还没来得及尝试

http://classyshark.com/

还有一个 不错的 smali 查看插件看起来也不错,还未尝试

https://github.com/JesusFreke/smali

另外有一个 MAC 专属的一键反编译工具,可以一试:

https://github.com/Jermic/Android-Crack-Tool

又一个查看 dex 到 jar 的反编译工具:

https://github.com/skylot/jadx


2017-02-22 Android , Java , Apktook , Google

Docker 使用 nginx-proxy 来假设多个网站

我们知道如果使用 Nginx 可以使用 Virtual HOST 来 HOST 多个域名下的网站到同一台机器,那么如果使用 Docker 架设了一个 WordPress,还想用 Docker 架设一个新的网站,那么该怎么办呢?

有一种解决办法就是使用 Nginx 转发请求,比如一个网站监听了 81 端口,一个网站监听了 82 端口,那么使用 Nginx 的代理功能,将对应的流量转发给对应的服务器处理即可。因此 nginx-proxy 这个镜像的作用就如上面所述,让我们将不同的流量转发给不同的 Docker 容器进行处理。

启动 nginx-proxy

有两种方式可以启动 nginx-proxy 容器,一种是通过 docker 命令,另一种是使用 docker-compose。不过用这两种方式之前,先创建一个 Docker network,将多个容器关联起来

docker network create nginx-proxy

然后创建容器

docker run -d -p 80:80 --name nginx-proxy --net nginx-proxy -v /var/run/docker.sock:/tmp/docker.sock jwilder/nginx-proxy

或者创建 docker-compose.yml

version: "3"
services:
  nginx-proxy:
    image: jwilder/nginx-proxy
    container_name: nginx-proxy
    ports:
      - "80:80"
    volumes:
      - /var/run/docker.sock:/tmp/docker.sock:ro

networks:
  default:
    external:
      name: nginx-proxy

然后在同目录下 docker-compose up -d

nginx-proxy 对外暴露 80 端口,并且监听 80 端口,允许 80 端口的流量流入。而 /var/run/docker.sock:/tmp/docker.sock 这一行则表示着允许该容器访问宿主机器的 Docker socket,这也就意味着有新容器加入,或者新容器关闭时都会通知到 nginx-proxy。

这样每一次添加容器,nginx-proxy 就会通过 socket 来接收到事件,自动创建对应的配置文件,然后重启 nginx 来生效。nginx-proxy 会寻找带有 VIRTUAL_HOST 环境变量的容器,然后依照配置进行。

另外 --net nginx-proxy 和 docker compose 中 networks 块的配置,让所有的容器通过 Docker network 进行通讯。

增加容器

比如增加一个 WordPress 容器

docker run -d --name blog --expose 80 --net nginx-proxy -e VIRTUAL_HOST=blog.DOMAIN.TLD wordpress
  • --expose 80 会允许流量从 80 端口流入
  • --net nginx-proxy 保证 Docker 使用同一个网络
  • -e VIRTUAL_HOST=blog.DOMAIN.TLD 开启 nginx-proxy 创建对应的配置文件将流量转发给 WordPress 容器

如果使用 Docker compose

version: "3"

services:
   db_node_domain:
     image: mysql:5.7
     volumes:
       - db_data:/var/lib/mysql
     restart: always
     environment:
       MYSQL_ROOT_PASSWORD: PASSWORD
       MYSQL_DATABASE: wordpress
       MYSQL_USER: wordpress
       MYSQL_PASSWORD: PASSWORD
     container_name: wordpress_db

   wordpress:
     depends_on:
       - db_node_domain
     image: wordpress:latest
     expose:
       - 80
     restart: always
     environment:
       VIRTUAL_HOST: blog.DOMAIN.TLD
       WORDPRESS_DB_HOST: db_node_domain:3306
       WORDPRESS_DB_USER: wordpress
       WORDPRESS_DB_PASSWORD: PASSWORD
     container_name: wordpress
volumes:
    db_data:

networks:
  default:
    external:
      name: nginx-proxy

不过这里需要注意的是会创建一个数据库容器,一个 WordPress app 容器。

扩展

如果想要支持 SSL,那么 nginx-proxy 有一个对应的项目 letsencrypt-nginx-proxy-companion,他可以自动创建和续签 Let’s Encrypt 的证书。

reference


2017-02-20 docker , nginx , proxy , dockerfile

Busybox 工具列表

Busybox 将很多 UNIX 下的工具集打包到一个可执行文件中,特别适合小容量的嵌入式设备,Android 等等。最近也是因为在 Android 用到才接触到。

实际的命令列表按编译时的设置决定,在有 Busybox 的系统上执行 busybox --list 即可看到一个完整的列表。

127|:/ $ busybox
BusyBox v1.30.1-osm0sis (2019-02-28 18:48:08 AST) multi-call binary.BusyBox is copyrighted by many authors between 1998-2015.
Licensed under GPLv2. See source distribution for detailed
copyright notices.

Usage: busybox [function [arguments]...]
   or: busybox --list[-full]
   or: busybox --show SCRIPT
   or: busybox --install [-s] [DIR]
   or: function [arguments]...

        BusyBox is a multi-call binary that combines many common Unix
        utilities into a single executable.  Most people will create a
        link to busybox for each function they wish to use and BusyBox
        will act like whatever it was invoked as.

Currently defined functions:
        [, [[, acpid, adjtimex, ar, arch, arp, arping, ash, awk,
        base64, basename, bbconfig, beep, blkdiscard, blkid,
        blockdev, brctl, bunzip2, bzcat, bzip2, cal, cat, chat,
        chattr, chgrp, chmod, chown, chroot, chrt, chvt, cksum,
        clear, cmp, comm, conspy, cp, cpio, crond, crontab,
        cttyhack, cut, date, dc, dd, deallocvt, depmod, devmem, df,
        dhcprelay, diff, dirname, dmesg, dnsd, dnsdomainname,
        dos2unix, du, dumpkmap, dumpleases, echo, ed, egrep, eject,
        env, ether-wake, expand, expr, factor, fakeidentd, false,
        fatattr, fbset, fbsplash, fdflush, fdformat, fdisk,
        fgconsole, fgrep, find, findfs, flock, fold, free,
        freeramdisk, fsck, fsck.minix, fsfreeze, fstrim, fsync,
        ftpd, ftpget, ftpput, fuser, getopt, grep, groups, gunzip,
        gzip, hd, hdparm, head, hexdump, hexedit, hostname, httpd,
        hush, hwclock, id, ifconfig, ifdown, ifenslave, ifplugd,
        ifup, inetd, inotifyd, insmod, install, ionice, iostat, ip,
        ipaddr, ipcalc, ipcrm, ipcs, iplink, ipneigh, iproute,
        iprule, iptunnel, kbd_mode, kill, killall, killall5, klogd,
        less, link, ln, loadfont, loadkmap, logread, losetup, ls,
        lsattr, lsmod, lsof, lspci, lsscsi, lsusb, lzcat, lzma,
        lzop, lzopcat, makedevs, makemime, man, md5sum, mesg,
        microcom, mkdir, mkdosfs, mke2fs, mkfifo, mkfs.ext2,
        mkfs.minix, mkfs.reiser, mkfs.vfat, mknod, mkswap, mktemp,
        modinfo, modprobe, more, mount, mountpoint, mpstat, mv,
        nameif, nanddump, nandwrite, nbd-client, nc, netstat, nice,
        nl, nmeter, nohup, nologin, nslookup, nuke, od, openvt,
        partprobe, paste, patch, pgrep, pidof, ping, ping6,
        pipe_progress, pivot_root, pkill, pmap, popmaildir,
        poweroff, powertop, printenv, printf, ps, pscan, pstree,
        pwd, pwdx, raidautorun, rdate, rdev, readlink, readprofile,
        realpath, reboot, reformime, renice, reset, resize, resume,
        rev, rfkill, rm, rmdir, rmmod, route, rtcwake, run-init,
        run-parts, rx, script, scriptreplay, sed, sendmail, seq,
        setconsole, setfattr, setfont, setkeycodes, setlogcons,
        setpriv, setserial, setsid, setuidgid, sh, sha1sum,
        sha256sum, sha3sum, sha512sum, showkey, shred, shuf,
        slattach, sleep, smemcap, sort, split, ssl_client,
        start-stop-daemon, stat, strings, stty, sum, svc, svok,
        swapoff, swapon, switch_root, sync, sysctl, syslogd, tac,
        tail, tar, tc, tcpsvd, tee, telnet, telnetd, test, tftp,
        tftpd, time, timeout, top, touch, tr, traceroute,
        traceroute6, true, truncate, tty, ttysize, tunctl, tune2fs,
        ubiattach, ubidetach, ubimkvol, ubirename, ubirmvol,
        ubirsvol, ubiupdatevol, udhcpc, udhcpc6, udhcpd, udpsvd,
        uevent, umount, uname, uncompress, unexpand, uniq,
        unix2dos, unlink, unlzma, unlzop, unxz, unzip, uptime,
        usleep, uudecode, uuencode, vconfig, vi, volname, watch,
        watchdog, wc, wget, which, whoami, whois, xargs, xxd, xz,
        xzcat, yes, zcat, zcip
:/ $

2017-02-19 busybox , linux , commands

HBase 命令行工具

HBase Shell 是 HBase 提供的一个简单方便的命令行工具,用它可以直接操作 HBase,对 HBase 进行各种设置。 HBase Shell 提供的命令可以对对 HBase 数据进行增删改查。在上一篇 HBase 介绍 中对 HBase 做了简答的介绍,也初识了一些命令行。

根据官方的解释 Apache HBase Shell 是 (J)Ruby 下的 IRB(Interactive Ruby Shell),任何在 IRB 下的命令,在 HBase Shell 下都可以使用。1

可以在启动 HBase 之后,通过 ./bin/hbase shell 来进入 HBase Shell。

常用命令

基础命令

  • status

    查询服务器状态

  • version

    查询 HBase 版本

  • whoami

    查看连接用户

基本 SHELL 命令

查询所有表名

列举数据库中所有表

list

DDL 命令

创建表

create 命令

create 'table_name', 'cf1', 'cf2'

其中的 cf1 和 cf2 为列族名 1,列族名 2,列族需要在见表时确定,列则不需要, Column Family 是 Schema 的一部分,设计时就需要考虑。

删除表

在删除表之前需要使用 disable 命令,让表失效。在修改表结构时,也需要先执行此命令

disable "table_name'

删除表使用 drop 命令

drop 'table_name'

测试表是否存在

exists 'table_name'

会显示表是否存在:

hbase(main):002:0> exists 'test'
Table test does exist
0 row(s) in 0.2650 seconds

显示表结构

describe 命令查看表结构,显示 HBase 表 schema,以及 column family 设计

describe 'table_name'

使表有效

enable 命令,和 disable 命令对应

enable 'table_name'

修改表结构

alter 修改表的结构,新增列族,删除列族。在修改之前要先 disable ,修改完成后再 enable

新增列族

alter 'table_name', '列族'

删除列族

alter 'table_name', {name=>‘列族’, METHOD=>'delete'}

举例:

hbase(main):049:0> alter 'test','cf2'
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.7520 seconds
hbase(main):050:0> describe 'test'
DESCRIPTION                                                                                                                               ENABLED
 'test', {NAME => 'cf', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0', VERSIONS => '3', COMPRESSION => ' false
 NONE', MIN_VERSIONS => '0', TTL => '2147483647', KEEP_DELETED_CELLS => 'false', BLOCKSIZE => '65536', IN_MEMORY => 'false', ENCODE_ON_DI
 SK => 'true', BLOCKCACHE => 'true'}, {NAME => 'cf2', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0', COM
 PRESSION => 'NONE', VERSIONS => '3', TTL => '2147483647', MIN_VERSIONS => '0', KEEP_DELETED_CELLS => 'false', BLOCKSIZE => '65536', ENCO
 DE_ON_DISK => 'true', IN_MEMORY => 'false', BLOCKCACHE => 'true'}
1 row(s) in 0.1680 seconds
hbase(main):052:0> alter 'test', {NAME => 'cf2', METHOD => 'delete'}
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.5880 seconds
hbase(main):053:0> describe 'test'
DESCRIPTION                                                                                                                               ENABLED
 'test', {NAME => 'cf', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0', VERSIONS => '3', COMPRESSION => ' false
 NONE', MIN_VERSIONS => '0', TTL => '2147483647', KEEP_DELETED_CELLS => 'false', BLOCKSIZE => '65536', IN_MEMORY => 'false', ENCODE_ON_DI
 SK => 'true', BLOCKCACHE => 'true'}
1 row(s) in 0.2010 seconds

通常情况下列族不能被重命名,如果需要修改列族名字,通常用命令创建一个期望的列族名字,然后将数据复制过去,然后再删除旧列族。

DML 命令

增加记录

put 命令

插入数据,对于同一个 rowkey,如果执行两次 put,则认为是更新操作

put 'table_name', 'rowkey', '列族名 1: 列名 1', 'value'

put 't1', 'r1', 'c1', 'value', ts1 一般情况下 ts1(时间戳) 可以省略, Column 可以动态扩展,每行可以有不同的 Column。

增加值

增加指定表、行的值

incr

查询表行数

计算表的行数,count 一般比较耗时,使用

count 'table_name'

查询所有 rowkey

count 'table_name', { INTERVAL => 1 }

查询记录

get 命令获取数据,HBase 的 shell 操作,大概顺序就是命令后接表名,rowkey,列名然后在后面用花括号加上其他过滤条件。

获取指定 rowkey 的指定列族指定列的数据,每个 Column 可以有任意数量的 Values,按照 Timestamp 倒序自动排序,可以使用 scan 'table_name', {VERSIONS => 10} 来验证,详细请查看 scan 命令

get 'table_name', 'rowkey', '列族名:列名'

获取指定 rowkey 的指定列族所有的数据

get 'table_name', 'rowkey', '列族名'

获取指定 rowkey 的所有数据

get 'table_name', 'rowkey'

获取指定时间戳的数据

get 'table_name', 'rowkey', {COLUMN=>'列族名:列', TIMESTAMP=>1373737746997}

获取多个版本值,查询默认返回最新的值

get 'table_name', 'rowkey', {COLUMN => '列族名:列名', VERSIONS => 2}

HBase 按照 rowkey 字典序 (1, 100, 102, 20) 自动排序,每行包含任意数量 Column,每列按照 列名 Column Key 排序。如果有列族 cf,其中有列 cf:a, cf:b, cf:c, 则按照字典序排序。

每个数据由 TabelName+RowKey+Column+Timestamp=>Value 唯一确定。

删除记录

delete 命令删除表中数据,delete 命令只能用来删除某一列。

删除指定 rowkey 的指定列族的列名数据

delete 'table_name', 'rowkey', '列族名:列名'

删除指定 rowkey 指定列族的数据

delete 'table_name', 'rowkey', '列族名‘

使用 deleteall 命令来删除 rowkey 所有 column 的 Value,删除整行数据

deleteall 'table_name', ’rowkey'

全表扫描

scan

全表扫描

hbase(main):043:0> scan 'test', {VERSIONS => 12}
ROW           				COLUMN+CELL
 rowkey1                    column=cf:a, timestamp=1487295285291, value=value 3
 rowkey1                    column=cf:a, timestamp=1487294839168, value=value 2
 rowkey1                    column=cf:a, timestamp=1487294704187, value=value 1

删除全表数据 truncate

删除全表数据,这个命令也是 disable,drop,create 命令组合而成。

truncate 'table_name'

hbase shell 脚本

shell 命令,把所有的 hbase shell 命令写到一个文件内,类似与 Linux shell 脚本顺序执行所有命令,可以使用如下方法执行。

hbase shell test.hbaseshell

reference

下面是比较完整的一个列表:

官方 reference


2017-02-18 hbase , linux , apache , database

HBase 基本使用

Hbase – Hadoop Database,是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的 Google 论文《Bigtable:一个结构化数据的分布式存储系统》。HBase 是 Google Bigtable 的开源实现,就像 Bigtable 利用了 Google 文件系统(File System)所提供的分布式数据存储一样,HBase 在 Hadoop 之上提供了类似于 Bigtable 的能力,利用 Hadoop HDFS 作为文件系统,利用 Hadoop MapReduce 来处理 HBase 中海量数据,利用 Zookeeper 作为协同服务,HBase 是 Apache 的 Hadoop 项目的子项目,

HBase 不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是 HBase 基于列的而不是基于行的模式。

HBase 是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用 HBase 技术可在廉价 PC Server 上搭建起大规模结构化存储集群。HBase 不是关系型数据库,不支持 SQL。

Apache HBase™ is the Hadoop database, a distributed, scalable, big data store.

Use Apache HBase™ when you need random, realtime read/write access to your Big Data. This project’s goal is the hosting of very large tables – billions of rows X millions of columns – atop clusters of commodity hardware. Apache HBase is an open-source, distributed, versioned, non-relational database modeled after Google’s Bigtable: A Distributed Storage System for Structured Data by Chang et al. Just as Bigtable leverages the distributed data storage provided by the Google File System, Apache HBase provides Bigtable-like capabilities on top of Hadoop and HDFS.

HBase 结构

3 维 map,三个维度分别是

  • rowkey 主键
  • column 由 family:qualifier 两部分组成, family 列族,和 qualifier 来确定唯一的列
  • timestamp 数据写入时间戳

HBase 的 map 是按照 key 来排序的,其将 key 转换为 byte[], 然后顺序进行存储。

  • 表名为字符串
  • Rowkey 和 ColumnName 是二进制 byte[]
  • Timestamp 是 64 位整数 Java 中 long 类型
  • value 是一个字节数组 byte[]

行主键 rowkey

行以 rowkey 作为唯一标识,rowkey 是一段字节数组,任何东西都能保存进去,字符串,数字等等。行按照字典序由低到高存储在表中。rowkey 可以是任意字符串,最大长度 64KB。

HBase 不支持条件查询和 Order by 查询,读取记录只能按照 rowkey 及其 range 或全表扫描,因此 rowkey 需要根据业务来设计以利用其字典序特性排序提高性能。

行的一次读写是原子操作,这个设计使得 HBase 的并发更新操作更加易懂。

列族和列 column family

列族是列的集合,要准确表示一个列,列族:列名 方式。列族(Column family)需要 在创建表时指定 ,列(Column)则不需要,可以随时在使用时创建。列族的成员在文件系统中都存储在一起,列族中所有列存储方式都一致。HBase 的每一个列都属于一个列族,以列族名为前缀,例如 A:aA:b 都属于 A 列族。

时间戳 timestamp

HBase 通过 row 和 column 确定一份数据(Cell),不同版本值按照时间倒序排序,查询时默认返回最新数据。存储的值根据 tableName + RowKey + ColumnKey + Timestamp => value 唯一确定。Cell 中数据没有类型,字节码存储。

每个保存的 Cell 数据都会保存多版本,版本通过时间戳来索引,时间戳由 HBase 在数据写入时自动赋值,时间戳为系统时间毫秒。如果客户端想要显示赋值也可以,每个 Cell 中,不同时间版本数据按照时间倒序排列,最新的数据排在最前。

为了避免数据存在过多版本造成的的管理 (包括存贮和索引)负担,HBase 提供了两种数据版本回收方式。一是保存数据的最后 n 个版本,二是保存最近一段时间内的版本(比如最近七天)。用户可以针对每个列族进行单独设置。

基本使用

包括安装和基本使用

安装

Apache Download Mirrors 下载,从 stable 目录下下载 .tar.gz 的文件,比如 hbase-0.94.27.tar.gz

$ tar xfz hbase-0.94.27.tar.gz
$ cd hbase-0.94.27

安装依赖基础

  • Linux
  • JDK,需要 1.6 及以上

确保 /etc/hosts 目录下

127.0.0.1 localhost
127.0.0.1 ubuntu.ubuntu-domain ubuntu

不要有 127.0.1.1 类似的出现,用 # 注释掉,如果有 ipv6 的地址也最好注释掉或者删掉。

编辑 vim conf/hbase-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>hbase.rootdir</name>
    <value>file:///DIRECTORY/hbasedata</value>
  </property>
  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/DIRECTORY/zookeeper</value>
  </property>
</configuration>

配置其中的 hbase.rootdir 指向本地的目录,目录保存 HBase 的文件,HBase 会自动创建。默认数据存储目录为 /tmp/hbase-${user.name}

编辑 conf/hbase-env.sh 文件,配置如下两项,找到本地 Java 安装目录,可以使用 whereis java 来获取,将 JDK 的根目录配置如下:

export JAVA_HOME="/usr/lib/jdk"
export HBASE_MANAGES_ZK=true

然后使用如下命令启动 HBase:

$ ./bin/start-hbase.sh

starting Master, logging to logs/hbase-user-master-example.org.out

单机模式启动,停止的脚本也在同目录下。单机模式表示 HBase 所有服务都运行在一个 JVM 中,包括 HBase 和 Zookeeper。HBase 还有另外两种启动运行方式,伪分布式和分布式模式。

连接 HBase

使用自带的客户端连接

$ ./bin/hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version: 0.90.0, r1001068, Fri Sep 24 13:55:42 PDT 2010
hbase(main):001:0>

初步熟悉

创建表,插入数据

hbase(main):003:0> create 'test', 'cf'
0 row(s) in 1.2200 seconds
hbase(main):003:0> list 'test'
1 row(s) in 0.0550 seconds
hbase(main):004:0> put 'test', 'row1', 'cf:a', 'value1'
0 row(s) in 0.0560 seconds
hbase(main):005:0> put 'test', 'row2', 'cf:b', 'value2'
0 row(s) in 0.0370 seconds
hbase(main):006:0> put 'test', 'row3', 'cf:c', 'value3'
0 row(s) in 0.0450 seconds

cf 为 column family 列族,列族要求在创建表时指定,列族的成员在文件系统上存储在一起,HBase 的优化存储针对列族级别。

可以使用 list 命令来查询表名

然后可以使用 scan ‘test’ 来查询

hbase(main):006:0> scan 'test'
ROW    COLUMN+CELL
 row1    column=cf:a, timestamp=1480648404221, value=value1
 row2    column=cf:b, timestamp=1480648416039, value=value2
 row3   column=cf:c, timestamp=1480648427572, value=value3
3 row(s) in 0.0450 seconds

也可以使用 get 命令来获取记录

hbase(main):008:0> get 'test', 'row1'
COLUMN      CELL
cf:a        timestamp=1288380727188, value=value1
1 row(s) in 0.0400 seconds

删除记录

delete 方法只能删除 column

hbase(main):020:0> delete 'test', 'row2', 'cf:b'
0 row(s) in 0.0080 seconds

使用 deleteall 来删除 rowkey 的所有 column

hbase(main):001:0> deleteall 'test', 'row1'
0 row(s) in 0.3090 seconds

使用 disable 和 drop 来删除表

hbase(main):012:0> disable 'test'
0 row(s) in 1.0930 seconds
hbase(main):013:0> drop 'test'
0 row(s) in 0.0770 seconds

不清楚命令使用格式,可以使用 help "list" 来查看命令的具体使用帮助。

退出使用 exit<Enter>

最后退出可以使用 ./bin/stop-hbase.sh 来停止 hbase。

其他问题

Mac 下尝试

Mac 下安装 HBase 可以参考这篇

  • http://chase-seibert.github.io/blog/2013/02/01/getting-starting-with-hbase-and-pig.html

其他问题

Hbase error zookeeper exists failed after 3 retries

16/12/02 10:45:28 INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)
16/12/02 10:45:28 WARN zookeeper.ClientCnxn: Session 0x0 for server null, unexpected error, closing socket connection and attempting

配置

更多的配置可以参考

http://hbase.apache.org/0.94/book/configuration.html

  • standalone mode
  • Pseudo-Distributed mode
  • Distributed mode

reference


2017-02-16 hbase , database , apache , column-database

获取在线视频的时长

这是清理记事本的文章,解决一个问题之后,将之前整理的内容,整理发布。清空 WizNote 计划。

问题

手上有一些视频链接的 URL,如何快速的得到这些视频的时长信息?

答案

经过一番调研,发现使用 ffprobe (和 ffmpeg 套件一起) 可以完美解决这个事情。将命令 -i 参数后面的地址改成线上URL 地址即可。

ffprobe -i https://cldup.com/po79gkocrO.mp4 -show_entries format=duration -v quiet -of csv="p=0"

也可以将此代码保存为 get_video_duration.sh 来使用 ./get_video_duration.sh URL 这样的方式来跑。

ffprobe -i $1 -show_entries format=duration -v quiet -of csv="p=0"

具体 bash script, 文件中每一行中,前面为 视频ID,空格,再是视频连接,使用下面脚本,将视频时长保存到 duration.txt 文件中。

set -o nounset                              # Treat unset variables as an error
while IFS='' read -r line || [[ -n "$line" ]]; do
    lineArray=($line)
    echo ${lineArray[0]}
    duration=$(ffprobe -i ${lineArray[1]} -show_entries format=duration -v quiet -of csv="p=0")
    echo $duration
    echo "${lineArray[0]} ${duration}" >> duration.txt
done < "$1"

扩展

如果视频文件在本地的话,可能会方便很多, ffmpeg, ffprobe 都能够胜任。

ffmpeg -i input.mp4 2>&1 | grep "Duration"| cut -d ' ' -f 4 | sed s/,//
# 或者
ffprobe -show_format input.mp4 | sed -n '/duration/s/.*=//p'

reference


2017-02-11 ffmpeg , ffprobe

每天学习一个命令:perf 性能分析工具

Perf 全称Performance Event,是随着 Linux 2.6+ 一同发布的性能分析工具。通过它,应用程序可以利用 PMU,tracepoint 和内核中的特殊计数器来进行性能统计。它不但可以分析指定应用程序的性能问题 (per thread),也可以用来分析内核的性能问题,当然也可以同时分析应用代码和内核,从而全面理解应用程序中的性能瓶颈。

安装

perf 工具在 linux-tools 下面,安装如下三个包即可

apt-get install linux-tools-common linux-tools-generic linux-tools-`uname -r`

Perf 能触发的事件分为三类:

  • hardware : 由 PMU 产生的事件,比如 cache-misses、cpu-cycles、instructions、branch-misses …等等,通常是当需要了解程序对硬件特性使用情况时使用
  • software : 是核心程序产生的事件,比如 context-switches、page-faults、cpu-clock、cpu-migrations …等等
  • tracepoint : 是核心中的静态 tracepoint 所触发的事件,这些 tracepoint 用來判断在程序执行时期核心的行为

使用

当通过非 root 用户执行 perf 时会遇到权限不足的错误,需要 sudo -i 切换到 root 用户来执行

打印出 perf 可触发的 event

perf list

实时显示当前系统的性能统计信息

perf top

通过概括精简的方式提供被调试程序运行的整体情况和汇总数据

perf stat ./test

perf 命令过于复杂,他有很多子命令集,更多的信息可以参考下面的链接。

reference


2017-02-02 linux , 监控 , 资源占用 , command , perf

电子书

最近文章

  • Linux 下使用 emoji Ubuntu 或者其他一些 Linux 发行版会内置 Google Noto Color emoji font
  • 理解 GraphQL Schema 结构定义 在上一篇 GraphQL 使用 中了解了 GraphQL 大致用法,如果要更加深入的了解 GraphQL ,那就不得不重新从 Schema 来认识 GraphQL,说到底 GraphQL 还是一个强类型定义,客户端可操作的类型都是需要提前定义好的,这个结构就是这篇文章的重点 Schema.
  • 从 MySQL 迁移到 PostgreSQL 方案调研 之前的文章 PostgreSQL 初识 和 PostgreSQL 数据类型 大致的把 PostgreSQL 了解了一下,那么接下来就是真正地把它用起来。
  • GraphQL 使用 很多人都知道 GraphQL 起源于 Facebook,但是似乎很少中文材料提到 GraphQL 出现的契机,我在看完这个纪录片 之后才对 GraphQL 的出现有更加深刻的了解。都知道当年 Facebook 的移动客户端都是网页,随着移动互联网发展,Facebook 网页实现的客户端性能和体验受到非常严重的影响,所以后来不得不去做原生的应用。那么这个时候就遇到了一个问题,原来直接使用网页,那么不同客户端用的接口都是给网页用的,最多做一下屏幕的适配,但是如果使用原生的应用,那么必然会需要设计不同的 API,而 Facebook 的工程师发现,对于复杂的 Feed 流,评论等等,用 RESTful 接口将是一个灾难,所以一帮人开始设计一种查询语言,这就是后来的 GraphQL。也应该纠正一下 Facebook 那帮工程师,只是开源了一份设计和一份实现,但他们万万没有想到开源社区的力量,就像片中 Nick Schrock 说的那样,他低估了社区的力量,在短短的几个月,几年时间中,GraphQL 就已经有了非常多语言的支持,周边应用也非常丰富。原来在脑海里的想法,都没有到生产环境中用过,就这样在所有社区的人的努力下成为了改变这个行业的一部分。
  • Drools : Guided Decision Table Column