Traefik 入门使用

Traefik 是什么

Traefik (音同 traffic),是一个 Cloud Native 的 HTTP reverse proxy(反向代理) 和 load balancer(负载均衡),反向代理服务器就是可以拦截流量并根据规则把流量导到特定的服务上。

在没有 [[Traefik]] 之前,如果在 orchestrator (比如 Swarm 或 Kubernetes) 或 service registry(比如 etcd 或 consul)下开发了一系列的微服务,并要让用户可以访问这些服务,你可能需要手动配置一个反向代理。传统的反向代理服务器(比如 Nginx)需要为每一个子域名到微服务服务进行配置。在一个每一天需要进行很多次增加,移除,升级,扩容的微服务环境下,传统的配置方式(基于配置文件)会变得非常繁琐。

Traefik 可以很好的和现存的基础架构结合到一起,包括 Docker, Swarm mode, Kubernetes, Marathon, Consul, Etcd, Rancher, Amazon ECS 等等

Traefik 会监听 service registry/orchestrator API 并且立即产生一个路由规则,这样微服务可以直接连接到外部的世界,不再需要额外的干预。

Kubernetes 负责把 Pod 容器自动分配到 Node 节点处理。

功能:

  • 持续的更新配置,无需重启 Traefik 即可更新配置
  • 自动的服务发现与负载均衡
  • 支持多样的负载均衡算法
  • 完美支持 docker 基于 label 配置
  • 借助 Let’s Encrypt 实现 HTTPS
  • Circuit breakers, retry
  • 通过网页界面查看路由
  • Websocket, HTTP/2, GRPC ready
  • metrics 的支持,支持对 prometheusk8s 集成
  • 提供监控指标(Rest, Prometheus, Datadog, Statsd, InfluxDB)
  • 访问日志(JSON, CLF)
  • 提供 Rest API
  • 单一的二进制文件(Go 编写),提供官方的 docker 镜像
  • Dashboard 界面

概念

在进一步学习 Traefik 之前有几个在 Traefik 中的概念需要提前了解一下。

  • Providers 是 Traefik 的服务提供方,可以是 orchestrators 也可以是容器引擎,cloud prividers 或者 key-values 存储。Traefik 需要依赖这些服务的 APIs 来自动发现服务和路由,然后动态的更新路由。
  • Entrypoints 监听传入的流量,接口请求的端口
  • Routers 分析请求,将请求连接到对应的服务
  • Services,将请求转发给应用(load balancing),配置如何将流量最终传入这些 Services
  • Middlewares ,中间件,用来修改请求或根据请求来做判断(authentication,rate limiting,headers),Middlewares 附加在路由上,在请求发送到服务之前(或者在服务响应发送到客户端之前)对请求进行调整

Traefik 是如何发现服务的?

Traefik 能够通过 cluster API 自动发现服务,在 Traefik 的配置中,被称为 provider。比如 provider 配置了 Docker,那么 Traefik 会自动根据 Docker 提供的 API 来获取发现服务,并自动根据配置更新路由策略。

在 Docker 环境下使用 docker-compose 安装使用

为了了解最基本的使用,最好的方法就是实践自己启动一下。

version: '3'

services:
  traefik:
    container_name: traefik
    image: traefik:latest
    restart: always
    command: --api.insecure=true --providers.docker
    ports:
      - "80:80"
      - "443:443"
      - "8080:8080"
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock:ro
      - ./ssl/:/data/ssl/:ro
      - ./traefik.yml:/etc/traefik.yml:ro
      - ./config/:/etc/traefik/config/:ro
      
# 先创建外部网卡
# docker network create traefik
networks:
  traefik:
    external: true

启动之后可以访问

上面的方式开启了 Traefik 的 Dashboard,可以直接访问 8080 端口。

然后使用 whoami 镜像做一下验证,该镜像会将请求的 header 信息输出在请求结果中。

version: '3'

services:
  whoami:
    # A container that exposes an API to show its IP address
    image: traefik/whoami
    labels:
      - "traefik.enable=true"
      # 设置Host 为 whoami.docker.localhost 进行域名访问
      - "traefik.http.routers.whoami.rule=Host(`whoami.docker.localhost`)"

# 使用已存在的 traefik 的 network
networks:
  default:
    external:
      name: traefik

当 whoami 的服务启动之后 Traefik 会自动根据 label 的配置,然后将 whoami.docker.localhost 的请求自动转发到 whoami 这个服务中。

然后修改一下本地的 /etc/hosts 文件,增加

127.0.0.1 whoami.docker.localhost

然后用浏览器访问 http://whoami.docker.localhost 就可以看到 whoami 这个服务的返回。

或者直接使用 curl 请求:

❯ curl http://whoami.docker.localhost/
Hostname: 20f1d26a6db0
IP: 127.0.0.1
IP: 172.30.0.3
RemoteAddr: 172.30.0.2:49750
GET / HTTP/1.1
Host: whoami.docker.localhost
User-Agent: curl/7.58.0
Accept: */*
Accept-Encoding: gzip
X-Forwarded-For: 172.30.0.1
X-Forwarded-Host: whoami.docker.localhost
X-Forwarded-Port: 80
X-Forwarded-Proto: http
X-Forwarded-Server: ab231307712a
X-Real-Ip: 172.30.0.1

Configuration

[[traefik-configuration]] 有两种配置方式:

  • 完全动态的配置 (dynamic configuration)
  • 静态初始配置(static configuration)

自动重定向到 https

所有到 80 端口的流量都会被重定向到 443 端口。

--entrypoints.web.address=:80
--entrypoints.web.http.redirections.entryPoint.to=websecure
--entrypoints.web.http.redirections.entryPoint.scheme=https
--entrypoints.web.http.redirections.entrypoint.permanent=true
--entrypoints.websecure.address=:443

部署举例

  • [[Traefik 部署 n8n]]
  • [[Traefik 部署 miniflux]]

reference


2021-09-28 traefik , nginx , cloud-native , reverse-proxy

espanso:Rust 编写的跨平台开源文本扩展工具

今天在 review tldr 提交的新命令的时候发现了一个新的工具 espanso,查看其官网发现是一个文本扩展的工具。在之前 macOS 上短暂的体验过 [[Keyboard Maestro]] 但因为其是 macOS 独占,所以之后再回到 Ubuntu 下的时候就渐渐不用了,并且其授权还挺贵的。然后就一直使用 RIME 配置自定义的短语来作为短语的快捷输入,比如输入 date 的时候自动在候选词中添加日期。但这样的问题便在于每一次更改 RIME 的配置文件都需要经历 RIME 部署这样一个漫长的过程。并且可扩展性也不强。于是想来体验一下 espanso 。

[[Espanso]] 是一个使用 Rust 实现的跨屏平台的 Text Expander,可以在任何编辑器中扩展短语。可以完美代替 [[Keyboard Maestro]] 的 Text Expand 功能。

官网地址:

特性:

  • 扩展功能强,可以通过 package 扩展
  • 响应速度快,我下载体验后没有任何卡顿
  • 支持 form 和 regex
  • 文档完善
  • 完成度高
  • 定义光标位置
  • 支持剪贴板
  • 可以自动填充图像
  • 支持扩展外部脚本(任何语言)
  • 用于特定程序匹配

安装

在 macOS 上:

brew tap federico-terzi/espanso
brew install espanso
espanso --version

然后使用 espanso register 启用。

在 Linux 上:

sudo snap install espanso --classic

安装完成后执行:

espanso start

启动后台任务。这样在任何编辑器中输入 :espanso 会自动转变成 Hi there!

更多安装方式可以参考官网

使用

其官网有一个非常生动形象的 GIF,当输入:

  • :greet 自动变成 hello world
  • :date 自动产生日期
  • :llo 变成一串 Emoji
  • :ip 变成真实的 IP 地址

执行 espanso edit 会自动使用默认的编辑器创建一个默认的配置文件到 ~/.config/espanso/default.yml 文件:

matches:
  # Simple text replacement
  - trigger: ":espanso"
    replace: "Hi there!"

  # Dates
  - trigger: ":date"
    replace: ""
    vars:
      - name: mydate
        type: date
        params:
          format: "%m/%d/%Y"

  # Shell commands
  - trigger: ":shell"
    replace: ""
    vars:
      - name: output
        type: shell
        params:
          cmd: "echo Hello from your shell"

Configuration

espanso 基于文本的配置文件对软件的行为进行设定,在不同操作系统上的路径:

  • Linux: ~/.config/espanso
  • macOS: /Users/einverne/Library/Preferences/espanso
  • Windows: C:\Users\user\AppData\Roaming\espanso

可以通过 espanso path 来快速获知路径。

default.yml 文件是 espanso 的主要配置文件,使用 YAML 语法。

更加详细的配置文件可以参考官方文档

自定义光标位置

在 espanso 的配置 replace 中可以使用 $|$ 作为占位符,表示光标。

比如想要输入 :div 的时候自动展开成为 <div></div> 然后将光标停留到中间,就可以使用:

  - trigger: ":div"
    replace: "<div>$|$</div>"

Package

Espanso 更加强大的地方在与其扩展性,通过安装其他包可以将 espanso 的能力扩展。比如从 espanso hub 安装 Basic Emojis :

espanso install basic-emojis

然后重启服务:

espanso restart

然后输入 :ok 就可看到文本被替换成了 Emoji。

![[Pasted image 20211013182143.png]]

更多的 package 可以看 espansohub

快捷键

一些非常有用的快捷键。

Toggle Key

可以通过连续按两次 ALT(macOS 下为 Option) 按键来临时禁用 espanso。可以看到通知 Espanso disabled。 再按两次可以开启。可以通过配置文件修改 Toggle Key

Backspace Undo

有些时候可能无意识中触发了 expansion,但又不想要这个结果,那么可以按一下 BACKSPACE 撤销这一次修改。

同步配置文件

可以使用软链接的方式将配置文件放在同步文件夹,或 git 仓库中保存管理。

ln -s "/home/user/Dropbox/espanso" "/home/user/.config/espanso"

我个人直接将配方放到 dotfiles 中管理。

配置

reference

  • [[Rust 开源项目]]

2021-09-17 linux , macos , keyboard , text-expander

简单高效跨平台的备份程序 Restic

Restic 是一款简单易用、快速、高效、安全,并且跨平台的开源备份程序。Restic 使用 Go 语言实现。集成了 rclone 可以轻松的备份到各类云端存储。

官网:https://restic.net/

支持的存储类型:

  • 本地磁盘,SFTP
  • Amazon S3,minIO,[[Backblaze B2 Cloud Storage]],OpenStack Swift,Google Cloud Storage 等等
  • 通过 rclone 挂载的存储,比如 Google Drive,OneDrive 等

Restic 设计原则

Restic 是一个数据备份程序,其设计遵循以下原则:

  • 简单:备份应该是一个顺畅、无感知的过程。Restic 易于配置和使用,这样就可以在数据丢失的情况下直接恢复历史数据。同样,恢复数据的过程也不应该很复杂。
  • 快速:用 Restic 备份数据应该只受网络或硬盘带宽的限制,这样就可以每天备份文件。如果备份需要花费太多时间,就没有人会进行备份。恢复备份也应该很快速。
  • 可验证:比备份更重要的是恢复,因此 Restic 可以轻松验证备份的数据是否可以恢复。
  • 安全:Restic 使用加密技术来保证数据的机密性和完整性。假设存储备份数据的位置不是受信任的环境(例如,系统管理员等其他人能够访问您的备份的共享空间)。 Restic 可以保护您的数据免受此类攻击者的侵害。
  • 高效:随着数据的增长,额外的快照应该只占用实际增量的存储。重要的是,在将重复数据实际写入存储后端之前会对其进行去重,以节省宝贵的备份空间。

概念

Repository

Repository 称为存储仓库,备份期间产生的所有数据都以结构化形式发送并存储在存储库中,例如在具有多个子目录的文件系统层次结构中。

存储库实现必须能够完成许多操作,例如列出内容。v0.12.0 中已支持的存储服务包括:aws s3,minio server,Wasabi, Aliyun OSS, OpenStack Swift,Backlbaze B2,Azure Blob Storage,Google Cloud Storage,rclone

Blob

Blob 将多个数据字节与识别信息(如数据的 SHA-256 哈希及其长度),加密的数据块及元数据,其中元数据包括长度,SHA-256 哈希信息。数据块可以存放文件数据(data),也可以存放目录结构数据(tree)。Blob 的大小在 512KiB 到 8MiB 之间,因此小于 512KB 的文件不会被拆分。Restic 的实现目标是让 Blob 平均大小为 1MiB。

Pack

Pack 是一个包,结合了一个或多个 Blob,例如在单个文件中。Restic 中的单个数据文件,包括一个或多个 Blob,一旦创建不再修改。

一般只创建不删除,仅 prune 操作会删除不再被引用的数据。

Snapshot

Snapshot 快照代表在某个时间点已备份的文件或目录的状态。这里的状态是指内容和元数据,如文件或目录及其内容的名称和修改时间。

Storage ID

  • Storage ID:Pack 文件的 SHA256 哈希值,通过这个 ID 可以在仓库中加载需要的数据文件。Restic 将这个 ID 作为 Pack 的文件名,也就是文件的 SHA256 哈希值。Pack 文件名即哈希值的设计也可以方便的检验数据文件是否被改动过。

Install

Debian/Ubuntu:

apt-get install restic

macOS:

brew install restic

通过二进制:

wget https://github.com/restic/restic/releases/download/v0.9.5/restic_0.9.5_linux_amd64.bz2
bzip2 -d restic*.bz2 && rm -rf restic*.bz2
chmod +x restic*
mv restic* /usr/local/bin/restic
restic version

升级可以通过:

restic self-update

Usage

初始化本地备份:

restic init --repo /path/to/backup_folder

配置 SFTP 存储,配置 SSH 免密码登录

restic -r sftp:root@192.168.2.100:/path/to/backup_folder init

如果服务器的 SSH 端口不是 22,则需要配置 ssh 配置,编辑 ~/.ssh/config 然后配置:

Host 192.168.2.100
  User root
  Port 222

将目录 /var/www 备份到服务器的 /path/to/backup_folder

restic -r sftp:192.168.2.100:/path/to/backup_folder --verbose backup /var/www

查看备份快照:

restic -r sftp:192.168.2.100:/path/to/backup_folder snapshots

恢复备份:

restic -r sftp:192.168.2.100:/path/to/backup_folder restore latest --target /var/www

这里的 latest 可以替换为任意一次的备份 ID。

删除备份:

restic -r sftp:root@192.168.2.100:/path/to/backup_folder forget abc3123

上面的命令只是将快照清除了,但快照中包含的文件还在存储仓库中,可以使用 prune 命令来清理未被引用的数据:

restic -r sftp:root@192.168.2.100:/path/to/backup_folder prune

结合 cron 来定时备份

每隔 30 分钟备份一次

30 * * * * /usr/local/bin/restic -r sftp:root@192.168.2.100:/path/to/backup_folder backup --password-file /home/einverne/restic/resticpasswd -q /var/www; /usr/local/bin/restic forget -q --prune --keep-hourly 24 --keep-daily 7

Restic 和 rclone 的区别

两个工具的设计目的是不一样的,Restic 更偏向备份工具,所以设计了很多备份、恢复、查看验证历史版本等等特性。而 Rclone 则更偏向于将网络硬盘挂载到机器中实现与云端存储的双向同步。二者各有所长。

  • Rclone 面向文件,保证两端文件一致,而 Restic 则是会加密文件再传输,每一次增量备份
  • Rclone 不会记录文件版本,Restic 每一次备份都会产生新版本

2021-09-12 restic , backup , backup-tool , tools , google-drive , go-lang , duplicacy , linux , syncthing

rTorrent 和 ruTorrent 中自动下载 RSS Feed

自从在 QNAP 上遇到 ruTorrent 之后就发现这是我用过的最好用的 BitTorrent 客户端了,rTorrent 结合 ruTorrent 界面

可以参考我的 docker-compose.yml 进行安装。然后照之前的文章 启用 MaterialDesign,界面就非常漂亮。

rutorrent-20210910210121.png

RSS

首先 RSS 就不用多说了,在互联网早期就存在的一个分享格式,可以用于内容的聚合,虽然 Google Reader 关闭多年,但我个人依然还在重度的使用,从 InoReader 到自建 Tiny Tiny RSS 然后最终心属最简洁的 miniflux 可以说过去的 10 年里面一直都在使用 RSS。

这也使得在 Private Tracker 中使用 RSS 变得非常的容易,大部分的站点都是提供个人的 RSS feed 流的,我使用的 AvistaZ, PrivateHD,都是可以通过关键字订阅来生成自定义的 Feed 流的。

那就以 wishlist feed 流做一个例子,到对应的网站管理后台获取个人的 wishlist RSS feed, 一般是一个链接,当中包含了该 Feed 流的内容,比如说我的 Wishlist 就包含了我在网站中收藏的内容,这样只要我在浏览网站的时候将影片添加到 Wishlist,那么 Feed 中会自动添加该影片。

一般在界面中找这样的图标即可。

添加 RSS 链接到 ruTorrent

右击 ruTorrent 中的 Feeds 板块:

然后点击添加 RSS Feed,输入框中填入 Feed URL,以及 Custom Alias。

![[rutorrent-add-rss-feed-20210910211430.png]]

那新添加的 Feed 会自动出现在 Feeds 板块。在 Feed 板块中可以点击查看到 Feed 中的内容。但是这个时候 Feed 中的内容不会自动下载。如果需要配置自动下载需要使用下面的 RSS Manager(或者也被称为 Download Manager)。

配置 RSS Manager

然后右击 Feeds,打开 RSS Manager

这个界面中有一些内容需要配置,可以新建一个 Filter,点击左边的 ADD

右边的配置分别是:

  • Filter, 过滤器,可以使用正则表达式来过滤 Feed 中需要下载的内容,使用 /^/ 就表示下载所有。
  • Exclude,排除,包含那些关键字的内容不会下载,也可以使用正则。
  • Check title field,上面配置的正则表达式,是否检查标题
  • Check description field,检查描述
  • Check link field,检查链接
  • RSS,选项选择刚刚添加的 RSS URL
  • Directory,下载目录
  • Label,自动添加设置的 Label
  • Min interval,最小间隔
  • RatioGroup, 分享率设置
  • Channel,通道

点击保存,过一会儿就能看到 RSS 中的种子自动开始下载了。

不过这里需要特别注意,千万不要把一个全站的 RSS Feed 添加到自动下载,并配置下载全部,除非你知道这样做的意义。

另外如果要更加详细的设置 RSS 的刷新频率,则需要修改 rTorrent 的配置,如果有需要再更新吧。

另外如果使用的是类似于 Transmission 这样的客户端,并没有自带 RSS 管理,那也可以使用 Flexget 来间接实现 RSS 自动下载。配合 crontab,也可以实现相同的效果。


2021-09-10 rtorrent , rutorrent , linux , docker , rss , feed , private-tracker , torrent , bt

Docker Compose 中使用环境变量

通常在使用 Docker compose 的时候会设置很多的环境变量来控制容器的使用。

很多情况下我们会直接写到 docker-compose.yml 文件中类似于下面 environment 中的:

version: "3"
services:
  flarum:
    image: mondedie/flarum:stable
    container_name: flarum
    volumes:
      - ./flarum/extensions:/flarum/app/extensions
      - ./flarum/assets:/flarum/app/public/assets
      - ./flarum/storage/logs:/flarum/app/storage/logs
      - ./flarum/nginx:/etc/nginx/flarum
    ports:
      - 8888:8888
    environment:
      - UID=1000
      - GID=1000
      - DEBUG=false
      - FORUM_URL=https://forum.domain.tld
      - UPLOAD_MAX_SIZE=20M
      - DB_HOST=
      - DB_PORT=3306
      - DB_USER=
      - DB_PASS=123456
      - DB_NAME=

同样也可以使用 .env 文件来设定。Compose 会自动寻找 compose 文件同级目录的 .env 文件,并自动使用 .env 文件中的环境变量值覆盖 shell environment 中的内容。

Docker 使用环境变量

配置可以包含 environment variables,Compose 会使用 Shell 的环境变量值作为这些配置值。

假设 Shell 中配置了 POSTGRES_VERSION=9.3,那么如果有配置:

  db:
    image: "postgres:${POSTGRES_VERSION}"

当执行 docker-compose up 的时候,会自动将环境变量的值替换。上面的例子中就会自动使用 9.3 版本的配置。

如果环境变量没有配置,那么 Compose 会用一个空字符串替换。

如果要配置默认的环境变量,可以使用一个 .env 文件,Compose 会自动寻找项目目录下的该文件(和 docker-compose.yml 文件同级目录),Shell 环境变量中的值会覆盖 .env 文件中的。

$VARIABLE${VARIABLE} 两种语法都支持。

  • ${VARIABLE:-default} 如果 VARIABLE 没有设置或是空,那么结果是 default
  • ${VARIABLE-default} 只有当 VARIABLE 没有设置的时候才为 default

同样的,可以使用如下的语法强制要求用户设置:

  • ${VARIABLE:?err} 如果 VARIABLE 没有设置,或者为空,那么会抛出移除信息 err
  • ${VARIABLE?err} 如果 VARIABLE 没有设置,会抛出 err

使用 --env-file 选项

在命令行中指定 --env-file 路径。

docker-compose --env-file ./config/.env.dev up

和上一行命令等价的是,也可以使用 env_file 选项来将 env 文件配置到 docker-compose.yml 文件中:

web:
  env_file:
    - web-variable.env

环境变量优先级

上面提到了多种环境变量使用的方式,Compose 在选择环境变量时按照如下的优先级:

  • docker-compose.yml 文件中的 environment 设置
  • Shell 中指定的环境变量
  • 环境文件 .env
  • Dockerfile
  • Variable is not defined

也就是说 compose 文件中定义的 environment 优先级是最高的。

reference


2021-08-29 docker , dockerfile , environment-variable , shell , linux

哪吒监控安装及简单使用说明

哪吒监控是一个使用 Go 和 Vue 实现的服务器监控探针,UI 简洁,可以自定义 CSS,一行命令就可以将新的服务器添加到监控面板。之前一直使用 nodequery,这个服务由于作者已经不再更新所以网站已经无法登录。

在没有遇到哪吒监控之前一直都是使用的 Netdata cloud 来监控 VPS,虽然 Natdata 非常强大,数据非常详细,后台界面也非常有设计感,还带邮件告警通知,但是 Netdata Cloud 后台访问速度实在有点慢,并且我没有找到办法在一个界面查看所有的网络状态。所以用哪吒监控相互弥补一下。

GitHub 地址:https://github.com/naiba/nezha

哪吒监控特性:

  • 支持 HTTP,TCP,Ping 监控报警
  • 监控报警:CPU、内存、硬盘、带宽、实时流量
  • 服务监控:HTTP,SSL 证书,Ping,TCP 端口
  • 自定义布局,LOGO,颜色,统计代码
  • 定时任务:备份、服务重启,定期运维

部署哪吒探针 Dashboard

可以使用官方提供的一键脚本,但我害怕这个脚本设定的环境对我不透明,所以我选择把里面的内容提取成 docker-compose 的配置,可以在这里 查看。

修改一下配置,直接 docker-compose up -d 即可。

部署 Agent 客户端

Agent 客户端,可以在哪吒监控的后台通过添加新的节点,然后复制脚本执行即可。

备份和恢复

数据都存储在 /opt/nezha 文件夹中,打包文件夹,在新环境解压。然后执行安装脚本即可。

问题

如果出现首页服务器随机掉线的问题,需要通过服务器时间。

执行 ntpdate 0.pool.ntp.org 同步面板部署服务器的时间。

常用的命令

哪吒监控 管理脚本使用方法:
--------------------------------------------------------
./nezha.sh                            - 显示管理菜单
./nezha.sh install_dashboard          - 安装面板端
./nezha.sh modify_dashboard_config    - 修改面板配置
./nezha.sh start_dashboard            - 启动面板
./nezha.sh stop_dashboard             - 停止面板
./nezha.sh restart_and_update         - 重启并更新面板
./nezha.sh show_dashboard_log         - 查看面板日志
./nezha.sh uninstall_dashboard        - 卸载管理面板
--------------------------------------------------------
./nezha.sh install_agent              - 安装监控Agent
./nezha.sh modify_agent_config        - 修改Agent配置
./nezha.sh show_agent_log             - 查看Agent日志
./nezha.sh uninstall_agent            - 卸载Agen
./nezha.sh restart_agent              - 重启Agen
./nezha.sh update_script              - 更新脚本
--------------------------------------------------------

Nezha 监控存在的问题

因为存储历史的数据可能会占用非常多的磁盘,所以 Nezha 监控目前只能显示这个时刻各个机器的资源占用,而不能查看单台机器历史资源的使用情况。

reference


2021-08-28 uptime , vps , monitor , open-source , go , grpc , 服务器探针 , 服务器监控

使用 Archive Box 制作自己的互联网存档

在很多年前,我经常听到一句话—-互联网是有记忆的—-当然这么多年过去了,见过了无数的网站关停,也见到了中文互联网上无处不在的删贴,而常常上一秒才看过的内容之后便再也找不到。我的 WizNote 笔记中曾经摘录的豆瓣书评、影评,当我想再去看一下作者的状态的时候,大多评论已经找不到了。有的时候拿着网页 URL,还能从 Internet Archive 找到有幸被保存下来的珍贵文字,但那些还没有被爬虫,或Google索引的文章就这样从互联网上消失了。而这些被删除的内容里面有一些内容却值得被记住,那些发人深省的话值得被再一次阅读。

而这两天正好买了hosthatch 2核8G的VPS,在调查可以部署哪些服务的时候看到了 Archive Box。这是一个可供个人搭建的互联网存档,它可以用来记录网页链接、媒体资源等等,只需要提供一个链接便可以得到截图,PDF,影评,视频等等内容。完全可以还原当时的网页情况。

Docker install

Archive Box 使用 Python 编写,所以可以直接用 pip 安装,不过个人还是推荐用官方提供的镜像 Docker 安装。

使用 Docker compose 来安装,可以参考我的配置 或直接参考官方的文档

添加存档

在网页中添加

Archive Box 在启动之后会提供一个 HTTP 服务,我配置了一个域名 https://box.einverne.info 在界面上使用 + 号即可添加。

在手机上快速添加网址

虽然官方已经提供了非常多的添加方式,包括命令行,网页,桌面版,甚至 Python API,但是目前 RESTful 的接口暂时还是 alpha 阶段,所以在手机上目前也只能用网页版来保存。

如果有发现更好的方法欢迎告知。

查看存档

我使用 Docker 安装,将其数据映射到了 ${DATA_PATH} 目录中,然后使用 Syncthing 同步了,这样在这个目录中直接访问 index.html 即可在本地打开备份的网页。

延伸阅读

  • Hunchly,这是一款可以自动记录访问过的所有网页的工具,非常强大但是需要付费。

2021-08-27 archive , web-archive , archive-box , docker , linux , notes

使用 Poste 自行搭建邮件服务器

自建邮件服务器一直是我想做的事情,之前因为写了一个发送电子书到 Kindle 的 kindlepush bot ,要用到邮件服务器,当时为了不折腾,调研了 一番 就直接用了 [[Mailgun]],每个月 10000 封的邮件也足够了,但是云服务提供商就是那样不好,说改就改,直接把免费的发送额度取消了,虽然到现在为止量不大的情况下还可以继续用,但一旦量超就会发不出去,所以早之前想要 自己 通过 [[Postfix]] 和 [[Dovecot]] 来搭建一个[[邮件服务器]],但后来发现安装和维护成本太高了,所以就搁置了,但一直都想尝试搭建一个自己的邮件服务器,一来可以通过自己的域名邮箱发送邮件,而来也不会受到发送邮件数量的限制。一直在观察可用的可以 自行搭建的邮件服务器 ,发现了 [[Poste]]。

Poste 是一个用 Go 语言实现的可以自行搭建的[[邮件服务器]]程序,提供了后台管理,可以实现邮件收发,容量控制,邮件过滤等等工具。还提供了统计分析,SSL,邮件转发,邮件别名,通过 ClamAV 支持邮件病毒扫描等等功能。

Poste 使用 [[Haraka]] + [[Dovecot]] + [[SQLite]] 的组合实现。Haraka 是一个高性能的 [[SMTP]] 服务器,Dovecot 是一个开源的 IMAP 和 POP3 服务器,SQLite 是一个单文件的高性能关系型数据库。

Poste 运行大概需要 800MB 左右空间,只支持 64 位操作系统。 Poste 可以支持 Docker 安装,但是提供了 Free、Pro 和 Pro+ 版本,都需要按年订阅。

Poste 支持以下特性。

  • SPF、DKIM、DMARC、SRS 的原生实现,带有简单的向导
  • 用于检测木马、病毒、恶意软件的防病毒引擎 ( ClamAV )
  • 内置垃圾邮件过滤器( RSPAMD )
  • HTTPS 上的 Webmail 客户端(Roundcube)
  • 通过 Sieve 脚本进行电子邮件重定向、自动回复和其他过滤(电子邮件所有者管理,每个操作都可以编写脚本)
  • 用于限制邮箱空间或电子邮件数量的配额
  • 系统管理员、域管理员、电子邮件所有者具有不同权限的 Web 管理。
  • 内置 Microsoft 产品的自动发现功能,Thunderbird…
  • 帮助正确设置域和邮件服务器的诊断
  • SMTP - 端口 25、465 (TLS)、587
  • POP3 - 端口 110、995 (TLS)
  • IMAP - 端口 143、993 (TLS)
  • SSL TLS 无处不在,没有个人数据、电子邮件、登录信息通过互联网未加密。
  • 默认情况下,所有密码都存储为加盐 SHA512 哈希(5000 轮)。攻击者将很难破解您的密码。
  • 整个邮件服务器容器由 Docker 与其他应用程序隔离。

Prerequisite

准备工作:

  • 一台拥有独立 IP 的 VPS,IP 地址最好能够通过 Poste 提供的黑名单检测
    • 内存建议在 2G 以上
    • IP 没有被拉入黑名单,可以通过 链接1链接2 来查看
    • 25 端口开放,可以通过 telnet smtp.aol.com 25 命令来查看,如果能连接上并返回一些值表示 25 端口是可用的
  • VPS 服务提供商需要支持添加 rDNS,需要通过 IP 解析到邮件域名
  • 一个可以管理 DNS 的域名
  • Docker

DNS 解析配置

检查所有 Poste 需要的 DNS 配置。

以域名 domain.com 和 IP 1.1.1.1 为例,修改 domain.com 的 DNS 记录

类型 名称 内容 TTL
A mx 1.1.1.1 Auto
CNAME mail mx.domain.com Auto
CNAME smtp mx.domain.com Auto
CNAME pop mx.domain.com Auto
CNAME imap mx.domain.com Auto
MX @ mx.domain.com 优先级 10
TXT @ v=spf1 mx ~all Auto
TXT _dmarc.domain.com v=DMARC1; p=none; pct=100; rua=mailto: admin@DOMAIN.com; ruf=mailto: admin@DOMAIN.com Auto
TXT s20220321670._domainkey 安装完成后设置 AUTO

完成上面的配置之后可以通过 Poste 提供的检测服务检测:

其中涉及的知识可以通过维基百科搜寻 [[SPF]]、[[DMARC]]、[[DKIM]],或者参考这篇电子邮件是如何工作的

添加 SPF/DKIM/PTR 解析,可提高邮件可信度,从而降低邮件进入垃圾箱的几率。

DMARC 记录不是必须的,但是配置上会对于邮件送达有帮助。

设置 PTR 反向解析

PTR 全称 Pointer Record,是电子邮件系统中的一种数据类型,RFC 1035 定义。A 记录解析域名到 IP 地址,PTR 记录解析 IP 地址到域名。PTR 在 VPS 后台通常被称为 [[reverse DNS]],反向域名解析。

PTR 记录,是电子邮件系统中的邮件交换记录的一种;另一种邮件交换记录是 A 记录(在 IPv4 协议中)或 AAAA 记录(在 IPv6 协议中)。PTR 记录常被用于反向地址解析。

域名解析到 IP 被称为正向解析,而 IP 指向到域名,则被称为反向解析,反向解析需要在主机服务商处进行操作,具体请咨询主机服务商。

一般的 VPS 都可以直接在后台面板添加 PTR 反向解析,如果遇到问题可以直接开 ticket 咨询,配置将 IP 指向到邮件服务器域名,如 mail.your-domain.com

安装

使用 docker 命令:

docker run -d \
    -p 880:80 -p 8443:443 -p 25:25 -p 110:110 -p 143:143 -p 465:465 -p 587:587 -p 993:993 -p 995:995 -p 4190:4190 \
    -e TZ=Asia/Shanghai \
    -v /data/mail-data:/data \
    --name "mailserver" \
    -h "mail.your-domain.com" \
    --restart=always \
    -t analogic/poste.io

或者使用 docker-compose:

version: '3'
services:
  poste:
    image: analogic/poste.io
    hostname: mail.domain.com
    container_name: poste
    volumes:
      - /etc/localtime:/etc/localtime:ro
      - ./data:/data
      - ./nginx/log:/var/log/nginx/
    restart: always
    ports:
      - "25:25"
      - "80:80"
      - "110:110"
      - "143:143"
      - "443:443"
      - "465:465"
      - "587:587"
      - "993:993"
      - "995:995"
      - "4190:4190"
    environment:
      - DISABLE_CLAMAV=TRUE
      - HTTPS=OFF

官方文档在此: https://poste.io/doc/getting-started

如果你使用 [[traefik]] 来做反向代理,可以使用我的配置

端口解释:

  • 25,SMTP server for incoming emails
  • 110, POP3 server (STARTTLS required)
  • 143, IMAP server (STARTTLS required)
  • 443,Administration and webmail HTTPS server
  • 587, Submission server(STARTTLS SMTP server for clients)
  • 993, IMAP server(implicit TLS)
  • 995, POP3 server(implicit TLS)
  • 4190,Sieve server(optional)

设置 DNS 说明:

  • 设置 A 记录,mail.domain.com 指向服务器 IP
  • 设置 CNAME,将 smtp.domain.com, pop.domain.com, imap.domain.com 指向 mail.domain.com
  • 配置 MX 记录,指向 mail.domain.com
  • 配置 TXT 记录,v=spf1 mx ~all

等待一会儿 Poste 启动之后 docker-compose logs -f 查看日志。然后访问域名 mail.domain.com,可以看到初始化配置:

  • Mailserver hostname
  • Administrator email
  • Password

提交成功之后就可以进入 Poste 的管理后台。

设置 TLS SSL

在侧边栏 System settings 中可以申请 Let’s Encrypt 证书。

假如您的邮件域名为 mail.domain.com,需要对这个域名申请 SSL 证书,在其它服务商申请 SSL 证书。

获得 SSL 证书后,打开 poste 后台 - System settings - TLS Certificate - 选择证书文件进行上传。

SSL 提供商会自动将中级证书合并到了证书文件(比如腾讯云),因此中级证书那个选项可以和证书一致,然后点保存,保存后需要重启容器生效:docker restart mailserver

配置 DKIM

在 Virtual Domains 中点击域名获取 DKIM Key。然后将值配置到 DNS 解析。

登录与管理

启用 SSL 后,可通过域名进行访问:https://mail.domain.com/,默认是登录 webmail,可以在 webmail 发信、收信等操作。

如果需要登录系统管理,可将地址修改为 https://mail.your-domain.com/admin/login

注意这里默认安装的时候已经可以直接访问 https,如果你使用 Nginx ,或 [[traefik]] 等等方向代理,需要自行配置证书。

客户端

配置邮件客户端访问。

SMTP 25,465,587 smtp.domain.com.com IMAP 993,143 imap.domain.com.com POP 995,110 pop.domain.com.com

邮件客户端可以根据上面的配置添加账号。

邮件发送测试

个人建议

在准备自建邮件服务之前,有一些注意事项需要知晓,以下是一些个人经验总结:

  • 使用可信度、流行度较高的域名后缀,如 .com/.net/.org,尽量避免使用不常用的后缀
  • 使用英文字母的域名,尽量避免使用纯数字域名
  • 域名注册时间越长越好,最低注册时间建议大于 7 天
  • 使用一个干净的 IP,可通过 https://poste.io/dnsbl 查询
  • 找一个支持配置 PTR(rDNS)的主机托管商,VPS 后台配置 PTR 反向解析

进阶

在 Poste.io 的基础上扩展了一些功能 dirtsimple/poste.io:

相关自建方案

  • [[Mailu]]

2021-08-26 poste , linux , email , smtp , pop , email-host , email-server , mail-server

又一个简单漂亮的静态个人导航站 Homer

Homer 是一款简单漂亮的静态个人导航站,通过简单的 YAML 配置就可以快速生成一个个人导航站。

homer

特性:

  • 支持通过 YAML 配置
  • 支持 PWA
  • 支持搜索
  • 支持分组
  • 自定义主题
  • 快捷键支持,/ 搜索,Escape 退出搜索,Enter 打开第一个匹配,Alt/Option + Enter 在新标签页打开

安装

Docker 命令:

docker run -d \
  --name homer \
  -p 8080:8080 \
  -v </your/local/assets/>:/www/assets \
  --restart=always \
  b4bz/homer:latest

docker-compose 配置见 GitHub

配置

Homer 通过 YAML 配置:

---
title: "Homelab Dash"
subtitle: "always-on"
documentTitle: "Homelab Dash"
logo: "logo.png"

columns: 3
header: true
footer: false
connectivityCheck: false

theme: default
colors:
  light:
    highlight-primary: "#3367d6"
    highlight-secondary: "#4285f4"
    highlight-hover: "#5a95f5"
    background: "#f5f5f5"
    card-background: "#ffffff"
    text: "#363636"
    text-header: "#ffffff"
    text-title: "#303030"
    text-subtitle: "#424242"
    card-shadow: rgba(0, 0, 0, 0.1)
    link-hover: "#363636"
  dark:
    highlight-primary: "#1B3E88"
    highlight-secondary: "#1b4d9e"
    highlight-hover: "#2b579e"
    background: "#121212"
    card-background: "#1D1D1D"
    text: "#eaeaea"
    text-header: "#f7f7f7"
    text-title: "#fafafa"
    text-subtitle: "#f5f5f5"
    card-shadow: rgba(0, 0, 0, 0.4)
    link-hover: "#ffdd57"

links:
  - icon: "far fa-edit"
    url: "http://files.svr2:9800/files/homer/config.yml"
    
  - icon: "fab fa-docker"
    url: "http://files.server:9800/files/compose.yml"
    
  - name: 2
    icon: "fab fa-docker"
    url: "http://files.svr2:9800/files/compose.yml"
    
  #- icon: "fas fa-file-download"
#    url: "http://torrent.svr2/"
    
  - icon: "fas fa-fire"
    url: "http://prometheus.server" # Prometheus
    
  - icon: "fas fa-wifi"
    url: "http://routerlogin.net"

  - icon: "fas fa-satellite-dish"
    url: "http://satellite.lan"

  - icon: "fas fa-cloud-download-alt"
    url: "http://qbt-oc1.svr2/" # qBittorrent (oracle1)
    
  - icon: "fas fa-project-diagram"
    url: "http://oracle1:81/" # Nginx proxy manager
    
 # - icon: "fas fa-shield-alt"
 #   url: "http://oracle1:3000" # AdGuard Home
    
#   - icon: "fas fa-traffic-light"
#     url: "http://oracle1:90/" # Traefik
    
  - icon: "fas fa-play-circle"
    url: "http://oracle1:31337/" # Kitana
    
#  - name: "Page 2"
#    icon: "fas fa-columns"
#    url: "#additionnal-page"

services:
  - name: "Media"
    icon: "fas fa-film"
    items:
    
      - name: Radarr
        subtitle: "Movie collection manager"
        url: "http://radarr.server/"
        logo: "assets/homer-icons/png/radarr.png"

      - name: Radarr4K
        subtitle: "Manage 4K movies"
        url: "http://radarr4k.server/"
        logo: "assets/img2/4k-film-2.svg"
        tag: oc1

      - name: Sonarr
        subtitle: "TV shows automator"
        url: "http://sonarr.server/"
        logo: "assets/homer-icons/svg/sonarr.svg"

      - name: Overseerr
        subtitle: "Media discovery tool"
        url: "http://overseerr.server/"
        logo: "assets/homer-icons/svg/overseerr.svg"
        tag: oc1
        

      - name: Flood
        subtitle: "Beautiful torrent GUI"
        url: "http://flood-torrent.server/"
        logo: "assets/homer-icons/png/flood.png"
        
    #   - name: Petio
    #     subtitle: "Plex companion"
    #     url: "http://petio.svr2/"
    #     logo: "https://raw.githubusercontent.com/petio-team/petio/master/frontend/public/favicon/android-icon-192x192.png"
    #     tag: oc1

      - name: Tautulli
        subtitle: "Plex graps & stats"
        url: "http://tautulli.server/"
        logo: "assets/homer-icons/png/tautulli.png"

  - name: Hosted
    icon: "fas fa-rocket"
    items:

      - name: Speedtest tracker
        subtitle: "Automated speed tests"
        url: "http://speedtest.svr2/"
        logo: "assets/custom/speedtest-tracker.png"

      - name: Code-server
        subtitle: "Browser-based editor"
        url: "http://code.server/"
        logo: "assets/custom/code-server.png"

      - name: Mealie
        subtitle: "Pantry for recipes"
        url: "http://mealie.server/"
#        logo: "assets/homer-icons/png/mealie.png"
        logo: "assets/custom/food-2.png"

      - name: Nextcloud
        subtitle: "Cloud-hosted file storage"
        url: "https://agneev.duckdns.org/"
        logo: "assets/homer-icons/png/nextcloud.png"
        tag: oc1

      - name: Home Assistant
        subtitle: "Next-gen smart home"
        url: "http://assistant.server:8123/"
        logo: "assets/custom/home-assistant.png"
        
      - name: Homebridge
        subtitle: "HomeKit all things"
        url: "http://homebridge.svr2/"
        logo: "assets/homer-icons/png/homebridge.png"
        
  - name: Manage
    icon: "fas fa-user-shield"
    items:
    
      - name: AdGuard Home
        subtitle: "Network ad-blocker"
        url: "http://adguard.svr2/"
        logo: "assets/homer-icons/svg/adguardhome.svg"

      - name: Portainer
        subtitle: "Advanced Docker GUI"
        url: "http://portainer.svr2/"
        logo: "assets/homer-icons/png/portainer.png"

      - name: Grafana
        subtitle: "Visualized stats"
        url: "http://grafana.server/"
        logo: "assets/homer-icons/png/grafana.png"
        
      - name: Chronograf
        subtitle: "Metrics visualizations"
        url: "http://chronograf.server"
        logo: "assets/homer-icons/png/chronograf.png"
        
    #   - name: Smokeping
    #     subtitle: "Graph network latency"
    #     url: "http://smokeping.svr2/smokeping/?target=DNSPing"
    #     logo: "assets/custom/monitor.png"
    
      - name: Router
        subtitle: "Stats from router Netdata"
        url: "http://routerlogin.net:19999#menu_net_submenu_brwan;theme=slate"
        logo: "assets/homer-icons/png/netdata.png"

      - name: Nginx manager
        subtitle: "Main network proxy"
        url: "http://npm.svr2/nginx/proxy"
        logo: "assets/homer-icons/png/nginxproxymanager.png"
        
    #   - name: Pi-hole
    #     subtitle: "DNS blackhole"
    #     url: "http://pihole.svr2/admin"
    #     logo: "assets/homer-icons/png/pihole.png"
    #     tag: oc1
        
  - name: "Files"
    icon: "fas fa-hdd"
    items:
        
      - name: aria2
        subtitle: "Ultra-fast HTTP downloader"
        url: "http://aria.server/"
        logo: "assets/homer-icons/png/ariang.png"
        
    #   - name: Plexdrive
    #     subtitle: "Encrypted cloud drive"
    #     url: "http://plexdrive.svr2:9800/files/plexdrive/"
    #     logo: "assets/homer-icons/png/plexdrive.png"

      - name: File Browser
        subtitle: "Browse files on NAS server"
        url: "http://files.server:9800/files/"
        logo: "assets/homer-icons/svg/filebrowser.svg"
        
      - name: qBittorrent
        subtitle: "Best torrent client"
        url: "http://qbittorrent.server/"
        logo: "assets/homer-icons/png/qbittorrent.png"
        
      - name: Scrutiny
        subtitle: "Visualized SMART data"
        url: "http://scrutiny.server/"
        logo: "assets/homer-icons/png/scrutiny.png"

  - name: "Server"
    icon: "fas fa-server"
    items:

      - name: InfluxDB
        subtitle: "Modern metrics recorder"
        url: "http://influxdb.server"
        logo: "assets/custom/influxdb.png"
        
    #   - name: Uptime-kuma
    #     subtitle: "Status monitoring"
    #     url: "http://uptime.svr2/"
    #     logo: "https://github.com/louislam/uptime-kuma/raw/master/public/icon.svg"
        
      - name: always-on
        subtitle: "Netdata on DNS server"
        url: "http://netdata.svr2:19999/"
        logo: "assets/homer-icons/png/netdata.png"

      - name: falcon
        subtitle: "Netdata on media server"
        url: "http://netdata.server/"
#        logo: assets/img2/server-folder.svg
        logo: "assets/custom/netdata-alt.png"
        
      - name: NPM (falcon)
        subtitle: "Docker net reverse proxy"
        url: "http://npm.server/nginx/proxy/"
        logo: "assets/homer-icons/png/nginxproxymanager.png"

    #   - name: Cockpit
    #     subtitle: "Server manager"
    #     url: "http://cockpit.server:9090/"
    #     logo: "assets/homer-icons/png/cockpit.png"

  - name: "Tools"
    icon: "fas fa-toolbox"
    items:
        
      - name: Prowlarr
        subtitle: "Indexer manager"
        url: "http://prowlarr.server/"
        logo: "assets/homer-icons/svg/prowlarr.svg"

      - name: Bazarr
        subtitle: "Subtitles for all media"
        url: "http://bazarr.svr2/"
        logo: "assets/homer-icons/svg/bazarr.svg"
        tag: oc1

    #   - name: Node-RED
    #     subtitle: Programming tool
    #     url: "http://node-red.server/"
    #     logo: "assets/homer-icons/png/nodered.png"

      - name: Jackett
        subtitle: "All indexers in one place"
        url: "http://jackett.svr2/"
        logo: "assets/homer-icons/png/jackett.png"
        tag: oc1
        
      - name: OpenSpeedTest
        subtitle: "LAN speed tests"
        logo: "assets/homer-icons/png/openspeedtest.png"
        url: "http://openspeedtest.svr2:8200/"
        

更多的配置可以参考 官网

services:
  - name: "Media"
    icon: "fas fa-cloud"
    items:
      - name: "Plex"
        logo: "assets/tools/plex.png"
        subtitle: "TV Shows & Movie Collection"
        tag: "app"
        url: "http://192.168.68.137:32400/web/index.html"
        target: "_blank" # optional html a tag target attribute
      - name: "Netflix"
        logo: "assets/tools/netflix.png"
        subtitle: "Streaming Service"
        tag: "app"
        url: "https://netflix.com"
      - name: "Youtube"
        logo: "assets/tools/youtube.png"
        tag: "app"
        url: "https://youtube.com" 
  - name: "Downloads"
    icon: "fas fa-cloud-download-alt"
    items:
      - name: "Sonarr"
        logo: "assets/tools/sonarr.png"
        subtitle: "TV Show Indexer"
        tag: "app"
        url: "http://192.168.68.137:8989/"
        target: "_blank" # optional html a tag target attribute
      - name: "Radarr"
        logo: "assets/tools/radarr.png"
        subtitle: "Movie Indexer"
        tag: "app"
        url: "http://192.168.68.137:7878/"
      - name: "NZBGet"
        logo: "assets/tools/nzbget.png"
        subtitle: "Usenet Downloader"
        tag: "app"
        url: "http://192.168.68.137:6789/"

Icons

FontAwesome 搜索 Icon。

或者看看这里的 SuperTinyIcons 或者 homer-icons

  • [[homepage]] 是一个使用 JavaScript 编写,使用 YAML 作为配置的个人页面。

reference


2021-08-26 homer , navigation , website , docker , linux

HostHatch VPS 测评及使用

两个礼拜前买过一个月 A400 互联 的 VPS,但是因为其提供商不是非常靠谱,所以尽管在使用,但还只是用作流量转发,并没有把重要的数据放在上面。这两天在 LowEndTalk 上正好看到 HostHatch 扩展新加坡业务,发布新机器 2核4G 1T流量的机器只需要 35$ 一年,而且两年付还可以得到两倍的内存,空间和流量,所以就立即下了一单。

2 CPU cores (50% dedicated, burstable up to 200%)
4 GB RAM
20 GB NVMe SSD
1 TB bandwidth
$35 per year
Pay for two years - get doubled RAM, storage, and bandwidth

中间还发生了一点小小问题,因为付款的 Paypal 很久没有使用,付款之后 HostHatch 没有处理,开了 Ticket 之后回复说因为 Paypal on-hold 了这笔订单需要等待 24 小时,等 Paypal 处理之后 HostHatch 才会开始处理。所以等待的期间我又用信用卡下了一单,然后过了一天,我突然发现账号下面有两台机器。不过也好,两台机器做个主备。

机器性能

bench 的结果:

----------------------------------------------------------------------
 CPU Model             : Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
 CPU Cores             : 2
 CPU Frequency         : 3000.000 MHz
 CPU Cache             : 16384 KB
 Total Disk            : 39.0 GB (18.0 GB Used)
 Total Mem             : 7976 MB (2120 MB Used)
 Total Swap            : 1023 MB (5 MB Used)
 System uptime         : 24 days, 17 hour 59 min
 Load average          : 0.21, 0.12, 0.10
 OS                    : Ubuntu 18.04.5 LTS
 Arch                  : x86_64 (64 Bit)
 Kernel                : 4.15.0-20-generic
 TCP CC                : cubic
 Virtualization        : Dedicated
 Organization          : AS63473 HostHatch, LLC
 Location              : Singapore / SG
 Region                : Singapore
----------------------------------------------------------------------
 I/O Speed(1st run)    : 495 MB/s
 I/O Speed(2nd run)    : 731 MB/s
 I/O Speed(3rd run)    : 715 MB/s
 Average I/O speed     : 647.0 MB/s
----------------------------------------------------------------------
 Node Name        Upload Speed      Download Speed      Latency     
 Speedtest.net    3295.69 Mbps      2583.03 Mbps        0.65 ms     
 Shanghai   CU    219.87 Mbps       629.33 Mbps         214.01 ms   
 Guangzhou  CT    18.45 Mbps        113.17 Mbps         229.08 ms   
 Guangzhou  CU    424.10 Mbps       587.32 Mbps         203.09 ms   
 Hongkong   CN    2560.67 Mbps      1094.98 Mbps        33.92 ms    
 Tokyo      JP    294.63 Mbps       614.84 Mbps         74.30 ms    
----------------------------------------------------------------------

YABS 的结果:

# ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## #
#              Yet-Another-Bench-Script              #
#                     v2021-06-05                    #
# https://github.com/masonr/yet-another-bench-script #
# ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## #

Wed Aug 25 00:46:05 BST 2021

Basic System Information:
---------------------------------
Processor  : Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
CPU cores  : 2 @ 2999.998 MHz
AES-NI     : ✔ Enabled
VM-x/AMD-V : ❌ Disabled
RAM        : 3.9 GiB
Swap       : 1024.0 MiB
Disk       : 18.7 GiB

fio Disk Speed Tests (Mixed R/W 50/50):
---------------------------------
Block Size | 4k            (IOPS) | 64k           (IOPS)
  ------   | ---            ----  | ----           ----
Read       | 237.97 MB/s  (59.4k) | 1.78 GB/s    (27.9k)
Write      | 238.59 MB/s  (59.6k) | 1.79 GB/s    (28.0k)
Total      | 476.57 MB/s (119.1k) | 3.58 GB/s    (55.9k)
           |                      |
Block Size | 512k          (IOPS) | 1m            (IOPS)
  ------   | ---            ----  | ----           ----
Read       | 2.85 GB/s     (5.5k) | 2.87 GB/s     (2.8k)
Write      | 3.00 GB/s     (5.8k) | 3.07 GB/s     (2.9k)
Total      | 5.85 GB/s    (11.4k) | 5.94 GB/s     (5.8k)

iperf3 Network Speed Tests (IPv4):
---------------------------------
Provider        | Location (Link)           | Send Speed      | Recv Speed
                |                           |                 |
Clouvider       | London, UK (10G)          | 1.11 Gbits/sec  | 412 Mbits/sec
Online.net      | Paris, FR (10G)           | 1.37 Gbits/sec  | 993 Mbits/sec
WorldStream     | The Netherlands (10G)     | 788 Mbits/sec   | 638 Mbits/sec
Biznet          | Jakarta, Indonesia (1G)   | 3.41 Gbits/sec  | 2.55 Gbits/sec
Clouvider       | NYC, NY, US (10G)         | 628 Mbits/sec   | 562 Mbits/sec
Velocity Online | Tallahassee, FL, US (10G) | 476 Mbits/sec   | 238 Mbits/sec
Clouvider       | Los Angeles, CA, US (10G) | 930 Mbits/sec   | 908 Mbits/sec
Iveloz Telecom  | Sao Paulo, BR (2G)        | busy            | 348 Mbits/sec

Geekbench 5 Benchmark Test:
---------------------------------
Test            | Value
                |
Single Core     | 593
Multi Core      | 1191
Full Test       | https://browser.geekbench.com/v5/cpu/9485985

使用

数据库

因为看 LET 上对 HostHatch 的评价还好,并且这是一家长期做生意的提供商,所以我就陆陆续续把其他平台上的 MySQL 数据迁移过来了,并且正好两台机器配置了一下Master Master Replication

应用

和之前在 A400 的机器一样,用 Docker 来管理各个服务。基本上也是同步一下数据,更改一下配置就可以起来。

❯ docker ps -a
CONTAINER ID   IMAGE                                    COMMAND                  CREATED        STATUS                    PORTS                                                                      NAMES
5c9f15d2f6fd   cflask_simple_worker                     "/bin/sh -c 'celery …"   4 days ago     Up 6 hours                                                                                           cflask_simple_worker_1
b9d05a0aab65   cflask-production                        "/bin/bash shell_scr…"   4 days ago     Up 6 hours                0.0.0.0:5000->5000/tcp, :::5000->5000/tcp                                  cflask_flask-prod_1
fe5babd77ff8   technosoft2000/calibre-web               "/bin/bash -c /init/…"   2 weeks ago    Up 2 days                 8083/tcp                                                                   calibre-web
27bb97742691   funkwhale/all-in-one:1.1.4               "/init"                  2 weeks ago    Up 2 days                 80/tcp                                                                     funkwhale
9f167b8f1a27   umputun/remark42:latest                  "/init.sh /srv/remar…"   2 weeks ago    Up 2 days (healthy)       8080/tcp                                                                   remark42
966776d9c62c   luminoleon/epicgames-claimer             "python3 -u main.py …"   2 weeks ago    Up 2 days                                                                                            epic
11f2ab0251a3   gogs/gogs:0.12.3                         "/app/gogs/docker/st…"   4 weeks ago    Up 2 days                 3000/tcp, 0.0.0.0:10022->22/tcp, :::10022->22/tcp                          gogs
2490f033f39d   wordpress:latest                         "docker-entrypoint.s…"   4 weeks ago    Up 2 days                 80/tcp                                                                     wordpress_blog
8f11b6177487   kmb32123/youtube-dl-server:latest        "python -u ./youtube…"   4 weeks ago    Up 2 days                 0.0.0.0:8080->8080/tcp, :::8080->8080/tcp                                  youtube-dl-server_youtube-dl-server_1
ed9cc80eac6a   ghcr.io/naiba/nezha-dashboard            "/dashboard/app"         4 weeks ago    Up 2 days                 80/tcp, 0.0.0.0:5555->5555/tcp, :::5555->5555/tcp                          nezha_dashboard_1
6654066f6c09   wallabag/wallabag                        "/entrypoint.sh wall…"   4 weeks ago    Up 2 days (healthy)       80/tcp                                                                     wallabag
406190504fd3   phpmyadmin/phpmyadmin                    "/docker-entrypoint.…"   4 weeks ago    Up 2 days                 80/tcp                                                                     phpmyadmin_phpmyadmin_1
8c902e165528   chevereto:latest                         "docker-php-entrypoi…"   7 weeks ago    Up 2 days                 80/tcp                                                                     chevereto
fcca09be33e6   redis:4-alpine                           "docker-entrypoint.s…"   7 weeks ago    Up 2 days                 0.0.0.0:6379->6379/tcp, :::6379->6379/tcp                                  redis
b7c7844143ed   fengkx/postgres:13-alpine                "docker-entrypoint.s…"   2 months ago   Up 2 days (healthy)       0.0.0.0:5432->5432/tcp, :::5432->5432/tcp                                  postgres
129bede6f06c   linuxserver/bookstack                    "/init"                  2 months ago   Up 2 days                 80/tcp, 443/tcp                                                            bookstack
6901eecc15c8   diygod/rsshub                            "dumb-init -- npm ru…"   2 months ago   Up 2 days                 1200/tcp                                                                   rsshub_rsshub_1
9229265c93de   yourls                                   "docker-entrypoint.s…"   2 months ago   Up 2 days                 80/tcp                                                                     yourls
4f935d65a3fc   hurlenko/filebrowser                     "/filebrowser --root…"   2 months ago   Up 2 days                 8080/tcp                                                                   filebrowser
8ab377d558e3   wordpress:latest                         "docker-entrypoint.s…"   2 months ago   Up 2 days                 80/tcp                                                                     wordpress
4fa2aad47f10   miniflux/miniflux:latest                 "/usr/bin/miniflux"      3 months ago   Up 2 days                 8080/tcp                                                                   miniflux
47b8ad4f0d41   netdata/netdata                          "/usr/sbin/run.sh"       3 months ago   Up 2 days (healthy)       0.0.0.0:19999->19999/tcp, :::19999->19999/tcp                              netdata
87f802cee469   f6f2296798e9                             "docker-entrypoint.s…"   3 months ago   Up 2 days                 6379/tcp                                                                   rsshub_redis_1
37898721ec5b   browserless/chrome:1.43-chrome-stable    "./start.sh"             3 months ago   Up 2 days                 3000/tcp                                                                   rsshub_browserless_1
79e7d9774b63   b4bz/homer                               "/bin/sh /entrypoint…"   3 months ago   Up 2 days                 8080/tcp                                                                   homer
f505c56e7a24   jrcs/letsencrypt-nginx-proxy-companion   "/bin/bash /app/entr…"   3 months ago   Up 2 days                                                                                            letsencrypt-nginx
97486b8aa958   jwilder/nginx-proxy                      "/app/docker-entrypo…"   3 months ago   Up 2 days                 0.0.0.0:80->80/tcp, :::80->80/tcp, 0.0.0.0:443->443/tcp, :::443->443/tcp   nginx-proxy

可以看到即使跑了这么多应用,内存连一半都没有用完。CPU 也不过刚刚 1/4,性能还是挺满意的。

hosthatch monitor

日常可以注册一下 HostHatch,通常会在论坛或者邮件中通知有优惠。

reference

  • [[HostHatch]]

2021-08-24 vps , linux , hosthatch , management , ubuntu

电子书

最近文章

  • macOS 自定义系统设置记录 因为电脑空间告警,所以用 Clean Me 这个应用对系统进行了一次清理,没想到的是,可能在我误操作的情况下把我系统的设置和全部软件的设置都给清空了。我所有的系统配置都恢复了初始的状态,让我使用起来非常变扭,我在之前有写过一篇 MacBook 初始化和应用安装 的文章,但是那篇文章写的比较啰嗦,索性就重新整理一下。
  • EV Hosting 共享邮件服务 过去的一个月里面 EV Hosting 陆陆续续更新了共享主机服务,域名注册服务,现在因为我自己使用域名邮箱一直也在使用域名邮箱,所以现在也推出了域名邮箱服务。
  • 《非暴力沟通》读书笔记 怎么知道的这一本书
  • Drift 一个开源可以自托管的 Gist Drift 是一个可以自行架设的 Gist 代替。使用 [[Next.js]] 13 和 React Server Components 编写。
  • Google Analytics 代替产品对比 虽然我把其他服务陆陆续续从 Google 迁移出来,但 Google Analytics 一直都运行良好所以也没有怎么管,但 Google Analytics 到今年年中的时候会强行升级 GA4,看了一下升级的过程和 Google Analytics 的操作实在太复杂,就诞生了迁移出 Google Analytics 的想法。简单地了解了一下目前的 Google Analytics 的代替品,收费的,自行架设的还很多选择。这篇文章就简单地对比一下。