威联通折腾篇十七:Docker 安装的 NextCloud 升级、备份及恢复

之前有文章写过如何在 Qnap 上使用 Container Station 来安装 NextCloud,之前重度使用 NextCloud,里面已经存了近 70G 的文件内容,这次系统重建后,下载新的镜像,然后重新恢复,费了一番时间,主要是恢复数据库,然后还有本地挂载的文件,以及升级版本。 从备份的角度来看,也正是这三个部分比较重要: 数据库备份 本地数据备份,也就是 /var/www/html 挂载的目录,我的是 /share/NextCloud Docker 镜像备份 以上三个内容,前两个需要完全备份,否则会造成数据丢失。第三个则 Read more ...


威联通折腾篇十六:为 Container Station 更换镜像

都知道其实 QNAP 的 Container Station 就是 Docker,所以桌面版可以修改的国内镜像地址,QNAP 系统上也能够修改,可以快速提高镜像的下载速度。 其实在网页管理段也能够手动添加,在 Container Station 属性中,Registry 服务器可以手动添加。 或者我们可以 SSH 登录到后台,然后手动编辑配置文件,docker 的路径是 /share/CACHEDEV1_DATA/.qpkg/container-station/ 然后在该目录下有 etc/docker.json 文件,手动修改该文件: { " Read more ...


我的备份方案

上周五 NAS 系统盘挂掉后一个周末都没有过好,一边忙着备份数据,一边要忙着整理系统应用和配置。早以前除了云端同步数据曾经出现过一两次数据丢失的情况,本地保存的数据还没有出现过管理的问题,系统会用 Clonezilla 全量备份,笔电日常数据则辅以同步工具 Dropbox(后替换成 Syncthing) 和自建的 NextCloud,平时丢数据的可能倒是比较小,但唯一疏漏的 NAS,因为硬盘不是一次性买全而是分了几次购买,所以从一开始就没有规划好如何存储与备份,而系统的酷狼 4T 盘可能经过几次家里停电,SMART INFO 出现警告的时候也没有想到备份 Read more ...

2020-01-12 backup , data , system , nas , rsync , syncthing

QNAP 上 SQL server 数据备份

平时没有注意备份 QNAP 上系统盘的数据,从昨天开始系统盘突然只读,而无法写入,发现磁盘有问题了,无奈只能边申请售后,边想着怎么备份数据,还要恢复这么多的配置。 平常的哪些文件备份倒是还好说,但是一直有用 QNAP 提供的 SQL server 服务,这部分数据平时也没有 mysqldump 下来,所以这就变得比较尴尬,但是 sql server 还有一种方法可以从物理文件中恢复。 用 ps 工具查看可以看到 1: /bin/sh /usr/local/mysql/bin/mysqld_safe --datadir=/usr/local/mysq Read more ...

2020-01-11 qnap , sql-server , mysql , maria , sql , backup

云服务 free tier

AWS EC2 750 小时的运行时间,Amazon Elastic Compute Cloud (Amazon EC2) 是一种 Web 服务,可以在云中提供安全并且可调整大小的计算容量。 S3 对象存储服务 5G 存储 20000 GET 2000 PUT RDS MySQL、PostgreSQL、MariaDB、Oracle BYOL 或 SQL Server 的托管关系数据库服务。 750 小时 / 月 20G SSD 20G 备份 Amazon DynamoDB 快速灵活的 NoSQL 数据库,具有无 Read more ...

2020-01-05 cloud , aws , amazon , tencent

在 Linux Mint 上使用 PlayOnLinux 安装网易云音乐

虽然网易云音乐发布了 Linux 版本的客户端,但网易隐藏的云音乐的上传入口只有 Windows 版本的也有,所以这里记录一下如何在 Linux Mint 下使用 PlayOnLinux 来安装网易云音乐 Windows 客户端。 准备工作 Linux Mint 中准备好 PlayOnLinux,并准备好 3.x 以上版本的 Wine 下载好网易云音乐的 exe 安装包 安装 安装过程比较简单,我个人使用 Wine 3.20 版本,然后按照 PlayOnLinux 提示的步骤一步步执行即可。 Read more ...


2019 读书记录

2019 年没有系统性阅读,只是把早先想看的书,看到什么感兴趣就直接看了,也没有目的性,有政治的,有历史的,也有专业书,还有小说。 原来是想在 2019 年 12 月底来整理这篇文章的,大纲已经列好,但是一直躺在了草稿里面,现在是 2020 年年底的时候突然想起来,就着大纲,以及今年在重新整理自己的笔记之后,重新回顾一下自己的 2019 。 之间几年的读书笔记: 2018 读书记录 2017 读书记录 2016 读书记录 2015 读书记录 通识 言论的边界 五星推荐,这本书是我关于[[言论自由]]进行认知的第一本启蒙书,之 Read more ...

2019-12-31 reading , book , douban

关于 Rime 输入法思考和整理

很多年前写过一篇 Rime 配置,这几年陆陆续续,用过搜狗,也用回过 Rime,还试过 Linux 上其他的输入法,但是最后终于在 2019 年完全的切换到 Rime 下,并且经过一系列的折腾发现 Rime 的能力远远超过我的想象。其实输入法是一个及其有依赖性的工具,输入习惯,输入的常用词等等,都累积在了输入法中。这些年输入法引入了云同步功能,但我倒是觉得带来的便利性甚至不如其带来的缺点,唯一的好处是记录输入习惯,和常用词库,但是实际上可能带来的问题更多,比如 隐私没有得到有效保护,有没有发现有的时候输入了某些词,可能一会儿广告就来了 安全问 Read more ...

2019-12-30 rime , linux , input-method , fcitx

终端的输入历史以及管理

配置终端历史文件地址 bash 会将所有终端的输入历史保存在 ~/.bash_history 中,同理,zsh 会保存在 ~/.zsh_history 中。 zsh 使用 HISTFILE 变量来管理保存的 zsh_history 文件,默认一般保存在 ~/.zsh_history 中。 配置 zsh 中记录的终端历史条数 在 zsh 的配置中:1 说明: HISTSIZE 是终端历史中保存的最大行数 2 SAVEHIST 是保存在历史文件中的最大行数 https://unix.stackexcha Read more ...

2019-12-26 terminal , history , clear , command , cli

重拾 Wikipedia

时隔这么多年再来说 Wikipedia, 甚至显得有些落伍,毕竟这个时代,甚至说起 Wikipedia 就像是再谈论一个上世纪的东西,但是其实想想 Wikipedia 诞生也快靠近 20 年。就像之前发出的感慨一样,这些年用了很多的应用,很多的网络服务,但仔细想想曾经 Web2.0 所谓的人人可贡献,就我自己的感受来说,那些我曾经大量使用的服务, 在 Google+ 上分享的内容,在 Google Reader 上分享的文章,都随着关闭烟消云散,反而是我曾经不经意间在 Wikipedia 写下的词条,上传的照片这么多年还依然在,并且曾经的词条在经过更多人 Read more ...

2019-12-26 wikipedia , wiki , knowledge

最近文章

  • Google Code Wiki:让 GitHub 仓库秒变代码百科全书 之前 Devin 团队推出了一款 DeepWiki 的网站,可以用来解释 GitHub 的代码仓库。今天偶然发现 Google 也推出了类似的产品,叫做 Code Wiki。
  • Typeless: 又一款 macOS 上的 AI 语音输入利器 看过我博客的人会发现,我在这半年的时间里面体验了非常多的语音转文字工具,可以说,这样的工具极大地提升了我的生产效率。不仅搭配 Obsidian 可以更快地写笔记,搭配 Claude Code 等编程工具也可以让我更快地输入提示词。体验到后面,遇到类似的产品,我一般也不会单独地出一篇文章,但是今天体验完了 Typeless,我觉得它值得写一篇文章,单独介绍一下。
  • Gemini CLI 使用小技巧 本文记录 Gemini CLI 使用过程中一些容易被忽略的问题,以及使用小技巧。
  • 在 Obsidian 中使用 Gemini CLI 从 2020 年开始使用 Obsidian 算起,到今天也已经快 5 年了,这个过程中我将过去将近 10 年的笔记,包括 Evernote,WizNote 中的笔记,豆瓣上的笔记全部转成了 Markdown 保存到了本地,后来陆陆续续使用的比如 [[Voicenotes]] 也都转成 Markdown 存如 Obsidian。虽然过去纪念陆陆续续在整理,但是实际上每天添加到笔记库中的内容要远多于要整理阅读的内容,笔记仓库也是越来越大,所以我越来越想使用一个工具可以帮助我真正地理解我写下的东西,并且在我想使用的时候能快速的找回。
  • Z-Image-Turbo 高性能 AI 图像生成模型 Z-Image-Turbo 是由阿里巴巴集团开发的高性能图像生成模型,基于 Z-Image 原始版本进行了深度蒸馏和强化学习。 这个模型采用了 6B 参数的轻量级设计,但能够在保证质量的前提下,实现闪电般的生成速度。