因为使用 YouTube 所以接触到了 WebM 格式,这个格式 Google 开源的一个媒体容器格式,常见的文件后缀名是 .webm
,他设计的目标是为了给 HTML5 提供视频和音频。Google 发起的 WebM 项目还有一个姊妹项目 WebP 是提供图像编码的。BSD 协议开源。1
我们平常所见的媒体格式,有 avi,mp3,mp4,mkv 等等,但是这些都是媒体文件容器的扩展,WikiPedia 有一份比较完整的媒体容器列表,在这份列表中我们也能看到其实 webm 格式就是 Matroska 容器的一层“皮”,mkv
格式也是 Matroska 容器的。
而这里说的容器又被称为封装格式,就是将编码好的视频,音频按照一定的规范封装到一起。当然有些容器也支持字幕,脚本之类,同一种容器中可以放不同编码的视频。
容器格式和编码格式要区别开来,放在容器中的媒体可以有不同的编码格式,编码格式指的是用特定的压缩技术对视频,音频处理。但是有些容器也能够提供二次压缩处理。常见的编码格式有:mpeg-2,mpeg-4,h.263,h.264 等等。
下面简要的说一些常见的容器格式。
WebM 容器是 Matroska 一种特殊的 profile,可以封装 VP8 视频编码, Vorbis 音频编码。在 2013 年支持了 VP9 视频编码,和 Opus 音频编码。
WebM 官网 https://www.webmproject.org/
AVI 全称 Audio Video Interleaved 音频视频交错格式,微软在 1992 年推出,采用有损压缩,压缩高,因此画质相对较差,但是应用仍然非常广泛,但是随着技术发展,逐渐被淘汰了。
MOV 是 QuickTime 格式,是 Apple 公司开发的音频、视频格式,和 AVI 格式几乎同一时间出现,现在也处于被淘汰状态。
这个格式是 Real Networks 公司所指定的音频视频压缩规范,可以根据不同的网络传输速率,而指定不同的压缩比率,从而实现低速率网络上的音视频实时传送,早起的 RMVB 格式是为了在有限带宽下在线播放视频而研发,曾经一度普及整个互联网。但现在也已经被淘汰。
MKV 是 Matroska Video 的简称,MKV 最大的特点就是能够容纳多种不同类型的视频、音频、和字幕格式。
Matroska 官网 https://www.matroska.org
MPG 又被称为 MPEG (Moving Pictures Experts Group),是国际标准化组织认可的媒体封装格式,MPEG 一般指的是容器格式,而 MPEG-1, MPEG-2 一般是指编码格式。
一般的 MPEG4 容器封装了 H.264 编码格式,AAC 音频编码格式
Ogg 是一个自由且开放标准的容器格式,Ogg 可以放入各种自由和开放源代码的编解码器 2, Ogg 通常用于一下编码
通常情况下未编码的音频和视频内容都非常庞大,1080p 的视频一帧 1920*1080 像素大小,假设是 8 bit,一个像素 1 字节,那么一帧的大小就是 2M 大小,一般视频 1 秒为 30 帧,那么未压缩的视频几十秒钟就会达到 1Gb 大小,所以在存储时需要经过压缩。下面就是一些常见的视频压缩算法。关于更多视频编码概念的内容可以参考这里
在 1992 年制定标准,针对 1.5Mbps 以下数据传输速率而设计的国际标准,也是 VCD 制作格式。用 MPEG-1 压缩算法,大致可以将 120 分钟的电影压缩到 1.2 GB 左右大小。
标准定于 1994 年,设计目标为更高工业标准的图像质量和更高的传输速率,这种压缩算法主要用于 DVD 和 SVCD 制作,在高清电视和视频编辑也有广泛的应用。使用 MPEG-2 算法可以把 120 分钟的电影压缩到 4 到 8 GB 大小。
标准定于 1998 年,为播放高清流媒体而设计,可以利用窄带宽,通过帧重建技术,压缩和传输数据,可以用最少的数据获得最清晰的图像质量。这种压缩算法包含了 MPEG 标准不具备的可变比特率,版权保护等功能。
这边可以额外说一下 mp3 音频压缩,指的是 MPEG-1 或者 MPEG-2 音频压缩的 Layer III3,并不是 MPEG-3。而为什么没有 MPEG-3 是因为 MPEG-2 已经足够满足 MPEG-3 提出的目标 4,所以这个 MPEG-3 标准就被废除了。
H.264 也是 MPEG-4 第十部分,因此也叫 ISO/IEC 14496-10,或者叫做 MPEG-4 AVC,MPEG-4 Part 10 。H.264 也是 MPEG-4 的一部分。
H.264 最大的优势是很高的压缩比率,在同等画质下,H.264 压缩比是 MPEG-2 的 2 倍以上,是 MPEG-4 的 1.5 到 2 倍。H.264 需要授权付费使用。
是 H.264 的升级版,在保证画质的情况下拥有更高的压缩率。也是授权使用。
通常情况一个媒体文件必定是有视频和音频的,而上面提到的媒体容器中有些也是支持多音频编码轨的,比如说常见的电影可能包含多个国家语言音轨,而常见的 KTV 媒体格式可能需要包含一个原声轨,一个音频轨道。
AAC 是 Advanced Audio Coding,高级音频编码,出现于 1997 年,基于 MPEG-2 音频编码技术,由 Fraunhofer IIS、杜比实验室、AT&T、Sony(索尼)等公司共同开发,目的是取代 MP3 格式。2000 年,MPEG-4 标准出现后,AAC 重新集成了其特性,加入了 SBR 技术和 PS 技术,为了区别于传统的 MPEG-2 AAC 又称为 MPEG-4 AAC. 相关的规范标准分别是 ISO/IEC 13818-7,ISO/IEC 14496-3 作为一种高压缩比的音频压缩算法,AAC 压缩比通常为 18:1,也有数据说为 20:1,远胜 mp3。
在音质方面,由于采用多声道,和使用低复杂性的描述方式,使其比几乎所有的传统编码方式在同规格的情况下更胜一筹。AAC 可以支持多达 48 个音轨,15 个低频(LFE)音轨,5.1 多声道支持,更高的采样率(最高可达 96kHz,音频 CD 为 44.1kHz)和更高的采样精度(支持 8bit、16bit、24bit、32bit,音频 CD 为 16bit)以及有多种语言的兼容能力,更高的解码效率,一般来说,AAC 可以在对比 MP3 文件缩小 30% 的前提下提供更好的音质
Digital Audio Compression Standard 杜比实验室出品,有损压缩,可以包含 6 个独立声道。最著名的是 5.1 声道, 5 代表 5 个基本声道,可以独立连接五个不同音箱,右前 RF,中 C,左前 LF,右后 RR,左后 LR,1 则代表一个低频声效,连接低音辅助音箱(20 到 120Hz),开源解码库 liba52.
APE 是 Monkey’s Audio 提供的一种无损压缩格式,APE 可以无损失高音质地压缩和还原。APE 的压缩率相当高,并且音质保持得很好,获得了不少发烧用户的青睐
DTS 是 Digital Theater Systems ,数码影院系统,由 DTS 公司开发,是一种多通道音频技术,低损,环绕立体声,被广泛应用入 DVD 等高清片源上。需要授权,和杜比公司是竞争对手,常见的是 DTS 5.1,保存 5 条音频通道数据用于立体环绕声,分别是 center, left-front, right-front, left-rear, and right-rear。
FLAC 是 Free Lossless Audio Codec,开源无损压缩编码格式,不会破坏任何原有音频,可以还原光碟音质,被很多软件硬件产品支持。
官网: http://flac.sourceforge.net/
MPEG-1 or MPEG-2 Audio Layer III 经常被称作 MP3,是目前最流行的音频编码格式,有损压缩,相关的规范标准在 ISO/IEC 11172-3, ISO/IEC 13818-3。它设计用来大幅度地降低音频数据量,将音乐以 1:10 甚至 1:12 压缩。mp3 的比特率是可变的,在高声中包含的原始信息越多,回放时品质也越高。
根据比特率,MP3 可以分为
Opus 是一个有损编码格式,适用于网络低延迟,实时声音传输,标准 RFC 6716。Opus 是开放格式,没有专利和限制,目标希望去代替 Speex 和 Vorbis。
2018 年 10 月,Xiph.Org 基金会开发了 Opus 1.3 版本,改进了语音和音乐质量,兼容 RFC 6716,该版本首次加入环绕立体声格式 Ambisonics 支持。5
在归纳了目前市面上常见的媒体文件容器和编码之后,我们应该知道 WebM 是一个媒体容器,在 YouTube 上应用广泛。WebM 容器可以放入不同编码的音视频流,所以在下载了一个 webm 的文件之后可以使用
ffmpeg -i file.webm
来查看容器中的媒体文件,就我个人情况,因为 YouTube 很大一部分是用户上传,所以有些情况下 YouTube 的音频还是会选用 aac 编码,当然我也遇到过 opus。
9 月份一次出门在路上看了这篇万字采访,这篇文章主要以 Osterloh (Google 硬件部门 Leader)为脉络梳理了 Google 这几年在 硬件方面的尝试。文章中的观点并不是那么直白,但是看完却有一股气憋在心中不得不抒。作为用 Google 产品这么多年的忠实用户,Galaxy Nexus,Nexus 6 也是陪我度过了很多年,而 Google Glass 当年如何的红火,但是不得不说在 Google 在硬件确实不如其软件行业的发展,现在音箱被 Amazon Echo 压着打,手机不管是 Nexus 还是 Pixel 丝毫无法动摇 iPhone 的地位,更不用说失败的 Nexus Q,Android TV,等等。
这篇文章其实并没有直接点明为什么 Google 做不好硬件,但是文章展示的一些细节中我们就能看出一些端倪。其中很重要的一点就是 Google 企业文化的障碍。文中这样说
发布和迭代根本不适用于硬件
Google 更擅长的是快速发布产品,在迭代中快速更新产品,然而硬件不是软件,不能直接通过云端更新就让设备焕然一新,文章中说的,调整每一个细节都有可能需要改变供应商的时间表。
在苹果,软件管理人员总是在考虑特定的产品;软件工程高级副总裁 Craig Federighi 的目标是让 iPhone 变得更棒;而 Google 优先事项总是试图同时支持自己的产品,合作伙伴和整个互联网。
上面这番话让我对软硬件区别有了更深的了解,习惯了软件思维,所以总是想着尽快地发布,但其实不论做软件产品还是做硬件产品,只有当产品足够完美再去发布。近十几年的软件行业总是越来越快,恨不得今天的电子,明天就要发布。然而事实上观察那些成功的产品,总会在发布的最初的版本就定下了未来几年甚至十几年的形态,发布之后最多也只是修修补补,反而是那些不怎么成功的产品,每隔几个月增加一些功能,每隔一年改一次版,或许有人也要反驳,正是互联网的快速迭代更新的能力,才有了让产品试错的可能,才能让产品在试错中找到发展的道路。但其实往往这样的产品,在迭代过程中丢失了初衷,在一次次尝试过程中磨损了激情和动力。
Google Glass,Nexus Q 本来可以更完美,但却在一个错误的时间,错误的场合发布,最终不了了之。
有些时候确实无法去反驳这一条看似真理的话,将硬件设备和机器学习,AI 相结合,在文章中提到
在语音技术的早期阶段,用户很难找出语音助手除了设置定时器和播放音乐之外可以做什么。
智能助手 Siri 被提出之后,Amazon 有 Alex, Google 曾经有过 Google Now,Google Now on Tap,最后演变为 Google Assistant,语音助手真正成为了一个手机不可或缺的一部分。但是观察近些年这些巨头对这个“产品”的态度可以明显的看到差别,因为 Alex 并没有大规模的在手机上使用,就略过,就现在两大操作系统 Android 和 iOS 上的 Google Assistant 和 Siri 来看。Google 一心想要将 Assistant 打造的无所不能,无所不在,而 Siri 却慢慢的将控制的权利交给用户,比如在 iOS 12 中让用户自定义“捷径”。就两个产品的进化而言其实都没有错,但是无疑在 AI 并不完善的现在让 AI 不知所措甚至不如让 AI 遵循用户定义好的快捷方式来的有效。
无可置疑 Google 助手的能力要远远强于 Siri ,然而在使用的过程中非常直观的体验就是,让 Google Assistant 关掉 Wifi 都那么费劲(当然这是说的早期的时候)。或许这也是 Google 无法控制硬件带来的问题。很多人对比这些助手的时候总是哪一些,金门大桥多长多长,现在的总统是谁来提问,然而现实中大部分的问题这些助手都无法回答,而从地球到月球有多远这样的问题出现频率又有多高呢?
我想象中的手机助手至少应该能够控制手机中频繁操作的功能,比如设置提醒,设置日历,发送 SNS 消息,又比如控制 Wifi,流量开关等等。我曾记得之前看到过一些文章,介绍了产品功能在设计的时候要考虑到用户的期待。比如说用户按下一个按钮之后会发生什么,再比如说用户问完一个问题之后期待的答案。iOS 在 12 中更新的捷径,让用户自定义助手的处理,虽然门槛稍高,但却完美的避免了这一个答非所问的尴尬。
苹果公司近两年的一系列收购,Workflow,音乐识别应用 Shazam1,音乐分析引擎 Asaii 2,可以预期的是这些产品会和 Siri 甚至是 iPhone 整个产品线结合的更加紧密。这一方面弥补了软件方面的不足,另一方面也让硬件产品更加完美。
废话说了那么多,这只是对最近 Google 关停 Google+,又是审查版搜索不满的一顿发泄而已。Google 已经不是那个时候的 Google 了,倒是如今的微软,苹果更值得关心一下。
Jupyter 是一个为了支持多语言交互式编程的项目, Jupyter Notebook 是一个开源的网络程序,允许用户创建和分享包含代码,视图,方程式,文本的文档。
Jupyter 支持超过 40 中编程语言,可以轻松通过各种格式分享笔记,代码可以生成丰富的交互输出,包括 HTML,图像,视频,LaTeX 等等。
如果有 Python 环境,比较简答,可以按照官方的文档执行
简单的安装:
pip install jupyter
或者使用官方推荐的 Anaconda 安装。
执行如下代码运行
jupyter notebook
jupyter 是支持 TAB 补全的。
Jupyter 能够
在开发服务端接口的时候接触到 GraphQL 这个名词,故而有了这篇文章。因为初始,所以整理过程难免有些错误和疏漏,请留言告知。在我们面对一个新的名词,或者一门新的技术时,了解的过程可以分成这么几部分,他是什么,他解决了什么问题,他和目前同类型的技术相比优势在哪里,这样几个部分去看也就能够比较粗略,但是快速的了解一样新东西了。所以这篇文章的组织结构也以这样的方式进行。
GraphQL,很容易让人想起来 SQL,其实也很类似,可以理解为是一门查询语句,但和 SQL 不同的是,SQL 是查询关系型数据库,而 GraphQL 是查询 WEB 服务数据。GraphQL 是有 Facebook 开发开源,设计主要是为了解决 RESTful 接口的不足。
RESTful 在设计时,将互联网上的每一个内容都理解为资源,通过 HTTP 不同的请求方法来对资源进行增删改查,而 GraphQL 则是通过客户端自主使用查询语句来获得资源。GraphQL 并不是一门语言或者框架,而是请求数据的一种规范,协议。GraphQL 本身并不直接提供存储管理功能,也不和任何数据库绑定。
RESTful 接口遇到的问题
GraphQL 有如下特点:
GraphQL 对外提供只有一个接口,所有请求通过该接口处理,GraphQL 内部做了路由处理。查询语句主要分为两大类,Query 查询,Mutation 修改(非幂等操作,post,put,delete 等)
比如客户端有如下查询语句
query {
user(id: 1) {
id
name
}
}
服务端返回
{
"data": {
"user": {
"id": "1",
"name": "Uncle Charlie"
}
}
}
服务端会返回一个和查询一致的 JSON 字串。
关于 GraphQL 的类型系统,标量类型,对象类型那就自行查看文档即可。
如果你看到这里想要亲手体验一下,那么可以访问 GitHub 提供的在线查询工具
针对上面 RESTful 出现的问题 GraphQL 的解决方案:
使用 GraphQL 接口设计获取数据步骤:
查看慢查询日志
show variables like '%slow_query_log%';
set global slow_query_log=1;
使用上述方式修改,重启 MySQL 后修改丢失,如果要永久生效,需要修改 my.cnf
文件
slow_query_log = 1
slow_query_log_file = /tmp/mysql_slow.log
和大部分编程语言一样,Go 也有很多内置关键字,下面这些关键字和语法相关,不能用于定义。
break
case
chan
const
continue
default
defer
else
fallthrough
for
func
go
goto
if
import
interface
map
package
range
return
select
struct
switch
type
var
三大类预定义的关键字
分类 | 关键字 |
---|---|
Constants: | true false iota nil |
Types: | int int8 int16 int32 int64 uint uint8 uint16 uint32 uint64 uintptr float32 float64 complex128 complex64 bool byte rune string error |
Functions: | make len cap new append copy close delete complex real imag panic recover |
上面这些可以用于定义。
变量定义遵循
var name type = expression
type (类型)可以省略
var name, age, gender = "EV", 18, 1
或者:
var (
name = "EV"
age = 18
gender = 1
)
type 会自动推导
变量只能被声明一次。
定义简短的写法,只能在函数内部使用
name := expression
这种写法可以省略 var 关键字。
注意 :=
是变量声明,而 =
是赋值。
short variable declaration 不是总是定义左边的变量,当在同一个作用域,已经声明过的变量,那么 :=
表现为赋值。
Go 语言不提供枚举类型,不过可以使用常量+iota 来模拟枚举:
const (
E1 int = iota
E2
E3
)
这三个变量分别是 0,1,2
variable
是包含值的一块内存区域,pointer
值是 variable
的地址,指针指向变量真正存储值的地方。不是每一个 value 都有地址,但是每一个变量都有地址。即使在不知道变量名的情况下,可以通过指针间接地读写变量相关的 value。
变量定义为 var x int
, 表达式 &x
是取变量 x 的地址,会返回一个指针 *int
,读做指向 int 的指针。假设变量 b 来持有 *int
:
x := 1
p := &x // p, of type *int, points to x
fmt.Println(*p) // "1"
*p = 2
fmt.Println(*p) // "2"
指针的 zero value 是 nil. 如果指针指向一个变量 那么 p != nil
为 true。
var x, y int
fmt.Println(&x == &x, &x == &y, &x == nil)
另外一种创建 variable 的方法是使用内置方法 new
, 表达式 new(T)
会创建一个类型 T 的 unnamed variable
,并且将类型 T 使用 zero value 初始化,然后返回指向该值的指针,也就是 *T
。
p := new(int)
fmt.Println(*p) // "0"
*p = 2
fmt.Println(*p) // "2"
使用 new 方法创建,除了没有变量名字和普通创建没有什么差别。所以下面两个方法等同
func newInt() *int {
return new(int)
}
func newInt() *int {
var dummy int
return &dummy
}
赋值其实没啥好说的,任何语言都不可或缺。
但是 Go 支持 元组赋值 Tuple Assignment,那么就可以和 Python 一样,允许多个值一起被赋值
x, y = y, x
类型定义
type name underlying-type
type Celsius float64
Go 语言中的包 (package) 和其他语言中的 库(libraries),或者模块(module)作用是一样的,为了支持模块化,封装和重用。
Go 中的包让我们控制内部名字是否暴露给外部。就和之前说的那样,大写字母开头的会暴露给外部。
当一个 go 文件包名为 main, 那么就是告诉 go 编译程序,这是一个可执行程序,go 编译器就会尝试将它编译为一个二进制文件。
导入包需要用到 import
关键字。
import "fmt"
import "net/http"
Go 编译器会去 Go 的环境变量 GOROOT
和 GOPATH
中寻找导入的内容。关于这两个环境变量可以参考上一篇文章。
Go 也支持远程导入包,比如导入 github 上的包
import "github.com/xxx/xxx"
go get
工具可以递归获取依赖。
重命名导入的包
import (
"fmt"
myfmt "mylib/fmt"
)
每个包都可以包含多个 init
函数,每个 init 函数都会在 main 函数之前执行,init 函数通常用来做初始化变量,设置包等初始化工作。
作用域,不要和生命周期搞混,变量声明的作用域是编译期的概念,而变量的生命周期是运行时概念。
一个句法上的块 (block)指的是花括号包围的一组语句。
func f() {}
var g = "g"
func main() {
f := "f"
fmt.Println(f) // "f"; local var f shadows package-level func f
fmt.Println(g) // "g"; package-level var
fmt.Println(h) // compile error: undefined: h
}
Go 语言特性:
Go 语言在语言级别支持[[Coroutine|协程]],叫 [[Goroutine]]。Go 语言标准库提供的所有系统调用 (syscall) 操作,当然也包括所有同步 IO 操作,都会出让 CPU 给其他 goroutine
Go 语言推荐采用“Erlang 风格的并发模型”的编程范式来实现进程间通信。
要求 public 变量以大写字母开头,private 变量以小写字母开头。
花括号写法,还有错误处理,都有详细的规定。Go 语言也是至今为止学习的语言中,唯一一个将编码风格写入语言要求的。
对于 Go 的变量,推荐使用 ` 驼峰式 `
Go 语言标识命名规则:
包名要求小写。
Go 语言反对重载,反对继承,反对虚函数和虚函数重载,Go 提供了继承但是使用组合文法提供。
Go 语言是静态类型语言。
一些值得提前了解的语言特性
Go 语言引入 goroutine 概念,关键字 go, 可以让函数以 goroutine 协程方式执行。Go 语言使用 channel 来实现通信顺序进程(CSP,Communicating Sequential Process)模型,方便跨 goroutine 通信。
从 这里 下载,然后解压并添加环境变量
tar -C /usr/local -xzf go1.18.3.linux-amd64.tar.gz
export PATH=$PATH:/usr/local/go/bin
然后设置 GOPATH
环境变量
安装 C 相关工具
sudo apt-get install bison ed gawk gcc libc6-dev make
在 macOS 下安装:
brew install go
可以使用 go version
来验证是否安装成功。
在安装好的 Go 目录下,有几个重要的目录
/bin
,可执行文件,编译器,Go 语言相关工具/doc
,文档/lib
,文档模板/misc
,支持 Go 编辑器相关配置/os_arch
包含标准库包对象文件 .a
/src
,源代码/src/cmd
,Go 和 C 编译器和命令行脚本$GOROOT
表示该 go 的安装目录,值一般都是 /usr/local/
, 当然,也可以安装在别的地方$GOARCH
表示目标机器的处理器架构,它的值可以是 386、amd64 或 arm$GOOS
表示目标机器的操作系统,它的值可以是 arwin、freebsd、linux 或 windows$GOPATH
采用和 $GOROOT
一样的值,但从 Go 1.11 本开始,你必须修改为其它路径。它可以包含多个包含 Go 语言源码文件、包文件和可执行文件的路径,而这些路径下又必须分别包含三个规定的目录:src
、pkg
和 bin
, 这三个目录分别用于存放源码文件、包文件和可执行文件GOPATH 可以理解成工作目录,一般需要包括 3 个文件夹:
src
源文件,通过包名区分pkg
编译后的文件bin
可执行文件(go install),只需要将 $GOPATH/bin
加入环境变量就可以在操作系统任意位置执行创建一个 workspace,然后开始 hello world,在 workspace 下新建 src/hello
目录,在目录下创建文件 vim hello.go
package main
import "fmt"
func main() {
fmt.Printf("hello, world\n")
}
退出文件,在 hello 目录下执行 go build
,此时会生成一二可执行文件 hello,执行 ./hello
可以看到输出。
函数体定义
func 函数名(参数列表)(返回值列表) {
// 函数体
}
如果不进行编译,也可以直接 go run hello.go
来运行。
在 Go 语言中有四个关键字和定义类型相关,var
,const
,type
和 func
前两个和变量相关,第三个可以用来自定义类型,func
定义方法。
_
和其他强类型语言一样,Go 语言内置一些基础类型,比如 Strings,Numbers(int32,int64,float32,float64 等等),Booleans。这些类型本质上是原始类型。当对值进行增加或者删除市,会创建一个新值。当把这些值传递给方法时,会传递一个对应值的副本。
Go 语言中有下面几个引用类型:切片、映射、通道、接口和函数类型。当声明上述类型时,创建的变量被称为标头(header)值,每个引用类型创建的标头值是包含一个指向底层数据结构的指针。
header 中包含一个指针,通过复制来传递一个引用类型的值的副本。
结构类型用来描述一组数据值。
Go 语言有很多保留字
在 Go 语言中变量初始化和变量赋值是不同的概念。
常见的语法,比如:
var var2 = 10
var3 := 11
这里 :=
表示同时进行变量声明和初始化。出现在 :=
左侧的变量不应该是已经被声明过的。
*
, /
, %, ++, –逻辑运算符: &&, | , ! |
位运算符:&, | , ^, « , » , &^ |
赋值运算符:=, +=, -=, *=, %=, &=, | =, ^=, «=, »= |
<-
const PI = 3.14
我们对于一些事物的不理解或者畏惧,原因都在于这些事情所有意无意带有的绚丽外衣和神秘面纱。只要揭开这一层直达本质,就会发现一切其实都很简单。
在最开始了解到这个应用的时候,我无法简单地用一句话来形容这个应用,大部分人将它称为背单词软件,单词记忆应用,部分人有拿他作为知识管理应用,甚至有人拿他来学习乐谱,诗歌,但总之如果要用简单的话来描述这个软件,那么跨平台必定是关键词,另外一个关键词就是卡片,在另外一个就是循环记忆,那么至于卡片上承载什么样的内容,就完全由用户来决定了。
德国心理学家[[莱特纳]]在 1970 年出版了他一部重要的著作《How to learn to learn》,他在这本书中引用艾宾豪斯的遗忘曲线,发明了「莱特纳系统」,也就是「间隔式复习」的方法,让记忆达到最佳。
[[Anki]] 就是间隔式复习的一个实现方式。Anki 中通过模拟卡片的前后两面,通过内置的算法,间隔记忆卡片的内容,可以在卡片上写任何内容。
很长一段时间内我都无法很好的尝试使用 [[Anki]] 来进行记忆,烦恼我的一点理由就是 Anki 的卡片制作过程,我知道很多人都说学习记忆是在卡片制作过程中,但是我发现制作卡片花费的时间已经超过我使用纸张来记录的时间。所以很长一段时间内 Anki 就躺在我所有的设备上,虽然偶尔会打开一下,但是依然没有养成每天记忆的习惯,反而在其他背单词软件中坚持了下来。但是在使用线程的单词记忆软件的时候,我不时的会想起 Anki 来,也渐渐地发现线程的单词记忆软件有其自身的缺点,而这个缺点正是 Anki 可以弥补的(虽然可能需要花费一些时间来熟悉 Anki)。
比如使用通常的软件来背单词,优势在于这些软件可能事先已经准备好了单词集,发音,例句,讲解等等,然而在使用过程中就会发现这些东西始终是字面上的东西,即使记忆了和多遍,依然没有被录入到自己的脑袋里。反而有些时候,比如某一次到异国他乡遇到的一个单词,像烙印一样深深地印在脑子里,每一次想到这地方脑海里便会回忆起这个单词。丝毫没有可以去记忆,但潜意识中就已经将这个单词记忆下来了。所以这个时候我又想起了 Anki,对于想要记忆的东西,不妨用自己的语言描述放到 Anki 的背后,写一段故事也好,描述一个场景也好,自己写下来的东西,每次翻到的时候记忆总是要比别人准备好的东西要深刻。
另外一个使用 Anki 的误区便是,当你发现你在制作卡片时陷入了不间断的 Copy/Paste ,那么请立即停下来,就像 这里 说的那样,首先去理解你要记忆的东西,否则你会陷入无限的知识债务。这一点和做笔记的时候不停摘录而不去消化,买书屯书而不读是一样的,理解了才能真正成为你自己的东西。
end up accruing a lot of ‘knowledge debt’ that you’ll have to pay for down the line.
应该花费更多的时间来理解需要记忆的内容,而不是在制作卡片上。当对内容理解越深刻,那么以后 reviewing 或者 recalling 的时候花费的时间也会减少。
官方网站:
下载解压之后有 README,看其中说明,安装即可。
任何需要记忆的内容都可以使用 Anki 帮助进行,Anki 不感知内容,支持图像,音频,视频,甚至科学符号(LaTeX),比如你可以使用 Anki:
Anki 背后的理念:
官方文档已经非常细致,可以直接 阅读 ,这边只列举一些比较重要的内容。
apkg
文件卡片,Anki 的核心概念,正面问题,背面答案,或者正面单词,背面解释。
来自朗文的解释:a set of playing cards
,翻译为一组卡牌
朗文的解释:a short description that gives important details about a person, a group of people, or a place
,翻译为档案,介绍也都可以,在 Anki 的 File 菜单中,可以切换 Profile,不至于导入别人的卡牌之后弄乱自己的设置,或者自己在使用时也可以根据不同的场景定义不同的 Profile。
学习过程中,打开 Decks 可以看到一个 Overview,卡片的种类被分为三种类型:
进入到卡片学习,底部会有多个按钮,第一次学习的卡片会出现三个按钮:
再次学习一个卡片的时候,也就是 review 阶段时,有四个按钮
上面的按钮对应的快捷键是 1,2,3,4。
每一张卡片都会经历三个阶段:新卡片、学习中、结束。
官网那一定是最全的,包含各国语言
Add-ons
推荐几个(只适用于我目前使用的 2.1 版本,随着时间变化,下面的 id 可能失效):
[[AnkiConnect]]源码地址:https://github.com/FooSoft/anki-connect
这个插件将 Anki 的功能暴露一份 RESTful 接口,这样就可以用接口方式来操纵 Anki。安装开启该插件后会监听 8765,默认绑定 HTTP 服务到 127.0.0.1,只有本机可以访问该服务。如果想要其他网络访问,可以设置环境变量 ANKICONNECT_BIND_ADDRESS
为 0.0.0.0
。
可以从不同的来源将词添加到 Anki
2021 年更新
之前推荐的 Chrome to Anki 插件已经很久没有更新,所以又找到了 Saladict 这样一款插件,在设置中可以很方便地找到如何连接 Anki。
需要借助一款 Chrome 插件
和一个 Anki 插件
这两个插件都是开源 12 的,看官方的说明也很简单就略过了。
虽然目前一直在寻找方法能够间 GoldenDict 查词记录自动制作卡片到 Anki,但是目前尚未找到合适的方法,虽然有了解到可以使用 mdx-sever
共享一个 HTTP 服务,然后使用上面的方法自动制作,但感觉依然有些麻烦。Anki 上的卡片还是自己手动创建比较稳妥。
对于 Kindle 我很少将它连到电脑上做导出导入的事情,所以这个不准备弄了。
如果对于 Kindle 有重度依赖,并且希望使用 Anki 的方式来整理标注的话,可以试试 ankindle 这样一个插件,可以导出单词和标注,并且制作成 flashcard 用来记忆。
几个小小的 tips.
Add-ons
固然是非常有用,非常强大的,但是千万不要在上面花费过多的时间。在软件工程领域有句话,越早的优化可能带来灾难,get things done 要比优化重要的多。参考官方的 repo
需要注意的是目前这个 Anki Sync Server 只支持特定版本的客户端,需要到 GitHub 页面自己确认一下。
可以使用 这个 docker-compose :
version: "3"
services:
anki-sync-server:
container_name: anki-sync-server
image: kuklinistvan/anki-sync-server:latest
restart: always
ports:
- "27701:27701"
volumes:
- ./data:/app/data
sudo docker exec -it anki-sync-server /bin/sh
# help
/app/anki-sync-server/ankisyncctl.py --help
# add user
/app/anki-sync-server/ankisyncctl.py adduser username
input password
# list users
/app/anki-sync-server/ankisyncctl.py lsuser
# modify password
/app/anki-sync-server/ankisyncctl.py passwd username
菜单,工具,插件,安装插件 2124817646
:
http://1.2.3.4:27701
http://1.2.3.4:27701/msync/
在客户端,设置,高级设置,自定义同步服务器中设置。
ab 是针对 HTTP 服务进行性能压力测试的工具,它最初被设计用来测量 Apache 服务器的性能指标,主要用来测试 Apache 服务器每秒能够处理多少请求以及响应时间,但这个命令也可以用来测试通用的 HTTP 服务器性能,比如 Nginx,tomcat,resin 等等。
吞吐量是系统每秒钟处理的请求数量,可以通过 总请求数量 / 请求花费时间 来计算。
服务器平均请求等待时间指的是服务器平均处理一个请求花费的时间,公式是 总花费时间 / 请求数量,这个指标是吞吐量的倒数。(Time per request)
指的是某一时刻服务器同时接受的连接数。
sudo apt install apache2-utils
ab -c 10 -n 10000 -k -H "Accept-Encoding: gzip, deflate" http://localhost:8080/
解释
-c concurrency
并发数-n requests
一次测试的请求数量-k
表示 keep alive,保持连接-H headers
自定义 Header举例
ab -k -c 10 -n 100 https://www.einverne.info/
This is ApacheBench, Version 2.3 <$Revision: 1706008 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/
Benchmarking www.einverne.info (be patient).....done
Server Software: nginx
Server Hostname: www.einverne.info
Server Port: 443
SSL/TLS Protocol: TLSv1.2,ECDHE-RSA-AES128-GCM-SHA256,2048,128
Document Path: /
Document Length: 53802 bytes
Concurrency Level: 10
Time taken for tests: 1.125 seconds
Complete requests: 100
Failed requests: 0
Keep-Alive requests: 0
Total transferred: 5400681 bytes
HTML transferred: 5380200 bytes
Requests per second: 88.91 [#/sec] (mean)
Time per request: 112.470 [ms] (mean)
Time per request: 11.247 [ms] (mean, across all concurrent requests)
Transfer rate: 4689.35 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 5 48 35.3 44 163
Processing: 9 62 65.7 47 559
Waiting: 7 59 64.7 45 543
Total: 25 109 75.4 83 564
Percentage of the requests served within a certain time (ms)
50% 83
66% 111
75% 123
80% 128
90% 225
95% 275
98% 337
99% 564
100% 564 (longest request)
对于实际场景中经常需要用的登录问题,如果接口需要验证 Cookie ,那么使用 -C
写到 Cookie 内容
ab -n 100 -C key=value http://localhost
或者使用 -H
带 Cookie
自定义多个字段
ab -n 100 -H "Cookie: Key1=Value1; Key2=Value2" http://localhost
ab 只能测试简单的 RESTful 接口,只能应付简单的压测任务。如果需要更加专业的压测工具可以使用 jmeter。
这里的 Dash 可不是一加手机的快充技术,在使用 Youtube DL 的时候频繁的接触到 DASH 这个关键词,查了一下 DASH 是流媒体技术,全称是 Dynamic Adaptive Streaming over HTTP,自适应流媒体技术,通过 HTTP 服务传送流媒体,在 YouTube,Netflix,Hulu 等流媒体网站中被频繁应用,国内 Bilibili 也引入了该技术 1。
该技术的大致实现原理是在服务端将视频分片,每个分片都有自身的编码方式,甚至不同的分辨率,码率等等,而在客户端根据当前网速或者设备自行选择需要播放的分片,可以实现不同画质内容无缝切换。所以在 YouTube 切换画质时完全不会黑屏,更不会影响观看。更加具体的原理解释可以参考这里
另外几个值得一说的功能是
DASH 技术与编码器无关,可以使用 H.265, H.264, VP9 等等任何编码器进行编码。
DASH 音视频流标识文件被称为 Media Presentation Description,包含了一组结构化音频视频内容。
MP4Box 命令 可以对 MP4 文件进行合并,切割,提取等操作。更多可以参考官网
总而言之, MP4Box 命令可以实现如下:
MP4Box 可以用于将现成内容打包到 ISO 媒体文件,比如 MP4,3GP 等文件中。需要注意的是 MP4Box 命令并不会重新编码音频,视频,图片文件。将 DivX 文件转变为 MP4 文件:
MP4Box -add file.avi new_file.mp4
或者添加第二条音轨到上一条命令输出的文件
MP4Box -add audio2.mp3 new_file.mp4
MP4Box 可以从现存的容器中获取资源,可以使用 -info
来查看媒体资源
MP4Box -info file.avi
然后使用如下类似方法导入文件的音轨
MP4Box -add file.avi#audio new_file.mp4
MP4Box 可以用于准备各种协议的传输分发协议,主要是 HTTP 下载或者 RTP streaming。
To prepare a file for simple progressive HTTP download, the following instruction will interleave file data by chunks of 500 milliseconds in order to enable playback while downloading the file (HTTP FastStart):
MP4Box -inter 500 file.mp4
To prepare for RTP, the following instruction will create RTP hint tracks for the file. This enables classic streaming servers like DarwinStreamingServer or QuickTime Streaming Server to deliver the file through RTSP/RTP:
MP4Box -hint file.mp4
To prepare for adaptive streaming (MPEG-DASH), the following instruction will create the DASH manifest and associated files. For more information on DASH see this post:
MP4Box -dash 1000 file.mp4
查看 MP4Box dash 相关的帮助:
MP4Box -h dash
DASH Options:
-mpd m3u8 converts HLS manifest (local or remote http) to MPD
Note: not compatible with other DASH options (except -out and -tmp) and does not convert associated segments
-dash dur enables DASH-ing of the file(s) with a segment duration of DUR ms
Note: the duration of a fragment (subsegment) is set
using the -frag switch.
Note: for onDemand profile, sets duration of a subsegment
-dash-strict dur [DEPRECATED, will behave like -dash]
-dash-live[=F] dur generates a live DASH session using dur segment duration, optionally writing live context to F
MP4Box will run the live session until 'q' is pressed or a fatal error occurs.
-ddbg-live[=F] dur same as -dash-live without time regulation for debug purposes.
-frag time_in_ms Specifies a fragment duration of time_in_ms.
* Note: By default, this is the DASH duration
-out filename specifies output MPD file name.
-tmp dirname specifies directory for temporary file creation
* Note: Default temp dir is OS-dependent
-profile NAME specifies the target DASH profile: "onDemand",
"live", "main", "simple", "full",
"hbbtv1.5:live", "dashavc264:live", "dashavc264:onDemand"
* This will set default option values to ensure conformance to the desired profile
* Default profile is "full" in static mode, "live" in dynamic mode
-profile-ext STRING specifies a list of profile extensions, as used by DASH-IF and DVB.
The string will be colon-concatenated with the profile used
比如随便拿一个 mp4 文件:
MP4Box -dash 2000 -rap -profile dashavc264:onDemand input.mp4
解释:
-dash 2000
按照 1s 来切-rap
强制让分段从随机点开始-profile dashavc264:onDemand
可以查看 dash specifications 来查看更多 profile 相关的信息这个操作不会对视频文件进行重新编码,只是将视频进行切片,所以非常快。执行命令结束后会得到 .mpd
文件和 *_dashinit.mp4
两个额外的文件。生成的这两个文件放到 HTTP 服务器中就可以在支持 mdp 播放的播放器中播放。
https://www.bilibili.com/read/cv867888/ ↩