如何从零开始可视化一首音乐?

16k 词

背景

最近换上了 ArchLinux,体验了众多美观的 TUI 应用。其中我认为最酷炫的当属 ncmpcpp 这个音乐播放器了。

日常办公时把它放在屏幕角落,就会感觉工作环境变得更有趣了。这也让我对它的实现产生了巨大的好奇心,于是我决定探索一下它是如何实现的。

本文将深入底层,从音频编码开始讲起,探究 wav 格式的音频文件是如何被解析的,然后再讲解如何通过傅立叶变换将音频信号转换为频谱图,最后再着手实现。

音频编码

声波

中学物理教过我们,声音是一种机械波,由物体振动产生,通过介质传播。当波通过介质传递到耳朵时,耳膜会随之振动,我们才能听到声音。

声波会引起麦克风(注:这里以动圈式麦克风为例)传感器中的振膜振动,振膜与被磁铁包围着住的线圈相连,根据法拉第定律和楞次定律,振膜振动会使磁场中线圈移动而产生感应电流。此时,只需要监测线圈两极的电压即可得到声音的波形图。机械振动就被转换为了电压信号。

我们现在得到的是连续的模拟信号,还需要将其转换成计算机可识别的离散的数字信号。

这时候,我们需要对信号进行模数转换(ADC)。AD 芯片每隔一段时间(几微秒)对波形图打点采样,得到每一个点的电压值,然后量化为二进制数,最后再进行编码,我们就得到了音频波形数据。

WAV 格式

和图像、视频一样,音频编码格式也主要分为两大类:有损压缩和无损压缩格式。

wav 就是一种典型的无损压缩格式,它是由微软和 IBM 共同开发的一种音频文件格式。它被称为“波形文件”,它也是相对好理解的一个音频格式。

一个完整的 wav 文件必须包含两个区块:Format ChunkData Chunk

下面是一个包含了以上两个 Chunk 的 WAV 文件的例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
 __________________________
| RIFF WAVE Chunk |
| groupID = 'RIFF' |
| riffType = 'WAVE' |
| __________________ |
| | Format Chunk | |
| | ckID = 'fmt ' | |
| |__________________| |
| __________________ |
| | Sound Data Chunk | |
| | ckID = 'data' | |
| |__________________| |
|__________________________|

Format Chunk 包含了重要的描述波形的参数:

  • 采样率(Sample Rate):每秒采样模拟信号的次数
  • 采样宽度(Sample Width):每个采样点的位数
  • 声道数量(Audio Channels)
  • 采样帧总数(Sample Frame)
  • 压缩方式(Compression Type)

Data Chunk 包含了实际的波形数据,这些数据由一连串的采样帧组成,按时间顺序排列。

一个采样点表示一次采样内声音的振幅值。采样点位数越高,可表示的值的范围就越大,音频的质量就越好,但是文件的大小也就越大。一个采样帧包含了一次采样的所有声道的采样点。比如,我有左右两个声道,每个声道有 16 位的采样点,那么一个采样帧就包含了 32 位的数据。

在 Python 中,我们可以使用 wave 模块来读取 wav 文件:

440hz_16bit_5s.wav:

1
2
3
4
5
import wave

with wave.open('440hz_16bit_5s.wav', 'rb') as f:
print(f.getparams())
print(f.readframes(20))

输出如下内容:

1
2
_wave_params(nchannels=1, sampwidth=2, framerate=44100, nframes=220500, comptype='NONE', compname='not compressed')
b'\x00\x00\x8d\x05\x13\x0b\x8e\x10\xf9\x15M\x1b\x87 \xa0%\x93*Z/\xf33W8\x82<p@\x1eD\x88G\xa9J\x7fM\x07P?R'

这段音频有一个声道,每个采样点占 2 byte,采样率为 44100,总共有 220500 个采样帧。220500 / 44100 = 5 秒。

后面读出的采样帧字符串是一段十六进制转义序列,我们可以使用 struct 模块来解析:

1
2
3
4
5
6
7
8
9
10
11
import wave
import struct

def read_wave(filename):
with wave.open(filename, 'rb') as f:
nframes = f.getnframes()
frames = f.readframes(nframes)
return struct.unpack(f'<{nframes}h', frames)

data = read_wave('440hz_16bit_5s.wav')
print(data[:10])

在这里我们解析了前 10 个采样帧,h 表示短整型,< 表示小端序。WAVE 文件采用小端序来存储数据。

输出如下:

1
(0, 1421, 2835, 4238, 5625, 6989, 8327, 9632, 10899, 12122)

我们发现这一段数字是逐渐增加的,很符合波形的特点。截取前 0.05 秒的波形,然后根据时间绘制波形图:

可以发现这是一个正弦波。横轴为时间,纵轴为振幅。由于这段音频的采样宽度为 16 位,所以振幅的范围是 [215,2151][-2^{15}, 2^{15}-1],即 [32768,32767][-32768, 32767]

到目前为止,我们已经成功地将音频文件解析为了波形数据,并且成功可视化出了声波振幅随时间变化的波形图。不过,我们想象中的 440Hz 的“可视化图像”应该是那种“只有一个峰”的频谱图,和一开始提到的 ncmpcpp 的效果是一样的。那如何将这种数据转化成频谱图呢?这里,我们需要用到傅立叶变换。

快速傅立叶变换(FFT)

傅立叶变换是一种将信号从时域转换到频域的方法,它可以将一个信号分解为一系列不同频率的正弦波。快速傅立叶变换(FFT)是一种计算傅立叶变换的高效算法。下面是快速傅立叶变换的 Python 实现:

1
2
3
4
5
6
7
8
9
def fft(x):
N = len(x)
if N <= 1:
return x
even = fft(x[0::2])
odd = fft(x[1::2])
T = [cmath.exp(-2j * math.pi * k / N) * odd[k] for k in range(N // 2)]
return [even[k] + T[k] for k in range(N // 2)] + \
[even[k] - T[k] for k in range(N // 2)]

它的输入是一系列采样点的振幅值,输出是一系列复数,表示不同频率的正弦波的振幅和相位。让我们把上面的 440Hz 的波形数据输入到这个函数中:

1
2
3
4
5
6
7
8
[
(503643+0j),
(-68801.16613674666+116234.4683635989j),
(-23890.51738479154+53037.36938852984j),
(-16335.061327176663+34280.395464007364j),
(-13741.719659027507+24979.846914594244j),
...
]

可视化频谱

我们将原始波形数据应用于 FFT,然后将得到的复数值转换为其模长,并进行归一化:

1
2
3
4
5
6
7
def scale_spectrum(spectrum_complex, max_value: int = 10):
'''将频谱复数转换为振幅,并归一化'''
spectrum = [abs(freq) for freq in spectrum_complex]
max_spectrum = max(max(spectrum), 1) # 防止除以 0
return [int(max_value * freq / max_spectrum) for freq in spectrum]

spectrum = scale_spectrum(fft(data[:512]))[:20]

输出:

1
[0, 0, 0, 0, 0, 9, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

是不是有感觉了?!我们采用了前 512 个采样帧的频谱数据,并将它们缩放到 0-10 的范围内,然后取前 20 个频率的振幅值。我们可以使用 curses 模块来绘制频谱图:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
import curses, time

def draw_spectrum(stdscr, spectrum):
stdscr.clear()
for i, freq in enumerate(spectrum):
stdscr.addstr(i, 0, f'{i}: {"#" * freq}')
stdscr.refresh()

# (这个 main 函数不是最终版本!)
def main(stdscr):
file_name = '440hz_16bit_5s.wav'
data, frame_rate = read_wav_file(file_name)

frame_size = 2048
hop_size = 512

for i in range(0, len(data) - frame_size, hop_size):
spectrum = scale_spectrum(fft(data[i:i + frame_size]))
draw_spectrum(stdscr, spectrum[:40])
time.sleep(0.05)

if __name__ == "__main__":
curses.wrapper(main)

这里,我们对音频数据进行了分帧处理,每帧 2048 个采样帧,帧移 512 个采样帧。然后我们计算每一帧的频谱,并绘制频谱图。我们可以看到频谱图随时间变化的效果。

现在还有一个小问题,就是这个频谱图的播放时间(约 8s) 远远高于了实际音乐的播放时间 5s。这是由于我们在每次渲染时,将睡眠时间固定为了 0.05s。没有考虑实际音乐的播放速度和一次循环所用到的采样帧占总采样帧的比例。并且,计算 FFT 和渲染频谱图也是会消耗时间的。

这也很好解决,为了使可视化跟上音乐的播放速度,我们需要知道音乐的总长度、每一个可视化帧应该的播放时间、可视化帧运算和渲染花费的时间,然后动态调整睡眠时间:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
def main(stdscr):
file_name = '440hz_16bit_5s.wav'
data, frame_rate = read_wav_file(file_name)

frame_size = 2048
hop_size = 1024

frame_duration = hop_size / frame_rate # 每帧的实际播放时间
total_duration = len(data) / frame_rate # 音频总时长

for i in range(0, len(data) - frame_size, hop_size):
start_time = time.time()
spectrum = scale_spectrum(fft(data[i:i + frame_size]))
draw_spectrum(stdscr, spectrum[:40], i / frame_rate, total_duration)
elapsed_time = time.time()
# 将可视化帧播放时间剪去运算渲染消耗的时间,来达到自适应。
time.sleep(max(0, frame_duration - (elapsed_time - start_time)))

接下来,我们来优化这个播放器。比如:不同振幅采用不同的颜色、把频谱图横过来、平滑可视化帧之间的振幅。让我们来进行优化

按照缩放振幅最大值的 0.2、0.4、0.6 倍分割成 4 段,分别采用淡蓝、白、绿、黄颜色区分。

初始化 curses 的颜色对:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
def init_colors():
global colors
curses.start_color()
curses.init_pair(1, curses.COLOR_CYAN, 1)
curses.init_pair(2, curses.COLOR_WHITE, 1)
curses.init_pair(3, curses.COLOR_GREEN, 1)
curses.init_pair(4, curses.COLOR_YELLOW, 1)
for i in range(MAX_VALUE+1):
if i / MAX_VALUE <= 0.2:
colors.append(1)
elif i / MAX_VALUE <= 0.4:
colors.append(2)
elif i / MAX_VALUE <= 0.6:
colors.append(3)
else:
colors.append(4)

渲染:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
def draw_spectrum(stdscr, spectrum, curr, total):
global colors
stdscr.clear()
max_y, max_x = stdscr.getmaxyx()
spectrum = spectrum[:max_x]
half_y = max_y // 2

# 水平展示频谱
for i, freq in enumerate(spectrum):
for j in range(freq):
stdscr.addstr(half_y - j, i, "█", curses.color_pair(colors[j]))
stdscr.addstr(half_y + j, i, "█", curses.color_pair(colors[j]))

stdscr.addstr(max_y - 1, 0, f'{curr:.2f} / {total:.2f} s', curses.color_pair(0))
stdscr.refresh()

然后,我们采用 EMA(移动指数平均)来实现平滑数据。

EMA 的计算公式为:

EMA(t)=(1α)EMA(t1)+αx(t)EMA(t) = (1 - \alpha) \cdot EMA(t-1) + \alpha \cdot x(t)

其中 α\alpha 为平滑系数,x(t)x(t) 为当前值,EMA(t1)EMA(t-1) 为上一次的平滑值。

我们只需要记录上一次的平滑后的频谱值,然后在每一帧的频谱值上应用 EMA 即可。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32

def main(stdscr):
init_colors()
file_name = 'haruhikage.wav'
data, frame_rate = read_wav_file(file_name)

frame_size = 4096
hop_size = 2048

frame_duration = hop_size / frame_rate # 每帧的实际播放时间
total_duration = len(data) / frame_rate # 音频总时长

audio_thread = threading.Thread(target=play_audio, args=(file_name,))
audio_thread.start()

previous_spectrum = None
ema_alpha = 0.5

for i in range(0, len(data) - frame_size, hop_size):
start_time = time.time()
spectrum = scale_spectrum(fft(data[i:i + frame_size]))

if previous_spectrum is not None:
# 应用 EMA
spectrum = [int((1 - ema_alpha) * prev + ema_alpha * curr) for prev, curr in zip(previous_spectrum, spectrum)]

draw_spectrum(stdscr, spectrum, i / frame_rate, total_duration)
previous_spectrum = spectrum
elapsed_time = time.time()
time.sleep(max(0, frame_duration - (elapsed_time - start_time)))

audio_thread.join()

挺像回事了hhh。最后,我们再对整个代码进行一轮优化。

  1. 第零,既然这是一个可以可视化音频的工具,为什么不能同时播放音乐呢?于是我用了 simpleaudio 模块,在子线程中同步播放音乐。

  2. 第一,上面的代码没有考虑窗口自适应,我们需要在每一次循环中都取一次窗口大小 max_xmax_y,当窗口发生变化时重新计算 colors 列表。

  3. 第二,现在的计算方式是一次性将 4096 个采样帧都进行 EMA 计算,实际我们只需要将窗口的 max_x 个采样帧进行 EMA 计算和存储即可。

  4. 第三,我通过和实际音乐播放的时间比对发现,整个渲染部分还是会有延迟(基本上每秒会有 0.003 秒的延迟),如果任由其累加,到了后面,实际的音频播放会和可视化频谱有很大的错位。我直接计算了实际播放时间和可视化帧时间的差,将其作为 delay,然后在 time.sleep() 时直接减去这个 delay,这样就能在单次帧渲染时把 delay 给消除。

  5. 第四,测试发现很多振幅低的频率在频谱图中几乎不可见,这是因为我们采用的是线性归一化,高振幅的频率会压缩低振幅的频率。我们可以换成平方根归一化,这样可以减少高低频率振幅的差距。

  6. 第五,我发现渲染帧率太高了,而帧之间的振幅变化又太快,导致频谱图看起来很闪烁。于是我设置了一个固定的帧率 fps 和频谱数据缓冲区,其大小为 frame_duration / (1/fps),频谱数据先放入缓冲区,当缓冲区满时全部取出,并求平均值,然后再进行 EMA 计算和渲染。

    后续发现其实调大 hop_size 就行。想复杂了 = =

优化后的完整代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
import wave
import struct
import math
import cmath
import curses
import time
import threading
import simpleaudio as sa

def read_wav_file(file_name):
with wave.open(file_name, 'rb') as wf:
num_channels = wf.getnchannels()
sample_width = wf.getsampwidth()
frame_rate = wf.getframerate()
num_frames = wf.getnframes()

raw_data = wf.readframes(num_frames)
total_samples = num_frames * num_channels
fmt = f"<{total_samples}h"

data = struct.unpack(fmt, raw_data)
data = [data[i] for i in range(0, len(data), num_channels)] # 只取一个声道

return data, frame_rate

def fft(x):
N = len(x)
if N <= 1:
return x
even = fft(x[0::2])
odd = fft(x[1::2])
T = [cmath.exp(-2j * math.pi * k / N) * odd[k] for k in range(N // 2)]
return [even[k] + T[k] for k in range(N // 2)] + \
[even[k] - T[k] for k in range(N // 2)]

def scale_spectrum(spectrum_complex, max_y):
'''将频谱复数转换为振幅,并归一化'''
max_y = int((max_y // 2) * 0.8)
spectrum = [abs(freq) for freq in spectrum_complex]
max_spectrum = max(max(spectrum), 1)
# return [int(max_y * freq / max_spectrum) for freq in spectrum]
return [int(max_y * math.sqrt(freq) / math.sqrt(max_spectrum)) for freq in spectrum]


def draw_spectrum(stdscr, spectrum: list[int], max_y: int):
global colors
stdscr.clear()
half_y = max_y // 2

for i, freq in enumerate(spectrum):
for j in range(freq):
stdscr.addstr(half_y - j, i, "█", curses.color_pair(colors[j]))
stdscr.addstr(half_y + j, i, "█", curses.color_pair(colors[j]))

def play_audio(file_name):
wave_obj = sa.WaveObject.from_wave_file(file_name)
play_obj = wave_obj.play()
play_obj.wait_done()

def init_colors():
curses.start_color()
curses.init_pair(1, curses.COLOR_CYAN, 1)
curses.init_pair(2, curses.COLOR_WHITE, 1)
curses.init_pair(3, curses.COLOR_GREEN, 1)
curses.init_pair(4, curses.COLOR_YELLOW, 1)

def adjust_colors(max_y):
global colors
max_y = max_y // 2
for i in range(max_y+1):
if i / max_y <= 0.2:
colors.append(1)
elif i / max_y <= 0.4:
colors.append(2)
elif i / max_y <= 0.6:
colors.append(3)
else:
colors.append(4)

def ema(alpha, prev, curr):
new = []
for i in range(len(curr)):
if i >= len(prev):
new.append(int(curr[i])) # 自适应窗口大小可能会导致 prev 长度小于 curr
else:
new.append(int((1 - alpha) * prev[i] + alpha * curr[i]))
return new

def main(stdscr):
init_colors()
file_name = 'haruhikage.wav'
frame_size = 2048
hop_size = 1024
ema_alpha = 0.4 # EMA 的 alpha
fps = 40

data, frame_rate = read_wav_file(file_name)
frame_duration = hop_size / frame_rate # 每帧的实际播放时间
total_duration = len(data) / frame_rate # 音频总时长

audio_thread = threading.Thread(target=play_audio, args=(file_name,))
audio_thread.start()
play_start_time = time.time()

previous_spectrum = None # 上一次的频谱
last_max_y, _ = stdscr.getmaxyx() # 上一次的窗口大小
adjust_colors(last_max_y)

cached_list = []
ideal_frame_time = 1 / fps
cached_size = max(ideal_frame_time // frame_duration, 1)

for i in range(0, len(data) - frame_size, hop_size):
start_time = time.time()

# 自适应窗口大小
max_y, max_x = stdscr.getmaxyx()
if max_y != last_max_y:
adjust_colors(max_y)
last_max_y = max_y

spectrum = scale_spectrum(fft(data[i:i + frame_size])[:max_x], max_y)

if len(cached_list) >= cached_size:
# 求平均
spectrum = [sum(x) // len(x) for x in zip(*cached_list)]
cached_list = []

# 应用 EMA
if previous_spectrum is not None:
spectrum = ema(ema_alpha, previous_spectrum, spectrum)
# 渲染频谱
draw_spectrum(stdscr, spectrum, max_y)

previous_spectrum = spectrum
else:
cached_list.append(spectrum)

elapsed_time = time.time()

_render_time = elapsed_time - start_time
_frame_time = i / frame_rate
_actual_frame_time = elapsed_time - play_start_time
_delay = _actual_frame_time - _frame_time
stdscr.addstr(max_y - 1, 0, f'({_actual_frame_time:.2f}s) {_frame_time:.2f} / {total_duration:.2f} s delay: {(_delay):.5f}s render: {_render_time:.5f}s frame: {frame_duration:.5f}s', curses.color_pair(0))
stdscr.refresh()

time.sleep(max(0, frame_duration - _render_time - _delay))

audio_thread.join()

if __name__ == "__main__":
colors = []
curses.wrapper(main)

我们用它来播放一下来自 CHYCHIC 的 haruhikage.wav

(该demo不是最终版本!下面还有两个优化!!)

相比于 ncmpcpp 的效果,还有很多地方需要优化,比如多声道支持、更平滑的频谱图。

(下面是 Update,已经更新了多声道支持)

更丝滑的频谱图

查阅了相关资料,突然发现我们可以设置两个 EMA Alpha,一个是当 prev_spectrum 小于 curr_spectrum 时的 alpha1,一个是当 prev_spectrum 大于 curr_spectrum 时的 alpha2。前者可以让频谱图更快地上升,后者可以让频谱图更慢地下降。这样就可以让频谱图更加丝滑了。

主函数:

1
2
3
4
5
6
7
8
9
10
11
def main(stdscr):
init_colors()
file_name = args.parse_args().file
frame_size = 2048
hop_size = 1600

# The EMA alpha. Means the weight of the **previous** spectrum.
ema_alpha_down = 0.93 # when previous value > current value
ema_alpha_up = 0.2 # when previous value <= current value

# ...

EMA 函数:

1
2
3
4
5
6
7
8
9
10
11
12
13
def ema(alpha_down: float, alpha_up: float, prev: list, curr: list):
'''Exponential Moving Average'''
new = []
for i in range(len(curr)):
if i >= len(prev):
# dynamically adjust the size of terminal window may cause the length of prev and curr to be different
new.append(int(curr[i]))
else:
if prev[i] > curr[i]:
new.append(int(alpha_down * prev[i] + (1 - alpha_down) * curr[i]))
else:
new.append(int(alpha_up * prev[i] + (1 - alpha_up) * curr[i]))
return new

效果如下:

可以发现,在鼓点来时,频谱图上升得很快,而在鼓点过后,频谱图下降得很慢。这样就显得更加丝滑!

更更丝滑的频谱图

在前面的实现中,我们默认绘图的字符是 “█”,然而,它在 unicode 中叫作 “Full block”。它还有 7 个兄弟:

1
blocks = ['▁', '▂', '▃', '▄', '▅', '▆', '▇', '█']

我们可以借此实现更加丝滑的频谱图。

首先,scale 的最大值可以直接乘以 len(blocks)

1
last_scale_max_val = int((max_y * len(blocks) // 2) * 0.8)

然后我们的振幅范围就在 [0, last_scale_max_val] 之间。

在绘图时,前 val // len(blocks) 个字符使用 Full Block,最后一个字符使用 blocks[val % len(blocks)]

我们稍加修改 draw_spectrum 函数:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
def draw_spectrum(stdscr, spectrum: list[list[int]], max_y: int):
global colors
stdscr.clear()
half_y = max_y // 2

for i, freq in enumerate(spectrum[0]):
full_1 = min(freq // len(blocks), len(colors))
full_2 = min(spectrum[1][i] // len(blocks), len(colors))
left_1 = freq % len(blocks)
left_2 = spectrum[1][i] % len(blocks)

# draw the full blocks
for j in range(full_1):
stdscr.addstr(half_y - j, i, blocks[-1], curses.color_pair(colors[j]))
if len(spectrum) == 1:
# if the audio file only has one channel, draw the same spectrum for the other channel
stdscr.addstr(half_y + j, i, blocks[-1], curses.color_pair(colors[j]))
continue
for j in range(full_2):
stdscr.addstr(half_y + j, i, blocks[-1], curses.color_pair(colors[j]))

# draw the left blocks
if left_1 > 0:
stdscr.addstr(half_y - full_1, i, blocks[left_1], curses.color_pair(colors[full_1-1]))
if len(spectrum) == 1:
stdscr.addstr(half_y + full_1, i, blocks[left_1], curses.color_pair(colors[full_1-1]))
if left_2 > 0:
stdscr.addstr(half_y + full_2, i, blocks[left_2], curses.color_pair(colors[full_2-1]))

OHHH! 看样子更加丝滑了!… 怎么下面的频谱图变得断断续续了?

因为我们的 blocks 使用的 unicode 字符的填充是从下往上的,因此就会导致在绘制下半部分频谱图时,末端使用的字符方向不对,导致 full block 和其他 block 之间有间隙。怎么解决呢?似乎 unicode 字符没有从上往下填充的字符。

一个好办法是创造一个 colors_reverse,其颜色配置和 colors 相反,比如 colors 中一个 color 的前景是淡蓝色,背景是黑色,那么 colors_reverse 中这个 color 的前景就是黑色,背景就是淡蓝色。然后我们在绘制频谱图时,将下半部分的频谱图字符颜色设置为 colors_reverse 中的某个。

1
2
3
4
5
6
7
8
9
10
11
12

def draw_spectrum(stdscr, spectrum: list[list[int]], max_y: int):
# ...
for i, freq in enumerate(spectrum[0]):
# ...
# draw the left blocks
if left_1 > 0:
stdscr.addstr(half_y - full_1, i, blocks[left_1], curses.color_pair(colors[full_1-1]))
if len(spectrum) == 1:
stdscr.addstr(half_y + full_1, i, blocks[left_1], curses.color_pair(colors_reverse[full_1-1]))
if left_2 > 0:
stdscr.addstr(half_y + full_2, i, blocks[left_2], curses.color_pair(colors_reverse[full_2-1]))

效果如下:

快赶上 ncmpcpp 的效果了!

后面有时间再继续优化喵。

附:直观理解傅立叶变换

上文讲到傅立叶变换的基本思想是将一个信号分解为一系列正弦波的叠加。

拿方波举个例子,下图是一个 5Hz 的方波和一个 5Hz 的正弦波

是不是差距蛮大的?那如果我们将 2 个正弦波叠加在一起呢?

我们会发现,更像方波了。随着我们叠加的正弦波越来越多,我们的波形就会越来越接近方波。

我们日常听的音乐就是由大量不同频率的正弦波叠加而成的,而傅立叶变换就能够将其分解为一系列不同频率的波。

为了直观理解傅立叶变换,我参考了 @3b1b 的视频 里的方法。

还是以 5Hz 的正弦波为例。

440hz_16bit_5s.wav:

我们在复平面上从实数轴正半轴开始逆时针转动一个向量:在任意时刻下,向量的模长等于正弦波的振幅,向量的移动速度设置为 1 Hz,以此绘制得到一个图:

它的质心用红点标了出来。

当向量的移动速度设置为 4.2 Hz 时:

当向量的移动速度设置为 4.3 Hz 时:

当向量的移动速度设置为 5 Hz 时:

有没有发现什么?我们绘制出质心与原点的距离随向量的移动速度变化的图(我们称为“缠绕图像”):

在接近 5 Hz 时,值最大!!

同样,我们将 5Hz + 15Hz 的正弦波叠加在一起,再次绘制这个图:

极大值点同样出现在 5Hz 和 15Hz 处。

发生了什么?让我们从公式的角度出发,来解释这个现象。

由欧拉公式,我们知道,一个圆周运动可以表示为:

e2πifte^{2\pi i f t}

其中 ff 为频率,tt 为时间。

上述像花一样的缠绕图像可以表示为:

g(t)e2πitg(t) e^{2\pi i t}

其中,g(t) 为正弦函数:$ g(t) = \sin(2\pi 5 t) $,也就是一个振幅随时间变化的方程。

我们需要描述的是其质心在复平面上的坐标的模随时间变化的方程。因此随机取 NN 个时间点,计算其质心的坐标,然后取其模长的平均值。

1Nn=1Ng(tn)e2πitn\frac{1}{N} \sum_{n=1}^{N} |g(t_n) e^{2\pi i t_n}|

类似这样,我们对函数作积分,就得到了傅立叶变换:

t1t2g(t)e2πitdt\int_{t_1}^{t_2} |g(t) e^{2\pi i t}| dt

其值表示的是在 t1t_1t2t_2 时刻下,频率为 ff 的声波的相对振幅。如果某一个频率的波的强度很大,那么值也会越大。

看文字不如直接看 @3b1b 的视频

总结

本文介绍了 wav 的编码结构和傅立叶变换在音频可视化中的应用,并手搓了一个 TUI 的支持频谱可视化的音频播放器。最后,我们通过直观的方式理解了傅立叶变换的基本原理。

代码开源在了 GitHub,可以去玩玩。

参考文献

[1] WAVE File Format. https://web.archive.org/web/20140221054954/http://home.roadrunner.com/~jgglatt/tech/wave.htm

[2] But what is the Fourier Transform? A visual introduction. https://www.youtube.com/watch?v=spUNpyF58BY

[3] 为什么要进行傅立叶变换. https://ibillxia.github.io/blog/2013/04/04/why-do-Fourier-transformation/

留言