本節部分內容譯自博文 Решето Эратосфена 與其英文翻譯版 Sieve of Eratosthenes。其中俄文版版權協議為 Public Domain + Leave a Link;英文版版權協議為 CC-BY-SA 4.0。
素數篩法
如果我們想要知道小於等於 \(n\) 有多少個素數呢?
一個自然的想法是對於小於等於 \(n\) 的每個數進行一次質數檢驗。這種暴力的做法顯然不能達到最優複雜度。
埃拉託斯特尼篩法
考慮這樣一件事情:如果 \(x\) 是合數,那麼 \(x\) 的倍數也一定是合數。利用這個結論,我們可以避免很多次不必要的檢測。
如果我們從小到大考慮每個數,然後同時把當前這個數的所有(比自己大的)倍數記為合數,那麼執行結束的時候沒有被標記的數就是素數了。
int Eratosthenes(int n) {
int p = 0;
for (int i = 0; i <= n; ++i) is_prime[i] = 1;
is_prime[0] = is_prime[1] = 0;
for (int i = 2; i <= n; ++i) {
if (is_prime[i]) {
prime[p++] = i; // prime[p]是i,後置自增運算代表當前素數數量
if ((long long)i * i <= n)
for (int j = i * i; j <= n; j += i)
// 因為從 2 到 i - 1 的倍數我們之前篩過了,這裡直接從 i
// 的倍數開始,提高了執行速度
is_prime[j] = 0; // 是i的倍數的均不是素數
}
}
return p;
}
以上為 Eratosthenes 篩法(埃拉託斯特尼篩法,簡稱埃氏篩法),時間複雜度是 \(O(n\log\log n)\)。
怎麼證明這個複雜度呢?我們先列出複雜度的數學表示式。
發現數學表示式顯然就是素數的倒數和乘上 \(n\),即 \(n\sum_p {\frac{1}{p}}\)。
我們相當於要證明 \(\sum_p {\frac{1}{p}}\) 是 \(O(\log\log n)\) 的。我們考慮一個很巧妙的構造來證明這個式子是 \(O(\log\log n)\) 的:
證明:
注意到調和級數 \(\sum_n {\frac{1}{n}}=\ln n\)。
而又由唯一分解定理可得:\(\sum_n {\frac{1}{n}}=\prod_p {(1+\frac{1}{p}+\frac{1}{p^2}+\cdots)}=\prod_p {\frac{p}{p-1}}\)。
我們兩邊同時取 \(\ln\),得:
又發現 \(\int {\frac{1}{x}dx}=\ln x\),所以由微積分基本定理:
畫圖可以發現,\(\int_{p-1}^p {\frac{1}{x}dx}>\frac{1}{p}\),所以:
所以 \(\sum_p {\frac{1}{p}}\) 是 \(O(\log\log n)\) 的,所以 Eratosthenes 篩法 的複雜度是 \(O(n\log\log n)\) 的。
當然,上面的做法效率仍然不夠高效,應用下面幾種方法可以稍微提高演算法的執行效率。
篩至平方根
顯然,要找到直到 \(n\) 為止的所有素數,僅對不超過 \(\sqrt n\) 的素數進行篩選就足夠了。
vector<char> is_prime(n + 1, true);
is_prime[0] = is_prime[1] = false;
for (int i = 2; i * i <= n; i++) {
if (is_prime[i])
for (int j = i * i; j <= n; j += i)
is_prime[j] = false;
}
這種優化不會影響漸進時間複雜度,實際上重複以上證明,我們將得到 \(n \ln \ln \sqrt n + o(n)\),根據對數的性質,它們的漸進相同,但操作次數會明顯減少。
只篩奇數
因為除 2 以外的偶數都是合數,所以我們可以直接跳過它們,只用關心奇數就好。
首先,這樣做能讓我們記憶體需求減半;其次,所需的操作大約也減半。
減少記憶體的佔用
我們注意到篩法只需要 \(n\) 位元的記憶體。因此我們可以通過將變數宣告為布林型別,只申請 \(n\) 位元而不是 \(n\) 位元組的記憶體,來顯著的減少記憶體佔用。即僅佔用 \(\dfrac n 8\) 位元組的記憶體。
但是,這種稱為 位級壓縮 的方法會使這些位的操作複雜化。任何位上的讀寫操作都需要多次算術運算,最終會使演算法變慢。
因此,這種方法只有在 \(n\) 特別大,以至於我們不能再分配記憶體時才合理。在這種情況下,我們將犧牲效率,通過顯著降低演算法速度以節省記憶體(減小 8 倍)。
值得一提的是,存在自動執行位級壓縮的資料結構,如 C++ 中的 vector<bool>
和 bitset<>
。
分塊篩選
由優化“篩至平方根”可知,不需要一直保留整個 is_prime[1...n]
陣列。為了進行篩選,只保留到 \(\sqrt n\) 的素數就足夠了,即 prime[1...sqrt(n)]
。並將整個範圍分成塊,每個塊分別進行篩選。這樣,我們就不必同時在記憶體中保留多個塊,而且 CPU 可以更好地處理快取。
設 \(s\) 是一個常數,它決定了塊的大小,那麼我們就有了 \(\lceil {\frac n s} \rceil\) 個塊,而塊 \(k\)(\(k = 0 ... \lfloor {\frac n s} \rfloor\)) 包含了區間 \([ks; ks + s - 1]\) 中的數字。我們可以依次處理塊,也就是說,對於每個塊 \(k\),我們將遍歷所有質數(從 \(1\) 到 \(\sqrt n\))並使用它們進行篩選。
值得注意的是,我們在處理第一個數字時需要稍微修改一下策略:首先,應保留 \([1; \sqrt n]\) 中的所有的質數;第二,數字 \(0\) 和 \(1\) 應該標記為非素數。在處理最後一個塊時,不應該忘記最後一個數字 \(n\) 並不一定位於塊的末尾。
以下實現使用塊篩選來計算小於等於 \(n\) 的質數數量。
int count_primes(int n) {
const int S = 10000;
vector<int> primes;
int nsqrt = sqrt(n);
vector<char> is_prime(nsqrt + 1, true);
for (int i = 2; i <= nsqrt; i++) {
if (is_prime[i]) {
primes.push_back(i);
for (int j = i * i; j <= nsqrt; j += i) is_prime[j] = false;
}
}
int result = 0;
vector<char> block(S);
for (int k = 0; k * S <= n; k++) {
fill(block.begin(), block.end(), true);
int start = k * S;
for (int p : primes) {
int start_idx = (start + p - 1) / p;
int j = max(start_idx, p) * p - start;
for (; j < S; j += p) block[j] = false;
}
if (k == 0) block[0] = block[1] = false;
for (int i = 0; i < S && start + i <= n; i++) {
if (block[i]) result++;
}
}
return result;
}
分塊篩分的漸進時間複雜度與埃氏篩法是一樣的(除非塊非常小),但是所需的記憶體將縮小為 \(O(\sqrt{n} + S)\),並且有更好的快取結果。
另一方面,對於每一對塊和區間 \([1, \sqrt{n}]\) 中的素數都要進行除法,而對於較小的塊來說,這種情況要糟糕得多。
因此,在選擇常數 \(S\) 時要保持平衡。
塊大小 \(S\) 取 \(10^4\) 到 \(10^5\) 之間,可以獲得最佳的速度。
線性篩法
埃氏篩法仍有優化空間,它會將一個合數重複多次標記。有沒有什麼辦法省掉無意義的步驟呢?答案是肯定的。
如果能讓每個合數都只被標記一次,那麼時間複雜度就可以降到 \(O(n)\) 了。
void init() {
phi[1] = 1;
for (int i = 2; i < MAXN; ++i) {
if (!vis[i]) {
phi[i] = i - 1;
pri[cnt++] = i;
}
for (int j = 0; j < cnt; ++j) {
if (1ll * i * pri[j] >= MAXN) break;
vis[i * pri[j]] = 1;
if (i % pri[j]) {
phi[i * pri[j]] = phi[i] * (pri[j] - 1);
} else {
// i % pri[j] == 0
// 換言之,i 之前被 pri[j] 篩過了
// 由於 pri 裡面質數是從小到大的,所以 i 乘上其他的質數的結果一定也是
// pri[j] 的倍數 它們都被篩過了,就不需要再篩了,所以這裡直接 break
// 掉就好了
phi[i * pri[j]] = phi[i] * pri[j];
break;
}
}
}
}
上面程式碼中的 \(phi\) 陣列,會在下面提到。
上面的這種 線性篩法 也稱為 Euler 篩法(尤拉篩法)。
注意到篩法求素數的同時也得到了每個數的最小質因子
篩法求尤拉函式
注意到線上性篩中,每一個合數都是被最小的質因子篩掉。比如設 \(p_1\) 是 \(n\) 的最小質因子,\(n' = \frac{n}{p_1}\),那麼線性篩的過程中 \(n\) 通過 \(n' \times p_1\) 篩掉。
觀察線性篩的過程,我們還需要處理兩個部分,下面對 \(n' \bmod p_1\) 分情況討論。
如果 \(n' \bmod p_1 = 0\),那麼 \(n'\) 包含了 \(n\) 的所有質因子。
那如果 \(n' \bmod p_1 \neq 0\) 呢,這時 \(n'\) 和 \(p_1\) 是互質的,根據尤拉函式性質,我們有:
void phi_table(int n, int *phi) {
for (int i = 2; i <= n; i++) phi[i] = 0;
phi[1] = 1;
for (int i = 2; i <= n; i++)
if (!phi[i])
for (int j = i; j <= n; j += i) {
if (!phi[j]) phi[j] = j;
phi[j] = phi[j] / i * (i - 1);
}
}
篩法求莫比烏斯函式
線性篩
void pre() {
mu[1] = 1;
for (int i = 2; i <= 1e7; ++i) {
if (!v[i]) mu[i] = -1, p[++tot] = i;
for (int j = 1; j <= tot && i <= 1e7 / p[j]; ++j) {
v[i * p[j]] = 1;
if (i % p[j] == 0) {
mu[i * p[j]] = 0;
break;
}
mu[i * p[j]] = -mu[i];
}
}
}
篩法求約數個數
用 \(d_i\) 表示 \(i\) 的約數個數,\(num_i\) 表示 \(i\) 的最小質因子出現次數。
約數個數定理
定理:若 \(n=\prod_{i=1}^mp_i^{c_i}\) 則 \(d_i=\prod_{i=1}^mc_i+1\).
證明:我們知道 \(p_i^{c_i}\) 的約數有 \(p_i^0,p_i^1,\dots ,p_i^{c_i}\) 共 \(c_i+1\) 個,根據乘法原理,\(n\) 的約數個數就是 \(\prod_{i=1}^mc_i+1\).
實現
因為 \(d_i\) 是積性函式,所以可以使用線性篩。
void pre() {
d[1] = 1;
for (int i = 2; i <= n; ++i) {
if (!v[i]) v[i] = 1, p[++tot] = i, d[i] = 2, num[i] = 1;
for (int j = 1; j <= tot && i <= n / p[j]; ++j) {
v[p[j] * i] = 1;
if (i % p[j] == 0) {
num[i * p[j]] = num[i] + 1;
d[i * p[j]] = d[i] / num[i * p[j]] * (num[i * p[j]] + 1);
break;
} else {
num[i * p[j]] = 1;
d[i * p[j]] = d[i] * 2;
}
}
}
}
篩法求約數和
\(f_i\) 表示 \(i\) 的約數和,\(g_i\) 表示 \(i\) 的最小質因子的 \(p+p^1+p^2+\dots p^k\).
void pre() {
g[1] = f[1] = 1;
for (int i = 2; i <= n; ++i) {
if (!v[i]) v[i] = 1, p[++tot] = i, g[i] = i + 1, f[i] = i + 1;
for (int j = 1; j <= tot && i <= n / p[j]; ++j) {
v[p[j] * i] = 1;
if (i % p[j] == 0) {
g[i * p[j]] = g[i] * p[j] + 1;
f[i * p[j]] = f[i] / g[i] * g[i * p[j]];
break;
} else {
f[i * p[j]] = f[i] * f[p[j]];
g[i * p[j]] = 1 + p[j];
}
}
}
for (int i = 1; i <= n; ++i) f[i] = (f[i - 1] + f[i]) % Mod;
}
其他線性函式
待補