-
Notifications
You must be signed in to change notification settings - Fork 2
/
bloombits.go
140 lines (120 loc) · 4.32 KB
/
bloombits.go
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
//<developer>
// <name>linapex 曹一峰</name>
// <email>linapex@163.com</email>
// <wx>superexc</wx>
// <qqgroup>128148617</qqgroup>
// <url>https://jsq.ink</url>
// <role>pku engineer</role>
// <date>2019-03-16 12:09:38</date>
//</624342633254227968>
package eth
import (
"context"
"time"
"github.com/ethereum/go-ethereum/common"
"github.com/ethereum/go-ethereum/common/bitutil"
"github.com/ethereum/go-ethereum/core"
"github.com/ethereum/go-ethereum/core/bloombits"
"github.com/ethereum/go-ethereum/core/rawdb"
"github.com/ethereum/go-ethereum/core/types"
"github.com/ethereum/go-ethereum/ethdb"
"github.com/ethereum/go-ethereum/params"
)
const (
//BloomServiceThreads是以太坊全局使用的Goroutine数。
//实例到服务BloomBits查找所有正在运行的筛选器。
bloomServiceThreads = 16
//BloomFilterThreads是每个筛选器本地使用的goroutine数,用于
//将请求多路传输到全局服务goroutine。
bloomFilterThreads = 3
//BloomRetrievalBatch是要服务的最大Bloom位检索数。
//一批。
bloomRetrievalBatch = 16
//BloomRetrievalWait是等待足够的Bloom位请求的最长时间。
//累积请求整个批(避免滞后)。
bloomRetrievalWait = time.Duration(0)
)
//StartBloomHandlers启动一批Goroutine以接受BloomBit数据库
//从可能的一系列过滤器中检索并为数据提供满足条件的服务。
func (eth *Ethereum) startBloomHandlers() {
for i := 0; i < bloomServiceThreads; i++ {
go func() {
for {
select {
case <-eth.shutdownChan:
return
case request := <-eth.bloomRequests:
task := <-request
task.Bitsets = make([][]byte, len(task.Sections))
for i, section := range task.Sections {
head := rawdb.ReadCanonicalHash(eth.chainDb, (section+1)*params.BloomBitsBlocks-1)
if compVector, err := rawdb.ReadBloomBits(eth.chainDb, task.Bit, section, head); err == nil {
if blob, err := bitutil.DecompressBytes(compVector, int(params.BloomBitsBlocks)/8); err == nil {
task.Bitsets[i] = blob
} else {
task.Error = err
}
} else {
task.Error = err
}
}
request <- task
}
}
}()
}
}
const (
//BloomConfirms是在Bloom部分
//considered probably final and its rotated bits are calculated.
bloomConfirms = 256
//BloomThrottling是处理两个连续索引之间的等待时间。
//部分。它在链升级期间很有用,可以防止磁盘过载。
bloomThrottling = 100 * time.Millisecond
)
//BloomIndexer实现core.chainIndexer,建立旋转的BloomBits索引
//对于以太坊头段Bloom过滤器,允许快速过滤。
type BloomIndexer struct {
size uint64 //要为其生成bloombits的节大小
db ethdb.Database //要将索引数据和元数据写入的数据库实例
gen *bloombits.Generator //发电机旋转盛开钻头,装入盛开指数
section uint64 //节是当前正在处理的节号
head common.Hash //head是最后处理的头的哈希值
}
//newbloomindexer返回一个链索引器,它为
//用于快速日志筛选的规范链。
func NewBloomIndexer(db ethdb.Database, size, confReq uint64) *core.ChainIndexer {
backend := &BloomIndexer{
db: db,
size: size,
}
table := ethdb.NewTable(db, string(rawdb.BloomBitsIndexPrefix))
return core.NewChainIndexer(db, table, backend, size, confReq, bloomThrottling, "bloombits")
}
//reset实现core.chainindexerbackend,启动新的bloombits索引
//部分。
func (b *BloomIndexer) Reset(ctx context.Context, section uint64, lastSectionHead common.Hash) error {
gen, err := bloombits.NewGenerator(uint(b.size))
b.gen, b.section, b.head = gen, section, common.Hash{}
return err
}
//进程实现了core.chainindexerbackend,将新头的bloom添加到
//索引。
func (b *BloomIndexer) Process(ctx context.Context, header *types.Header) error {
b.gen.AddBloom(uint(header.Number.Uint64()-b.section*b.size), header.Bloom)
b.head = header.Hash()
return nil
}
//commit实现core.chainindexerbackend,完成bloom部分和
//把它写进数据库。
func (b *BloomIndexer) Commit() error {
batch := b.db.NewBatch()
for i := 0; i < types.BloomBitLength; i++ {
bits, err := b.gen.Bitset(uint(i))
if err != nil {
return err
}
rawdb.WriteBloomBits(batch, uint(i), b.section, b.head, bitutil.CompressBytes(bits))
}
return batch.Write()
}