Dig101: dig more, simplified more and know more
string 这么简单,我想你也一直是这样想的,没关系,我也没打算把它搞复杂。
别着急,我们先从 string 的拼接操作 +
开始
如下代码, s2, s3, s4 具体执行时有啥不同
s1 := "x"
s2 := s1 + "y" + "x" + "z"
s3 := s1 + "y" + s1 + "z" + s1
s4 := s1 + "y" + s1 + "z" + s1 + "z"
println(s2, s3, s4)
乍一看都是字符串拼接感觉没啥不同,但是当我们用go tool compile -m
来打印编译优化时发现
字面量拼接会在编译时就合并到一起"y" + "x" + "z" => "xyz"
$ go tool compile -m plus.go
plus.go:21:6: can inline plus
plus.go:23:11: s1 + "yxz" does not escape
plus.go:24:28: s1 + "y" + s1 + "z" + s1 does not escape
plus.go:25:33: s1 + "y" + s1 + "z" + s1 + "z" does not escape
再使用-S
打印汇编调用 concat 相关
$ go tool compile -S plus.go|grep concat
0x0068 00104 (plus.go:20) CALL runtime.concatstring2(SB)
0x00eb 00235 (plus.go:21) CALL runtime.concatstring5(SB)
0x01e1 00481 (plus.go:22) CALL runtime.concatstrings(SB)
rel 105+4 t=8 runtime.concatstring2+0
rel 236+4 t=8 runtime.concatstring5+0
rel 482+4 t=8 runtime.concatstrings+0
发现这三个拼接调用了不同的 concatstring 方法
其实当string
相加是:
string
作为一个切片参数传入concatstring
相关函数
concatstring2-concatstring5
concatstrings
string
总长度小于 32, 则会初始化一个栈上的tmpBuf
,来避免堆上内存分配。具体代码调用点如下,感兴趣可以自行查看下
// cmd/compile/internal/gc/walk.go 中 addstr
// 调用 runtime/string.go 中 concatstrings
// tmpBuf 用来拼接处理过程中优化分配小字符串对象
const tmpStringBufSize = 32
type tmpBuf [tmpStringBufSize]byte
func concatstrings(buf *tmpBuf, a []string) string
func concatstring2(buf *tmpBuf, a [2]string) string
...
如果你查看过concatstrings
的内部调用,你会发现有切片的操作
func concatstrings(buf *tmpBuf, a []string) string
...
s, b := rawstringtmp(buf, l)
for _, x := range a {
copy(b, x)
b = b[len(x):]
}
...
}
//具体看内部 rawstring 方法,你能发现 b 从何而来
func rawstringtmp(buf *tmpBuf, l int) (s string, b []byte) {
if buf != nil && l <= len(buf) {
b = buf[:l]
s = slicebytetostringtmp(b)
} else {
s, b = rawstring(l)
}
return
}
type stringStruct struct {
str unsafe.Pointer
len int
}
func rawstring(size int) (s string, b []byte) {
p := mallocgc(uintptr(size), nil, false)
stringStructOf(&s).str = p
stringStructOf(&s).len = size
// 这里的 slice 有没有熟悉的感觉
*(*slice)(unsafe.Pointer(&b)) = slice{p, size, size}
return
}
重点就是*(*slice)(unsafe.Pointer(&b)) = slice{p, size, size}
所以 string 底层不过是cap
和len
一样的[]byte
罢了
s:="abc"
// 可以换底层数据
s="xyz"
// 不能直接修改底层数据
s[0]='b'
// Error: cannot assign to s[0]
那一般怎么改局部字符呢, 有两类利用[]byte
和[]rune
s := "abc 好"
// 1.替换 byte
bs := []byte(s)
bs[0] = 'x'
println(string(bs))
// 2.替换中文
rs := []rune(s)
rs[3] = '啊'
println(string(rs))
那么对于上边的转化,我们可以依次分析一下,会有一些有趣的地方
每个 rune 底层是int32
,是用来 utf8 字符表示的编码点( Unicode code point ),4 个 byte (uint8
)大小
转化前内部先开辟[]byte
, 再调用 func encoderune(p []byte, r rune)
判断r
底层的[]byte
大小, 依次实现拷贝写入。
这里如果你仔细查看encoderune
函数,
诸如 _ = p[1],_ = p[2] ...
其实是一种边界检查的优化:消除边界检查。 感兴趣的同学可以自行查看
直接基于[]byte
的首地址和长度构造string
结构体,并拷贝内容到数据指向
直接开辟[]rune
, 遍历string
为[]rune
赋值
因为 string 遍历等价于对[]rune(string)
的遍历
另外 string 不可修改,所以转换中不需要检测数据竞争( race detect )
直接开辟[]byte
, 利用copy([]byte, string)
拷贝
上边的转化方式都有拷贝,有一种不需要拷贝就可以将[]byte
转为string
出现在如下函数
// 有些编译器会对以下操作中的转 string 使用优化
// - m[T1{... Tn{..., string(k), ...} ...}] and m[string(k)]
// - "<"+string(b)+">"
// - string(b)=="foo"
func slicebytetostringtmp(b []byte) string {
...
return *(*string)(unsafe.Pointer(&b))
}
原理就是利用 string 底层是[]byte,所以直接做指针转换。
但是有注意点,转换后不能修改,否则 string 不可被修改的原则就被破坏了。属于特定使用场景了。
string
拼接类库strings.Builder 的 String
方法就利用这一点零拷贝优化转化速度
针对长(long: 256b)、短string
(short: 16b)在少量和大量拼接的 benchmark,代码见concat_benchmark
对于sprint
和sprintf
和strings.Join
压测代码都是提前构建好全部待拼接 string 列表
其他三个是遍历拼接
压测结果分析如下:
提前构造好参数情况下
sprint
和sprintf
差别不大strings.Join
效率最佳(其底层使用strings.Builder
这个我们后边对比时再讲)遍历拼接情况下
+
性能差距会越来越大strings.Builder
比 bytes.Buffer
快, 大量了就不行了可是官方宣称strings.Builder
在结果为 string 情况下效率更好啊。
仔细看我们发现strings.Builder
对应的每次操作 alloc 数比 buffer 的多很多,可能是内存分配过多影响了效率。查看压测代码,都是遍历前bf.Reset()
重置。
再看源码
// Reset resets the buffer to be empty,
// but it retains the underlying storage for use by future writes.
// Reset is the same as Truncate(0).
func (b *Buffer) Reset() {
b.buf = b.buf[:0]
b.off = 0
b.lastRead = opInvalid
}
// Reset resets the Builder to be empty.
func (b *Builder) Reset() {
b.addr = nil
b.buf = nil
}
原来Buffer
只是将大小设置为 0,没清空内容,而Builder
直接清空了内容
也对,Builder
利用了零拷贝优化转化 string 的效率,是不允许修改的。
这也是为啥其内部写操作之前会调用b.copyCheck()
去检测是否存在拷贝。
除此之外,其实Buffer
和Builder
还有优化的空间:就是减少内存分配次数
他们底层都使用了[]byte
,且都有Grow(size int)
方法,所以可以一次分配好大小,
避免多次内存不够去 reslice 扩容, 详见代码: concatIterWithGrowInit
如此优化后,benchmark 的数据能和官方说的对上了,Builder
变快了,而且他们每次操作的 alloc 次数都变成了 1.
好了,就到这里,希望我没把它搞复杂。
本文代码见 NewbMiao/Dig101-Go
欢迎关注公众号:newbmiao,获取及时更新文章。
推荐阅读:Dig101-Go 系列,挖一挖技术背后的故事。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.