1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
|
.file "snapshot.S"
.text
.p2align 4,,15
.globl _snapshot
_snapshot:
.LFB3:
movq %rax, _rax(%rip)
movq %rbx, _rbx(%rip)
movq %rcx, _rcx(%rip)
movq %rdx, _rdx(%rip)
movq %rdi, _rdi(%rip)
movq %rsi, _rsi(%rip)
movq %rbp, _rbp(%rip)
movq %rsp, _rsp(%rip)
movq %r8, _r8(%rip)
movq %r9, _r9(%rip)
movq %r10, _r10(%rip)
movq %r11, _r11(%rip)
movq %r12, _r12(%rip)
movq %r13, _r13(%rip)
movq %r14, _r14(%rip)
movq %r15, _r15(%rip)
movdqu %xmm0, _xmm_regs+0(%rip)
movdqu %xmm1, _xmm_regs+16(%rip)
movdqu %xmm2, _xmm_regs+32(%rip)
movdqu %xmm3, _xmm_regs+48(%rip)
movdqu %xmm4, _xmm_regs+64(%rip)
movdqu %xmm5, _xmm_regs+80(%rip)
movdqu %xmm6, _xmm_regs+96(%rip)
movdqu %xmm7, _xmm_regs+112(%rip)
movdqu %xmm8, _xmm_regs+128(%rip)
movdqu %xmm9, _xmm_regs+144(%rip)
movdqu %xmm10, _xmm_regs+160(%rip)
movdqu %xmm11, _xmm_regs+176(%rip)
movdqu %xmm12, _xmm_regs+192(%rip)
movdqu %xmm13, _xmm_regs+208(%rip)
movdqu %xmm14, _xmm_regs+224(%rip)
movdqu %xmm15, _xmm_regs+240(%rip)
jmp *_callthis(%rip)
.LFE3:
.p2align 4,,15
.globl _snapshot_ret
_snapshot_ret:
movq %rdi, _rdi(%rip)
subq $8, %rsp
call *_callthis(%rip)
addq $8, %rsp
movq %rax, _rax(%rip)
movq %rdx, _rdx(%rip)
movdqu %xmm0, _xmm_regs+0(%rip)
movdqu %xmm1, _xmm_regs+16(%rip)
fstpt _x87_regs(%rip)
fstpt _x87_regs+16(%rip)
fldt _x87_regs+16(%rip)
fldt _x87_regs(%rip)
ret
.comm _callthis,8
.comm _rax,8
.comm _rbx,8
.comm _rcx,8
.comm _rdx,8
.comm _rsi,8
.comm _rdi,8
.comm _rsp,8
.comm _rbp,8
.comm _r8,8
.comm _r9,8
.comm _r10,8
.comm _r11,8
.comm _r12,8
.comm _r13,8
.comm _r14,8
.comm _r15,8
.comm _xmm_regs,256
.comm _x87_regs,128
.comm _volatile_var,8
|