Cranelift: Make heap_addr return calculated base + index + offset (#5231)
* Cranelift: Make `heap_addr` return calculated `base + index + offset`
Rather than return just the `base + index`.
(Note: I've chosen to use the nomenclature "index" for the dynamic operand and
"offset" for the static immediate.)
This move the addition of the `offset` into `heap_addr`, instead of leaving it
for the subsequent memory operation, so that we can Spectre-guard the full
address, and not allow speculative execution to read the first 4GiB of memory.
Before this commit, we were effectively doing
load(spectre_guard(base + index) + offset)
Now we are effectively doing
load(spectre_guard(base + index + offset))
Finally, this also corrects `heap_addr`'s documented semantics to say that it
returns an address that will trap on access if `index + offset + access_size` is
out of bounds for the given heap, rather than saying that the `heap_addr` itself
will trap. This matches the implemented behavior for static memories, and after
https://github.com/bytecodealliance/wasmtime/pull/5190 lands (which is blocked
on this commit) will also match the implemented behavior for dynamic memories.
* Update heap_addr docs
* Factor out `offset + size` to a helper
This commit is contained in:
@@ -9,9 +9,9 @@ function %f0(i64 vmctx, i32) -> i32, i32, i32, i64, i64, i64 {
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap readonly aligned gv0+8
|
||||
heap0 = static gv1, bound 0x1_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 12, 0
|
||||
|
||||
;; Initial load. This will not be reused by anything below, even
|
||||
;; though it does access the same address.
|
||||
|
||||
@@ -9,9 +9,9 @@ function %f0(i64 vmctx, i32) -> i32, i32, i32, i32, i32, i32, i32, i32, i32, i32
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap readonly aligned gv0+8
|
||||
heap0 = static gv1, bound 0x1_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 12, 0
|
||||
|
||||
v3 = load.i32 v2+8
|
||||
v4 = load.i32 vmctx v0+16
|
||||
@@ -39,7 +39,7 @@ block0(v0: i64, v1: i32):
|
||||
v11 = atomic_load.i32 v0
|
||||
|
||||
v12 = load.i32 vmctx v0+16
|
||||
; check: v12 = load.i32 vmctx v0+16
|
||||
; check: v12 = load.i32 vmctx v0+16
|
||||
|
||||
return v3, v4, v5, v6, v7, v8, v9, v10, v11, v12
|
||||
}
|
||||
|
||||
@@ -11,7 +11,7 @@ function %f0(i64 vmctx, i32) -> i32 {
|
||||
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 12, 0
|
||||
v3 = load.i32 v2+8
|
||||
brz v2, block1
|
||||
jump block2
|
||||
|
||||
@@ -16,17 +16,17 @@ block0(v0: i64, v1: i32):
|
||||
jump block2
|
||||
|
||||
block1:
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 68, 0
|
||||
v3 = load.i32 v2+64
|
||||
jump block3(v3)
|
||||
|
||||
block2:
|
||||
v4 = heap_addr.i64 heap0, v1, 0
|
||||
v4 = heap_addr.i64 heap0, v1, 132, 0
|
||||
v5 = load.i32 v4+128
|
||||
jump block3(v5)
|
||||
|
||||
block3(v6: i32):
|
||||
v7 = heap_addr.i64 heap0, v1, 0
|
||||
v7 = heap_addr.i64 heap0, v1, 68, 0
|
||||
v8 = load.i32 v7+64
|
||||
;; load should survive:
|
||||
; check: v8 = load.i32 v7+64
|
||||
|
||||
@@ -13,13 +13,13 @@ function %f0(i64 vmctx, i32) -> i32, i32, i32, i32 {
|
||||
fn0 = %g(i64 vmctx)
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 12, 0
|
||||
v3 = load.i32 v2+8
|
||||
;; This should reuse the load above.
|
||||
v4 = heap_addr.i64 heap0, v1, 0
|
||||
v4 = heap_addr.i64 heap0, v1, 12, 0
|
||||
v5 = load.i32 v4+8
|
||||
; check: v5 -> v3
|
||||
|
||||
|
||||
call fn0(v0)
|
||||
|
||||
;; The second load is redundant wrt the first, but the call above
|
||||
@@ -27,7 +27,7 @@ block0(v0: i64, v1: i32):
|
||||
v6 = load.i32 v4+8
|
||||
v7 = load.i32 v4+8
|
||||
; check: v7 -> v6
|
||||
|
||||
|
||||
return v3, v5, v6, v7
|
||||
}
|
||||
|
||||
@@ -42,13 +42,13 @@ function %f1(i64 vmctx, i32) -> i32 {
|
||||
fn0 = %g(i64 vmctx)
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 12, 0
|
||||
store.i32 v1, v2+8
|
||||
|
||||
;; This load should pick up the store above.
|
||||
v3 = heap_addr.i64 heap0, v1, 0
|
||||
v3 = heap_addr.i64 heap0, v1, 12, 0
|
||||
v4 = load.i32 v3+8
|
||||
; check: v4 -> v1
|
||||
|
||||
|
||||
return v4
|
||||
}
|
||||
|
||||
@@ -9,7 +9,7 @@ function %dynamic_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -34,7 +34,7 @@ function %static_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -52,3 +52,59 @@ block0(v0: i64, v1: i32):
|
||||
; block2:
|
||||
; udf #0xc11f
|
||||
|
||||
|
||||
function %dynamic_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap aligned gv0
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; block0:
|
||||
; mov w11, w1
|
||||
; ldr x10, [x0]
|
||||
; movz x9, #24
|
||||
; adds x11, x11, x9
|
||||
; b.lo 8 ; udf
|
||||
; subs xzr, x11, x10
|
||||
; b.ls label1 ; b label2
|
||||
; block1:
|
||||
; add x13, x0, x1, UXTW
|
||||
; add x13, x13, #16
|
||||
; movz x12, #0
|
||||
; subs xzr, x11, x10
|
||||
; csel x0, x12, x13, hi
|
||||
; csdb
|
||||
; ret
|
||||
; block2:
|
||||
; udf #0xc11f
|
||||
|
||||
function %static_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; block0:
|
||||
; mov w9, w1
|
||||
; movz x10, #65512
|
||||
; subs xzr, x9, x10
|
||||
; b.ls label1 ; b label2
|
||||
; block1:
|
||||
; add x11, x0, x1, UXTW
|
||||
; add x11, x11, #16
|
||||
; movz x10, #65512
|
||||
; movz x12, #0
|
||||
; subs xzr, x9, x10
|
||||
; csel x0, x12, x11, hi
|
||||
; csdb
|
||||
; ret
|
||||
; block2:
|
||||
; udf #0xc11f
|
||||
|
||||
|
||||
@@ -8,7 +8,7 @@ function %dynamic_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -32,7 +32,7 @@ function %static_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -51,3 +51,59 @@ block0(v0: i64, v1: i32):
|
||||
; block2:
|
||||
; udf##trap_code=heap_oob
|
||||
|
||||
function %dynamic_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap aligned gv0
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; block0:
|
||||
; uext.w t1,a1
|
||||
; ld t0,0(a0)
|
||||
; li t3,24
|
||||
; add t2,t1,t3
|
||||
; ult a1,t2,t1##ty=i64
|
||||
; trap_if a1,heap_oob
|
||||
; ule a1,t2,t0##ty=i64
|
||||
; bne a1,zero,taken(label1),not_taken(label2)
|
||||
; block1:
|
||||
; add a0,a0,t1
|
||||
; addi a0,a0,16
|
||||
; ugt t1,t2,t0##ty=i64
|
||||
; li a1,0
|
||||
; selectif_spectre_guard a0,a1,a0##test=t1
|
||||
; ret
|
||||
; block2:
|
||||
; udf##trap_code=heap_oob
|
||||
|
||||
function %static_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; block0:
|
||||
; uext.w t3,a1
|
||||
; lui a7,16
|
||||
; addi a7,a7,4072
|
||||
; ule t0,t3,a7##ty=i64
|
||||
; bne t0,zero,taken(label1),not_taken(label2)
|
||||
; block1:
|
||||
; add t0,a0,t3
|
||||
; addi t0,t0,16
|
||||
; lui t4,16
|
||||
; addi t4,t4,4072
|
||||
; ugt t1,t3,t4##ty=i64
|
||||
; li a0,0
|
||||
; selectif_spectre_guard a0,a0,t0##test=t1
|
||||
; ret
|
||||
; block2:
|
||||
; udf##trap_code=heap_oob
|
||||
|
||||
|
||||
@@ -7,7 +7,7 @@ function %dynamic_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -32,7 +32,7 @@ function %static_heap_check(i64 vmctx, i32) -> i64 {
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 0
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -49,3 +49,56 @@ block0(v0: i64, v1: i32):
|
||||
; block2:
|
||||
; trap
|
||||
|
||||
function %dynamic_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap aligned gv0
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; stmg %r7, %r15, 56(%r15)
|
||||
; block0:
|
||||
; llgfr %r7, %r3
|
||||
; lg %r4, 0(%r2)
|
||||
; lghi %r5, 24
|
||||
; algfr %r5, %r3
|
||||
; jle 6 ; trap
|
||||
; clgr %r5, %r4
|
||||
; jgnh label1 ; jg label2
|
||||
; block1:
|
||||
; agrk %r3, %r2, %r7
|
||||
; aghik %r2, %r3, 16
|
||||
; lghi %r3, 0
|
||||
; clgr %r5, %r4
|
||||
; locgrh %r2, %r3
|
||||
; lmg %r7, %r15, 56(%r15)
|
||||
; br %r14
|
||||
; block2:
|
||||
; trap
|
||||
|
||||
function %static_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; block0:
|
||||
; llgfr %r5, %r3
|
||||
; clgfi %r5, 65512
|
||||
; jgnh label1 ; jg label2
|
||||
; block1:
|
||||
; agrk %r3, %r2, %r5
|
||||
; aghik %r2, %r3, 16
|
||||
; lghi %r3, 0
|
||||
; clgfi %r5, 65512
|
||||
; locgrh %r2, %r3
|
||||
; br %r14
|
||||
; block2:
|
||||
; trap
|
||||
|
||||
|
||||
@@ -12,7 +12,7 @@ function %f(i32, i64 vmctx) -> i64 {
|
||||
heap0 = dynamic gv1, bound gv2, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 0x8000
|
||||
v2 = heap_addr.i64 heap0, v0, 0x8000, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -20,14 +20,15 @@ block0(v0: i32, v1: i64):
|
||||
; movq %rsp, %rbp
|
||||
; block0:
|
||||
; movl %edi, %eax
|
||||
; movq 8(%rsi), %r9
|
||||
; movq %rax, %r10
|
||||
; addq %r10, $32768, %r10
|
||||
; movq 8(%rsi), %r10
|
||||
; movq %rax, %r11
|
||||
; addq %r11, $32768, %r11
|
||||
; jnb ; ud2 heap_oob ;
|
||||
; cmpq %r9, %r10
|
||||
; cmpq %r10, %r11
|
||||
; jbe label1; j label2
|
||||
; block1:
|
||||
; addq %rax, 0(%rsi), %rax
|
||||
; addq %rax, $32768, %rax
|
||||
; movq %rbp, %rsp
|
||||
; popq %rbp
|
||||
; ret
|
||||
@@ -43,7 +44,7 @@ function %f(i64 vmctx, i32) -> i64 system_v {
|
||||
heap0 = static gv1, bound 0x1000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v10 = heap_addr.i64 heap0, v1, 0
|
||||
v10 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v10
|
||||
}
|
||||
|
||||
@@ -70,7 +71,7 @@ function %f(i64 vmctx, i32) -> i64 system_v {
|
||||
heap0 = static gv1, bound 0x1_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v10 = heap_addr.i64 heap0, v1, 0
|
||||
v10 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v10
|
||||
}
|
||||
|
||||
|
||||
@@ -25,7 +25,7 @@ function %f(i32, i64 vmctx) -> i64 {
|
||||
heap0 = dynamic gv1, bound gv2, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 0x8000
|
||||
v2 = heap_addr.i64 heap0, v0, 0x8000, 0
|
||||
return v2
|
||||
}
|
||||
|
||||
@@ -33,16 +33,17 @@ block0(v0: i32, v1: i64):
|
||||
; movq %rsp, %rbp
|
||||
; block0:
|
||||
; movl %edi, %eax
|
||||
; movq 8(%rsi), %r11
|
||||
; movq 8(%rsi), %rdx
|
||||
; movq %rax, %rdi
|
||||
; addq %rdi, $32768, %rdi
|
||||
; jnb ; ud2 heap_oob ;
|
||||
; cmpq %r11, %rdi
|
||||
; cmpq %rdx, %rdi
|
||||
; jbe label1; j label2
|
||||
; block1:
|
||||
; addq %rax, 0(%rsi), %rax
|
||||
; addq %rax, $32768, %rax
|
||||
; xorq %rcx, %rcx, %rcx
|
||||
; cmpq %r11, %rdi
|
||||
; cmpq %rdx, %rdi
|
||||
; cmovnbeq %rcx, %rax, %rax
|
||||
; movq %rbp, %rsp
|
||||
; popq %rbp
|
||||
@@ -60,7 +61,7 @@ function %f(i64 vmctx, i32) -> i64 system_v {
|
||||
heap0 = static gv1, bound 0x1000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v10 = heap_addr.i64 heap0, v1, 0
|
||||
v10 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v10
|
||||
}
|
||||
|
||||
@@ -91,7 +92,7 @@ function %f(i64 vmctx, i32) -> i64 system_v {
|
||||
heap0 = static gv1, bound 0x1_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v10 = heap_addr.i64 heap0, v1, 0
|
||||
v10 = heap_addr.i64 heap0, v1, 0, 0
|
||||
return v10
|
||||
}
|
||||
|
||||
@@ -104,3 +105,66 @@ block0(v0: i64, v1: i32):
|
||||
; popq %rbp
|
||||
; ret
|
||||
|
||||
function %dynamic_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
gv1 = load.i64 notrap aligned gv0
|
||||
heap0 = dynamic gv0, bound gv1, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; pushq %rbp
|
||||
; movq %rsp, %rbp
|
||||
; block0:
|
||||
; movq %rdi, %rax
|
||||
; movl %esi, %edi
|
||||
; movq %rax, %rcx
|
||||
; movq 0(%rcx), %rsi
|
||||
; movq %rdi, %rdx
|
||||
; addq %rdx, $24, %rdx
|
||||
; jnb ; ud2 heap_oob ;
|
||||
; cmpq %rsi, %rdx
|
||||
; jbe label1; j label2
|
||||
; block1:
|
||||
; movq %rcx, %rax
|
||||
; addq %rax, %rdi, %rax
|
||||
; addq %rax, $16, %rax
|
||||
; xorq %rcx, %rcx, %rcx
|
||||
; cmpq %rsi, %rdx
|
||||
; cmovnbeq %rcx, %rax, %rax
|
||||
; movq %rbp, %rsp
|
||||
; popq %rbp
|
||||
; ret
|
||||
; block2:
|
||||
; ud2 heap_oob
|
||||
|
||||
function %static_heap_check_with_offset(i64 vmctx, i32) -> i64 {
|
||||
gv0 = vmctx
|
||||
heap0 = static gv0, bound 0x1_0000, offset_guard 0x1000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = heap_addr.i64 heap0, v1, 16, 8
|
||||
return v2
|
||||
}
|
||||
|
||||
; pushq %rbp
|
||||
; movq %rsp, %rbp
|
||||
; block0:
|
||||
; movl %esi, %r10d
|
||||
; cmpq $65512, %r10
|
||||
; jbe label1; j label2
|
||||
; block1:
|
||||
; movq %rdi, %rax
|
||||
; addq %rax, %r10, %rax
|
||||
; addq %rax, $16, %rax
|
||||
; xorq %r11, %r11, %r11
|
||||
; cmpq $65512, %r10
|
||||
; cmovnbeq %r11, %rax, %rax
|
||||
; movq %rbp, %rsp
|
||||
; popq %rbp
|
||||
; ret
|
||||
; block2:
|
||||
; ud2 heap_oob
|
||||
|
||||
|
||||
@@ -16,7 +16,7 @@ block0(v0: i32, v1: i64):
|
||||
|
||||
block1(v2: i32, v3: i64):
|
||||
v4 = iconst.i32 1
|
||||
v5 = heap_addr.i64 heap0, v4, 1
|
||||
v5 = heap_addr.i64 heap0, v4, 0, 4
|
||||
v6 = load.i32 notrap aligned readonly v5
|
||||
v7 = iadd v2, v6
|
||||
brz v2, block3(v2)
|
||||
@@ -37,7 +37,7 @@ block3(v9: i32):
|
||||
; nextln:
|
||||
; nextln: block0(v0: i32, v1: i64):
|
||||
; nextln: v4 = iconst.i32 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 0, 4
|
||||
; nextln: v6 = load.i32 notrap aligned readonly v5
|
||||
; nextln: jump block1(v0, v1)
|
||||
; nextln:
|
||||
|
||||
@@ -14,7 +14,7 @@ function %hoist_load(i32, i64 vmctx) -> i32 {
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v4 = iconst.i32 1
|
||||
v5 = heap_addr.i64 heap0, v4, 1
|
||||
v5 = heap_addr.i64 heap0, v4, 0, 4
|
||||
jump block1(v0, v1)
|
||||
|
||||
block1(v2: i32, v3: i64):
|
||||
@@ -32,25 +32,25 @@ block3(v9: i32):
|
||||
}
|
||||
|
||||
; sameln: function %hoist_load(i32, i64 vmctx) -> i32 fast {
|
||||
; nextln: gv0 = vmctx
|
||||
; nextln: gv1 = load.i64 notrap aligned readonly gv0
|
||||
; nextln: heap0 = static gv1, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
; nextln: gv0 = vmctx
|
||||
; nextln: gv1 = load.i64 notrap aligned readonly gv0
|
||||
; nextln: heap0 = static gv1, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
; nextln:
|
||||
; nextln: block0(v0: i32, v1: i64):
|
||||
; nextln: v4 = iconst.i32 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 1
|
||||
; nextln: jump block1(v0, v1)
|
||||
; nextln: v4 = iconst.i32 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 0, 4 ; v4 = 1
|
||||
; nextln: jump block1(v0, v1)
|
||||
; nextln:
|
||||
; nextln: block1(v2: i32, v3: i64):
|
||||
; nextln: v6 = load.i32 notrap aligned v5
|
||||
; nextln: v7 = iadd v2, v6
|
||||
; nextln: brz v2, block3(v2)
|
||||
; nextln: jump block2
|
||||
; nextln: v6 = load.i32 notrap aligned v5
|
||||
; nextln: v7 = iadd v2, v6
|
||||
; nextln: brz v2, block3(v2)
|
||||
; nextln: jump block2
|
||||
; nextln:
|
||||
; nextln: block2:
|
||||
; nextln: v8 = isub.i32 v2, v4
|
||||
; nextln: jump block1(v8, v3)
|
||||
; nextln: v8 = isub.i32 v2, v4 ; v4 = 1
|
||||
; nextln: jump block1(v8, v3)
|
||||
; nextln:
|
||||
; nextln: block3(v9: i32):
|
||||
; nextln: return v9
|
||||
; nextln: return v9
|
||||
; nextln: }
|
||||
|
||||
@@ -17,7 +17,7 @@ block0(v0: i32, v1: i64):
|
||||
|
||||
block1(v2: i32, v3: i64):
|
||||
v4 = iconst.i32 1
|
||||
v5 = heap_addr.i64 heap0, v4, 1
|
||||
v5 = heap_addr.i64 heap0, v4, 0, 4
|
||||
v6 = load.i32 aligned readonly v5
|
||||
v7 = iadd v2, v6
|
||||
brz v2, block3(v2)
|
||||
@@ -38,7 +38,7 @@ block3(v9: i32):
|
||||
; nextln:
|
||||
; nextln: block0(v0: i32, v1: i64):
|
||||
; nextln: v4 = iconst.i32 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 1
|
||||
; nextln: v5 = heap_addr.i64 heap0, v4, 0, 4
|
||||
; nextln: jump block1(v0, v1)
|
||||
; nextln:
|
||||
; nextln: block1(v2: i32, v3: i64):
|
||||
|
||||
@@ -60,8 +60,8 @@ function %sheap(i32, i64 vmctx) -> i64 {
|
||||
; check: heap1 = static gv5, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
; check: heap2 = static gv5, min 0, bound 0x0001_0000, offset_guard 4096
|
||||
block0(v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap1, v1, 0
|
||||
; check: v3 = heap_addr.i64 heap1, v1, 0
|
||||
v3 = heap_addr.i64 heap1, v1, 0, 0
|
||||
; check: v3 = heap_addr.i64 heap1, v1, 0, 0
|
||||
return v3
|
||||
}
|
||||
|
||||
@@ -76,7 +76,7 @@ function %dheap(i32, i64 vmctx) -> i64 {
|
||||
; check: heap1 = dynamic gv5, min 0x0001_0000, bound gv6, offset_guard 0x8000_0000
|
||||
; check: heap2 = dynamic gv5, min 0, bound gv6, offset_guard 4096
|
||||
block0(v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap2, v1, 0
|
||||
; check: v3 = heap_addr.i64 heap2, v1, 0
|
||||
v3 = heap_addr.i64 heap2, v1, 0, 0
|
||||
; check: v3 = heap_addr.i64 heap2, v1, 0, 0
|
||||
return v3
|
||||
}
|
||||
|
||||
@@ -11,7 +11,7 @@ function %fpromote_f32_f64(i64 vmctx, i64, f32) -> f64 {
|
||||
heap0 = static gv1, min 0x10, bound 0x10, offset_guard 0x0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: f32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.f32 v2, v3
|
||||
v4 = load.f32 v3
|
||||
v5 = fpromote.f64 v4
|
||||
@@ -31,7 +31,7 @@ function %fdemote_test(i64 vmctx, i64, f64) -> f32 {
|
||||
heap0 = static gv1, min 0x10, bound 0x10, offset_guard 0x0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: f64):
|
||||
v3 = heap_addr.i64 heap0, v1, 8
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 8
|
||||
store.f64 v2, v3
|
||||
v4 = load.f64 v3
|
||||
v5 = fdemote.f32 v4
|
||||
@@ -51,7 +51,7 @@ function %fvdemote_test(i64 vmctx, i64, f64x2) -> f32x4 {
|
||||
heap0 = static gv1, min 0x20, bound 0x20, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: f64x2):
|
||||
v3 = heap_addr.i64 heap0, v1, 16
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 16
|
||||
store.f64x2 v2, v3
|
||||
v4 = load.f64x2 v3
|
||||
v5 = fvdemote v4
|
||||
@@ -72,7 +72,7 @@ function %fvpromote_low_test(i64 vmctx, i64, f32x4) -> f64x2 {
|
||||
heap0 = static gv1, min 0x20, bound 0x20, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: f32x4):
|
||||
v3 = heap_addr.i64 heap0, v1, 16
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 16
|
||||
store.f32x4 v2, v3
|
||||
v4 = load.f32x4 v3
|
||||
v5 = fvpromote_low v4
|
||||
|
||||
@@ -12,7 +12,7 @@ function %store_load(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 0
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 0
|
||||
store.i32 v2, v3
|
||||
|
||||
v4 = global_value.i64 gv1
|
||||
|
||||
@@ -11,7 +11,7 @@ function %static_heap_i64(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -29,7 +29,7 @@ function %static_heap_i32(i64 vmctx, i32, i32) -> i32 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -47,7 +47,7 @@ function %heap_no_min(i64 vmctx, i32, i32) -> i32 {
|
||||
heap0 = static gv1, bound 0x1_0000_0000, offset_guard 0, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -66,7 +66,7 @@ function %dynamic_i64(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = dynamic gv1, bound gv2, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -85,7 +85,7 @@ function %dynamic_i32(i64 vmctx, i32, i32) -> i32 {
|
||||
heap0 = dynamic gv1, bound gv2, offset_guard 0, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -110,11 +110,11 @@ block0(v0: i64, v1: i32, v2: i32):
|
||||
v4 = iconst.i32 0
|
||||
|
||||
; Store lhs in heap0
|
||||
v5 = heap_addr.i64 heap0, v3, 4
|
||||
v5 = heap_addr.i64 heap0, v3, 0, 4
|
||||
store.i32 v1, v5
|
||||
|
||||
; Store rhs in heap1
|
||||
v6 = heap_addr.i64 heap1, v4, 4
|
||||
v6 = heap_addr.i64 heap1, v4, 0, 4
|
||||
store.i32 v2, v6
|
||||
|
||||
|
||||
@@ -146,11 +146,11 @@ block0(v0: i64, v1: i32, v2: i32):
|
||||
v4 = iconst.i64 0
|
||||
|
||||
; Store lhs in heap0
|
||||
v5 = heap_addr.i64 heap0, v3, 4
|
||||
v5 = heap_addr.i64 heap0, v3, 0, 4
|
||||
store.i32 v1, v5
|
||||
|
||||
; Store rhs in heap1
|
||||
v6 = heap_addr.i64 heap1, v4, 4
|
||||
v6 = heap_addr.i64 heap1, v4, 0, 4
|
||||
store.i32 v2, v6
|
||||
|
||||
|
||||
@@ -172,7 +172,7 @@ function %unaligned_access(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -196,7 +196,7 @@ function %iadd_imm(i64 vmctx, i32) -> i32 {
|
||||
|
||||
block0(v0: i64, v1: i32):
|
||||
v2 = iconst.i64 0
|
||||
v3 = heap_addr.i64 heap0, v2, 4
|
||||
v3 = heap_addr.i64 heap0, v2, 0, 4
|
||||
store.i32 v1, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
@@ -211,7 +211,7 @@ function %heap_limit_i64(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = static gv1, min 0, bound 0x8, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
store.i32 v2, v3
|
||||
v4 = load.i32 v3
|
||||
return v4
|
||||
|
||||
@@ -2,7 +2,7 @@ test run
|
||||
target x86_64
|
||||
target s390x
|
||||
target aarch64
|
||||
target riscv64
|
||||
target riscv64
|
||||
|
||||
|
||||
function %load_op_store_iadd_i64(i64 vmctx, i64, i64) -> i64 {
|
||||
@@ -11,7 +11,7 @@ function %load_op_store_iadd_i64(i64 vmctx, i64, i64) -> i64 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 8
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 8
|
||||
v4 = iconst.i64 42
|
||||
store.i64 v4, v3
|
||||
v5 = load.i64 v3
|
||||
@@ -30,7 +30,7 @@ function %load_op_store_iadd_i32(i64 vmctx, i64, i32) -> i32 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i32):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
v4 = iconst.i32 42
|
||||
store.i32 v4, v3
|
||||
v5 = load.i32 v3
|
||||
@@ -49,7 +49,7 @@ function %load_op_store_iadd_i8(i64 vmctx, i64, i8) -> i8 {
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i8):
|
||||
v3 = heap_addr.i64 heap0, v1, 4
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 4
|
||||
v4 = iconst.i8 42
|
||||
store.i8 v4, v3
|
||||
v5 = load.i8 v3
|
||||
@@ -68,7 +68,7 @@ function %load_op_store_iadd_isub_iand_ior_ixor_i64(i64 vmctx, i64, i64) -> i64
|
||||
heap0 = static gv1, min 0x1000, bound 0x1_0000_0000, offset_guard 0, index_type i64
|
||||
|
||||
block0(v0: i64, v1: i64, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 8
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 8
|
||||
store.i64 v2, v3
|
||||
v4 = load.i64 v3
|
||||
v5 = iconst.i64 1
|
||||
|
||||
@@ -128,7 +128,7 @@ block0(v0: i64, v1: i64, v2: i64, v3: i64):
|
||||
; v1 - heap offset (bytes)
|
||||
; v2 - table offset (elements)
|
||||
; v3 - store/load value
|
||||
v4 = heap_addr.i64 heap0, v1, 0
|
||||
v4 = heap_addr.i64 heap0, v1, 0, 0
|
||||
v5 = table_addr.i64 table0, v2, +2
|
||||
|
||||
; Store via heap, load via table
|
||||
|
||||
@@ -9,8 +9,8 @@ function %eliminate_redundant_global_loads(i32, i64 vmctx) {
|
||||
heap0 = static gv1, min 0x1_0000, bound 0x1_0000_0000, offset_guard 0x8000_0000, index_type i32
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v3 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = heap_addr.i64 heap0, v0, 0, 1
|
||||
|
||||
v4 = iconst.i32 0
|
||||
store.i32 notrap aligned v4, v2
|
||||
@@ -18,7 +18,7 @@ block0(v0: i32, v1: i64):
|
||||
|
||||
return
|
||||
}
|
||||
; check: v2 = heap_addr.i64 heap0, v0, 1
|
||||
; check: v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
; check: v3 -> v2
|
||||
; check: v4 = iconst.i32 0
|
||||
; check: store notrap aligned v4, v2
|
||||
|
||||
@@ -7,7 +7,7 @@ function u0:2(i64 , i64) {
|
||||
heap0 = static gv1
|
||||
block0(v0: i64, v1: i64):
|
||||
v16 = iconst.i32 6
|
||||
v17 = heap_addr.i64 heap0, v16, 1
|
||||
v17 = heap_addr.i64 heap0, v16, 0, 1
|
||||
v18 = load.i32 v17
|
||||
v19 = iconst.i32 4
|
||||
v20 = icmp ne v18, v19
|
||||
|
||||
@@ -40,6 +40,6 @@ function %heap_addr_index_type(i64 vmctx, i64) {
|
||||
heap0 = static gv0, offset_guard 0x1000, bound 0x1_0000, index_type i32
|
||||
|
||||
block0(v0: i64, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v1, 0; error: index type i64 differs from heap index type i32
|
||||
v2 = heap_addr.i64 heap0, v1, 0, 0; error: index type i64 differs from heap index type i32
|
||||
return
|
||||
}
|
||||
|
||||
@@ -11,7 +11,7 @@ function %f32_load(i32, i64 vmctx) -> f32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = load.f32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -21,7 +21,7 @@ function %f32_store(f32, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: f32, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
store v0, v3
|
||||
return
|
||||
}
|
||||
|
||||
@@ -11,7 +11,7 @@ function %f64_load(i32, i64 vmctx) -> f64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = load.f64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -21,7 +21,7 @@ function %f64_store(f64, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: f64, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
store v0, v3
|
||||
return
|
||||
}
|
||||
|
||||
@@ -11,7 +11,7 @@ function %i32_load(i32, i64 vmctx) -> i32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = load.i32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -21,7 +21,7 @@ function %i32_store(i32, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
store v0, v3
|
||||
return
|
||||
}
|
||||
@@ -31,7 +31,7 @@ function %i32_load8_s(i32, i64 vmctx) -> i32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = sload8.i32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -41,7 +41,7 @@ function %i32_load8_u(i32, i64 vmctx) -> i32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = uload8.i32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -51,7 +51,7 @@ function %i32_store8(i32, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
istore8 v0, v3
|
||||
return
|
||||
}
|
||||
@@ -61,7 +61,7 @@ function %i32_load16_s(i32, i64 vmctx) -> i32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = sload16.i32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -71,7 +71,7 @@ function %i32_load16_u(i32, i64 vmctx) -> i32 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = uload16.i32 v2
|
||||
return v3
|
||||
}
|
||||
@@ -81,8 +81,7 @@ function %i32_store16(i32, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
istore16 v0, v3
|
||||
return
|
||||
}
|
||||
|
||||
|
||||
@@ -11,7 +11,7 @@ function %i64_load(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = load.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -21,7 +21,7 @@ function %i64_store(i64, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
store v0, v3
|
||||
return
|
||||
}
|
||||
@@ -31,7 +31,7 @@ function %i64_load8_s(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = sload8.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -41,7 +41,7 @@ function %i64_load8_u(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = uload8.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -51,7 +51,7 @@ function %i64_store8(i64, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
istore8 v0, v3
|
||||
return
|
||||
}
|
||||
@@ -61,7 +61,7 @@ function %i64_load16_s(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = sload16.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -71,7 +71,7 @@ function %i64_load16_u(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = uload16.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -81,7 +81,7 @@ function %i64_store16(i64, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
istore16 v0, v3
|
||||
return
|
||||
}
|
||||
@@ -91,7 +91,7 @@ function %i64_load32_s(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = sload32.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -101,7 +101,7 @@ function %i64_load32_u(i32, i64 vmctx) -> i64 {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i32, v1: i64):
|
||||
v2 = heap_addr.i64 heap0, v0, 1
|
||||
v2 = heap_addr.i64 heap0, v0, 0, 1
|
||||
v3 = uload32.i64 v2
|
||||
return v3
|
||||
}
|
||||
@@ -111,7 +111,7 @@ function %i64_store32(i64, i32, i64 vmctx) {
|
||||
heap0 = static gv0, min 0x0001_0000, bound 0x0001_0000_0000, offset_guard 0x8000_0000
|
||||
|
||||
block0(v0: i64, v1: i32, v2: i64):
|
||||
v3 = heap_addr.i64 heap0, v1, 1
|
||||
v3 = heap_addr.i64 heap0, v1, 0, 1
|
||||
istore32 v0, v3
|
||||
return
|
||||
}
|
||||
|
||||
@@ -130,7 +130,10 @@ fn update_test(output: &[&str], context: &Context) -> Result<()> {
|
||||
// but after we hit a real line then we push all remaining lines.
|
||||
let mut in_next_function = false;
|
||||
for line in old_test {
|
||||
if !in_next_function && (line.trim().is_empty() || line.starts_with(";")) {
|
||||
if !in_next_function
|
||||
&& (line.trim().is_empty()
|
||||
|| (line.starts_with(";") && !line.starts_with(";;")))
|
||||
{
|
||||
continue;
|
||||
}
|
||||
in_next_function = true;
|
||||
|
||||
@@ -45,6 +45,7 @@ impl SubTest for TestLICM {
|
||||
.map_err(|e| crate::pretty_anyhow_error(&comp_ctx.func, Into::into(e)))?;
|
||||
|
||||
let text = comp_ctx.func.display().to_string();
|
||||
log::debug!("Post-LICM CLIF:\n{}", text);
|
||||
run_filecheck(&text, context)
|
||||
}
|
||||
}
|
||||
|
||||
Reference in New Issue
Block a user