Files
wasmtime/cranelift/filetests/filetests/isa/s390x/icmp.clif
Chris Fallin a0318f36f0 Switch Cranelift over to regalloc2. (#3989)
This PR switches Cranelift over to the new register allocator, regalloc2.

See [this document](https://gist.github.com/cfallin/08553421a91f150254fe878f67301801)
for a summary of the design changes. This switchover has implications for
core VCode/MachInst types and the lowering pass.

Overall, this change brings improvements to both compile time and speed of
generated code (runtime), as reported in #3942:

```
Benchmark       Compilation (wallclock)     Execution (wallclock)
blake3-scalar   25% faster                  28% faster
blake3-simd     no diff                     no diff
meshoptimizer   19% faster                  17% faster
pulldown-cmark  17% faster                  no diff
bz2             15% faster                  no diff
SpiderMonkey,   21% faster                  2% faster
  fib(30)
clang.wasm      42% faster                  N/A
```
2022-04-14 10:28:21 -07:00

687 lines
11 KiB
Plaintext

test compile precise-output
target s390x
function %icmp_slt_i64(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = icmp.i64 slt v0, v1
return v2
}
; block0:
; cgr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_ext32(i64, i32) -> b1 {
block0(v0: i64, v1: i32):
v2 = sextend.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cgfr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_imm16(i64) -> b1 {
block0(v0: i64):
v1 = iconst.i64 1
v2 = icmp.i64 slt v0, v1
return v2
}
; block0:
; cghi %r2, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_imm32(i64) -> b1 {
block0(v0: i64):
v1 = iconst.i64 32768
v2 = icmp.i64 slt v0, v1
return v2
}
; block0:
; cgfi %r2, 32768
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_mem(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = load.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cg %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_sym(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = load.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cgrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_mem_ext16(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = sload16.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cgh %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_sym_ext16(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = sload16.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cghrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_mem_ext32(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = sload32.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cgf %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i64_sym_ext32(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = sload32.i64 v1
v3 = icmp.i64 slt v0, v2
return v3
}
; block0:
; cgfrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32(i32, i32) -> b1 {
block0(v0: i32, v1: i32):
v2 = icmp.i32 slt v0, v1
return v2
}
; block0:
; cr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_imm16(i32) -> b1 {
block0(v0: i32):
v1 = iconst.i32 1
v2 = icmp.i32 slt v0, v1
return v2
}
; block0:
; chi %r2, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_imm(i32) -> b1 {
block0(v0: i32):
v1 = iconst.i32 32768
v2 = icmp.i32 slt v0, v1
return v2
}
; block0:
; cfi %r2, 32768
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_mem(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = load.i32 v1
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; c %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_memoff(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = load.i32 v1+4096
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; cy %r2, 4096(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_sym(i32) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i32):
v1 = symbol_value.i64 gv0
v2 = load.i32 v1
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; crl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_mem_ext16(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = sload16.i32 v1
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; ch %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_memoff_ext16(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = sload16.i32 v1+4096
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; chy %r2, 4096(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i32_sym_ext16(i32) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i32):
v1 = symbol_value.i64 gv0
v2 = sload16.i32 v1
v3 = icmp.i32 slt v0, v2
return v3
}
; block0:
; chrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i16(i16, i16) -> b1 {
block0(v0: i16, v1: i16):
v2 = icmp.i16 slt v0, v1
return v2
}
; block0:
; lgr %r5, %r3
; lhr %r3, %r2
; lhr %r5, %r5
; cr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i16_imm(i16) -> b1 {
block0(v0: i16):
v1 = iconst.i16 1
v2 = icmp.i16 slt v0, v1
return v2
}
; block0:
; lhr %r5, %r2
; chi %r5, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i16_mem(i16, i64) -> b1 {
block0(v0: i16, v1: i64):
v2 = load.i16 v1
v3 = icmp.i16 slt v0, v2
return v3
}
; block0:
; lhr %r4, %r2
; ch %r4, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i16_sym(i16) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i16):
v1 = symbol_value.i64 gv0
v2 = load.i16 v1
v3 = icmp.i16 slt v0, v2
return v3
}
; block0:
; lhr %r5, %r2
; chrl %r5, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i8(i8, i8) -> b1 {
block0(v0: i8, v1: i8):
v2 = icmp.i8 slt v0, v1
return v2
}
; block0:
; lgr %r5, %r3
; lbr %r3, %r2
; lbr %r5, %r5
; cr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i8_imm(i8) -> b1 {
block0(v0: i8):
v1 = iconst.i8 1
v2 = icmp.i8 slt v0, v1
return v2
}
; block0:
; lbr %r5, %r2
; chi %r5, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_slt_i8_mem(i8, i64) -> b1 {
block0(v0: i8, v1: i64):
v2 = load.i8 v1
v3 = icmp.i8 slt v0, v2
return v3
}
; block0:
; lgr %r5, %r3
; lbr %r3, %r2
; lb %r5, 0(%r5)
; cr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = icmp.i64 ult v0, v1
return v2
}
; block0:
; clgr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_ext32(i64, i32) -> b1 {
block0(v0: i64, v1: i32):
v2 = uextend.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clgfr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_imm(i64) -> b1 {
block0(v0: i64):
v1 = iconst.i64 1
v2 = icmp.i64 ult v0, v1
return v2
}
; block0:
; clgfi %r2, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_mem(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = load.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clg %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_sym(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = load.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clgrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_mem_ext32(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = uload32.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clgf %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_sym_ext32(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = uload32.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clgfrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_mem_ext16(i64, i64) -> b1 {
block0(v0: i64, v1: i64):
v2 = uload16.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; llgh %r4, 0(%r3)
; clgr %r2, %r4
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i64_sym_ext16(i64) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i64):
v1 = symbol_value.i64 gv0
v2 = uload16.i64 v1
v3 = icmp.i64 ult v0, v2
return v3
}
; block0:
; clghrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32(i32, i32) -> b1 {
block0(v0: i32, v1: i32):
v2 = icmp.i32 ult v0, v1
return v2
}
; block0:
; clr %r2, %r3
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_imm(i32) -> b1 {
block0(v0: i32):
v1 = iconst.i32 1
v2 = icmp.i32 ult v0, v1
return v2
}
; block0:
; clfi %r2, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_mem(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = load.i32 v1
v3 = icmp.i32 ult v0, v2
return v3
}
; block0:
; cl %r2, 0(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_memoff(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = load.i32 v1+4096
v3 = icmp.i32 ult v0, v2
return v3
}
; block0:
; cly %r2, 4096(%r3)
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_sym(i32) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i32):
v1 = symbol_value.i64 gv0
v2 = load.i32 v1
v3 = icmp.i32 ult v0, v2
return v3
}
; block0:
; clrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_mem_ext16(i32, i64) -> b1 {
block0(v0: i32, v1: i64):
v2 = uload16.i32 v1
v3 = icmp.i32 ult v0, v2
return v3
}
; block0:
; llh %r4, 0(%r3)
; clr %r2, %r4
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i32_sym_ext16(i32) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i32):
v1 = symbol_value.i64 gv0
v2 = uload16.i32 v1
v3 = icmp.i32 ult v0, v2
return v3
}
; block0:
; clhrl %r2, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i16(i16, i16) -> b1 {
block0(v0: i16, v1: i16):
v2 = icmp.i16 ult v0, v1
return v2
}
; block0:
; lgr %r5, %r3
; llhr %r3, %r2
; llhr %r5, %r5
; clr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i16_imm(i16) -> b1 {
block0(v0: i16):
v1 = iconst.i16 1
v2 = icmp.i16 ult v0, v1
return v2
}
; block0:
; llhr %r5, %r2
; clfi %r5, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i16_mem(i16, i64) -> b1 {
block0(v0: i16, v1: i64):
v2 = load.i16 v1
v3 = icmp.i16 ult v0, v2
return v3
}
; block0:
; lgr %r5, %r3
; llhr %r3, %r2
; llh %r5, 0(%r5)
; clr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i16_mem(i16) -> b1 {
gv0 = symbol colocated %sym
block0(v0: i16):
v1 = symbol_value.i64 gv0
v2 = load.i16 v1
v3 = icmp.i16 ult v0, v2
return v3
}
; block0:
; llhr %r5, %r2
; clhrl %r5, %sym + 0
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i8(i8, i8) -> b1 {
block0(v0: i8, v1: i8):
v2 = icmp.i8 ult v0, v1
return v2
}
; block0:
; lgr %r5, %r3
; llcr %r3, %r2
; llcr %r5, %r5
; clr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i8_imm(i8) -> b1 {
block0(v0: i8):
v1 = iconst.i8 1
v2 = icmp.i8 ult v0, v1
return v2
}
; block0:
; llcr %r5, %r2
; clfi %r5, 1
; lhi %r2, 0
; lochil %r2, 1
; br %r14
function %icmp_ult_i8_mem(i8, i64) -> b1 {
block0(v0: i8, v1: i64):
v2 = load.i8 v1
v3 = icmp.i8 ult v0, v2
return v3
}
; block0:
; lgr %r5, %r3
; llcr %r3, %r2
; llc %r5, 0(%r5)
; clr %r3, %r5
; lhi %r2, 0
; lochil %r2, 1
; br %r14