Files
wasmtime/cranelift/filetests/filetests/egraph/algebraic.clif
Karl Meakin 73cc433bdd cranelift: simplify icmp against UMAX/SMIN/SMAX (#6037)
* cranelift: simplify `icmp` against UMAX/SMIN/SMAX

* Add tests for icmp against numeric limits
2023-03-17 18:54:29 +00:00

637 lines
12 KiB
Plaintext

test optimize
set opt_level=speed
set use_egraphs=true
target x86_64
function %f0(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 2
v2 = imul v0, v1
; check: v5 = ishl v0, v4 ; v4 = 1
; check: return v5
return v2
}
function %f1() -> i64 {
block0:
v0 = iconst.i32 0xffff_ffff_9876_5432
v1 = uextend.i64 v0
return v1
; check: v2 = iconst.i64 0x9876_5432
; check: return v2 ; v2 = 0x9876_5432
}
function %unsigned_shift_right_shift_left_i8(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 5
v2 = ushr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i8 224
; check: v5 = band v0, v4
; check: return v5
}
function %unsigned_shift_right_shift_left_i32(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 5
v2 = ushr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i32 0xffff_ffe0
; check: v5 = band v0, v4
; check: return v5
}
function %unsigned_shift_right_shift_left_i64(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 5
v2 = ushr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i64 -32
; check: v5 = band v0, v4
; check: return v5
}
function %signed_shift_right_shift_left_i8(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 5
v2 = sshr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i8 224
; check: v5 = band v0, v4
; check: return v5
}
function %signed_shift_right_shift_left_i32(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 5
v2 = sshr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i32 0xffff_ffe0
; check: v5 = band v0, v4
; check: return v5
}
function %signed_shift_right_shift_left_i64(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 5
v2 = sshr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i64 -32
; check: v5 = band v0, v4
; check: return v5
}
function %signed_shift_right_shift_left_i8_mask_rhs(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 0xf5
v2 = sshr v0, v1
v3 = ishl v2, v1
return v3
; check: v4 = iconst.i8 224
; check: v5 = band v0, v4
; check: return v5
}
function %sextend_shift_32_64_unsigned(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 32
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: v7 = uextend.i64 v0
; check: return v7
}
function %sextend_shift_32_64_signed(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 32
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: return v2
}
function %sextend_undershift_32_64_unsigned(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 31
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: v5 = iconst.i64 0x0001_ffff_ffff
; check: v6 = band v2, v5
; check: return v6
}
function %sextend_undershift_32_64_signed(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 31
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: return v2
}
function %sextend_shift_8_64_unsigned(i8) -> i64 {
block0(v0: i8):
v1 = iconst.i8 56
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: v7 = uextend.i64 v0
; check: return v7
}
function %sextend_shift_8_64_signed(i8) -> i64 {
block0(v0: i8):
v1 = iconst.i8 56
v2 = sextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: return v2
}
function %uextend_shift_32_64_unsigned(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 32
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: return v2
}
function %uextend_shift_32_64_signed(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 32
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: v5 = sextend.i64 v0
; check: return v5
}
function %uextend_undershift_32_64_unsigned(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 31
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: return v2
}
function %uextend_undershift_32_64_signed(i32) -> i64 {
block0(v0: i32):
v1 = iconst.i8 31
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: return v2
}
function %uextend_shift_8_64_unsigned(i8) -> i64 {
block0(v0: i8):
v1 = iconst.i8 56
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = ushr v3, v1
return v4
; check: return v2
}
function %uextend_shift_8_64_signed(i8) -> i64 {
block0(v0: i8):
v1 = iconst.i8 56
v2 = uextend.i64 v0
v3 = ishl v2, v1
v4 = sshr v3, v1
return v4
; check: v5 = sextend.i64 v0
; check: return v5
}
function %double_ineg(i32) -> i32 {
block0(v0: i32):
v1 = ineg v0
v2 = ineg v1
return v2
; check: return v0
}
function %isub_self(i32) -> i32 {
block0(v0: i32):
v1 = isub v0, v0
return v1
; check: v2 = iconst.i32 0
; check: return v2
}
function %or_and_y_with_not_y_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = band v0, v1
v3 = bnot v1
v4 = bor v2, v3
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_constant_with_not_constant_i8(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 -4
v2 = band v0, v1
v3 = iconst.i8 3
v4 = bor v2, v3
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_y_with_not_y_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = band v0, v1
v3 = bnot v1
v4 = bor v3, v2
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_constant_with_not_constant_i8(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 -4
v2 = band v0, v1
v3 = iconst.i8 3
v4 = bor v3, v2
return v4
; check: v6 = bor v0, v3
; check: return v6
}
function %or_and_constant_with_any_constant_should_not_apply_rule_i8(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 -4
v2 = band v0, v1
;; `v3` is not `bnot(v1)` so the rewrite should not apply.
v3 = iconst.i8 -5
v4 = bor v2, v3
return v4
; check: return v4
}
function %or_and_y_with_not_y_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = band v0, v1
v3 = bnot v1
v4 = bor v2, v3
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_constant_with_not_constant_i64(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 -4
v2 = band v0, v1
v3 = iconst.i64 3
v4 = bor v2, v3
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_y_with_not_y_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = band v0, v1
v3 = bnot v1
v4 = bor v3, v2
return v4
; check: v5 = bor v0, v3
; check: return v5
}
function %or_and_constant_with_not_constant_i64(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 -4
v2 = band v0, v1
v3 = iconst.i64 3
v4 = bor v3, v2
return v4
; check: v6 = bor v0, v3
; check: return v6
}
function %or_and_constant_with_any_constant_should_not_apply_rule_i64(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 -4
v2 = band v0, v1
;; `v3` is not `bnot(v1)` so the rewrite should not apply.
v3 = iconst.i64 -5
v4 = bor v2, v3
return v4
; check: return v4
}
function %f2(i8) -> i8 {
block0(v1: i8):
v2 = icmp eq v1, v1
return v2
}
; check: v3 = iconst.i8 1
; check: return v3
function %f3(i8) -> i8 {
block0(v1: i8):
v2 = icmp ne v1, v1
return v2
}
; check: v3 = iconst.i8 0
; check: return v3
function %bnot1(i8) -> i8 {
block0(v1: i8):
v2 = iconst.i8 -1
v3 = bxor v1, v2
return v3
}
; check: v4 = bnot v1
; check: return v4
function %bnot2(i64) -> i64 {
block0(v1: i64):
v2 = iconst.i64 -1
v3 = bxor v1, v2
return v3
}
; check: v4 = bnot v1
; check: return v4
function %bnot3(i64) -> i64 {
block0(v1: i64):
v2 = iconst.i64 -1
v3 = bxor v2, v1
return v3
}
; check: v5 = bnot v1
; check: return v5
function %mask_icmp_result(i64, i64) -> i8 {
block0(v1: i64, v2: i64):
v3 = icmp ult v1, v2
v4 = iconst.i8 1
v5 = band v3, v4
return v5
}
; check: v3 = icmp ult v1, v2
; check: return v3
function %mask_icmp_extend_result(i64, i64) -> i64 {
block0(v1: i64, v2: i64):
v3 = icmp ult v1, v2
v4 = uextend.i64 v3
v5 = iconst.i64 1
v6 = band v4, v5
return v6
}
; check: v3 = icmp ult v1, v2
; check: v4 = uextend.i64 v3
; check: return v4
function %icmp_ult_0(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0
v2 = icmp ult v0, v1
return v2
; check: v3 = iconst.i8 0
; check: return v3
}
function %icmp_ule_0(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0
v2 = icmp ule v0, v1
return v2
; check: v3 = icmp eq v0, v1
; check: return v3
}
function %icmp_ugt_0(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0
v2 = icmp ugt v0, v1
return v2
; check: v3 = icmp ne v0, v1
; check: return v3
}
function %icmp_uge_0(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0
v2 = icmp uge v0, v1
return v2
; check: v3 = iconst.i8 1
; check: return v3
}
function %icmp_ult_umax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0xffff_ffff
v2 = icmp ult v0, v1
return v2
; check: v3 = icmp ne v0, v1
; check: return v3
}
function %icmp_ule_umax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0xffff_ffff
v2 = icmp ule v0, v1
return v2
; check: v3 = iconst.i8 1
; check: return v3
}
function %icmp_ugt_umax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0xffff_ffff
v2 = icmp ugt v0, v1
return v2
; check: v3 = iconst.i8 0
; check: return v3
}
function %icmp_uge_umax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0xffff_ffff
v2 = icmp uge v0, v1
return v2
; check: v3 = icmp eq v0, v1
; check: return v3
}
function %icmp_slt_smin(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x8000_0000
v2 = icmp slt v0, v1
return v2
; check: v3 = iconst.i8 0
; check: return v3
}
function %icmp_sle_smin(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x8000_0000
v2 = icmp sle v0, v1
return v2
; check: v3 = icmp eq v0, v1
; check: return v3
}
function %icmp_sgt_smin(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x8000_0000
v2 = icmp sgt v0, v1
return v2
; check: v3 = icmp ne v0, v1
; check: return v3
}
function %icmp_sge_smin(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x8000_0000
v2 = icmp sge v0, v1
return v2
; check: v3 = iconst.i8 1
; check: return v3
}
function %icmp_slt_smax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x7FFF_FFFF
v2 = icmp slt v0, v1
return v2
; check: v3 = icmp ne v0, v1
; check: return v3
}
function %icmp_sle_smax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x7FFF_FFFF
v2 = icmp sle v0, v1
return v2
; check: v3 = iconst.i8 1
; check: return v3
}
function %icmp_sgt_smax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x7FFF_FFFF
v2 = icmp sgt v0, v1
return v2
; check: v3 = iconst.i8 0
; check: return v3
}
function %icmp_sge_smax(i32) -> i8 {
block0(v0: i32):
v1 = iconst.i32 0x7FFF_FFFF
v2 = icmp sge v0, v1
return v2
; check: v3 = icmp eq v0, v1
; check: return v3
}
function %extend_always_above_zero(i32) -> i8 {
block0(v1: i32):
v2 = uextend.i64 v1
v3 = iconst.i64 0
v4 = icmp slt v2, v3
return v4
}
; check: v5 = iconst.i8 0
; check: return v5
function %extend_always_above_zero2(i32) -> i8 {
block0(v1: i32):
v2 = uextend.i64 v1
v3 = iconst.i64 0
v4 = icmp sge v2, v3
return v4
}
; check: v5 = iconst.i8 1
; check: return v5
function %double_uextend(i16) -> i64 {
block0(v1: i16):
v2 = uextend.i32 v1
v3 = uextend.i64 v2
return v3
}
; check: v4 = uextend.i64 v1
; check: return v4
function %double_sextend(i16) -> i64 {
block0(v1: i16):
v2 = sextend.i32 v1
v3 = sextend.i64 v2
return v3
}
; check: v4 = sextend.i64 v1
; check: return v4
function %double_fneg(f32) -> f32 {
block0(v1: f32):
v2 = fneg v1
v3 = fneg v2
return v3
}
; check: return v1
function %fma_double_fneg(f32, f32, f32) -> f32 {
block0(v1: f32, v2: f32, v3: f32):
v4 = fneg v1
v5 = fneg v2
v6 = fma v4, v5, v3
return v6
}
; check: v7 = fma v1, v2, v3
; check: return v7
function %fmul_double_fneg(f32, f32) -> f32 {
block0(v1: f32, v2: f32):
v3 = fneg v1
v4 = fneg v2
v5 = fmul v3, v4
return v5
}
; check: v6 = fmul v1, v2
; check: return v6