x64: Take SIGFPE signals for divide traps (#6026)

* x64: Take SIGFPE signals for divide traps

Prior to this commit Wasmtime would configure `avoid_div_traps=true`
unconditionally for Cranelift. This, for the division-based
instructions, would change emitted code to explicitly trap on trap
conditions instead of letting the `div` x86 instruction trap.

There's no specific reason for Wasmtime, however, to specifically avoid
traps in the `div` instruction. This means that the extra generated
branches on x86 aren't necessary since the `div` and `idiv` instructions
already trap for similar conditions as wasm requires.

This commit instead disables the `avoid_div_traps` setting for
Wasmtime's usage of Cranelift. Subsequently the codegen rules were
updated slightly:

* When `avoid_div_traps=true`, traps are no longer emitted for `div`
  instructions.
* The `udiv`/`urem` instructions now list their trap as divide-by-zero
  instead of integer overflow.
* The lowering for `sdiv` was updated to still explicitly check for zero
  but the integer overflow case is deferred to the instruction itself.
* The lowering of `srem` no longer checks for zero and the listed trap
  for the `div` instruction is a divide-by-zero.

This means that the codegen for `udiv` and `urem` no longer have any
branches. The codegen for `sdiv` removes one branch but keeps the
zero-check to differentiate the two kinds of traps. The codegen for
`srem` removes one branch but keeps the -1 check since the semantics of
`srem` mismatch with the semantics of `idiv` with a -1 divisor
(specifically for INT_MIN).

This is unlikely to have really all that much of a speedup but was
something I noticed during #6008 which seemed like it'd be good to clean
up. Plus Wasmtime's signal handling was already set up to catch
`SIGFPE`, it was just never firing.

* Remove the `avoid_div_traps` cranelift setting

With no known users currently removing this should be possible and helps
simplify the x64 backend.

* x64: GC more support for avoid_div_traps

Remove the `validate_sdiv_divisor*` pseudo-instructions and clean up
some of the ISLE rules now that `div` is allowed to itself trap
unconditionally.

* x64: Store div trap code in instruction itself

* Keep divisors in registers, not in memory

Don't accidentally fold multiple traps together

* Handle EXC_ARITHMETIC on macos

* Update emit tests

* Update winch and tests
This commit is contained in:
Alex Crichton
2023-03-15 19:18:45 -05:00
committed by GitHub
parent 5ff2824ebb
commit 5ae8575296
72 changed files with 505 additions and 2624 deletions

View File

@@ -1,727 +0,0 @@
test compile precise-output
set avoid_div_traps=1
target s390x
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
;; SDIV
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
function %sdiv_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = sdiv.i64 v0, v1
return v2
}
; VCode:
; block0:
; cgite %r3, 0
; llihf %r4, 2147483647
; iilf %r4, 4294967295
; xgr %r4, %r2
; lgr %r5, %r2
; ngr %r4, %r3
; lgr %r2, %r3
; cgite %r4, -1
; lgr %r4, %r2
; lgr %r3, %r5
; dsgr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; cgite %r3, 0 ; trap: int_divz
; llihf %r4, 0x7fffffff
; iilf %r4, 0xffffffff
; xgr %r4, %r2
; lgr %r5, %r2
; ngr %r4, %r3
; lgr %r2, %r3
; cgite %r4, -1 ; trap: int_ovf
; lgr %r4, %r2
; lgr %r3, %r5
; dsgr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 2
v2 = sdiv.i64 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r3, %r2
; lghi %r4, 2
; dsgr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r3, %r2
; lghi %r4, 2
; dsgr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i32(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = sdiv.i32 v0, v1
return v2
}
; VCode:
; stmg %r7, %r15, 56(%r15)
; block0:
; lgfr %r5, %r2
; lgr %r7, %r5
; cite %r3, 0
; iilf %r5, 2147483647
; lgr %r4, %r7
; xrk %r2, %r5, %r4
; nrk %r4, %r2, %r3
; lgr %r5, %r3
; cite %r4, -1
; lgr %r3, %r7
; dsgfr %r2, %r5
; lgr %r2, %r3
; lmg %r7, %r15, 56(%r15)
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; stmg %r7, %r15, 0x38(%r15)
; block1: ; offset 0x6
; lgfr %r5, %r2
; lgr %r7, %r5
; cite %r3, 0 ; trap: int_divz
; iilf %r5, 0x7fffffff
; lgr %r4, %r7
; xrk %r2, %r5, %r4
; nrk %r4, %r2, %r3
; lgr %r5, %r3
; cite %r4, -1 ; trap: int_ovf
; lgr %r3, %r7
; dsgfr %r2, %r5 ; trap: int_divz
; lgr %r2, %r3
; lmg %r7, %r15, 0x38(%r15)
; br %r14
function %sdiv_i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 2
v2 = sdiv.i32 v0, v1
return v2
}
; VCode:
; block0:
; lgfr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgfr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i16(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = sdiv.i16 v0, v1
return v2
}
; VCode:
; block0:
; lghr %r5, %r2
; lhr %r4, %r3
; cite %r4, 0
; lhi %r2, 32767
; lgr %r3, %r5
; xrk %r5, %r2, %r3
; nrk %r2, %r5, %r4
; cite %r2, -1
; dsgfr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lghr %r5, %r2
; lhr %r4, %r3
; cite %r4, 0 ; trap: int_divz
; lhi %r2, 0x7fff
; lgr %r3, %r5
; xrk %r5, %r2, %r3
; nrk %r2, %r5, %r4
; cite %r2, -1 ; trap: int_ovf
; dsgfr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 2
v2 = sdiv.i16 v0, v1
return v2
}
; VCode:
; block0:
; lghr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lghr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = sdiv.i8 v0, v1
return v2
}
; VCode:
; block0:
; lgbr %r5, %r2
; lbr %r4, %r3
; cite %r4, 0
; lhi %r2, 127
; lgr %r3, %r5
; xrk %r5, %r2, %r3
; nrk %r2, %r5, %r4
; cite %r2, -1
; dsgfr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgbr %r5, %r2
; lbr %r4, %r3
; cite %r4, 0 ; trap: int_divz
; lhi %r2, 0x7f
; lgr %r3, %r5
; xrk %r5, %r2, %r3
; nrk %r2, %r5, %r4
; cite %r2, -1 ; trap: int_ovf
; dsgfr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %sdiv_i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 2
v2 = sdiv.i8 v0, v1
return v2
}
; VCode:
; block0:
; lgbr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgbr %r3, %r2
; lhi %r2, 2
; dsgfr %r2, %r2 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = udiv.i64 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r5, %r2
; lghi %r2, 0
; cgite %r3, 0
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlgr %r2, %r5
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r5, %r2
; lghi %r2, 0
; cgite %r3, 0 ; trap: int_divz
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlgr %r2, %r5 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 2
v2 = udiv.i64 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r3, %r2
; lghi %r2, 0
; lghi %r4, 2
; dlgr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r3, %r2
; lghi %r2, 0
; lghi %r4, 2
; dlgr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i32(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = udiv.i32 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r5, %r2
; lhi %r2, 0
; cite %r3, 0
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlr %r2, %r5
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r5, %r2
; lhi %r2, 0
; cite %r3, 0 ; trap: int_divz
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlr %r2, %r5 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 2
v2 = udiv.i32 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r3, %r2
; lhi %r2, 0
; lhi %r4, 2
; dlr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r3, %r2
; lhi %r2, 0
; lhi %r4, 2
; dlr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i16(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = udiv.i16 v0, v1
return v2
}
; VCode:
; stmg %r8, %r15, 64(%r15)
; block0:
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llhr %r3, %r2
; lgr %r5, %r4
; llhr %r5, %r5
; cite %r5, 0
; lgr %r2, %r8
; dlr %r2, %r5
; lgr %r2, %r3
; lmg %r8, %r15, 64(%r15)
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; stmg %r8, %r15, 0x40(%r15)
; block1: ; offset 0x6
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llhr %r3, %r2
; lgr %r5, %r4
; llhr %r5, %r5
; cite %r5, 0 ; trap: int_divz
; lgr %r2, %r8
; dlr %r2, %r5 ; trap: int_divz
; lgr %r2, %r3
; lmg %r8, %r15, 0x40(%r15)
; br %r14
function %udiv_i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 2
v2 = udiv.i16 v0, v1
return v2
}
; VCode:
; block0:
; lhi %r4, 0
; lgr %r5, %r4
; llhr %r3, %r2
; lhi %r4, 2
; lgr %r2, %r5
; dlr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lhi %r4, 0
; lgr %r5, %r4
; llhr %r3, %r2
; lhi %r4, 2
; lgr %r2, %r5
; dlr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %udiv_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = udiv.i8 v0, v1
return v2
}
; VCode:
; stmg %r8, %r15, 64(%r15)
; block0:
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llcr %r3, %r2
; lgr %r5, %r4
; llcr %r5, %r5
; cite %r5, 0
; lgr %r2, %r8
; dlr %r2, %r5
; lgr %r2, %r3
; lmg %r8, %r15, 64(%r15)
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; stmg %r8, %r15, 0x40(%r15)
; block1: ; offset 0x6
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llcr %r3, %r2
; lgr %r5, %r4
; llcr %r5, %r5
; cite %r5, 0 ; trap: int_divz
; lgr %r2, %r8
; dlr %r2, %r5 ; trap: int_divz
; lgr %r2, %r3
; lmg %r8, %r15, 0x40(%r15)
; br %r14
function %udiv_i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 2
v2 = udiv.i8 v0, v1
return v2
}
; VCode:
; block0:
; lhi %r4, 0
; lgr %r5, %r4
; llcr %r3, %r2
; lhi %r4, 2
; lgr %r2, %r5
; dlr %r2, %r4
; lgr %r2, %r3
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lhi %r4, 0
; lgr %r5, %r4
; llcr %r3, %r2
; lhi %r4, 2
; lgr %r2, %r5
; dlr %r2, %r4 ; trap: int_divz
; lgr %r2, %r3
; br %r14
function %srem_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = srem.i64 v0, v1
return v2
}
; VCode:
; block0:
; cgite %r3, 0
; cghi %r3, -1
; lgr %r4, %r3
; lgr %r3, %r2
; locghie %r3, 0
; dsgr %r2, %r4
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; cgite %r3, 0 ; trap: int_divz
; cghi %r3, -1
; lgr %r4, %r3
; lgr %r3, %r2
; locghie %r3, 0
; dsgr %r2, %r4 ; trap: int_divz
; br %r14
function %srem_i32(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = srem.i32 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r5, %r3
; lgfr %r3, %r2
; lgr %r2, %r5
; cite %r2, 0
; dsgfr %r2, %r2
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r5, %r3
; lgfr %r3, %r2
; lgr %r2, %r5
; cite %r2, 0 ; trap: int_divz
; dsgfr %r2, %r2 ; trap: int_divz
; br %r14
function %srem_i16(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = srem.i16 v0, v1
return v2
}
; VCode:
; block0:
; lghr %r5, %r2
; lgr %r2, %r5
; lhr %r4, %r3
; cite %r4, 0
; lgr %r3, %r2
; dsgfr %r2, %r4
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lghr %r5, %r2
; lgr %r2, %r5
; lhr %r4, %r3
; cite %r4, 0 ; trap: int_divz
; lgr %r3, %r2
; dsgfr %r2, %r4 ; trap: int_divz
; br %r14
function %srem_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = srem.i8 v0, v1
return v2
}
; VCode:
; block0:
; lgbr %r5, %r2
; lgr %r2, %r5
; lbr %r4, %r3
; cite %r4, 0
; lgr %r3, %r2
; dsgfr %r2, %r4
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgbr %r5, %r2
; lgr %r2, %r5
; lbr %r4, %r3
; cite %r4, 0 ; trap: int_divz
; lgr %r3, %r2
; dsgfr %r2, %r4 ; trap: int_divz
; br %r14
function %urem_i64(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = urem.i64 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r5, %r2
; lghi %r2, 0
; cgite %r3, 0
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlgr %r2, %r5
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r5, %r2
; lghi %r2, 0
; cgite %r3, 0 ; trap: int_divz
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlgr %r2, %r5 ; trap: int_divz
; br %r14
function %urem_i32(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = urem.i32 v0, v1
return v2
}
; VCode:
; block0:
; lgr %r5, %r2
; lhi %r2, 0
; cite %r3, 0
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlr %r2, %r5
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; lgr %r5, %r2
; lhi %r2, 0
; cite %r3, 0 ; trap: int_divz
; lgr %r4, %r3
; lgr %r3, %r5
; lgr %r5, %r4
; dlr %r2, %r5 ; trap: int_divz
; br %r14
function %urem_i16(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = urem.i16 v0, v1
return v2
}
; VCode:
; stmg %r8, %r15, 64(%r15)
; block0:
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llhr %r3, %r2
; lgr %r5, %r4
; llhr %r5, %r5
; cite %r5, 0
; lgr %r2, %r8
; dlr %r2, %r5
; lmg %r8, %r15, 64(%r15)
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; stmg %r8, %r15, 0x40(%r15)
; block1: ; offset 0x6
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llhr %r3, %r2
; lgr %r5, %r4
; llhr %r5, %r5
; cite %r5, 0 ; trap: int_divz
; lgr %r2, %r8
; dlr %r2, %r5 ; trap: int_divz
; lmg %r8, %r15, 0x40(%r15)
; br %r14
function %urem_i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = urem.i8 v0, v1
return v2
}
; VCode:
; stmg %r8, %r15, 64(%r15)
; block0:
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llcr %r3, %r2
; lgr %r5, %r4
; llcr %r5, %r5
; cite %r5, 0
; lgr %r2, %r8
; dlr %r2, %r5
; lmg %r8, %r15, 64(%r15)
; br %r14
;
; Disassembled:
; block0: ; offset 0x0
; stmg %r8, %r15, 0x40(%r15)
; block1: ; offset 0x6
; lgr %r4, %r3
; lhi %r5, 0
; lgr %r8, %r5
; llcr %r3, %r2
; lgr %r5, %r4
; llcr %r5, %r5
; cite %r5, 0 ; trap: int_divz
; lgr %r2, %r8
; dlr %r2, %r5 ; trap: int_divz
; lmg %r8, %r15, 0x40(%r15)
; br %r14

View File

@@ -1,10 +1,8 @@
test compile precise-output
set avoid_div_traps=false
target x86_64
;; We should get the checked-div/rem sequence (`srem` pseudoinst below) even
;; when `avoid_div_traps` above is false (i.e. even when the host is normally
;; willing to accept SIGFPEs as Wasm traps). The machine will SIGFPE in some
;; We should get the checked-div/rem sequence (`srem` pseudoinst below).
;; The machine will SIGFPE in some
;; cases when `srem` is valid (specifically -INT_MIN % -1).
function %i8(i8, i8) -> i8 {

View File

@@ -1,285 +0,0 @@
test compile precise-output
set avoid_div_traps=true
target x86_64
function %f1(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cbw %al, %al
; validate_sdiv_divisor %sil, %al
; idiv %al, %sil, %al
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cbtw
; cmpb $0, %sil
; jne 0x15
; ud2 ; trap: int_divz
; cmpb $0xff, %sil
; jne 0x2a
; cmpb $0x80, %al
; jne 0x2a
; ud2 ; trap: int_ovf
; idivb %sil ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f2(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; validate_sdiv_divisor %si, %di
; movq %rdi, %rax
; cwd %ax, %dx
; idiv %ax, %dx, %si, %ax, %dx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; cmpw $0, %si
; jne 0x10
; ud2 ; trap: int_divz
; cmpw $-1, %si
; jne 0x27
; cmpw $0x8000, %di
; jne 0x27
; ud2 ; trap: int_ovf
; movq %rdi, %rax
; cwtd
; idivw %si ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f3(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; validate_sdiv_divisor %esi, %edi
; movq %rdi, %rax
; cdq %eax, %edx
; idiv %eax, %edx, %esi, %eax, %edx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; cmpl $0, %esi
; jne 0xf
; ud2 ; trap: int_divz
; cmpl $-1, %esi
; jne 0x26
; cmpl $0x80000000, %edi
; jne 0x26
; ud2 ; trap: int_ovf
; movq %rdi, %rax
; cltd
; idivl %esi ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f4(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; validate_sdiv_divisor %rsi, %rdi %rcx
; movq %rdi, %rax
; cqo %rax, %rdx
; idiv %rax, %rdx, %rsi, %rax, %rdx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; cmpq $0, %rsi
; jne 0x10
; ud2 ; trap: int_divz
; cmpq $-1, %rsi
; jne 0x2f
; movabsq $9223372036854775808, %rcx
; cmpq %rcx, %rdi
; jne 0x2f
; ud2 ; trap: int_ovf
; movq %rdi, %rax
; cqto
; idivq %rsi ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 17
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cbw %al, %al
; movl $17, %edx
; idiv %al, %dl, %al
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cbtw
; movl $0x11, %edx
; idivb %dl ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 17
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movl $17, %ecx
; movq %rdi, %rax
; cwd %ax, %dx
; idiv %ax, %dx, %cx, %ax, %dx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movl $0x11, %ecx
; movq %rdi, %rax
; cwtd
; idivw %cx ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 17
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movl $17, %ecx
; movq %rdi, %rax
; cdq %eax, %edx
; idiv %eax, %edx, %ecx, %eax, %edx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movl $0x11, %ecx
; movq %rdi, %rax
; cltd
; idivl %ecx ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 17
v2 = sdiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movl $17, %ecx
; movq %rdi, %rax
; cqo %rax, %rdx
; idiv %rax, %rdx, %rcx, %rax, %rdx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movl $0x11, %ecx
; movq %rdi, %rax
; cqto
; idivq %rcx ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq

View File

@@ -13,7 +13,9 @@ block0(v0: i8, v1: i8):
; block0:
; movq %rdi, %rax
; cbw %al, %al
; idiv %al, %sil, %al
; testb %sil, %sil
; jnz ; ud2 int_divz ;
; idiv %al, %sil, %al ; trap=int_ovf
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -25,7 +27,10 @@ block0(v0: i8, v1: i8):
; block1: ; offset 0x4
; movq %rdi, %rax
; cbtw
; idivb %sil ; trap: int_divz
; testb %sil, %sil
; jne 0x14
; ud2 ; trap: int_divz
; idivb %sil ; trap: int_ovf
; movq %rbp, %rsp
; popq %rbp
; retq
@@ -42,7 +47,9 @@ block0(v0: i16, v1: i16):
; block0:
; movq %rdi, %rax
; cwd %ax, %dx
; idiv %ax, %dx, %si, %ax, %dx
; testw %si, %si
; jnz ; ud2 int_divz ;
; idiv %ax, %dx, %si, %ax, %dx ; trap=int_ovf
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -54,7 +61,10 @@ block0(v0: i16, v1: i16):
; block1: ; offset 0x4
; movq %rdi, %rax
; cwtd
; idivw %si ; trap: int_divz
; testw %si, %si
; jne 0x14
; ud2 ; trap: int_divz
; idivw %si ; trap: int_ovf
; movq %rbp, %rsp
; popq %rbp
; retq
@@ -71,7 +81,9 @@ block0(v0: i32, v1: i32):
; block0:
; movq %rdi, %rax
; cdq %eax, %edx
; idiv %eax, %edx, %esi, %eax, %edx
; testl %esi, %esi
; jnz ; ud2 int_divz ;
; idiv %eax, %edx, %esi, %eax, %edx ; trap=int_ovf
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -83,7 +95,10 @@ block0(v0: i32, v1: i32):
; block1: ; offset 0x4
; movq %rdi, %rax
; cltd
; idivl %esi ; trap: int_divz
; testl %esi, %esi
; jne 0x12
; ud2 ; trap: int_divz
; idivl %esi ; trap: int_ovf
; movq %rbp, %rsp
; popq %rbp
; retq
@@ -100,7 +115,9 @@ block0(v0: i64, v1: i64):
; block0:
; movq %rdi, %rax
; cqo %rax, %rdx
; idiv %rax, %rdx, %rsi, %rax, %rdx
; testq %rsi, %rsi
; jnz ; ud2 int_divz ;
; idiv %rax, %rdx, %rsi, %rax, %rdx ; trap=int_ovf
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -112,7 +129,10 @@ block0(v0: i64, v1: i64):
; block1: ; offset 0x4
; movq %rdi, %rax
; cqto
; idivq %rsi ; trap: int_divz
; testq %rsi, %rsi
; jne 0x14
; ud2 ; trap: int_divz
; idivq %rsi ; trap: int_ovf
; movq %rbp, %rsp
; popq %rbp
; retq

View File

@@ -1,300 +0,0 @@
test compile precise-output
set avoid_div_traps=true
target x86_64
function %f1(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cbw %al, %al
; testb %sil, %sil
; jnz ; ud2 int_divz ;
; checked_srem_seq %al, %sil, %al
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cbtw
; testb %sil, %sil
; jne 0x14
; ud2 ; trap: int_divz
; cmpb $0xff, %sil
; jne 0x28
; movl $0, %eax
; jmp 0x2b
; idivb %sil ; trap: int_divz
; shrq $8, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f2(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; testw %si, %si
; jnz ; ud2 int_divz ;
; movq %rdi, %rax
; cwd %ax, %dx
; checked_srem_seq %ax, %dx, %si, %ax, %dx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; testw %si, %si
; jne 0xf
; ud2 ; trap: int_divz
; movq %rdi, %rax
; cwtd
; cmpw $-1, %si
; jne 0x28
; movl $0, %edx
; jmp 0x2b
; idivw %si ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f3(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; testl %esi, %esi
; jnz ; ud2 int_divz ;
; movq %rdi, %rax
; cdq %eax, %edx
; checked_srem_seq %eax, %edx, %esi, %eax, %edx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; testl %esi, %esi
; jne 0xe
; ud2 ; trap: int_divz
; movq %rdi, %rax
; cltd
; cmpl $-1, %esi
; jne 0x25
; movl $0, %edx
; jmp 0x27
; idivl %esi ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f4(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; testq %rsi, %rsi
; jnz ; ud2 int_divz ;
; movq %rdi, %rax
; cqo %rax, %rdx
; checked_srem_seq %rax, %rdx, %rsi, %rax, %rdx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; testq %rsi, %rsi
; jne 0xf
; ud2 ; trap: int_divz
; movq %rdi, %rax
; cqto
; cmpq $-1, %rsi
; jne 0x28
; movl $0, %edx
; jmp 0x2b
; idivq %rsi ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 17
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cbw %al, %al
; movl $17, %edx
; idiv %al, %dl, %al
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cbtw
; movl $0x11, %edx
; idivb %dl ; trap: int_divz
; shrq $8, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 17
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cwd %ax, %dx
; movl $17, %r8d
; idiv %ax, %dx, %r8w, %ax, %dx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cwtd
; movl $0x11, %r8d
; idivw %r8w ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 17
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cdq %eax, %edx
; movl $17, %r8d
; idiv %eax, %edx, %r8d, %eax, %edx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cltd
; movl $0x11, %r8d
; idivl %r8d ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 17
v2 = srem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; cqo %rax, %rdx
; movl $17, %r8d
; idiv %rax, %rdx, %r8, %rax, %rdx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; cqto
; movl $0x11, %r8d
; idivq %r8 ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq

View File

@@ -155,7 +155,7 @@ block0(v0: i8):
; movq %rdi, %rax
; cbw %al, %al
; movl $17, %edx
; idiv %al, %dl, %al
; idiv %al, %dl, %al ; trap=int_divz
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -189,7 +189,7 @@ block0(v0: i16):
; movq %rdi, %rax
; cwd %ax, %dx
; movl $17, %r8d
; idiv %ax, %dx, %r8w, %ax, %dx
; idiv %ax, %dx, %r8w, %ax, %dx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -223,7 +223,7 @@ block0(v0: i32):
; movq %rdi, %rax
; cdq %eax, %edx
; movl $17, %r8d
; idiv %eax, %edx, %r8d, %eax, %edx
; idiv %eax, %edx, %r8d, %eax, %edx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -257,7 +257,7 @@ block0(v0: i64):
; movq %rdi, %rax
; cqo %rax, %rdx
; movl $17, %r8d
; idiv %rax, %rdx, %r8, %rax, %rdx
; idiv %rax, %rdx, %r8, %rax, %rdx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp

View File

@@ -1,264 +0,0 @@
test compile precise-output
set avoid_div_traps=true
target x86_64
function %f1(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; testb %sil, %sil
; jnz ; ud2 int_divz ;
; div %al, %sil, %al
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movzbl %dil, %eax
; testb %sil, %sil
; jne 0x13
; ud2 ; trap: int_divz
; divb %sil ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f2(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testw %si, %si
; jnz ; ud2 int_divz ;
; div %ax, %dx, %si, %ax, %dx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testw %si, %si
; jne 0x15
; ud2 ; trap: int_divz
; divw %si ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f3(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testl %esi, %esi
; jnz ; ud2 int_divz ;
; div %eax, %edx, %esi, %eax, %edx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testl %esi, %esi
; jne 0x14
; ud2 ; trap: int_divz
; divl %esi ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %f4(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testq %rsi, %rsi
; jnz ; ud2 int_divz ;
; div %rax, %rdx, %rsi, %rax, %rdx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testq %rsi, %rsi
; jne 0x15
; ud2 ; trap: int_divz
; divq %rsi ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 17
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; movl $17, %edx
; div %al, %dl, %al
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movzbl %dil, %eax
; movl $0x11, %edx
; divb %dl ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 17
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %ax, %dx, %r8w, %ax, %dx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divw %r8w ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 17
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %eax, %edx, %r8d, %eax, %edx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divl %r8d ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq
function %i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 17
v2 = udiv v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %rax, %rdx, %r8, %rax, %rdx
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divq %r8 ; trap: int_divz
; movq %rbp, %rsp
; popq %rbp
; retq

View File

@@ -12,7 +12,7 @@ block0(v0: i8, v1: i8):
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; div %al, %sil, %al
; div %al, %sil, %al ; trap=int_divz
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -40,7 +40,7 @@ block0(v0: i16, v1: i16):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %ax, %dx, %si, %ax, %dx
; div %ax, %dx, %si, %ax, %dx ; trap=int_divz
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -69,7 +69,7 @@ block0(v0: i32, v1: i32):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %eax, %edx, %esi, %eax, %edx
; div %eax, %edx, %esi, %eax, %edx ; trap=int_divz
; movq %rbp, %rsp
; popq %rbp
; ret
@@ -98,7 +98,7 @@ block0(v0: i64, v1: i64):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx ; trap=int_divz
; movq %rbp, %rsp
; popq %rbp
; ret

View File

@@ -15,10 +15,10 @@ block0(v0: i8, v1: i8):
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; div %al, %sil, %al
; div %al, %sil, %al ; trap=int_divz
; movq %rax, %r11
; movzbl %dil, %eax
; div %al, %sil, %al
; div %al, %sil, %al ; trap=int_divz
; movq %rax, %rdx
; shrq $8, %rdx, %rdx
; movq %r11, %rax
@@ -56,11 +56,11 @@ block0(v0: i16, v1: i16):
; block0:
; xorq %rdx, %rdx, %rdx
; movq %rdi, %rax
; div %ax, %dx, %si, %ax, %dx
; div %ax, %dx, %si, %ax, %dx ; trap=int_divz
; movq %rax, %rcx
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %ax, %dx, %si, %ax, %dx
; div %ax, %dx, %si, %ax, %dx ; trap=int_divz
; movq %rcx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -96,11 +96,11 @@ block0(v0: i32, v1: i32):
; block0:
; xorq %rdx, %rdx, %rdx
; movq %rdi, %rax
; div %eax, %edx, %esi, %eax, %edx
; div %eax, %edx, %esi, %eax, %edx ; trap=int_divz
; movq %rax, %rcx
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %eax, %edx, %esi, %eax, %edx
; div %eax, %edx, %esi, %eax, %edx ; trap=int_divz
; movq %rcx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -136,11 +136,11 @@ block0(v0: i64, v1: i64):
; block0:
; xorq %rdx, %rdx, %rdx
; movq %rdi, %rax
; div %rax, %rdx, %rsi, %rax, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx ; trap=int_divz
; movq %rax, %rcx
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx ; trap=int_divz
; movq %rcx, %rax
; movq %rbp, %rsp
; popq %rbp

View File

@@ -1,280 +0,0 @@
test compile precise-output
set avoid_div_traps=true
target x86_64
function %f1(i8, i8) -> i8 {
block0(v0: i8, v1: i8):
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; testb %sil, %sil
; jnz ; ud2 int_divz ;
; div %al, %sil, %al
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movzbl %dil, %eax
; testb %sil, %sil
; jne 0x13
; ud2 ; trap: int_divz
; divb %sil ; trap: int_divz
; shrq $8, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f2(i16, i16) -> i16 {
block0(v0: i16, v1: i16):
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testw %si, %si
; jnz ; ud2 int_divz ;
; div %ax, %dx, %si, %ax, %dx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testw %si, %si
; jne 0x15
; ud2 ; trap: int_divz
; divw %si ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f3(i32, i32) -> i32 {
block0(v0: i32, v1: i32):
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testl %esi, %esi
; jnz ; ud2 int_divz ;
; div %eax, %edx, %esi, %eax, %edx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testl %esi, %esi
; jne 0x14
; ud2 ; trap: int_divz
; divl %esi ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %f4(i64, i64) -> i64 {
block0(v0: i64, v1: i64):
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; testq %rsi, %rsi
; jnz ; ud2 int_divz ;
; div %rax, %rdx, %rsi, %rax, %rdx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; testq %rsi, %rsi
; jne 0x15
; ud2 ; trap: int_divz
; divq %rsi ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i8_imm(i8) -> i8 {
block0(v0: i8):
v1 = iconst.i8 17
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; movl $17, %edx
; div %al, %dl, %al
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movzbl %dil, %eax
; movl $0x11, %edx
; divb %dl ; trap: int_divz
; shrq $8, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i16_imm(i16) -> i16 {
block0(v0: i16):
v1 = iconst.i16 17
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %ax, %dx, %r8w, %ax, %dx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divw %r8w ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i32_imm(i32) -> i32 {
block0(v0: i32):
v1 = iconst.i32 17
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %eax, %edx, %r8d, %eax, %edx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divl %r8d ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq
function %i64_imm(i64) -> i64 {
block0(v0: i64):
v1 = iconst.i64 17
v2 = urem v0, v1
return v2
}
; VCode:
; pushq %rbp
; movq %rsp, %rbp
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; movl $17, %r8d
; div %rax, %rdx, %r8, %rax, %rdx
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; ret
;
; Disassembled:
; block0: ; offset 0x0
; pushq %rbp
; movq %rsp, %rbp
; block1: ; offset 0x4
; movq %rdi, %rax
; xorq %rdx, %rdx
; movl $0x11, %r8d
; divq %r8 ; trap: int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
; retq

View File

@@ -12,7 +12,7 @@ block0(v0: i8, v1: i8):
; movq %rsp, %rbp
; block0:
; movzbl %dil, %eax
; div %al, %sil, %al
; div %al, %sil, %al ; trap=int_divz
; shrq $8, %rax, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -42,7 +42,7 @@ block0(v0: i16, v1: i16):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %ax, %dx, %si, %ax, %dx
; div %ax, %dx, %si, %ax, %dx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -73,7 +73,7 @@ block0(v0: i32, v1: i32):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %eax, %edx, %esi, %eax, %edx
; div %eax, %edx, %esi, %eax, %edx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp
@@ -104,7 +104,7 @@ block0(v0: i64, v1: i64):
; block0:
; movq %rdi, %rax
; xorq %rdx, %rdx, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx
; div %rax, %rdx, %rsi, %rax, %rdx ; trap=int_divz
; movq %rdx, %rax
; movq %rbp, %rsp
; popq %rbp

View File

@@ -1,13 +1,8 @@
test run
set avoid_div_traps=false
target aarch64
target s390x
target x86_64
target riscv64
; Tests that the `avoid_div_traps` flag prevents a trap when {s,u}rem is called
; with INT_MIN % -1.
target riscv64
function %i8(i8, i8) -> i8 {
block0(v0: i8, v1: i8):

View File

@@ -1,7 +1,5 @@
test interpret
test run
; Test these inputs without div traps, it shouldn't affect normal inputs
set avoid_div_traps
target aarch64
target s390x
target x86_64

View File

@@ -4,11 +4,6 @@ target aarch64
target s390x
target x86_64
target riscv64
; Test these inputs without div traps, it shouldn't affect normal inputs
set avoid_div_traps
target aarch64
target s390x
target x86_64
function %urem_i64(i64, i64) -> i64 {
block0(v0: i64,v1: i64):