x64: Lower widening and narrowing operations in ISLE (#4722)
Lower uwiden_high, uwiden_low, swiden_high, swiden_low, snarrow, and unarrow in ISLE.
This commit is contained in:
@@ -2484,6 +2484,21 @@
|
|||||||
(rule (x64_packsswb src1 src2)
|
(rule (x64_packsswb src1 src2)
|
||||||
(xmm_rm_r $I8X16 (SseOpcode.Packsswb) src1 src2))
|
(xmm_rm_r $I8X16 (SseOpcode.Packsswb) src1 src2))
|
||||||
|
|
||||||
|
;; Helper for creating `packssdw` instructions.
|
||||||
|
(decl x64_packssdw (Xmm XmmMem) Xmm)
|
||||||
|
(rule (x64_packssdw src1 src2)
|
||||||
|
(xmm_rm_r $I16X8 (SseOpcode.Packssdw) src1 src2))
|
||||||
|
|
||||||
|
;; Helper for creating `packuswb` instructions.
|
||||||
|
(decl x64_packuswb (Xmm XmmMem) Xmm)
|
||||||
|
(rule (x64_packuswb src1 src2)
|
||||||
|
(xmm_rm_r $I16X8 (SseOpcode.Packuswb) src1 src2))
|
||||||
|
|
||||||
|
;; Helper for creating `packusdw` instructions.
|
||||||
|
(decl x64_packusdw (Xmm XmmMem) Xmm)
|
||||||
|
(rule (x64_packusdw src1 src2)
|
||||||
|
(xmm_rm_r $I16X8 (SseOpcode.Packusdw) src1 src2))
|
||||||
|
|
||||||
;; Helper for creating `MInst.XmmRmRImm` instructions.
|
;; Helper for creating `MInst.XmmRmRImm` instructions.
|
||||||
(decl xmm_rm_r_imm (SseOpcode Reg RegMem u8 OperandSize) Xmm)
|
(decl xmm_rm_r_imm (SseOpcode Reg RegMem u8 OperandSize) Xmm)
|
||||||
(rule (xmm_rm_r_imm op src1 src2 imm size)
|
(rule (xmm_rm_r_imm op src1 src2 imm size)
|
||||||
@@ -3035,10 +3050,16 @@
|
|||||||
(_ Unit (emit (MInst.GprToXmm (SseOpcode.Cvtsi2sd) x dst size))))
|
(_ Unit (emit (MInst.GprToXmm (SseOpcode.Cvtsi2sd) x dst size))))
|
||||||
dst))
|
dst))
|
||||||
|
|
||||||
|
;; Helper for creating `cvttps2dq` instructions.
|
||||||
(decl x64_cvttps2dq (Type XmmMem) Xmm)
|
(decl x64_cvttps2dq (Type XmmMem) Xmm)
|
||||||
(rule (x64_cvttps2dq ty x)
|
(rule (x64_cvttps2dq ty x)
|
||||||
(xmm_unary_rm_r (SseOpcode.Cvttps2dq) x))
|
(xmm_unary_rm_r (SseOpcode.Cvttps2dq) x))
|
||||||
|
|
||||||
|
;; Helper for creating `cvttpd2dq` instructions.
|
||||||
|
(decl x64_cvttpd2dq (XmmMem) Xmm)
|
||||||
|
(rule (x64_cvttpd2dq x)
|
||||||
|
(xmm_unary_rm_r (SseOpcode.Cvttpd2dq) x))
|
||||||
|
|
||||||
(decl cvt_u64_to_float_seq (Type Gpr) Xmm)
|
(decl cvt_u64_to_float_seq (Type Gpr) Xmm)
|
||||||
(rule (cvt_u64_to_float_seq ty src)
|
(rule (cvt_u64_to_float_seq ty src)
|
||||||
(let ((size OperandSize (raw_operand_size_of_type ty))
|
(let ((size OperandSize (raw_operand_size_of_type ty))
|
||||||
@@ -3257,6 +3278,11 @@
|
|||||||
(decl iadd_pairwise_addd_const_32 () VCodeConstant)
|
(decl iadd_pairwise_addd_const_32 () VCodeConstant)
|
||||||
(extern constructor iadd_pairwise_addd_const_32 iadd_pairwise_addd_const_32)
|
(extern constructor iadd_pairwise_addd_const_32 iadd_pairwise_addd_const_32)
|
||||||
|
|
||||||
|
;;;; snarrow constants ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(decl snarrow_umax_mask () VCodeConstant)
|
||||||
|
(extern constructor snarrow_umax_mask snarrow_umax_mask)
|
||||||
|
|
||||||
;;;; Comparisons ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
;;;; Comparisons ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
(type IcmpCondResult (enum (Condition (producer ProducesFlags) (cc CC))))
|
(type IcmpCondResult (enum (Condition (producer ProducesFlags) (cc CC))))
|
||||||
|
|||||||
@@ -3195,3 +3195,89 @@
|
|||||||
(addd_const Xmm (x64_xmm_load_const $I16X8 (iadd_pairwise_addd_const_32))))
|
(addd_const Xmm (x64_xmm_load_const $I16X8 (iadd_pairwise_addd_const_32))))
|
||||||
(x64_paddd dst addd_const)))
|
(x64_paddd dst addd_const)))
|
||||||
|
|
||||||
|
;; Rules for `swiden_low` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (swiden_low val @ (value_type $I8X16))))
|
||||||
|
(x64_pmovsxbw val))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I32X4 (swiden_low val @ (value_type $I16X8))))
|
||||||
|
(x64_pmovsxwd val))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I64X2 (swiden_low val @ (value_type $I32X4))))
|
||||||
|
(x64_pmovsxdq val))
|
||||||
|
|
||||||
|
;; Rules for `swiden_high` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (swiden_high val @ (value_type $I8X16))))
|
||||||
|
(x64_pmovsxbw (x64_palignr val val 8 (OperandSize.Size32))))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I32X4 (swiden_high val @ (value_type $I16X8))))
|
||||||
|
(x64_pmovsxwd (x64_palignr val val 8 (OperandSize.Size32))))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I64X2 (swiden_high val @ (value_type $I32X4))))
|
||||||
|
(x64_pmovsxdq (x64_pshufd val 0xEE (OperandSize.Size32))))
|
||||||
|
|
||||||
|
;; Rules for `uwiden_low` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (uwiden_low val @ (value_type $I8X16))))
|
||||||
|
(x64_pmovzxbw val))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I32X4 (uwiden_low val @ (value_type $I16X8))))
|
||||||
|
(x64_pmovzxwd val))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I64X2 (uwiden_low val @ (value_type $I32X4))))
|
||||||
|
(x64_pmovzxdq val))
|
||||||
|
|
||||||
|
;; Rules for `uwiden_high` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (uwiden_high val @ (value_type $I8X16))))
|
||||||
|
(x64_pmovzxbw (x64_palignr val val 8 (OperandSize.Size32))))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I32X4 (uwiden_high val @ (value_type $I16X8))))
|
||||||
|
(x64_pmovzxwd (x64_palignr val val 8 (OperandSize.Size32))))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I64X2 (uwiden_high val @ (value_type $I32X4))))
|
||||||
|
(x64_pmovzxdq (x64_pshufd val 0xEE (OperandSize.Size32))))
|
||||||
|
|
||||||
|
;; Rules for `snarrow` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I8X16 (snarrow a @ (value_type $I16X8) b)))
|
||||||
|
(x64_packsswb a b))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (snarrow a @ (value_type $I32X4) b)))
|
||||||
|
(x64_packssdw a b))
|
||||||
|
|
||||||
|
;; We're missing a `snarrow` case for $I64X2
|
||||||
|
;; https://github.com/bytecodealliance/wasmtime/issues/4734
|
||||||
|
|
||||||
|
;; This rule is a special case for handling the translation of the wasm op
|
||||||
|
;; `i32x4.trunc_sat_f64x2_s_zero`. It can be removed once we have an
|
||||||
|
;; implementation of `snarrow` for `I64X2`.
|
||||||
|
(rule (lower (has_type $I32X4 (snarrow (has_type $I64X2 (fcvt_to_sint_sat a))
|
||||||
|
(vconst (u128_from_constant 0)))))
|
||||||
|
(let (;; y = i32x4.trunc_sat_f64x2_s_zero(x) is lowered to:
|
||||||
|
;; MOVE xmm_tmp, xmm_x
|
||||||
|
;; CMPEQPD xmm_tmp, xmm_x
|
||||||
|
;; MOVE xmm_y, xmm_x
|
||||||
|
;; ANDPS xmm_tmp, [wasm_f64x2_splat(2147483647.0)]
|
||||||
|
;; MINPD xmm_y, xmm_tmp
|
||||||
|
;; CVTTPD2DQ xmm_y, xmm_y
|
||||||
|
|
||||||
|
(tmp1 Xmm (x64_cmppd a a (FcmpImm.Equal)))
|
||||||
|
(umax_mask Xmm (x64_xmm_load_const $F64X2 (snarrow_umax_mask)))
|
||||||
|
|
||||||
|
;; ANDPD xmm_y, [wasm_f64x2_splat(2147483647.0)]
|
||||||
|
(tmp1 Xmm (x64_andps tmp1 umax_mask))
|
||||||
|
(dst Xmm (x64_minpd a tmp1)))
|
||||||
|
(x64_cvttpd2dq dst)))
|
||||||
|
|
||||||
|
;; Rules for `unarrow` ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||||
|
|
||||||
|
(rule (lower (has_type $I8X16 (unarrow a @ (value_type $I16X8) b)))
|
||||||
|
(x64_packuswb a b))
|
||||||
|
|
||||||
|
(rule (lower (has_type $I16X8 (unarrow a @ (value_type $I32X4) b)))
|
||||||
|
(x64_packusdw a b))
|
||||||
|
|
||||||
|
;; We're missing a `unarrow` case for $I64X2
|
||||||
|
;; https://github.com/bytecodealliance/wasmtime/issues/4734
|
||||||
|
|||||||
@@ -562,216 +562,16 @@ fn lower_insn_to_regs(
|
|||||||
| Opcode::FcvtToSint
|
| Opcode::FcvtToSint
|
||||||
| Opcode::FcvtToUintSat
|
| Opcode::FcvtToUintSat
|
||||||
| Opcode::FcvtToSintSat
|
| Opcode::FcvtToSintSat
|
||||||
| Opcode::IaddPairwise => {
|
| Opcode::IaddPairwise
|
||||||
|
| Opcode::UwidenHigh
|
||||||
|
| Opcode::UwidenLow
|
||||||
|
| Opcode::SwidenHigh
|
||||||
|
| Opcode::SwidenLow
|
||||||
|
| Opcode::Snarrow
|
||||||
|
| Opcode::Unarrow => {
|
||||||
implemented_in_isle(ctx);
|
implemented_in_isle(ctx);
|
||||||
}
|
}
|
||||||
|
|
||||||
Opcode::UwidenHigh | Opcode::UwidenLow | Opcode::SwidenHigh | Opcode::SwidenLow => {
|
|
||||||
let input_ty = ctx.input_ty(insn, 0);
|
|
||||||
let output_ty = ctx.output_ty(insn, 0);
|
|
||||||
let src = put_input_in_reg(ctx, inputs[0]);
|
|
||||||
let dst = get_output_reg(ctx, outputs[0]).only_reg().unwrap();
|
|
||||||
if output_ty.is_vector() {
|
|
||||||
match op {
|
|
||||||
Opcode::SwidenLow => match (input_ty, output_ty) {
|
|
||||||
(types::I8X16, types::I16X8) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxbw, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
(types::I16X8, types::I32X4) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxwd, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I64X2) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxdq, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
Opcode::SwidenHigh => match (input_ty, output_ty) {
|
|
||||||
(types::I8X16, types::I16X8) => {
|
|
||||||
ctx.emit(Inst::gen_move(dst, src, output_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Palignr,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
8,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxbw, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
(types::I16X8, types::I32X4) => {
|
|
||||||
ctx.emit(Inst::gen_move(dst, src, output_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Palignr,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
8,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxwd, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I64X2) => {
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Pshufd,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
0xEE,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovsxdq, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
Opcode::UwidenLow => match (input_ty, output_ty) {
|
|
||||||
(types::I8X16, types::I16X8) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxbw, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
(types::I16X8, types::I32X4) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxwd, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I64X2) => {
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxdq, RegMem::reg(src), dst));
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
Opcode::UwidenHigh => match (input_ty, output_ty) {
|
|
||||||
(types::I8X16, types::I16X8) => {
|
|
||||||
ctx.emit(Inst::gen_move(dst, src, output_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Palignr,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
8,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxbw, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
(types::I16X8, types::I32X4) => {
|
|
||||||
ctx.emit(Inst::gen_move(dst, src, output_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Palignr,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
8,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxwd, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I64X2) => {
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Pshufd,
|
|
||||||
RegMem::reg(src),
|
|
||||||
dst,
|
|
||||||
0xEE,
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_mov(SseOpcode::Pmovzxdq, RegMem::from(dst), dst));
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
_ => unreachable!(),
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
panic!("Unsupported non-vector type for widen instruction {:?}", ty);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
Opcode::Snarrow | Opcode::Unarrow => {
|
|
||||||
let input_ty = ctx.input_ty(insn, 0);
|
|
||||||
let output_ty = ctx.output_ty(insn, 0);
|
|
||||||
let dst = get_output_reg(ctx, outputs[0]).only_reg().unwrap();
|
|
||||||
if output_ty.is_vector() {
|
|
||||||
match op {
|
|
||||||
Opcode::Snarrow => match (input_ty, output_ty) {
|
|
||||||
(types::I16X8, types::I8X16) => {
|
|
||||||
let src1 = put_input_in_reg(ctx, inputs[0]);
|
|
||||||
let src2 = put_input_in_reg(ctx, inputs[1]);
|
|
||||||
ctx.emit(Inst::gen_move(dst, src1, input_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r(SseOpcode::Packsswb, RegMem::reg(src2), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I16X8) => {
|
|
||||||
let src1 = put_input_in_reg(ctx, inputs[0]);
|
|
||||||
let src2 = put_input_in_reg(ctx, inputs[1]);
|
|
||||||
ctx.emit(Inst::gen_move(dst, src1, input_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r(SseOpcode::Packssdw, RegMem::reg(src2), dst));
|
|
||||||
}
|
|
||||||
// TODO: The type we are expecting as input as actually an F64X2 but the instruction is only defined
|
|
||||||
// for integers so here we use I64X2. This is a separate issue that needs to be fixed in instruction.rs.
|
|
||||||
(types::I64X2, types::I32X4) => {
|
|
||||||
if let Some(fcvt_inst) =
|
|
||||||
matches_input(ctx, inputs[0], Opcode::FcvtToSintSat)
|
|
||||||
{
|
|
||||||
//y = i32x4.trunc_sat_f64x2_s_zero(x) is lowered to:
|
|
||||||
//MOVE xmm_tmp, xmm_x
|
|
||||||
//CMPEQPD xmm_tmp, xmm_x
|
|
||||||
//MOVE xmm_y, xmm_x
|
|
||||||
//ANDPS xmm_tmp, [wasm_f64x2_splat(2147483647.0)]
|
|
||||||
//MINPD xmm_y, xmm_tmp
|
|
||||||
//CVTTPD2DQ xmm_y, xmm_y
|
|
||||||
|
|
||||||
let fcvt_input = InsnInput {
|
|
||||||
insn: fcvt_inst,
|
|
||||||
input: 0,
|
|
||||||
};
|
|
||||||
let src = put_input_in_reg(ctx, fcvt_input);
|
|
||||||
ctx.emit(Inst::gen_move(dst, src, input_ty));
|
|
||||||
let tmp1 = ctx.alloc_tmp(output_ty).only_reg().unwrap();
|
|
||||||
ctx.emit(Inst::gen_move(tmp1, src, input_ty));
|
|
||||||
let cond = FcmpImm::from(FloatCC::Equal);
|
|
||||||
ctx.emit(Inst::xmm_rm_r_imm(
|
|
||||||
SseOpcode::Cmppd,
|
|
||||||
RegMem::reg(src),
|
|
||||||
tmp1,
|
|
||||||
cond.encode(),
|
|
||||||
OperandSize::Size32,
|
|
||||||
));
|
|
||||||
|
|
||||||
// 2147483647.0 is equivalent to 0x41DFFFFFFFC00000
|
|
||||||
static UMAX_MASK: [u8; 16] = [
|
|
||||||
0x00, 0x00, 0xC0, 0xFF, 0xFF, 0xFF, 0xDF, 0x41, 0x00, 0x00,
|
|
||||||
0xC0, 0xFF, 0xFF, 0xFF, 0xDF, 0x41,
|
|
||||||
];
|
|
||||||
let umax_const =
|
|
||||||
ctx.use_constant(VCodeConstantData::WellKnown(&UMAX_MASK));
|
|
||||||
let umax_mask = ctx.alloc_tmp(types::F64X2).only_reg().unwrap();
|
|
||||||
ctx.emit(Inst::xmm_load_const(umax_const, umax_mask, types::F64X2));
|
|
||||||
|
|
||||||
//ANDPD xmm_y, [wasm_f64x2_splat(2147483647.0)]
|
|
||||||
ctx.emit(Inst::xmm_rm_r(
|
|
||||||
SseOpcode::Andps,
|
|
||||||
RegMem::from(umax_mask),
|
|
||||||
tmp1,
|
|
||||||
));
|
|
||||||
ctx.emit(Inst::xmm_rm_r(SseOpcode::Minpd, RegMem::from(tmp1), dst));
|
|
||||||
ctx.emit(Inst::xmm_unary_rm_r(
|
|
||||||
SseOpcode::Cvttpd2dq,
|
|
||||||
RegMem::from(dst),
|
|
||||||
dst,
|
|
||||||
));
|
|
||||||
} else {
|
|
||||||
unreachable!();
|
|
||||||
}
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
Opcode::Unarrow => match (input_ty, output_ty) {
|
|
||||||
(types::I16X8, types::I8X16) => {
|
|
||||||
let src1 = put_input_in_reg(ctx, inputs[0]);
|
|
||||||
let src2 = put_input_in_reg(ctx, inputs[1]);
|
|
||||||
ctx.emit(Inst::gen_move(dst, src1, input_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r(SseOpcode::Packuswb, RegMem::reg(src2), dst));
|
|
||||||
}
|
|
||||||
(types::I32X4, types::I16X8) => {
|
|
||||||
let src1 = put_input_in_reg(ctx, inputs[0]);
|
|
||||||
let src2 = put_input_in_reg(ctx, inputs[1]);
|
|
||||||
ctx.emit(Inst::gen_move(dst, src1, input_ty));
|
|
||||||
ctx.emit(Inst::xmm_rm_r(SseOpcode::Packusdw, RegMem::reg(src2), dst));
|
|
||||||
}
|
|
||||||
_ => unreachable!(),
|
|
||||||
},
|
|
||||||
_ => unreachable!(),
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
panic!("Unsupported non-vector type for widen instruction {:?}", ty);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
Opcode::Bitcast => {
|
Opcode::Bitcast => {
|
||||||
let input_ty = ctx.input_ty(insn, 0);
|
let input_ty = ctx.input_ty(insn, 0);
|
||||||
let output_ty = ctx.output_ty(insn, 0);
|
let output_ty = ctx.output_ty(insn, 0);
|
||||||
|
|||||||
@@ -805,6 +805,17 @@ impl Context for IsleContext<'_, '_, MInst, Flags, IsaFlags, 6> {
|
|||||||
self.lower_ctx
|
self.lower_ctx
|
||||||
.use_constant(VCodeConstantData::WellKnown(&IADD_PAIRWISE_ADDD_CONST_32))
|
.use_constant(VCodeConstantData::WellKnown(&IADD_PAIRWISE_ADDD_CONST_32))
|
||||||
}
|
}
|
||||||
|
|
||||||
|
#[inline]
|
||||||
|
fn snarrow_umax_mask(&mut self) -> VCodeConstant {
|
||||||
|
// 2147483647.0 is equivalent to 0x41DFFFFFFFC00000
|
||||||
|
static UMAX_MASK: [u8; 16] = [
|
||||||
|
0x00, 0x00, 0xC0, 0xFF, 0xFF, 0xFF, 0xDF, 0x41, 0x00, 0x00, 0xC0, 0xFF, 0xFF, 0xFF,
|
||||||
|
0xDF, 0x41,
|
||||||
|
];
|
||||||
|
self.lower_ctx
|
||||||
|
.use_constant(VCodeConstantData::WellKnown(&UMAX_MASK))
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
impl IsleContext<'_, '_, MInst, Flags, IsaFlags, 6> {
|
impl IsleContext<'_, '_, MInst, Flags, IsaFlags, 6> {
|
||||||
|
|||||||
80
cranelift/filetests/filetests/isa/x64/narrowing.clif
Normal file
80
cranelift/filetests/filetests/isa/x64/narrowing.clif
Normal file
@@ -0,0 +1,80 @@
|
|||||||
|
test compile precise-output
|
||||||
|
target x86_64
|
||||||
|
|
||||||
|
function %f1(i16x8, i16x8) -> i8x16 {
|
||||||
|
block0(v0: i16x8, v1: i16x8):
|
||||||
|
v2 = snarrow v0, v1
|
||||||
|
return v2
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; packsswb %xmm0, %xmm1, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f2(i32x4, i32x4) -> i16x8 {
|
||||||
|
block0(v0: i32x4, v1: i32x4):
|
||||||
|
v2 = snarrow v0, v1
|
||||||
|
return v2
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; packssdw %xmm0, %xmm1, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f3(f64x2) -> i32x4 {
|
||||||
|
block0(v0: f64x2):
|
||||||
|
v1 = fcvt_to_sint_sat.i64x2 v0
|
||||||
|
v2 = vconst.i64x2 0x00
|
||||||
|
v3 = snarrow v1, v2
|
||||||
|
return v3
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; movdqa %xmm0, %xmm5
|
||||||
|
; cmppd $0, %xmm5, %xmm0, %xmm5
|
||||||
|
; load_const VCodeConstant(0), %xmm6
|
||||||
|
; andps %xmm5, %xmm6, %xmm5
|
||||||
|
; minpd %xmm0, %xmm5, %xmm0
|
||||||
|
; cvttpd2dq %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f4(i16x8, i16x8) -> i8x16 {
|
||||||
|
block0(v0: i16x8, v1: i16x8):
|
||||||
|
v2 = unarrow v0, v1
|
||||||
|
return v2
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; packuswb %xmm0, %xmm1, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f5(i32x4, i32x4) -> i16x8 {
|
||||||
|
block0(v0: i32x4, v1: i32x4):
|
||||||
|
v2 = unarrow v0, v1
|
||||||
|
return v2
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; packusdw %xmm0, %xmm1, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
177
cranelift/filetests/filetests/isa/x64/widening.clif
Normal file
177
cranelift/filetests/filetests/isa/x64/widening.clif
Normal file
@@ -0,0 +1,177 @@
|
|||||||
|
test compile precise-output
|
||||||
|
target x86_64
|
||||||
|
|
||||||
|
function %f1(i8x16) -> i16x8 {
|
||||||
|
block0(v0: i8x16):
|
||||||
|
v1 = swiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovsxbw %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f2(i16x8) -> i32x4 {
|
||||||
|
block0(v0: i16x8):
|
||||||
|
v1 = swiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovsxwd %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f3(i32x4) -> i64x2 {
|
||||||
|
block0(v0: i32x4):
|
||||||
|
v1 = swiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovsxdq %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f4(i8x16) -> i16x8 {
|
||||||
|
block0(v0: i8x16):
|
||||||
|
v1 = swiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; palignr $8, %xmm0, %xmm0, %xmm0
|
||||||
|
; pmovsxbw %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f5(i16x8) -> i32x4 {
|
||||||
|
block0(v0: i16x8):
|
||||||
|
v1 = swiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; palignr $8, %xmm0, %xmm0, %xmm0
|
||||||
|
; pmovsxwd %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f6(i32x4) -> i64x2 {
|
||||||
|
block0(v0: i32x4):
|
||||||
|
v1 = swiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pshufd $238, %xmm0, %xmm3
|
||||||
|
; pmovsxdq %xmm3, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f7(i8x16) -> i16x8 {
|
||||||
|
block0(v0: i8x16):
|
||||||
|
v1 = uwiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovzxbw %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f8(i16x8) -> i32x4 {
|
||||||
|
block0(v0: i16x8):
|
||||||
|
v1 = uwiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovzxwd %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f9(i32x4) -> i64x2 {
|
||||||
|
block0(v0: i32x4):
|
||||||
|
v1 = uwiden_low v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pmovzxdq %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f10(i8x16) -> i16x8 {
|
||||||
|
block0(v0: i8x16):
|
||||||
|
v1 = uwiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; palignr $8, %xmm0, %xmm0, %xmm0
|
||||||
|
; pmovzxbw %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f11(i16x8) -> i32x4 {
|
||||||
|
block0(v0: i16x8):
|
||||||
|
v1 = uwiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; palignr $8, %xmm0, %xmm0, %xmm0
|
||||||
|
; pmovzxwd %xmm0, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
|
function %f12(i32x4) -> i64x2 {
|
||||||
|
block0(v0: i32x4):
|
||||||
|
v1 = uwiden_high v0
|
||||||
|
return v1
|
||||||
|
}
|
||||||
|
|
||||||
|
; pushq %rbp
|
||||||
|
; movq %rsp, %rbp
|
||||||
|
; block0:
|
||||||
|
; pshufd $238, %xmm0, %xmm3
|
||||||
|
; pmovzxdq %xmm3, %xmm0
|
||||||
|
; movq %rbp, %rsp
|
||||||
|
; popq %rbp
|
||||||
|
; ret
|
||||||
|
|
||||||
Reference in New Issue
Block a user