| // RUN: mlir-opt -arith-unsigned-when-equivalent %s | FileCheck %s |
| |
| // CHECK-LABEL func @not_with_maybe_overflow |
| // CHECK: arith.divsi |
| // CHECK: arith.ceildivsi |
| // CHECK: arith.floordivsi |
| // CHECK: arith.remsi |
| // CHECK: arith.minsi |
| // CHECK: arith.maxsi |
| // CHECK: arith.extsi |
| // CHECK: arith.cmpi sle |
| // CHECK: arith.cmpi slt |
| // CHECK: arith.cmpi sge |
| // CHECK: arith.cmpi sgt |
| func.func @not_with_maybe_overflow(%arg0 : i32) { |
| %ci32_smax = arith.constant 0x7fffffff : i32 |
| %c1 = arith.constant 1 : i32 |
| %c4 = arith.constant 4 : i32 |
| %0 = arith.minui %arg0, %ci32_smax : i32 |
| %1 = arith.addi %0, %c1 : i32 |
| %2 = arith.divsi %1, %c4 : i32 |
| %3 = arith.ceildivsi %1, %c4 : i32 |
| %4 = arith.floordivsi %1, %c4 : i32 |
| %5 = arith.remsi %1, %c4 : i32 |
| %6 = arith.minsi %1, %c4 : i32 |
| %7 = arith.maxsi %1, %c4 : i32 |
| %8 = arith.extsi %1 : i32 to i64 |
| %9 = arith.cmpi sle, %1, %c4 : i32 |
| %10 = arith.cmpi slt, %1, %c4 : i32 |
| %11 = arith.cmpi sge, %1, %c4 : i32 |
| %12 = arith.cmpi sgt, %1, %c4 : i32 |
| func.return |
| } |
| |
| // CHECK-LABEL func @yes_with_no_overflow |
| // CHECK: arith.divui |
| // CHECK: arith.ceildivui |
| // CHECK: arith.divui |
| // CHECK: arith.remui |
| // CHECK: arith.minui |
| // CHECK: arith.maxui |
| // CHECK: arith.extui |
| // CHECK: arith.cmpi ule |
| // CHECK: arith.cmpi ult |
| // CHECK: arith.cmpi uge |
| // CHECK: arith.cmpi ugt |
| func.func @yes_with_no_overflow(%arg0 : i32) { |
| %ci32_almost_smax = arith.constant 0x7ffffffe : i32 |
| %c1 = arith.constant 1 : i32 |
| %c4 = arith.constant 4 : i32 |
| %0 = arith.minui %arg0, %ci32_almost_smax : i32 |
| %1 = arith.addi %0, %c1 : i32 |
| %2 = arith.divsi %1, %c4 : i32 |
| %3 = arith.ceildivsi %1, %c4 : i32 |
| %4 = arith.floordivsi %1, %c4 : i32 |
| %5 = arith.remsi %1, %c4 : i32 |
| %6 = arith.minsi %1, %c4 : i32 |
| %7 = arith.maxsi %1, %c4 : i32 |
| %8 = arith.extsi %1 : i32 to i64 |
| %9 = arith.cmpi sle, %1, %c4 : i32 |
| %10 = arith.cmpi slt, %1, %c4 : i32 |
| %11 = arith.cmpi sge, %1, %c4 : i32 |
| %12 = arith.cmpi sgt, %1, %c4 : i32 |
| func.return |
| } |
| |
| // CHECK-LABEL: func @preserves_structure |
| // CHECK: scf.for %[[arg1:.*]] = |
| // CHECK: %[[v:.*]] = arith.remui %[[arg1]] |
| // CHECK: %[[w:.*]] = arith.addi %[[v]], %[[v]] |
| // CHECK: %[[test:.*]] = arith.cmpi ule, %[[w]] |
| // CHECK: scf.if %[[test]] |
| // CHECK: memref.store %[[w]] |
| func.func @preserves_structure(%arg0 : memref<8xindex>) { |
| %c0 = arith.constant 0 : index |
| %c1 = arith.constant 1 : index |
| %c4 = arith.constant 4 : index |
| %c8 = arith.constant 8 : index |
| scf.for %arg1 = %c0 to %c8 step %c1 { |
| %v = arith.remsi %arg1, %c4 : index |
| %w = arith.addi %v, %v : index |
| %test = arith.cmpi sle, %w, %c4 : index |
| scf.if %test { |
| memref.store %w, %arg0[%arg1] : memref<8xindex> |
| } |
| } |
| func.return |
| } |
| |
| func.func private @external() -> i8 |
| |
| // CHECK-LABEL: @dead_code |
| func.func @dead_code() { |
| %0 = call @external() : () -> i8 |
| // CHECK: arith.floordivsi |
| %1 = arith.floordivsi %0, %0 : i8 |
| return |
| } |
| |
| // Make sure not crash. |
| // CHECK-LABEL: @no_integer_or_index |
| func.func @no_integer_or_index() { |
| // CHECK: arith.cmpi |
| %cst_0 = arith.constant dense<[0]> : vector<1xi32> |
| %cmp = arith.cmpi slt, %cst_0, %cst_0 : vector<1xi32> |
| return |
| } |
| |
| // CHECK-LABEL: @gpu_func |
| func.func @gpu_func(%arg0: memref<2x32xf32>, %arg1: memref<2x32xf32>, %arg2: memref<32xf32>, %arg3: f32, %arg4: !gpu.async.token, %arg5: index, %arg6: index) -> memref<2x32xf32> { |
| %c1 = arith.constant 1 : index |
| %2 = gpu.launch async [%arg4] blocks(%arg7, %arg8, %arg9) in (%arg13 = %c1, %arg14 = %c1, %arg15 = %c1) threads(%arg10, %arg11, %arg12) in (%arg16 = %c1, %arg17 = %c1, %arg18 = %c1) { |
| gpu.terminator |
| } |
| return %arg1 : memref<2x32xf32> |
| } |