| // RUN: mlir-opt %s -convert-vector-to-llvm | FileCheck %s |
| |
| func @broadcast_vec1d_from_scalar(%arg0: f32) -> vector<2xf32> { |
| %0 = vector.broadcast %arg0 : f32 to vector<2xf32> |
| return %0 : vector<2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec1d_from_scalar( |
| // CHECK-SAME: %[[A:.*]]: f32) |
| // CHECK: %[[T0:.*]] = llvm.mlir.undef : vector<2xf32> |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T2:.*]] = llvm.insertelement %[[A]], %[[T0]][%[[T1]] : i32] : vector<2xf32> |
| // CHECK: %[[T3:.*]] = llvm.shufflevector %[[T2]], %[[T0]] [0 : i32, 0 : i32] : vector<2xf32>, vector<2xf32> |
| // CHECK: llvm.return %[[T3]] : vector<2xf32> |
| |
| func @broadcast_vec2d_from_scalar(%arg0: f32) -> vector<2x3xf32> { |
| %0 = vector.broadcast %arg0 : f32 to vector<2x3xf32> |
| return %0 : vector<2x3xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec2d_from_scalar( |
| // CHECK-SAME: %[[A:.*]]: f32) |
| // CHECK: %[[T0:.*]] = llvm.mlir.undef : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T1:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T2:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T3:.*]] = llvm.insertelement %[[A]], %[[T1]][%[[T2]] : i32] : vector<3xf32> |
| // CHECK: %[[T4:.*]] = llvm.shufflevector %[[T3]], %[[T3]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T5:.*]] = llvm.insertvalue %[[T4]], %[[T0]][0] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T6:.*]] = llvm.insertvalue %[[T4]], %[[T5]][1] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: llvm.return %[[T6]] : !llvm.array<2 x vector<3xf32>> |
| |
| func @broadcast_vec3d_from_scalar(%arg0: f32) -> vector<2x3x4xf32> { |
| %0 = vector.broadcast %arg0 : f32 to vector<2x3x4xf32> |
| return %0 : vector<2x3x4xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec3d_from_scalar( |
| // CHECK-SAME: %[[A:.*]]: f32) |
| // CHECK: %[[T0:.*]] = llvm.mlir.undef : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T1:.*]] = llvm.mlir.undef : vector<4xf32> |
| // CHECK: %[[T2:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T3:.*]] = llvm.insertelement %[[A]], %[[T1]][%[[T2]] : i32] : vector<4xf32> |
| // CHECK: %[[T4:.*]] = llvm.shufflevector %[[T3]], %[[T3]] [0 : i32, 0 : i32, 0 : i32, 0 : i32] : vector<4xf32>, vector<4xf32> |
| // CHECK: %[[T5:.*]] = llvm.insertvalue %[[T4]], %[[T0]][0, 0] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T6:.*]] = llvm.insertvalue %[[T4]], %[[T5]][0, 1] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T7:.*]] = llvm.insertvalue %[[T4]], %[[T6]][0, 2] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T8:.*]] = llvm.insertvalue %[[T4]], %[[T7]][1, 0] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T9:.*]] = llvm.insertvalue %[[T4]], %[[T8]][1, 1] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: %[[T10:.*]] = llvm.insertvalue %[[T4]], %[[T9]][1, 2] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| // CHECK: llvm.return %[[T10]] : !llvm.array<2 x array<3 x vector<4xf32>>> |
| |
| func @broadcast_vec1d_from_vec1d(%arg0: vector<2xf32>) -> vector<2xf32> { |
| %0 = vector.broadcast %arg0 : vector<2xf32> to vector<2xf32> |
| return %0 : vector<2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec1d_from_vec1d( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>) |
| // CHECK: llvm.return %[[A]] : vector<2xf32> |
| |
| func @broadcast_vec2d_from_vec1d(%arg0: vector<2xf32>) -> vector<3x2xf32> { |
| %0 = vector.broadcast %arg0 : vector<2xf32> to vector<3x2xf32> |
| return %0 : vector<3x2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec2d_from_vec1d( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<3x2xf32>) : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T1:.*]] = llvm.insertvalue %[[A]], %[[T0]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T2:.*]] = llvm.insertvalue %[[A]], %[[T1]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T3:.*]] = llvm.insertvalue %[[A]], %[[T2]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: llvm.return %[[T3]] : !llvm.array<3 x vector<2xf32>> |
| |
| func @broadcast_vec3d_from_vec1d(%arg0: vector<2xf32>) -> vector<4x3x2xf32> { |
| %0 = vector.broadcast %arg0 : vector<2xf32> to vector<4x3x2xf32> |
| return %0 : vector<4x3x2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec3d_from_vec1d( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<3x2xf32>) : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<4x3x2xf32>) : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T2:.*]] = llvm.insertvalue %[[A]], %[[T0]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T3:.*]] = llvm.insertvalue %[[A]], %[[T2]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[A]], %[[T3]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T5:.*]] = llvm.insertvalue %[[T4]], %[[T1]][0] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T6:.*]] = llvm.insertvalue %[[T4]], %[[T5]][1] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T7:.*]] = llvm.insertvalue %[[T4]], %[[T6]][2] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T8:.*]] = llvm.insertvalue %[[T4]], %[[T7]][3] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: llvm.return %[[T8]] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| |
| func @broadcast_vec3d_from_vec2d(%arg0: vector<3x2xf32>) -> vector<4x3x2xf32> { |
| %0 = vector.broadcast %arg0 : vector<3x2xf32> to vector<4x3x2xf32> |
| return %0 : vector<4x3x2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_vec3d_from_vec2d( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<3 x vector<2xf32>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<4x3x2xf32>) : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T1:.*]] = llvm.insertvalue %[[A]], %[[T0]][0] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T2:.*]] = llvm.insertvalue %[[A]], %[[T1]][1] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T3:.*]] = llvm.insertvalue %[[A]], %[[T2]][2] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[A]], %[[T3]][3] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: llvm.return %[[T4]] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| |
| func @broadcast_stretch(%arg0: vector<1xf32>) -> vector<4xf32> { |
| %0 = vector.broadcast %arg0 : vector<1xf32> to vector<4xf32> |
| return %0 : vector<4xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_stretch( |
| // CHECK-SAME: %[[A:.*]]: vector<1xf32>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T1:.*]] = llvm.extractelement %[[A]][%[[T0]] : i64] : vector<1xf32> |
| // CHECK: %[[T2:.*]] = llvm.mlir.undef : vector<4xf32> |
| // CHECK: %[[T3:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T4:.*]] = llvm.insertelement %[[T1]], %[[T2]][%3 : i32] : vector<4xf32> |
| // CHECK: %[[T5:.*]] = llvm.shufflevector %[[T4]], %[[T2]] [0 : i32, 0 : i32, 0 : i32, 0 : i32] : vector<4xf32>, vector<4xf32> |
| // CHECK: llvm.return %[[T5]] : vector<4xf32> |
| |
| func @broadcast_stretch_at_start(%arg0: vector<1x4xf32>) -> vector<3x4xf32> { |
| %0 = vector.broadcast %arg0 : vector<1x4xf32> to vector<3x4xf32> |
| return %0 : vector<3x4xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_stretch_at_start( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<1 x vector<4xf32>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<3x4xf32>) : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[T1:.*]] = llvm.extractvalue %[[A]][0] : !llvm.array<1 x vector<4xf32>> |
| // CHECK: %[[T2:.*]] = llvm.insertvalue %[[T1]], %[[T0]][0] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[T3:.*]] = llvm.insertvalue %[[T1]], %[[T2]][1] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[T1]], %[[T3]][2] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: llvm.return %[[T4]] : !llvm.array<3 x vector<4xf32>> |
| |
| func @broadcast_stretch_at_end(%arg0: vector<4x1xf32>) -> vector<4x3xf32> { |
| %0 = vector.broadcast %arg0 : vector<4x1xf32> to vector<4x3xf32> |
| return %0 : vector<4x3xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_stretch_at_end( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<4 x vector<1xf32>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<4x3xf32>) : !llvm.array<4 x vector<3xf32>> |
| // CHECK: %[[T1:.*]] = llvm.extractvalue %[[A]][0] : !llvm.array<4 x vector<1xf32>> |
| // CHECK: %[[T2:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T3:.*]] = llvm.extractelement %[[T1]][%[[T2]] : i64] : vector<1xf32> |
| // CHECK: %[[T4:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T5:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T6:.*]] = llvm.insertelement %[[T3]], %[[T4]][%[[T5]] : i32] : vector<3xf32> |
| // CHECK: %[[T7:.*]] = llvm.shufflevector %[[T6]], %[[T4]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T8:.*]] = llvm.insertvalue %[[T7]], %[[T0]][0] : !llvm.array<4 x vector<3xf32>> |
| // CHECK: %[[T9:.*]] = llvm.extractvalue %[[A]][1] : !llvm.array<4 x vector<1xf32>> |
| // CHECK: %[[T10:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T11:.*]] = llvm.extractelement %[[T9]][%[[T10]] : i64] : vector<1xf32> |
| // CHECK: %[[T12:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T13:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T14:.*]] = llvm.insertelement %[[T11]], %[[T12]][%[[T13]] : i32] : vector<3xf32> |
| // CHECK: %[[T15:.*]] = llvm.shufflevector %[[T14]], %[[T12]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T16:.*]] = llvm.insertvalue %[[T15]], %[[T8]][1] : !llvm.array<4 x vector<3xf32>> |
| // CHECK: %[[T17:.*]] = llvm.extractvalue %[[A]][2] : !llvm.array<4 x vector<1xf32>> |
| // CHECK: %[[T18:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T19:.*]] = llvm.extractelement %[[T17]][%[[T18]] : i64] : vector<1xf32> |
| // CHECK: %[[T20:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T21:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T22:.*]] = llvm.insertelement %[[T19]], %[[T20]][%[[T21]] : i32] : vector<3xf32> |
| // CHECK: %[[T23:.*]] = llvm.shufflevector %[[T22]], %[[T20]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T24:.*]] = llvm.insertvalue %[[T23]], %[[T16]][2] : !llvm.array<4 x vector<3xf32>> |
| // CHECK: %[[T25:.*]] = llvm.extractvalue %[[A]][3] : !llvm.array<4 x vector<1xf32>> |
| // CHECK: %[[T26:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T27:.*]] = llvm.extractelement %[[T25]][%[[T26]] : i64] : vector<1xf32> |
| // CHECK: %[[T28:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T29:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T30:.*]] = llvm.insertelement %[[T27]], %[[T28]][%[[T29]] : i32] : vector<3xf32> |
| // CHECK: %[[T31:.*]] = llvm.shufflevector %[[T30]], %[[T28]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T32:.*]] = llvm.insertvalue %[[T31]], %[[T24]][3] : !llvm.array<4 x vector<3xf32>> |
| // CHECK: llvm.return %[[T32]] : !llvm.array<4 x vector<3xf32>> |
| |
| func @broadcast_stretch_in_middle(%arg0: vector<4x1x2xf32>) -> vector<4x3x2xf32> { |
| %0 = vector.broadcast %arg0 : vector<4x1x2xf32> to vector<4x3x2xf32> |
| return %0 : vector<4x3x2xf32> |
| } |
| // CHECK-LABEL: llvm.func @broadcast_stretch_in_middle( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<4 x array<1 x vector<2xf32>>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<4x3x2xf32>) : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<3x2xf32>) : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T2:.*]] = llvm.extractvalue %[[A]][0, 0] : !llvm.array<4 x array<1 x vector<2xf32>>> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[T2]], %[[T1]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T5:.*]] = llvm.insertvalue %[[T2]], %[[T4]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T6:.*]] = llvm.insertvalue %[[T2]], %[[T5]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T7:.*]] = llvm.insertvalue %[[T6]], %[[T0]][0] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T8:.*]] = llvm.extractvalue %[[A]][1, 0] : !llvm.array<4 x array<1 x vector<2xf32>>> |
| // CHECK: %[[T10:.*]] = llvm.insertvalue %[[T8]], %[[T1]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T11:.*]] = llvm.insertvalue %[[T8]], %[[T10]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T12:.*]] = llvm.insertvalue %[[T8]], %[[T11]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T13:.*]] = llvm.insertvalue %[[T12]], %[[T7]][1] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T14:.*]] = llvm.extractvalue %[[A]][2, 0] : !llvm.array<4 x array<1 x vector<2xf32>>> |
| // CHECK: %[[T16:.*]] = llvm.insertvalue %[[T14]], %[[T1]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T17:.*]] = llvm.insertvalue %[[T14]], %[[T16]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T18:.*]] = llvm.insertvalue %[[T14]], %[[T17]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T19:.*]] = llvm.insertvalue %[[T18]], %[[T13]][2] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: %[[T20:.*]] = llvm.extractvalue %[[A]][3, 0] : !llvm.array<4 x array<1 x vector<2xf32>>> |
| // CHECK: %[[T22:.*]] = llvm.insertvalue %[[T20]], %[[T1]][0] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T23:.*]] = llvm.insertvalue %[[T20]], %[[T22]][1] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T24:.*]] = llvm.insertvalue %[[T20]], %[[T23]][2] : !llvm.array<3 x vector<2xf32>> |
| // CHECK: %[[T25:.*]] = llvm.insertvalue %[[T24]], %[[T19]][3] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| // CHECK: llvm.return %[[T25]] : !llvm.array<4 x array<3 x vector<2xf32>>> |
| |
| func @outerproduct(%arg0: vector<2xf32>, %arg1: vector<3xf32>) -> vector<2x3xf32> { |
| %2 = vector.outerproduct %arg0, %arg1 : vector<2xf32>, vector<3xf32> |
| return %2 : vector<2x3xf32> |
| } |
| // CHECK-LABEL: llvm.func @outerproduct( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>, |
| // CHECK-SAME: %[[B:.*]]: vector<3xf32>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<2x3xf32>) |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T2:.*]] = llvm.extractelement %[[A]][%[[T1]] : i64] : vector<2xf32> |
| // CHECK: %[[T3:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T4:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T5:.*]] = llvm.insertelement %[[T2]], %[[T3]][%4 : i32] : vector<3xf32> |
| // CHECK: %[[T6:.*]] = llvm.shufflevector %[[T5]], %[[T3]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T7:.*]] = llvm.fmul %[[T6]], %[[B]] : vector<3xf32> |
| // CHECK: %[[T8:.*]] = llvm.insertvalue %[[T7]], %[[T0]][0] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T9:.*]] = llvm.mlir.constant(1 : i64) : i64 |
| // CHECK: %[[T10:.*]] = llvm.extractelement %[[A]][%9 : i64] : vector<2xf32> |
| // CHECK: %[[T11:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T12:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T13:.*]] = llvm.insertelement %[[T10]], %[[T11]][%12 : i32] : vector<3xf32> |
| // CHECK: %[[T14:.*]] = llvm.shufflevector %[[T13]], %[[T11]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T15:.*]] = llvm.fmul %[[T14]], %[[B]] : vector<3xf32> |
| // CHECK: %[[T16:.*]] = llvm.insertvalue %[[T15]], %[[T8]][1] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: llvm.return %[[T16]] : !llvm.array<2 x vector<3xf32>> |
| |
| func @outerproduct_add(%arg0: vector<2xf32>, %arg1: vector<3xf32>, %arg2: vector<2x3xf32>) -> vector<2x3xf32> { |
| %2 = vector.outerproduct %arg0, %arg1, %arg2 : vector<2xf32>, vector<3xf32> |
| return %2 : vector<2x3xf32> |
| } |
| // CHECK-LABEL: llvm.func @outerproduct_add( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>, |
| // CHECK-SAME: %[[B:.*]]: vector<3xf32>, |
| // CHECK-SAME: %[[C:.*]]: !llvm.array<2 x vector<3xf32>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<2x3xf32>) |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: %[[T2:.*]] = llvm.extractelement %[[A]][%[[T1]] : i64] : vector<2xf32> |
| // CHECK: %[[T3:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T4:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T5:.*]] = llvm.insertelement %[[T2]], %[[T3]][%[[T4]] : i32] : vector<3xf32> |
| // CHECK: %[[T6:.*]] = llvm.shufflevector %[[T5]], %[[T3]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T7:.*]] = llvm.extractvalue %[[C]][0] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T8:.*]] = "llvm.intr.fmuladd"(%[[T6]], %[[B]], %[[T7]]) : (vector<3xf32>, vector<3xf32>, vector<3xf32>) |
| // CHECK: %[[T9:.*]] = llvm.insertvalue %[[T8]], %[[T0]][0] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T10:.*]] = llvm.mlir.constant(1 : i64) : i64 |
| // CHECK: %[[T11:.*]] = llvm.extractelement %[[A]][%[[T10]] : i64] : vector<2xf32> |
| // CHECK: %[[T12:.*]] = llvm.mlir.undef : vector<3xf32> |
| // CHECK: %[[T13:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[T14:.*]] = llvm.insertelement %[[T11]], %[[T12]][%[[T13]] : i32] : vector<3xf32> |
| // CHECK: %[[T15:.*]] = llvm.shufflevector %[[T14]], %[[T12]] [0 : i32, 0 : i32, 0 : i32] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T16:.*]] = llvm.extractvalue %[[C]][1] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: %[[T17:.*]] = "llvm.intr.fmuladd"(%[[T15]], %[[B]], %[[T16]]) : (vector<3xf32>, vector<3xf32>, vector<3xf32>) |
| // CHECK: %[[T18:.*]] = llvm.insertvalue %[[T17]], %[[T9]][1] : !llvm.array<2 x vector<3xf32>> |
| // CHECK: llvm.return %[[T18]] : !llvm.array<2 x vector<3xf32>> |
| |
| func @shuffle_1D_direct(%arg0: vector<2xf32>, %arg1: vector<2xf32>) -> vector<2xf32> { |
| %1 = vector.shuffle %arg0, %arg1 [0, 1] : vector<2xf32>, vector<2xf32> |
| return %1 : vector<2xf32> |
| } |
| // CHECK-LABEL: llvm.func @shuffle_1D_direct( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>, |
| // CHECK-SAME: %[[B:.*]]: vector<2xf32>) |
| // CHECK: %[[s:.*]] = llvm.shufflevector %[[A]], %[[B]] [0, 1] : vector<2xf32>, vector<2xf32> |
| // CHECK: llvm.return %[[s]] : vector<2xf32> |
| |
| func @shuffle_1D(%arg0: vector<2xf32>, %arg1: vector<3xf32>) -> vector<5xf32> { |
| %1 = vector.shuffle %arg0, %arg1 [4, 3, 2, 1, 0] : vector<2xf32>, vector<3xf32> |
| return %1 : vector<5xf32> |
| } |
| // CHECK-LABEL: llvm.func @shuffle_1D( |
| // CHECK-SAME: %[[A:.*]]: vector<2xf32>, |
| // CHECK-SAME: %[[B:.*]]: vector<3xf32>) |
| // CHECK: %[[u0:.*]] = llvm.mlir.undef : vector<5xf32> |
| // CHECK: %[[c2:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[e1:.*]] = llvm.extractelement %[[B]][%[[c2]] : i64] : vector<3xf32> |
| // CHECK: %[[c0:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[i1:.*]] = llvm.insertelement %[[e1]], %[[u0]][%[[c0]] : i64] : vector<5xf32> |
| // CHECK: %[[c1:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[e2:.*]] = llvm.extractelement %[[B]][%[[c1]] : i64] : vector<3xf32> |
| // CHECK: %[[c1:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[i2:.*]] = llvm.insertelement %[[e2]], %[[i1]][%[[c1]] : i64] : vector<5xf32> |
| // CHECK: %[[c0:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[e3:.*]] = llvm.extractelement %[[B]][%[[c0]] : i64] : vector<3xf32> |
| // CHECK: %[[c2:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[i3:.*]] = llvm.insertelement %[[e3]], %[[i2]][%[[c2]] : i64] : vector<5xf32> |
| // CHECK: %[[c1:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[e4:.*]] = llvm.extractelement %[[A]][%[[c1]] : i64] : vector<2xf32> |
| // CHECK: %[[c3:.*]] = llvm.mlir.constant(3 : index) : i64 |
| // CHECK: %[[i4:.*]] = llvm.insertelement %[[e4]], %[[i3]][%[[c3]] : i64] : vector<5xf32> |
| // CHECK: %[[c0:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[e5:.*]] = llvm.extractelement %[[A]][%[[c0]] : i64] : vector<2xf32> |
| // CHECK: %[[c4:.*]] = llvm.mlir.constant(4 : index) : i64 |
| // CHECK: %[[i5:.*]] = llvm.insertelement %[[e5]], %[[i4]][%[[c4]] : i64] : vector<5xf32> |
| // CHECK: llvm.return %[[i5]] : vector<5xf32> |
| |
| func @shuffle_2D(%a: vector<1x4xf32>, %b: vector<2x4xf32>) -> vector<3x4xf32> { |
| %1 = vector.shuffle %a, %b[1, 0, 2] : vector<1x4xf32>, vector<2x4xf32> |
| return %1 : vector<3x4xf32> |
| } |
| // CHECK-LABEL: llvm.func @shuffle_2D( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<1 x vector<4xf32>>, |
| // CHECK-SAME: %[[B:.*]]: !llvm.array<2 x vector<4xf32>>) |
| // CHECK: %[[u0:.*]] = llvm.mlir.undef : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[e1:.*]] = llvm.extractvalue %[[B]][0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[i1:.*]] = llvm.insertvalue %[[e1]], %[[u0]][0] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[e2:.*]] = llvm.extractvalue %[[A]][0] : !llvm.array<1 x vector<4xf32>> |
| // CHECK: %[[i2:.*]] = llvm.insertvalue %[[e2]], %[[i1]][1] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: %[[e3:.*]] = llvm.extractvalue %[[B]][1] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[i3:.*]] = llvm.insertvalue %[[e3]], %[[i2]][2] : !llvm.array<3 x vector<4xf32>> |
| // CHECK: llvm.return %[[i3]] : !llvm.array<3 x vector<4xf32>> |
| |
| func @extract_element(%arg0: vector<16xf32>) -> f32 { |
| %0 = constant 15 : i32 |
| %1 = vector.extractelement %arg0[%0 : i32]: vector<16xf32> |
| return %1 : f32 |
| } |
| // CHECK-LABEL: llvm.func @extract_element( |
| // CHECK-SAME: %[[A:.*]]: vector<16xf32>) |
| // CHECK: %[[c:.*]] = llvm.mlir.constant(15 : i32) : i32 |
| // CHECK: %[[x:.*]] = llvm.extractelement %[[A]][%[[c]] : i32] : vector<16xf32> |
| // CHECK: llvm.return %[[x]] : f32 |
| |
| func @extract_element_from_vec_1d(%arg0: vector<16xf32>) -> f32 { |
| %0 = vector.extract %arg0[15]: vector<16xf32> |
| return %0 : f32 |
| } |
| // CHECK-LABEL: llvm.func @extract_element_from_vec_1d |
| // CHECK: llvm.mlir.constant(15 : i64) : i64 |
| // CHECK: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<16xf32> |
| // CHECK: llvm.return {{.*}} : f32 |
| |
| func @extract_vec_2d_from_vec_3d(%arg0: vector<4x3x16xf32>) -> vector<3x16xf32> { |
| %0 = vector.extract %arg0[0]: vector<4x3x16xf32> |
| return %0 : vector<3x16xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_vec_2d_from_vec_3d |
| // CHECK: llvm.extractvalue {{.*}}[0] : !llvm.array<4 x array<3 x vector<16xf32>>> |
| // CHECK: llvm.return {{.*}} : !llvm.array<3 x vector<16xf32>> |
| |
| func @extract_vec_1d_from_vec_3d(%arg0: vector<4x3x16xf32>) -> vector<16xf32> { |
| %0 = vector.extract %arg0[0, 0]: vector<4x3x16xf32> |
| return %0 : vector<16xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_vec_1d_from_vec_3d |
| // CHECK: llvm.extractvalue {{.*}}[0, 0] : !llvm.array<4 x array<3 x vector<16xf32>>> |
| // CHECK: llvm.return {{.*}} : vector<16xf32> |
| |
| func @extract_element_from_vec_3d(%arg0: vector<4x3x16xf32>) -> f32 { |
| %0 = vector.extract %arg0[0, 0, 0]: vector<4x3x16xf32> |
| return %0 : f32 |
| } |
| // CHECK-LABEL: llvm.func @extract_element_from_vec_3d |
| // CHECK: llvm.extractvalue {{.*}}[0, 0] : !llvm.array<4 x array<3 x vector<16xf32>>> |
| // CHECK: llvm.mlir.constant(0 : i64) : i64 |
| // CHECK: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<16xf32> |
| // CHECK: llvm.return {{.*}} : f32 |
| |
| func @insert_element(%arg0: f32, %arg1: vector<4xf32>) -> vector<4xf32> { |
| %0 = constant 3 : i32 |
| %1 = vector.insertelement %arg0, %arg1[%0 : i32] : vector<4xf32> |
| return %1 : vector<4xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_element( |
| // CHECK-SAME: %[[A:.*]]: f32, |
| // CHECK-SAME: %[[B:.*]]: vector<4xf32>) |
| // CHECK: %[[c:.*]] = llvm.mlir.constant(3 : i32) : i32 |
| // CHECK: %[[x:.*]] = llvm.insertelement %[[A]], %[[B]][%[[c]] : i32] : vector<4xf32> |
| // CHECK: llvm.return %[[x]] : vector<4xf32> |
| |
| func @insert_element_into_vec_1d(%arg0: f32, %arg1: vector<4xf32>) -> vector<4xf32> { |
| %0 = vector.insert %arg0, %arg1[3] : f32 into vector<4xf32> |
| return %0 : vector<4xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_element_into_vec_1d |
| // CHECK: llvm.mlir.constant(3 : i64) : i64 |
| // CHECK: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<4xf32> |
| // CHECK: llvm.return {{.*}} : vector<4xf32> |
| |
| func @insert_vec_2d_into_vec_3d(%arg0: vector<8x16xf32>, %arg1: vector<4x8x16xf32>) -> vector<4x8x16xf32> { |
| %0 = vector.insert %arg0, %arg1[3] : vector<8x16xf32> into vector<4x8x16xf32> |
| return %0 : vector<4x8x16xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_vec_2d_into_vec_3d |
| // CHECK: llvm.insertvalue {{.*}}, {{.*}}[3] : !llvm.array<4 x array<8 x vector<16xf32>>> |
| // CHECK: llvm.return {{.*}} : !llvm.array<4 x array<8 x vector<16xf32>>> |
| |
| func @insert_vec_1d_into_vec_3d(%arg0: vector<16xf32>, %arg1: vector<4x8x16xf32>) -> vector<4x8x16xf32> { |
| %0 = vector.insert %arg0, %arg1[3, 7] : vector<16xf32> into vector<4x8x16xf32> |
| return %0 : vector<4x8x16xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_vec_1d_into_vec_3d |
| // CHECK: llvm.insertvalue {{.*}}, {{.*}}[3, 7] : !llvm.array<4 x array<8 x vector<16xf32>>> |
| // CHECK: llvm.return {{.*}} : !llvm.array<4 x array<8 x vector<16xf32>>> |
| |
| func @insert_element_into_vec_3d(%arg0: f32, %arg1: vector<4x8x16xf32>) -> vector<4x8x16xf32> { |
| %0 = vector.insert %arg0, %arg1[3, 7, 15] : f32 into vector<4x8x16xf32> |
| return %0 : vector<4x8x16xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_element_into_vec_3d |
| // CHECK: llvm.extractvalue {{.*}}[3, 7] : !llvm.array<4 x array<8 x vector<16xf32>>> |
| // CHECK: llvm.mlir.constant(15 : i64) : i64 |
| // CHECK: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<16xf32> |
| // CHECK: llvm.insertvalue {{.*}}, {{.*}}[3, 7] : !llvm.array<4 x array<8 x vector<16xf32>>> |
| // CHECK: llvm.return {{.*}} : !llvm.array<4 x array<8 x vector<16xf32>>> |
| |
| func @vector_type_cast(%arg0: memref<8x8x8xf32>) -> memref<vector<8x8x8xf32>> { |
| %0 = vector.type_cast %arg0: memref<8x8x8xf32> to memref<vector<8x8x8xf32>> |
| return %0 : memref<vector<8x8x8xf32>> |
| } |
| // CHECK-LABEL: llvm.func @vector_type_cast |
| // CHECK: llvm.mlir.undef : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>>, ptr<array<8 x array<8 x vector<8xf32>>>>, i64)> |
| // CHECK: %[[allocated:.*]] = llvm.extractvalue {{.*}}[0] : !llvm.struct<(ptr<f32>, ptr<f32>, i64, array<3 x i64>, array<3 x i64>)> |
| // CHECK: %[[allocatedBit:.*]] = llvm.bitcast %[[allocated]] : !llvm.ptr<f32> to !llvm.ptr<array<8 x array<8 x vector<8xf32>>>> |
| // CHECK: llvm.insertvalue %[[allocatedBit]], {{.*}}[0] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>>, ptr<array<8 x array<8 x vector<8xf32>>>>, i64)> |
| // CHECK: %[[aligned:.*]] = llvm.extractvalue {{.*}}[1] : !llvm.struct<(ptr<f32>, ptr<f32>, i64, array<3 x i64>, array<3 x i64>)> |
| // CHECK: %[[alignedBit:.*]] = llvm.bitcast %[[aligned]] : !llvm.ptr<f32> to !llvm.ptr<array<8 x array<8 x vector<8xf32>>>> |
| // CHECK: llvm.insertvalue %[[alignedBit]], {{.*}}[1] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>>, ptr<array<8 x array<8 x vector<8xf32>>>>, i64)> |
| // CHECK: llvm.mlir.constant(0 : index |
| // CHECK: llvm.insertvalue {{.*}}[2] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>>, ptr<array<8 x array<8 x vector<8xf32>>>>, i64)> |
| |
| func @vector_type_cast_non_zero_addrspace(%arg0: memref<8x8x8xf32, 3>) -> memref<vector<8x8x8xf32>, 3> { |
| %0 = vector.type_cast %arg0: memref<8x8x8xf32, 3> to memref<vector<8x8x8xf32>, 3> |
| return %0 : memref<vector<8x8x8xf32>, 3> |
| } |
| // CHECK-LABEL: llvm.func @vector_type_cast_non_zero_addrspace |
| // CHECK: llvm.mlir.undef : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>, 3>, ptr<array<8 x array<8 x vector<8xf32>>>, 3>, i64)> |
| // CHECK: %[[allocated:.*]] = llvm.extractvalue {{.*}}[0] : !llvm.struct<(ptr<f32, 3>, ptr<f32, 3>, i64, array<3 x i64>, array<3 x i64>)> |
| // CHECK: %[[allocatedBit:.*]] = llvm.bitcast %[[allocated]] : !llvm.ptr<f32, 3> to !llvm.ptr<array<8 x array<8 x vector<8xf32>>>, 3> |
| // CHECK: llvm.insertvalue %[[allocatedBit]], {{.*}}[0] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>, 3>, ptr<array<8 x array<8 x vector<8xf32>>>, 3>, i64)> |
| // CHECK: %[[aligned:.*]] = llvm.extractvalue {{.*}}[1] : !llvm.struct<(ptr<f32, 3>, ptr<f32, 3>, i64, array<3 x i64>, array<3 x i64>)> |
| // CHECK: %[[alignedBit:.*]] = llvm.bitcast %[[aligned]] : !llvm.ptr<f32, 3> to !llvm.ptr<array<8 x array<8 x vector<8xf32>>>, 3> |
| // CHECK: llvm.insertvalue %[[alignedBit]], {{.*}}[1] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>, 3>, ptr<array<8 x array<8 x vector<8xf32>>>, 3>, i64)> |
| // CHECK: llvm.mlir.constant(0 : index |
| // CHECK: llvm.insertvalue {{.*}}[2] : !llvm.struct<(ptr<array<8 x array<8 x vector<8xf32>>>, 3>, ptr<array<8 x array<8 x vector<8xf32>>>, 3>, i64)> |
| |
| func @vector_print_scalar_i1(%arg0: i1) { |
| vector.print %arg0 : i1 |
| return |
| } |
| // |
| // Type "boolean" always uses zero extension. |
| // |
| // CHECK-LABEL: llvm.func @vector_print_scalar_i1( |
| // CHECK-SAME: %[[A:.*]]: i1) |
| // CHECK: %[[S:.*]] = llvm.zext %[[A]] : i1 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_i4(%arg0: i4) { |
| vector.print %arg0 : i4 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_i4( |
| // CHECK-SAME: %[[A:.*]]: i4) |
| // CHECK: %[[S:.*]] = llvm.sext %[[A]] : i4 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_si4(%arg0: si4) { |
| vector.print %arg0 : si4 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_si4( |
| // CHECK-SAME: %[[A:.*]]: i4) |
| // CHECK: %[[S:.*]] = llvm.sext %[[A]] : i4 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_ui4(%arg0: ui4) { |
| vector.print %arg0 : ui4 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_ui4( |
| // CHECK-SAME: %[[A:.*]]: i4) |
| // CHECK: %[[S:.*]] = llvm.zext %[[A]] : i4 to i64 |
| // CHECK: llvm.call @printU64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_i32(%arg0: i32) { |
| vector.print %arg0 : i32 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_i32( |
| // CHECK-SAME: %[[A:.*]]: i32) |
| // CHECK: %[[S:.*]] = llvm.sext %[[A]] : i32 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_ui32(%arg0: ui32) { |
| vector.print %arg0 : ui32 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_ui32( |
| // CHECK-SAME: %[[A:.*]]: i32) |
| // CHECK: %[[S:.*]] = llvm.zext %[[A]] : i32 to i64 |
| // CHECK: llvm.call @printU64(%[[S]]) : (i64) -> () |
| |
| func @vector_print_scalar_i40(%arg0: i40) { |
| vector.print %arg0 : i40 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_i40( |
| // CHECK-SAME: %[[A:.*]]: i40) |
| // CHECK: %[[S:.*]] = llvm.sext %[[A]] : i40 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_si40(%arg0: si40) { |
| vector.print %arg0 : si40 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_si40( |
| // CHECK-SAME: %[[A:.*]]: i40) |
| // CHECK: %[[S:.*]] = llvm.sext %[[A]] : i40 to i64 |
| // CHECK: llvm.call @printI64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_ui40(%arg0: ui40) { |
| vector.print %arg0 : ui40 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_ui40( |
| // CHECK-SAME: %[[A:.*]]: i40) |
| // CHECK: %[[S:.*]] = llvm.zext %[[A]] : i40 to i64 |
| // CHECK: llvm.call @printU64(%[[S]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_i64(%arg0: i64) { |
| vector.print %arg0 : i64 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_i64( |
| // CHECK-SAME: %[[A:.*]]: i64) |
| // CHECK: llvm.call @printI64(%[[A]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_ui64(%arg0: ui64) { |
| vector.print %arg0 : ui64 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_ui64( |
| // CHECK-SAME: %[[A:.*]]: i64) |
| // CHECK: llvm.call @printU64(%[[A]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_index(%arg0: index) { |
| vector.print %arg0 : index |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_index( |
| // CHECK-SAME: %[[A:.*]]: i64) |
| // CHECK: llvm.call @printU64(%[[A]]) : (i64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_f32(%arg0: f32) { |
| vector.print %arg0 : f32 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_f32( |
| // CHECK-SAME: %[[A:.*]]: f32) |
| // CHECK: llvm.call @printF32(%[[A]]) : (f32) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_scalar_f64(%arg0: f64) { |
| vector.print %arg0 : f64 |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_scalar_f64( |
| // CHECK-SAME: %[[A:.*]]: f64) |
| // CHECK: llvm.call @printF64(%[[A]]) : (f64) -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @vector_print_vector(%arg0: vector<2x2xf32>) { |
| vector.print %arg0 : vector<2x2xf32> |
| return |
| } |
| // CHECK-LABEL: llvm.func @vector_print_vector( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<2 x vector<2xf32>>) |
| // CHECK: llvm.call @printOpen() : () -> () |
| // CHECK: %[[x0:.*]] = llvm.extractvalue %[[A]][0] : !llvm.array<2 x vector<2xf32>> |
| // CHECK: llvm.call @printOpen() : () -> () |
| // CHECK: %[[x1:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[x2:.*]] = llvm.extractelement %[[x0]][%[[x1]] : i64] : vector<2xf32> |
| // CHECK: llvm.call @printF32(%[[x2]]) : (f32) -> () |
| // CHECK: llvm.call @printComma() : () -> () |
| // CHECK: %[[x3:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[x4:.*]] = llvm.extractelement %[[x0]][%[[x3]] : i64] : vector<2xf32> |
| // CHECK: llvm.call @printF32(%[[x4]]) : (f32) -> () |
| // CHECK: llvm.call @printClose() : () -> () |
| // CHECK: llvm.call @printComma() : () -> () |
| // CHECK: %[[x5:.*]] = llvm.extractvalue %[[A]][1] : !llvm.array<2 x vector<2xf32>> |
| // CHECK: llvm.call @printOpen() : () -> () |
| // CHECK: %[[x6:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[x7:.*]] = llvm.extractelement %[[x5]][%[[x6]] : i64] : vector<2xf32> |
| // CHECK: llvm.call @printF32(%[[x7]]) : (f32) -> () |
| // CHECK: llvm.call @printComma() : () -> () |
| // CHECK: %[[x8:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[x9:.*]] = llvm.extractelement %[[x5]][%[[x8]] : i64] : vector<2xf32> |
| // CHECK: llvm.call @printF32(%[[x9]]) : (f32) -> () |
| // CHECK: llvm.call @printClose() : () -> () |
| // CHECK: llvm.call @printClose() : () -> () |
| // CHECK: llvm.call @printNewline() : () -> () |
| |
| func @extract_strided_slice1(%arg0: vector<4xf32>) -> vector<2xf32> { |
| %0 = vector.extract_strided_slice %arg0 {offsets = [2], sizes = [2], strides = [1]} : vector<4xf32> to vector<2xf32> |
| return %0 : vector<2xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_strided_slice1( |
| // CHECK-SAME: %[[A:.*]]: vector<4xf32>) |
| // CHECK: %[[T0:.*]] = llvm.shufflevector %[[A]], %[[A]] [2, 3] : vector<4xf32>, vector<4xf32> |
| // CHECK: llvm.return %[[T0]] : vector<2xf32> |
| |
| func @extract_strided_slice2(%arg0: vector<4x8xf32>) -> vector<2x8xf32> { |
| %0 = vector.extract_strided_slice %arg0 {offsets = [2], sizes = [2], strides = [1]} : vector<4x8xf32> to vector<2x8xf32> |
| return %0 : vector<2x8xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_strided_slice2( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<4 x vector<8xf32>>) |
| // CHECK: %[[T0:.*]] = llvm.mlir.undef : !llvm.array<2 x vector<8xf32>> |
| // CHECK: %[[T1:.*]] = llvm.extractvalue %[[A]][2] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[T2:.*]] = llvm.insertvalue %[[T1]], %[[T0]][0] : !llvm.array<2 x vector<8xf32>> |
| // CHECK: %[[T3:.*]] = llvm.extractvalue %[[A]][3] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[T3]], %[[T2]][1] : !llvm.array<2 x vector<8xf32>> |
| // CHECK: llvm.return %[[T4]] : !llvm.array<2 x vector<8xf32>> |
| |
| func @extract_strided_slice3(%arg0: vector<4x8xf32>) -> vector<2x2xf32> { |
| %0 = vector.extract_strided_slice %arg0 {offsets = [2, 2], sizes = [2, 2], strides = [1, 1]} : vector<4x8xf32> to vector<2x2xf32> |
| return %0 : vector<2x2xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_strided_slice3( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<4 x vector<8xf32>>) |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<2x2xf32>) : !llvm.array<2 x vector<2xf32>> |
| // CHECK: %[[T2:.*]] = llvm.extractvalue %[[A]][2] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[T3:.*]] = llvm.shufflevector %[[T2]], %[[T2]] [2, 3] : vector<8xf32>, vector<8xf32> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[T3]], %[[T1]][0] : !llvm.array<2 x vector<2xf32>> |
| // CHECK: %[[T5:.*]] = llvm.extractvalue %[[A]][3] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[T6:.*]] = llvm.shufflevector %[[T5]], %[[T5]] [2, 3] : vector<8xf32>, vector<8xf32> |
| // CHECK: %[[T7:.*]] = llvm.insertvalue %[[T6]], %[[T4]][1] : !llvm.array<2 x vector<2xf32>> |
| // CHECK: llvm.return %[[T7]] : !llvm.array<2 x vector<2xf32>> |
| |
| func @insert_strided_slice1(%b: vector<4x4xf32>, %c: vector<4x4x4xf32>) -> vector<4x4x4xf32> { |
| %0 = vector.insert_strided_slice %b, %c {offsets = [2, 0, 0], strides = [1, 1]} : vector<4x4xf32> into vector<4x4x4xf32> |
| return %0 : vector<4x4x4xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_strided_slice1 |
| // CHECK: llvm.extractvalue {{.*}}[2] : !llvm.array<4 x array<4 x vector<4xf32>>> |
| // CHECK-NEXT: llvm.insertvalue {{.*}}, {{.*}}[2] : !llvm.array<4 x array<4 x vector<4xf32>>> |
| |
| func @insert_strided_slice2(%a: vector<2x2xf32>, %b: vector<4x4xf32>) -> vector<4x4xf32> { |
| %0 = vector.insert_strided_slice %a, %b {offsets = [2, 2], strides = [1, 1]} : vector<2x2xf32> into vector<4x4xf32> |
| return %0 : vector<4x4xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_strided_slice2 |
| // |
| // Subvector vector<2xf32> @0 into vector<4xf32> @2 |
| // CHECK: llvm.extractvalue {{.*}}[0] : !llvm.array<2 x vector<2xf32>> |
| // CHECK-NEXT: llvm.extractvalue {{.*}}[2] : !llvm.array<4 x vector<4xf32>> |
| // Element @0 -> element @2 |
| // CHECK-NEXT: llvm.mlir.constant(0 : index) : i64 |
| // CHECK-NEXT: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<2xf32> |
| // CHECK-NEXT: llvm.mlir.constant(2 : index) : i64 |
| // CHECK-NEXT: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<4xf32> |
| // Element @1 -> element @3 |
| // CHECK-NEXT: llvm.mlir.constant(1 : index) : i64 |
| // CHECK-NEXT: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<2xf32> |
| // CHECK-NEXT: llvm.mlir.constant(3 : index) : i64 |
| // CHECK-NEXT: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<4xf32> |
| // CHECK-NEXT: llvm.insertvalue {{.*}}, {{.*}}[2] : !llvm.array<4 x vector<4xf32>> |
| // |
| // Subvector vector<2xf32> @1 into vector<4xf32> @3 |
| // CHECK: llvm.extractvalue {{.*}}[1] : !llvm.array<2 x vector<2xf32>> |
| // CHECK-NEXT: llvm.extractvalue {{.*}}[3] : !llvm.array<4 x vector<4xf32>> |
| // Element @0 -> element @2 |
| // CHECK-NEXT: llvm.mlir.constant(0 : index) : i64 |
| // CHECK-NEXT: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<2xf32> |
| // CHECK-NEXT: llvm.mlir.constant(2 : index) : i64 |
| // CHECK-NEXT: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<4xf32> |
| // Element @1 -> element @3 |
| // CHECK-NEXT: llvm.mlir.constant(1 : index) : i64 |
| // CHECK-NEXT: llvm.extractelement {{.*}}[{{.*}} : i64] : vector<2xf32> |
| // CHECK-NEXT: llvm.mlir.constant(3 : index) : i64 |
| // CHECK-NEXT: llvm.insertelement {{.*}}, {{.*}}[{{.*}} : i64] : vector<4xf32> |
| // CHECK-NEXT: llvm.insertvalue {{.*}}, {{.*}}[3] : !llvm.array<4 x vector<4xf32>> |
| |
| func @insert_strided_slice3(%arg0: vector<2x4xf32>, %arg1: vector<16x4x8xf32>) -> vector<16x4x8xf32> { |
| %0 = vector.insert_strided_slice %arg0, %arg1 {offsets = [0, 0, 2], strides = [1, 1]}: |
| vector<2x4xf32> into vector<16x4x8xf32> |
| return %0 : vector<16x4x8xf32> |
| } |
| // CHECK-LABEL: llvm.func @insert_strided_slice3( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<2 x vector<4xf32>>, |
| // CHECK-SAME: %[[B:.*]]: !llvm.array<16 x array<4 x vector<8xf32>>>) |
| // CHECK: %[[s0:.*]] = llvm.extractvalue %[[B]][0] : !llvm.array<16 x array<4 x vector<8xf32>>> |
| // CHECK: %[[s1:.*]] = llvm.extractvalue %[[A]][0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[s2:.*]] = llvm.extractvalue %[[B]][0, 0] : !llvm.array<16 x array<4 x vector<8xf32>>> |
| // CHECK: %[[s3:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[s4:.*]] = llvm.extractelement %[[s1]][%[[s3]] : i64] : vector<4xf32> |
| // CHECK: %[[s5:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[s6:.*]] = llvm.insertelement %[[s4]], %[[s2]][%[[s5]] : i64] : vector<8xf32> |
| // CHECK: %[[s7:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[s8:.*]] = llvm.extractelement %[[s1]][%[[s7]] : i64] : vector<4xf32> |
| // CHECK: %[[s9:.*]] = llvm.mlir.constant(3 : index) : i64 |
| // CHECK: %[[s10:.*]] = llvm.insertelement %[[s8]], %[[s6]][%[[s9]] : i64] : vector<8xf32> |
| // CHECK: %[[s11:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[s12:.*]] = llvm.extractelement %[[s1]][%[[s11]] : i64] : vector<4xf32> |
| // CHECK: %[[s13:.*]] = llvm.mlir.constant(4 : index) : i64 |
| // CHECK: %[[s14:.*]] = llvm.insertelement %[[s12]], %[[s10]][%[[s13]] : i64] : vector<8xf32> |
| // CHECK: %[[s15:.*]] = llvm.mlir.constant(3 : index) : i64 |
| // CHECK: %[[s16:.*]] = llvm.extractelement %[[s1]][%[[s15]] : i64] : vector<4xf32> |
| // CHECK: %[[s17:.*]] = llvm.mlir.constant(5 : index) : i64 |
| // CHECK: %[[s18:.*]] = llvm.insertelement %[[s16]], %[[s14]][%[[s17]] : i64] : vector<8xf32> |
| // CHECK: %[[s19:.*]] = llvm.insertvalue %[[s18]], %[[s0]][0] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[s20:.*]] = llvm.extractvalue %[[A]][1] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[s21:.*]] = llvm.extractvalue %[[B]][0, 1] : !llvm.array<16 x array<4 x vector<8xf32>>> |
| // CHECK: %[[s22:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[s23:.*]] = llvm.extractelement %[[s20]][%[[s22]] : i64] : vector<4xf32> |
| // CHECK: %[[s24:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[s25:.*]] = llvm.insertelement %[[s23]], %[[s21]][%[[s24]] : i64] : vector<8xf32> |
| // CHECK: %[[s26:.*]] = llvm.mlir.constant(1 : index) : i64 |
| // CHECK: %[[s27:.*]] = llvm.extractelement %[[s20]][%[[s26]] : i64] : vector<4xf32> |
| // CHECK: %[[s28:.*]] = llvm.mlir.constant(3 : index) : i64 |
| // CHECK: %[[s29:.*]] = llvm.insertelement %[[s27]], %[[s25]][%[[s28]] : i64] : vector<8xf32> |
| // CHECK: %[[s30:.*]] = llvm.mlir.constant(2 : index) : i64 |
| // CHECK: %[[s31:.*]] = llvm.extractelement %[[s20]][%[[s30]] : i64] : vector<4xf32> |
| // CHECK: %[[s32:.*]] = llvm.mlir.constant(4 : index) : i64 |
| // CHECK: %[[s33:.*]] = llvm.insertelement %[[s31]], %[[s29]][%[[s32]] : i64] : vector<8xf32> |
| // CHECK: %[[s34:.*]] = llvm.mlir.constant(3 : index) : i64 |
| // CHECK: %[[s35:.*]] = llvm.extractelement %[[s20]][%[[s34]] : i64] : vector<4xf32> |
| // CHECK: %[[s36:.*]] = llvm.mlir.constant(5 : index) : i64 |
| // CHECK: %[[s37:.*]] = llvm.insertelement %[[s35]], %[[s33]][%[[s36]] : i64] : vector<8xf32> |
| // CHECK: %[[s38:.*]] = llvm.insertvalue %[[s37]], %[[s19]][1] : !llvm.array<4 x vector<8xf32>> |
| // CHECK: %[[s39:.*]] = llvm.insertvalue %[[s38]], %[[B]][0] : !llvm.array<16 x array<4 x vector<8xf32>>> |
| // CHECK: llvm.return %[[s39]] : !llvm.array<16 x array<4 x vector<8xf32>>> |
| |
| func @extract_strides(%arg0: vector<3x3xf32>) -> vector<1x1xf32> { |
| %0 = vector.extract_slices %arg0, [2, 2], [1, 1] |
| : vector<3x3xf32> into tuple<vector<2x2xf32>, vector<2x1xf32>, vector<1x2xf32>, vector<1x1xf32>> |
| %1 = vector.tuple_get %0, 3 : tuple<vector<2x2xf32>, vector<2x1xf32>, vector<1x2xf32>, vector<1x1xf32>> |
| return %1 : vector<1x1xf32> |
| } |
| // CHECK-LABEL: llvm.func @extract_strides( |
| // CHECK-SAME: %[[A:.*]]: !llvm.array<3 x vector<3xf32>>) |
| // CHECK: %[[T1:.*]] = llvm.mlir.constant(dense<0.000000e+00> : vector<1x1xf32>) : !llvm.array<1 x vector<1xf32>> |
| // CHECK: %[[T2:.*]] = llvm.extractvalue %[[A]][2] : !llvm.array<3 x vector<3xf32>> |
| // CHECK: %[[T3:.*]] = llvm.shufflevector %[[T2]], %[[T2]] [2] : vector<3xf32>, vector<3xf32> |
| // CHECK: %[[T4:.*]] = llvm.insertvalue %[[T3]], %[[T1]][0] : !llvm.array<1 x vector<1xf32>> |
| // CHECK: llvm.return %[[T4]] : !llvm.array<1 x vector<1xf32>> |
| |
| // CHECK-LABEL: llvm.func @vector_fma( |
| // CHECK-SAME: %[[A:.*]]: vector<8xf32>, %[[B:.*]]: !llvm.array<2 x vector<4xf32>>) |
| // CHECK-SAME: -> !llvm.struct<(vector<8xf32>, array<2 x vector<4xf32>>)> { |
| func @vector_fma(%a: vector<8xf32>, %b: vector<2x4xf32>) -> (vector<8xf32>, vector<2x4xf32>) { |
| // CHECK: "llvm.intr.fmuladd"(%[[A]], %[[A]], %[[A]]) : |
| // CHECK-SAME: (vector<8xf32>, vector<8xf32>, vector<8xf32>) -> vector<8xf32> |
| %0 = vector.fma %a, %a, %a : vector<8xf32> |
| |
| // CHECK: %[[b00:.*]] = llvm.extractvalue %[[B]][0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[b01:.*]] = llvm.extractvalue %[[B]][0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[b02:.*]] = llvm.extractvalue %[[B]][0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[B0:.*]] = "llvm.intr.fmuladd"(%[[b00]], %[[b01]], %[[b02]]) : |
| // CHECK-SAME: (vector<4xf32>, vector<4xf32>, vector<4xf32>) -> vector<4xf32> |
| // CHECK: llvm.insertvalue %[[B0]], {{.*}}[0] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[b10:.*]] = llvm.extractvalue %[[B]][1] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[b11:.*]] = llvm.extractvalue %[[B]][1] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[b12:.*]] = llvm.extractvalue %[[B]][1] : !llvm.array<2 x vector<4xf32>> |
| // CHECK: %[[B1:.*]] = "llvm.intr.fmuladd"(%[[b10]], %[[b11]], %[[b12]]) : |
| // CHECK-SAME: (vector<4xf32>, vector<4xf32>, vector<4xf32>) -> vector<4xf32> |
| // CHECK: llvm.insertvalue %[[B1]], {{.*}}[1] : !llvm.array<2 x vector<4xf32>> |
| %1 = vector.fma %b, %b, %b : vector<2x4xf32> |
| |
| return %0, %1: vector<8xf32>, vector<2x4xf32> |
| } |
| |
| func @reduce_f16(%arg0: vector<16xf16>) -> f16 { |
| %0 = vector.reduction "add", %arg0 : vector<16xf16> into f16 |
| return %0 : f16 |
| } |
| // CHECK-LABEL: llvm.func @reduce_f16( |
| // CHECK-SAME: %[[A:.*]]: vector<16xf16>) |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0.000000e+00 : f16) : f16 |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.fadd"(%[[C]], %[[A]]) |
| // CHECK-SAME: {reassoc = false} : (f16, vector<16xf16>) -> f16 |
| // CHECK: llvm.return %[[V]] : f16 |
| |
| func @reduce_f32(%arg0: vector<16xf32>) -> f32 { |
| %0 = vector.reduction "add", %arg0 : vector<16xf32> into f32 |
| return %0 : f32 |
| } |
| // CHECK-LABEL: llvm.func @reduce_f32( |
| // CHECK-SAME: %[[A:.*]]: vector<16xf32>) |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0.000000e+00 : f32) : f32 |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.fadd"(%[[C]], %[[A]]) |
| // CHECK-SAME: {reassoc = false} : (f32, vector<16xf32>) -> f32 |
| // CHECK: llvm.return %[[V]] : f32 |
| |
| func @reduce_f64(%arg0: vector<16xf64>) -> f64 { |
| %0 = vector.reduction "add", %arg0 : vector<16xf64> into f64 |
| return %0 : f64 |
| } |
| // CHECK-LABEL: llvm.func @reduce_f64( |
| // CHECK-SAME: %[[A:.*]]: vector<16xf64>) |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0.000000e+00 : f64) : f64 |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.fadd"(%[[C]], %[[A]]) |
| // CHECK-SAME: {reassoc = false} : (f64, vector<16xf64>) -> f64 |
| // CHECK: llvm.return %[[V]] : f64 |
| |
| func @reduce_i8(%arg0: vector<16xi8>) -> i8 { |
| %0 = vector.reduction "add", %arg0 : vector<16xi8> into i8 |
| return %0 : i8 |
| } |
| // CHECK-LABEL: llvm.func @reduce_i8( |
| // CHECK-SAME: %[[A:.*]]: vector<16xi8>) |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.add"(%[[A]]) |
| // CHECK: llvm.return %[[V]] : i8 |
| |
| func @reduce_i32(%arg0: vector<16xi32>) -> i32 { |
| %0 = vector.reduction "add", %arg0 : vector<16xi32> into i32 |
| return %0 : i32 |
| } |
| // CHECK-LABEL: llvm.func @reduce_i32( |
| // CHECK-SAME: %[[A:.*]]: vector<16xi32>) |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.add"(%[[A]]) |
| // CHECK: llvm.return %[[V]] : i32 |
| |
| func @reduce_i64(%arg0: vector<16xi64>) -> i64 { |
| %0 = vector.reduction "add", %arg0 : vector<16xi64> into i64 |
| return %0 : i64 |
| } |
| // CHECK-LABEL: llvm.func @reduce_i64( |
| // CHECK-SAME: %[[A:.*]]: vector<16xi64>) |
| // CHECK: %[[V:.*]] = "llvm.intr.vector.reduce.add"(%[[A]]) |
| // CHECK: llvm.return %[[V]] : i64 |
| |
| |
| // 4x16 16x3 4x3 |
| func @matrix_ops(%A: vector<64xf64>, %B: vector<48xf64>) -> vector<12xf64> { |
| %C = vector.matrix_multiply %A, %B |
| { lhs_rows = 4: i32, lhs_columns = 16: i32 , rhs_columns = 3: i32 } : |
| (vector<64xf64>, vector<48xf64>) -> vector<12xf64> |
| return %C: vector<12xf64> |
| } |
| // CHECK-LABEL: llvm.func @matrix_ops |
| // CHECK: llvm.intr.matrix.multiply %{{.*}}, %{{.*}} { |
| // CHECK-SAME: lhs_columns = 16 : i32, lhs_rows = 4 : i32, rhs_columns = 3 : i32 |
| // CHECK-SAME: } : (vector<64xf64>, vector<48xf64>) -> vector<12xf64> |
| |
| func @transfer_read_1d(%A : memref<?xf32>, %base: index) -> vector<17xf32> { |
| %f7 = constant 7.0: f32 |
| %f = vector.transfer_read %A[%base], %f7 |
| {permutation_map = affine_map<(d0) -> (d0)>} : |
| memref<?xf32>, vector<17xf32> |
| vector.transfer_write %f, %A[%base] |
| {permutation_map = affine_map<(d0) -> (d0)>} : |
| vector<17xf32>, memref<?xf32> |
| return %f: vector<17xf32> |
| } |
| // CHECK-LABEL: func @transfer_read_1d |
| // CHECK-SAME: %[[BASE:[a-zA-Z0-9]*]]: i64) -> vector<17xf32> |
| // |
| // 1. Bitcast to vector form. |
| // CHECK: %[[gep:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[vecPtr:.*]] = llvm.bitcast %[[gep]] : |
| // CHECK-SAME: !llvm.ptr<f32> to !llvm.ptr<vector<17xf32>> |
| // CHECK: %[[DIM:.*]] = llvm.extractvalue %{{.*}}[3, 0] : |
| // CHECK-SAME: !llvm.struct<(ptr<f32>, ptr<f32>, i64, array<1 x i64>, array<1 x i64>)> |
| // |
| // 2. Create a vector with linear indices [ 0 .. vector_length - 1 ]. |
| // CHECK: %[[linearIndex:.*]] = llvm.mlir.constant(dense |
| // CHECK-SAME: <[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16]> : |
| // CHECK-SAME: vector<17xi32>) : vector<17xi32> |
| // |
| // 3. Create offsetVector = [ offset + 0 .. offset + vector_length - 1 ]. |
| // CHECK: %[[otrunc:.*]] = llvm.trunc %[[BASE]] : i64 to i32 |
| // CHECK: %[[offsetVec:.*]] = llvm.mlir.undef : vector<17xi32> |
| // CHECK: %[[c0:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[offsetVec2:.*]] = llvm.insertelement %[[otrunc]], %[[offsetVec]][%[[c0]] : |
| // CHECK-SAME: i32] : vector<17xi32> |
| // CHECK: %[[offsetVec3:.*]] = llvm.shufflevector %[[offsetVec2]], %{{.*}} [ |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| // CHECK: %[[offsetVec4:.*]] = llvm.add %[[offsetVec3]], %[[linearIndex]] : |
| // CHECK-SAME: vector<17xi32> |
| // |
| // 4. Let dim the memref dimension, compute the vector comparison mask: |
| // [ offset + 0 .. offset + vector_length - 1 ] < [ dim .. dim ] |
| // CHECK: %[[dtrunc:.*]] = llvm.trunc %[[DIM]] : i64 to i32 |
| // CHECK: %[[dimVec:.*]] = llvm.mlir.undef : vector<17xi32> |
| // CHECK: %[[c01:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[dimVec2:.*]] = llvm.insertelement %[[dtrunc]], %[[dimVec]][%[[c01]] : |
| // CHECK-SAME: i32] : vector<17xi32> |
| // CHECK: %[[dimVec3:.*]] = llvm.shufflevector %[[dimVec2]], %{{.*}} [ |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| // CHECK: %[[mask:.*]] = llvm.icmp "slt" %[[offsetVec4]], %[[dimVec3]] : |
| // CHECK-SAME: vector<17xi32> |
| // |
| // 5. Rewrite as a masked read. |
| // CHECK: %[[PASS_THROUGH:.*]] = llvm.mlir.constant(dense<7.000000e+00> : |
| // CHECK-SAME: vector<17xf32>) : vector<17xf32> |
| // CHECK: %[[loaded:.*]] = llvm.intr.masked.load %[[vecPtr]], %[[mask]], |
| // CHECK-SAME: %[[PASS_THROUGH]] {alignment = 4 : i32} : |
| // CHECK-SAME: (!llvm.ptr<vector<17xf32>>, vector<17xi1>, vector<17xf32>) -> vector<17xf32> |
| |
| // |
| // 1. Bitcast to vector form. |
| // CHECK: %[[gep_b:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[vecPtr_b:.*]] = llvm.bitcast %[[gep_b]] : |
| // CHECK-SAME: !llvm.ptr<f32> to !llvm.ptr<vector<17xf32>> |
| // |
| // 2. Create a vector with linear indices [ 0 .. vector_length - 1 ]. |
| // CHECK: %[[linearIndex_b:.*]] = llvm.mlir.constant(dense |
| // CHECK-SAME: <[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16]> : |
| // CHECK-SAME: vector<17xi32>) : vector<17xi32> |
| // |
| // 3. Create offsetVector = [ offset + 0 .. offset + vector_length - 1 ]. |
| // CHECK: llvm.shufflevector {{.*}} [0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| // CHECK: llvm.add |
| // |
| // 4. Let dim the memref dimension, compute the vector comparison mask: |
| // [ offset + 0 .. offset + vector_length - 1 ] < [ dim .. dim ] |
| // CHECK: llvm.shufflevector {{.*}} [0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| // CHECK: %[[mask_b:.*]] = llvm.icmp "slt" {{.*}} : vector<17xi32> |
| // |
| // 5. Rewrite as a masked write. |
| // CHECK: llvm.intr.masked.store %[[loaded]], %[[vecPtr_b]], %[[mask_b]] |
| // CHECK-SAME: {alignment = 4 : i32} : |
| // CHECK-SAME: vector<17xf32>, vector<17xi1> into !llvm.ptr<vector<17xf32>> |
| |
| func @transfer_read_2d_to_1d(%A : memref<?x?xf32>, %base0: index, %base1: index) -> vector<17xf32> { |
| %f7 = constant 7.0: f32 |
| %f = vector.transfer_read %A[%base0, %base1], %f7 |
| {permutation_map = affine_map<(d0, d1) -> (d1)>} : |
| memref<?x?xf32>, vector<17xf32> |
| return %f: vector<17xf32> |
| } |
| // CHECK-LABEL: func @transfer_read_2d_to_1d |
| // CHECK-SAME: %[[BASE_0:[a-zA-Z0-9]*]]: i64, %[[BASE_1:[a-zA-Z0-9]*]]: i64) -> vector<17xf32> |
| // CHECK: %[[DIM:.*]] = llvm.extractvalue %{{.*}}[3, 1] : |
| // CHECK-SAME: !llvm.struct<(ptr<f32>, ptr<f32>, i64, array<2 x i64>, array<2 x i64>)> |
| // |
| // Create offsetVector = [ offset + 0 .. offset + vector_length - 1 ]. |
| // CHECK: %[[trunc:.*]] = llvm.trunc %[[BASE_1]] : i64 to i32 |
| // CHECK: %[[offsetVec:.*]] = llvm.mlir.undef : vector<17xi32> |
| // CHECK: %[[c0:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[offsetVec2:.*]] = llvm.insertelement %[[trunc]], %[[offsetVec]][%[[c0]] : |
| // CHECK-SAME: i32] : vector<17xi32> |
| // CHECK: %[[offsetVec3:.*]] = llvm.shufflevector %[[offsetVec2]], %{{.*}} [ |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| // |
| // Let dim the memref dimension, compute the vector comparison mask: |
| // [ offset + 0 .. offset + vector_length - 1 ] < [ dim .. dim ] |
| // CHECK: %[[dimtrunc:.*]] = llvm.trunc %[[DIM]] : i64 to i32 |
| // CHECK: %[[dimVec:.*]] = llvm.mlir.undef : vector<17xi32> |
| // CHECK: %[[c01:.*]] = llvm.mlir.constant(0 : i32) : i32 |
| // CHECK: %[[dimVec2:.*]] = llvm.insertelement %[[dimtrunc]], %[[dimVec]][%[[c01]] : |
| // CHECK-SAME: i32] : vector<17xi32> |
| // CHECK: %[[dimVec3:.*]] = llvm.shufflevector %[[dimVec2]], %{{.*}} [ |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, 0 : i32, |
| // CHECK-SAME: 0 : i32, 0 : i32, 0 : i32] : |
| // CHECK-SAME: vector<17xi32>, vector<17xi32> |
| |
| func @transfer_read_1d_non_zero_addrspace(%A : memref<?xf32, 3>, %base: index) -> vector<17xf32> { |
| %f7 = constant 7.0: f32 |
| %f = vector.transfer_read %A[%base], %f7 |
| {permutation_map = affine_map<(d0) -> (d0)>} : |
| memref<?xf32, 3>, vector<17xf32> |
| vector.transfer_write %f, %A[%base] |
| {permutation_map = affine_map<(d0) -> (d0)>} : |
| vector<17xf32>, memref<?xf32, 3> |
| return %f: vector<17xf32> |
| } |
| // CHECK-LABEL: func @transfer_read_1d_non_zero_addrspace |
| // CHECK-SAME: %[[BASE:[a-zA-Z0-9]*]]: i64) -> vector<17xf32> |
| // |
| // 1. Check address space for GEP is correct. |
| // CHECK: %[[gep:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<f32, 3>, i64) -> !llvm.ptr<f32, 3> |
| // CHECK: %[[vecPtr:.*]] = llvm.addrspacecast %[[gep]] : |
| // CHECK-SAME: !llvm.ptr<f32, 3> to !llvm.ptr<vector<17xf32>> |
| // |
| // 2. Check address space of the memref is correct. |
| // CHECK: %[[DIM:.*]] = llvm.extractvalue %{{.*}}[3, 0] : |
| // CHECK-SAME: !llvm.struct<(ptr<f32, 3>, ptr<f32, 3>, i64, array<1 x i64>, array<1 x i64>)> |
| // |
| // 3. Check address apce for GEP is correct. |
| // CHECK: %[[gep_b:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<f32, 3>, i64) -> !llvm.ptr<f32, 3> |
| // CHECK: %[[vecPtr_b:.*]] = llvm.addrspacecast %[[gep_b]] : |
| // CHECK-SAME: !llvm.ptr<f32, 3> to !llvm.ptr<vector<17xf32>> |
| |
| func @transfer_read_1d_not_masked(%A : memref<?xf32>, %base: index) -> vector<17xf32> { |
| %f7 = constant 7.0: f32 |
| %f = vector.transfer_read %A[%base], %f7 {masked = [false]} : |
| memref<?xf32>, vector<17xf32> |
| return %f: vector<17xf32> |
| } |
| // CHECK-LABEL: func @transfer_read_1d_not_masked |
| // CHECK-SAME: %[[BASE:[a-zA-Z0-9]*]]: i64) -> vector<17xf32> |
| // |
| // 1. Bitcast to vector form. |
| // CHECK: %[[gep:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[vecPtr:.*]] = llvm.bitcast %[[gep]] : |
| // CHECK-SAME: !llvm.ptr<f32> to !llvm.ptr<vector<17xf32>> |
| // |
| // 2. Rewrite as a load. |
| // CHECK: %[[loaded:.*]] = llvm.load %[[vecPtr]] {alignment = 4 : i64} : !llvm.ptr<vector<17xf32>> |
| |
| func @transfer_read_1d_cast(%A : memref<?xi32>, %base: index) -> vector<12xi8> { |
| %c0 = constant 0: i32 |
| %v = vector.transfer_read %A[%base], %c0 {masked = [false]} : |
| memref<?xi32>, vector<12xi8> |
| return %v: vector<12xi8> |
| } |
| // CHECK-LABEL: func @transfer_read_1d_cast |
| // CHECK-SAME: %[[BASE:[a-zA-Z0-9]*]]: i64) -> vector<12xi8> |
| // |
| // 1. Bitcast to vector form. |
| // CHECK: %[[gep:.*]] = llvm.getelementptr {{.*}} : |
| // CHECK-SAME: (!llvm.ptr<i32>, i64) -> !llvm.ptr<i32> |
| // CHECK: %[[vecPtr:.*]] = llvm.bitcast %[[gep]] : |
| // CHECK-SAME: !llvm.ptr<i32> to !llvm.ptr<vector<12xi8>> |
| // |
| // 2. Rewrite as a load. |
| // CHECK: %[[loaded:.*]] = llvm.load %[[vecPtr]] {alignment = 4 : i64} : !llvm.ptr<vector<12xi8>> |
| |
| func @genbool_1d() -> vector<8xi1> { |
| %0 = vector.constant_mask [4] : vector<8xi1> |
| return %0 : vector<8xi1> |
| } |
| // CHECK-LABEL: func @genbool_1d |
| // CHECK: %[[C1:.*]] = llvm.mlir.constant(dense<[true, true, true, true, false, false, false, false]> : vector<8xi1>) : vector<8xi1> |
| // CHECK: llvm.return %[[C1]] : vector<8xi1> |
| |
| func @genbool_2d() -> vector<4x4xi1> { |
| %v = vector.constant_mask [2, 2] : vector<4x4xi1> |
| return %v: vector<4x4xi1> |
| } |
| |
| // CHECK-LABEL: func @genbool_2d |
| // CHECK: %[[C1:.*]] = llvm.mlir.constant(dense<[true, true, false, false]> : vector<4xi1>) : vector<4xi1> |
| // CHECK: %[[C2:.*]] = llvm.mlir.constant(dense<false> : vector<4x4xi1>) : !llvm.array<4 x vector<4xi1>> |
| // CHECK: %[[T0:.*]] = llvm.insertvalue %[[C1]], %[[C2]][0] : !llvm.array<4 x vector<4xi1>> |
| // CHECK: %[[T1:.*]] = llvm.insertvalue %[[C1]], %[[T0]][1] : !llvm.array<4 x vector<4xi1>> |
| // CHECK: llvm.return %[[T1]] : !llvm.array<4 x vector<4xi1>> |
| |
| func @flat_transpose(%arg0: vector<16xf32>) -> vector<16xf32> { |
| %0 = vector.flat_transpose %arg0 { rows = 4: i32, columns = 4: i32 } |
| : vector<16xf32> -> vector<16xf32> |
| return %0 : vector<16xf32> |
| } |
| |
| // CHECK-LABEL: func @flat_transpose |
| // CHECK-SAME: %[[A:.*]]: vector<16xf32> |
| // CHECK: %[[T:.*]] = llvm.intr.matrix.transpose %[[A]] |
| // CHECK-SAME: {columns = 4 : i32, rows = 4 : i32} : |
| // CHECK-SAME: vector<16xf32> into vector<16xf32> |
| // CHECK: llvm.return %[[T]] : vector<16xf32> |
| |
| func @masked_load_op(%arg0: memref<?xf32>, %arg1: vector<16xi1>, %arg2: vector<16xf32>) -> vector<16xf32> { |
| %c0 = constant 0: index |
| %0 = vector.maskedload %arg0[%c0], %arg1, %arg2 : memref<?xf32>, vector<16xi1>, vector<16xf32> into vector<16xf32> |
| return %0 : vector<16xf32> |
| } |
| |
| // CHECK-LABEL: func @masked_load_op |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[P:.*]] = llvm.getelementptr %{{.*}}[%[[C]]] : (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[B:.*]] = llvm.bitcast %[[P]] : !llvm.ptr<f32> to !llvm.ptr<vector<16xf32>> |
| // CHECK: %[[L:.*]] = llvm.intr.masked.load %[[B]], %{{.*}}, %{{.*}} {alignment = 4 : i32} : (!llvm.ptr<vector<16xf32>>, vector<16xi1>, vector<16xf32>) -> vector<16xf32> |
| // CHECK: llvm.return %[[L]] : vector<16xf32> |
| |
| func @masked_store_op(%arg0: memref<?xf32>, %arg1: vector<16xi1>, %arg2: vector<16xf32>) { |
| %c0 = constant 0: index |
| vector.maskedstore %arg0[%c0], %arg1, %arg2 : memref<?xf32>, vector<16xi1>, vector<16xf32> |
| return |
| } |
| |
| // CHECK-LABEL: func @masked_store_op |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[P:.*]] = llvm.getelementptr %{{.*}}[%[[C]]] : (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[B:.*]] = llvm.bitcast %[[P]] : !llvm.ptr<f32> to !llvm.ptr<vector<16xf32>> |
| // CHECK: llvm.intr.masked.store %{{.*}}, %[[B]], %{{.*}} {alignment = 4 : i32} : vector<16xf32>, vector<16xi1> into !llvm.ptr<vector<16xf32>> |
| // CHECK: llvm.return |
| |
| func @gather_op(%arg0: memref<?xf32>, %arg1: vector<3xi32>, %arg2: vector<3xi1>, %arg3: vector<3xf32>) -> vector<3xf32> { |
| %0 = vector.gather %arg0[%arg1], %arg2, %arg3 : memref<?xf32>, vector<3xi32>, vector<3xi1>, vector<3xf32> into vector<3xf32> |
| return %0 : vector<3xf32> |
| } |
| |
| // CHECK-LABEL: func @gather_op |
| // CHECK: %[[P:.*]] = llvm.getelementptr {{.*}}[%{{.*}}] : (!llvm.ptr<f32>, vector<3xi32>) -> !llvm.vec<3 x ptr<f32>> |
| // CHECK: %[[G:.*]] = llvm.intr.masked.gather %[[P]], %{{.*}}, %{{.*}} {alignment = 4 : i32} : (!llvm.vec<3 x ptr<f32>>, vector<3xi1>, vector<3xf32>) -> vector<3xf32> |
| // CHECK: llvm.return %[[G]] : vector<3xf32> |
| |
| func @scatter_op(%arg0: memref<?xf32>, %arg1: vector<3xi32>, %arg2: vector<3xi1>, %arg3: vector<3xf32>) { |
| vector.scatter %arg0[%arg1], %arg2, %arg3 : memref<?xf32>, vector<3xi32>, vector<3xi1>, vector<3xf32> |
| return |
| } |
| |
| // CHECK-LABEL: func @scatter_op |
| // CHECK: %[[P:.*]] = llvm.getelementptr {{.*}}[%{{.*}}] : (!llvm.ptr<f32>, vector<3xi32>) -> !llvm.vec<3 x ptr<f32>> |
| // CHECK: llvm.intr.masked.scatter %{{.*}}, %[[P]], %{{.*}} {alignment = 4 : i32} : vector<3xf32>, vector<3xi1> into !llvm.vec<3 x ptr<f32>> |
| // CHECK: llvm.return |
| |
| func @expand_load_op(%arg0: memref<?xf32>, %arg1: vector<11xi1>, %arg2: vector<11xf32>) -> vector<11xf32> { |
| %c0 = constant 0: index |
| %0 = vector.expandload %arg0[%c0], %arg1, %arg2 : memref<?xf32>, vector<11xi1>, vector<11xf32> into vector<11xf32> |
| return %0 : vector<11xf32> |
| } |
| |
| // CHECK-LABEL: func @expand_load_op |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[P:.*]] = llvm.getelementptr %{{.*}}[%[[C]]] : (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: %[[E:.*]] = "llvm.intr.masked.expandload"(%[[P]], %{{.*}}, %{{.*}}) : (!llvm.ptr<f32>, vector<11xi1>, vector<11xf32>) -> vector<11xf32> |
| // CHECK: llvm.return %[[E]] : vector<11xf32> |
| |
| func @compress_store_op(%arg0: memref<?xf32>, %arg1: vector<11xi1>, %arg2: vector<11xf32>) { |
| %c0 = constant 0: index |
| vector.compressstore %arg0[%c0], %arg1, %arg2 : memref<?xf32>, vector<11xi1>, vector<11xf32> |
| return |
| } |
| |
| // CHECK-LABEL: func @compress_store_op |
| // CHECK: %[[C:.*]] = llvm.mlir.constant(0 : index) : i64 |
| // CHECK: %[[P:.*]] = llvm.getelementptr %{{.*}}[%[[C]]] : (!llvm.ptr<f32>, i64) -> !llvm.ptr<f32> |
| // CHECK: "llvm.intr.masked.compressstore"(%{{.*}}, %[[P]], %{{.*}}) : (vector<11xf32>, !llvm.ptr<f32>, vector<11xi1>) -> () |
| // CHECK: llvm.return |