diff options
Diffstat (limited to 'test/CodeGen/AArch64/fast-isel-int-ext.ll')
-rw-r--r-- | test/CodeGen/AArch64/fast-isel-int-ext.ll | 86 |
1 files changed, 43 insertions, 43 deletions
diff --git a/test/CodeGen/AArch64/fast-isel-int-ext.ll b/test/CodeGen/AArch64/fast-isel-int-ext.ll index 866feba..4b2cab5 100644 --- a/test/CodeGen/AArch64/fast-isel-int-ext.ll +++ b/test/CodeGen/AArch64/fast-isel-int-ext.ll @@ -1,4 +1,4 @@ -; RUN: llc -mtriple=aarch64-apple-darwin -fast-isel -fast-isel-abort -verify-machineinstrs < %s | FileCheck %s +; RUN: llc -mtriple=aarch64-apple-darwin -fast-isel -fast-isel-abort=1 -verify-machineinstrs < %s | FileCheck %s ; ; Test that we only use the sign/zero extend in the address calculation when @@ -13,7 +13,7 @@ define i64 @load_addr_shift_zext1(i32 %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -24,7 +24,7 @@ define i64 @load_addr_shift_zext2(i32 zeroext %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -35,7 +35,7 @@ define i64 @load_addr_shift_zext3(i32 signext %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -46,7 +46,7 @@ define i64 @load_addr_shift_sext1(i32 %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -57,7 +57,7 @@ define i64 @load_addr_shift_sext2(i32 zeroext %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -68,7 +68,7 @@ define i64 @load_addr_shift_sext3(i32 signext %a, i64 %b) { %2 = shl i64 %1, 3 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -82,7 +82,7 @@ define i64 @load_addr_mul_zext1(i32 %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -93,7 +93,7 @@ define i64 @load_addr_mul_zext2(i32 zeroext %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -104,7 +104,7 @@ define i64 @load_addr_mul_zext3(i32 signext %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -115,7 +115,7 @@ define i64 @load_addr_mul_sext1(i32 %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -126,7 +126,7 @@ define i64 @load_addr_mul_sext2(i32 zeroext %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -137,7 +137,7 @@ define i64 @load_addr_mul_sext3(i32 signext %a, i64 %b) { %2 = mul i64 %1, 8 %3 = add i64 %b, %2 %4 = inttoptr i64 %3 to i64* - %5 = load i64* %4 + %5 = load i64, i64* %4 ret i64 %5 } @@ -153,7 +153,7 @@ define i32 @load_unscaled_zext_i8_to_i32(i64 %a) { ; CHECK-NOT: uxtb %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = zext i8 %3 to i32 ret i32 %4 } @@ -164,7 +164,7 @@ define i32 @load_unscaled_zext_i16_to_i32(i64 %a) { ; CHECK-NOT: uxth %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = zext i16 %3 to i32 ret i32 %4 } @@ -175,7 +175,7 @@ define i64 @load_unscaled_zext_i8_to_i64(i64 %a) { ; CHECK-NOT: uxtb %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = zext i8 %3 to i64 ret i64 %4 } @@ -186,7 +186,7 @@ define i64 @load_unscaled_zext_i16_to_i64(i64 %a) { ; CHECK-NOT: uxth %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = zext i16 %3 to i64 ret i64 %4 } @@ -197,7 +197,7 @@ define i64 @load_unscaled_zext_i32_to_i64(i64 %a) { ; CHECK-NOT: uxtw %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i32* - %3 = load i32* %2 + %3 = load i32, i32* %2 %4 = zext i32 %3 to i64 ret i64 %4 } @@ -208,7 +208,7 @@ define i32 @load_unscaled_sext_i8_to_i32(i64 %a) { ; CHECK-NOT: sxtb %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = sext i8 %3 to i32 ret i32 %4 } @@ -219,7 +219,7 @@ define i32 @load_unscaled_sext_i16_to_i32(i64 %a) { ; CHECK-NOT: sxth %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = sext i16 %3 to i32 ret i32 %4 } @@ -230,7 +230,7 @@ define i64 @load_unscaled_sext_i8_to_i64(i64 %a) { ; CHECK-NOT: sxtb %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = sext i8 %3 to i64 ret i64 %4 } @@ -241,7 +241,7 @@ define i64 @load_unscaled_sext_i16_to_i64(i64 %a) { ; CHECK-NOT: sxth %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = sext i16 %3 to i64 ret i64 %4 } @@ -252,7 +252,7 @@ define i64 @load_unscaled_sext_i32_to_i64(i64 %a) { ; CHECK-NOT: sxtw %1 = sub i64 %a, 8 %2 = inttoptr i64 %1 to i32* - %3 = load i32* %2 + %3 = load i32, i32* %2 %4 = sext i32 %3 to i64 ret i64 %4 } @@ -264,7 +264,7 @@ define i32 @load_register_zext_i8_to_i32(i64 %a, i64 %b) { ; CHECK-NOT: uxtb %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = zext i8 %3 to i32 ret i32 %4 } @@ -275,7 +275,7 @@ define i32 @load_register_zext_i16_to_i32(i64 %a, i64 %b) { ; CHECK-NOT: uxth %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = zext i16 %3 to i32 ret i32 %4 } @@ -286,7 +286,7 @@ define i64 @load_register_zext_i8_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: uxtb %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = zext i8 %3 to i64 ret i64 %4 } @@ -297,7 +297,7 @@ define i64 @load_register_zext_i16_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: uxth %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = zext i16 %3 to i64 ret i64 %4 } @@ -308,7 +308,7 @@ define i64 @load_register_zext_i32_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: uxtw %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i32* - %3 = load i32* %2 + %3 = load i32, i32* %2 %4 = zext i32 %3 to i64 ret i64 %4 } @@ -319,7 +319,7 @@ define i32 @load_register_sext_i8_to_i32(i64 %a, i64 %b) { ; CHECK-NOT: sxtb %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = sext i8 %3 to i32 ret i32 %4 } @@ -330,7 +330,7 @@ define i32 @load_register_sext_i16_to_i32(i64 %a, i64 %b) { ; CHECK-NOT: sxth %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = sext i16 %3 to i32 ret i32 %4 } @@ -341,7 +341,7 @@ define i64 @load_register_sext_i8_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: sxtb %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i8* - %3 = load i8* %2 + %3 = load i8, i8* %2 %4 = sext i8 %3 to i64 ret i64 %4 } @@ -352,7 +352,7 @@ define i64 @load_register_sext_i16_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: sxth %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i16* - %3 = load i16* %2 + %3 = load i16, i16* %2 %4 = sext i16 %3 to i64 ret i64 %4 } @@ -363,7 +363,7 @@ define i64 @load_register_sext_i32_to_i64(i64 %a, i64 %b) { ; CHECK-NOT: sxtw %1 = add i64 %a, %b %2 = inttoptr i64 %1 to i32* - %3 = load i32* %2 + %3 = load i32, i32* %2 %4 = sext i32 %3 to i64 ret i64 %4 } @@ -376,7 +376,7 @@ define i32 @load_extend_zext_i8_to_i32(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i8* - %4 = load i8* %3 + %4 = load i8, i8* %3 %5 = zext i8 %4 to i32 ret i32 %5 } @@ -388,7 +388,7 @@ define i32 @load_extend_zext_i16_to_i32(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i16* - %4 = load i16* %3 + %4 = load i16, i16* %3 %5 = zext i16 %4 to i32 ret i32 %5 } @@ -400,7 +400,7 @@ define i64 @load_extend_zext_i8_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i8* - %4 = load i8* %3 + %4 = load i8, i8* %3 %5 = zext i8 %4 to i64 ret i64 %5 } @@ -412,7 +412,7 @@ define i64 @load_extend_zext_i16_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i16* - %4 = load i16* %3 + %4 = load i16, i16* %3 %5 = zext i16 %4 to i64 ret i64 %5 } @@ -424,7 +424,7 @@ define i64 @load_extend_zext_i32_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i32* - %4 = load i32* %3 + %4 = load i32, i32* %3 %5 = zext i32 %4 to i64 ret i64 %5 } @@ -436,7 +436,7 @@ define i32 @load_extend_sext_i8_to_i32(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i8* - %4 = load i8* %3 + %4 = load i8, i8* %3 %5 = sext i8 %4 to i32 ret i32 %5 } @@ -448,7 +448,7 @@ define i32 @load_extend_sext_i16_to_i32(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i16* - %4 = load i16* %3 + %4 = load i16, i16* %3 %5 = sext i16 %4 to i32 ret i32 %5 } @@ -460,7 +460,7 @@ define i64 @load_extend_sext_i8_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i8* - %4 = load i8* %3 + %4 = load i8, i8* %3 %5 = sext i8 %4 to i64 ret i64 %5 } @@ -472,7 +472,7 @@ define i64 @load_extend_sext_i16_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i16* - %4 = load i16* %3 + %4 = load i16, i16* %3 %5 = sext i16 %4 to i64 ret i64 %5 } @@ -484,7 +484,7 @@ define i64 @load_extend_sext_i32_to_i64(i64 %a, i32 %b) { %1 = sext i32 %b to i64 %2 = add i64 %a, %1 %3 = inttoptr i64 %2 to i32* - %4 = load i32* %3 + %4 = load i32, i32* %3 %5 = sext i32 %4 to i64 ret i64 %5 } |