/* * Copyright (C) 2007-2008 ARM Limited * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License. * You may obtain a copy of the License at * * http://www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. * */ /* * */ .eabi_attribute 24, 1 .eabi_attribute 25, 1 .arm .fpu neon .text .global armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe: PUSH {r4-r12,lr} VLD1.8 {d22,d23},[r0],r1 VEXT.8 d10,d22,d23,#5 VEXT.8 d12,d22,d23,#1 VEXT.8 d14,d22,d23,#2 VEXT.8 d15,d22,d23,#3 VEXT.8 d13,d22,d23,#4 VADDL.U8 q11,d22,d10 VADDL.U8 q4,d14,d15 VADDL.U8 q6,d12,d13 VLD1.8 {d24,d25},[r0],r1 VMLA.I16 d22,d8,d31 VMUL.I16 d8,d12,d30 VEXT.8 d10,d24,d25,#5 VEXT.8 d12,d24,d25,#1 VEXT.8 d16,d24,d25,#2 VEXT.8 d17,d24,d25,#3 VEXT.8 d13,d24,d25,#4 VADDL.U8 q12,d24,d10 VSUB.I16 d22,d22,d8 VADDL.U8 q4,d16,d17 VADDL.U8 q6,d12,d13 VLD1.8 {d26,d27},[r0],r1 VMLA.I16 d24,d8,d31 VMUL.I16 d8,d12,d30 VEXT.8 d10,d26,d27,#5 VEXT.8 d12,d26,d27,#1 VEXT.8 d18,d26,d27,#2 VEXT.8 d19,d26,d27,#3 VEXT.8 d13,d26,d27,#4 VADDL.U8 q13,d26,d10 VSUB.I16 d24,d24,d8 VADDL.U8 q4,d18,d19 VADDL.U8 q6,d12,d13 VLD1.8 {d28,d29},[r0],r1 VMLA.I16 d26,d8,d31 VMUL.I16 d8,d12,d30 VEXT.8 d10,d28,d29,#5 VEXT.8 d12,d28,d29,#1 VEXT.8 d20,d28,d29,#2 VEXT.8 d21,d28,d29,#3 VEXT.8 d13,d28,d29,#4 VADDL.U8 q14,d28,d10 VSUB.I16 d26,d26,d8 VADDL.U8 q4,d20,d21 VADDL.U8 q6,d12,d13 VMLA.I16 d28,d8,d31 VMLS.I16 d28,d12,d30 VQRSHRUN.S16 d22,q11,#5 VQRSHRUN.S16 d24,q12,#5 VQRSHRUN.S16 d26,q13,#5 VQRSHRUN.S16 d28,q14,#5 POP {r4-r12,pc} .end