Reformat code per Siarhei's original patch (to clearly indicate that the offset instructions are completely independent) and add Siarhei as an individual author (he no longer works for Nokia.)

git-svn-id: svn+ssh://svn.code.sf.net/p/libjpeg-turbo/code/trunk@1388 632fc199-4ca6-4c93-a231-07263d6284db
This commit is contained in:
DRC
2014-08-25 15:26:09 +00:00
parent 82070439ab
commit c8b99a298e

View File

@@ -4,6 +4,7 @@
* Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies). * Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies).
* All rights reserved. * All rights reserved.
* Author: Siarhei Siamashka <siarhei.siamashka@nokia.com> * Author: Siarhei Siamashka <siarhei.siamashka@nokia.com>
* Copyright (C) 2014 Siarhei Siamashka. All Rights Reserved.
* Copyright (C) 2014 Linaro Limited. All Rights Reserved. * Copyright (C) 2014 Linaro Limited. All Rights Reserved.
* *
* This software is provided 'as-is', without any express or implied * This software is provided 'as-is', without any express or implied
@@ -1408,52 +1409,52 @@ asm_function jsimd_idct_2x2_neon
.endm .endm
.macro do_yuv_to_rgb_stage2_store_load_stage1 .macro do_yuv_to_rgb_stage2_store_load_stage1
/* "do_yuv_to_rgb_stage2" and "store" */ /* "do_yuv_to_rgb_stage2" and "store" */
vrshrn.s32 d20, q10, #15 vrshrn.s32 d20, q10, #15
/* "load" and "do_yuv_to_rgb_stage1" */ /* "load" and "do_yuv_to_rgb_stage1" */
pld [U, #64] pld [U, #64]
vrshrn.s32 d21, q11, #15 vrshrn.s32 d21, q11, #15
pld [V, #64] pld [V, #64]
vrshrn.s32 d24, q12, #14 vrshrn.s32 d24, q12, #14
vrshrn.s32 d25, q13, #14 vrshrn.s32 d25, q13, #14
vld1.8 {d4}, [U, :64]! vld1.8 {d4}, [U, :64]!
vrshrn.s32 d28, q14, #14 vrshrn.s32 d28, q14, #14
vld1.8 {d5}, [V, :64]! vld1.8 {d5}, [V, :64]!
vrshrn.s32 d29, q15, #14 vrshrn.s32 d29, q15, #14
vaddw.u8 q3, q1, d4 /* q3 = u - 128 */ vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
vaddw.u8 q4, q1, d5 /* q2 = v - 128 */ vaddw.u8 q4, q1, d5 /* q2 = v - 128 */
vaddw.u8 q11, q10, d0 vaddw.u8 q11, q10, d0
vmull.s16 q10, d6, d1[1] /* multiply by -11277 */ vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */ vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
vaddw.u8 q12, q12, d0 vaddw.u8 q12, q12, d0
vaddw.u8 q14, q14, d0 vaddw.u8 q14, q14, d0
.if \bpp != 16 /**************** rgb24/rgb32 *********************************/ .if \bpp != 16 /**************** rgb24/rgb32 *********************************/
vqmovun.s16 d1\g_offs, q11 vqmovun.s16 d1\g_offs, q11
pld [Y, #64] pld [Y, #64]
vqmovun.s16 d1\r_offs, q12 vqmovun.s16 d1\r_offs, q12
vld1.8 {d0}, [Y, :64]! vld1.8 {d0}, [Y, :64]!
vqmovun.s16 d1\b_offs, q14 vqmovun.s16 d1\b_offs, q14
vmull.s16 q11, d7, d1[1] /* multiply by -11277 */ vmull.s16 q11, d7, d1[1] /* multiply by -11277 */
vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */ vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */
do_store \bpp, 8 do_store \bpp, 8
vmull.s16 q12, d8, d1[0] /* multiply by 22971 */ vmull.s16 q12, d8, d1[0] /* multiply by 22971 */
vmull.s16 q13, d9, d1[0] /* multiply by 22971 */ vmull.s16 q13, d9, d1[0] /* multiply by 22971 */
vmull.s16 q14, d6, d1[3] /* multiply by 29033 */ vmull.s16 q14, d6, d1[3] /* multiply by 29033 */
vmull.s16 q15, d7, d1[3] /* multiply by 29033 */ vmull.s16 q15, d7, d1[3] /* multiply by 29033 */
.else /**************************** rgb565 ***********************************/ .else /**************************** rgb565 ***********************************/
vqshlu.s16 q13, q11, #8 vqshlu.s16 q13, q11, #8
pld [Y, #64] pld [Y, #64]
vqshlu.s16 q15, q12, #8 vqshlu.s16 q15, q12, #8
vqshlu.s16 q14, q14, #8 vqshlu.s16 q14, q14, #8
vld1.8 {d0}, [Y, :64]! vld1.8 {d0}, [Y, :64]!
vmull.s16 q11, d7, d1[1] vmull.s16 q11, d7, d1[1]
vmlal.s16 q11, d9, d1[2] vmlal.s16 q11, d9, d1[2]
vsri.u16 q15, q13, #5 vsri.u16 q15, q13, #5
vmull.s16 q12, d8, d1[0] vmull.s16 q12, d8, d1[0]
vsri.u16 q15, q14, #11 vsri.u16 q15, q14, #11
vmull.s16 q13, d9, d1[0] vmull.s16 q13, d9, d1[0]
vmull.s16 q14, d6, d1[3] vmull.s16 q14, d6, d1[3]
do_store \bpp, 8 do_store \bpp, 8
vmull.s16 q15, d7, d1[3] vmull.s16 q15, d7, d1[3]
.endif .endif
.endm .endm