shithub: openh264

Download patch

ref: cc7b81f3c39285f69fa24be22dc54f2699570997
parent: e31ba7a7759ad1fc937a0b03b817c0463b131cb6
author: Martin Storsjö <[email protected]>
date: Sun Mar 9 12:51:51 EDT 2014

Fix a typo in arm assembly, LORD -> LOAD

--- a/codec/common/deblocking_neon.S
+++ b/codec/common/deblocking_neon.S
@@ -120,7 +120,7 @@
     vrshrn.u16		$8, $6, #2
 .endm
 
-.macro	LORD_CHROMA_DATA_4
+.macro	LOAD_CHROMA_DATA_4
     vld4.u8	{$0[$8],$1[$8],$2[$8],$3[$8]}, [r0], r2
     vld4.u8	{$4[$8],$5[$8],$6[$8],$7[$8]}, [r1], r2
 .endm
@@ -130,7 +130,7 @@
     vst4.u8	{$4[$8],$5[$8],$6[$8],$7[$8]}, [r1], r2
 .endm
 
-.macro	LORD_LUMA_DATA_3
+.macro	LOAD_LUMA_DATA_3
     vld3.u8	{$0[$6],$1[$6],$2[$6]}, [r2], r1
     vld3.u8	{$3[$6],$4[$6],$5[$6]}, [r0], r1
 .endm
@@ -140,7 +140,7 @@
     vst4.u8	{$0[$5],$1[$5],$2[$5],$3[$5]}, [r2], r1
 .endm
 
-.macro	LORD_LUMA_DATA_4
+.macro	LOAD_LUMA_DATA_4
     vld4.u8	{$0[$8],$1[$8],$2[$8],$3[$8]}, [r3], r1
     vld4.u8	{$4[$8],$5[$8],$6[$8],$7[$8]}, [r0], r1
 .endm
@@ -239,7 +239,7 @@
     vrshrn.u16		\arg8, \arg6, #2
 .endm
 
-.macro	LORD_CHROMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
+.macro	LOAD_CHROMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
     vld4.u8	{\arg0[\arg8],\arg1[\arg8],\arg2[\arg8],\arg3[\arg8]}, [r0], r2
     vld4.u8	{\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r1], r2
 .endm
@@ -249,7 +249,7 @@
     vst4.u8	{\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r1], r2
 .endm
 
-.macro	LORD_LUMA_DATA_3 arg0, arg1, arg2, arg3, arg4, arg5, arg6
+.macro	LOAD_LUMA_DATA_3 arg0, arg1, arg2, arg3, arg4, arg5, arg6
     vld3.u8	{\arg0[\arg6],\arg1[\arg6],\arg2[\arg6]}, [r2], r1
     vld3.u8	{\arg3[\arg6],\arg4[\arg6],\arg5[\arg6]}, [r0], r1
 .endm
@@ -259,7 +259,7 @@
     vst4.u8	{\arg0[\arg5],\arg1[\arg5],\arg2[\arg5],\arg3[\arg5]}, [r2], r1
 .endm
 
-.macro	LORD_LUMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
+.macro	LOAD_LUMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
     vld4.u8	{\arg0[\arg8],\arg1[\arg8],\arg2[\arg8],\arg3[\arg8]}, [r3], r1
     vld4.u8	{\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r0], r1
 .endm
@@ -402,23 +402,23 @@
     vdup.u8	q9, r3
 
     sub			r2, r0, #3
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 0
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 1
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 2
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 3
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 4
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 5
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 6
-    LORD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 7
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 0
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 1
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 2
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 3
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 4
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 5
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 6
+    LOAD_LUMA_DATA_3		d0, d1, d2, d6, d7, d8, 7
 
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 0
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 1
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 2
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 3
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 4
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 5
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 6
-    LORD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 7
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 0
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 1
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 2
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 3
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 4
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 5
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 6
+    LOAD_LUMA_DATA_3		d3, d4, d5, d9, d10, d11, 7
 
     vswp		d1, d2
     vswp		d3, d4
@@ -496,23 +496,23 @@
     vdup.u8	q4, r3
 
     sub			r3, r0, #4				//	pix -= 4
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,0
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,1
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,2
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,3
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,4
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,5
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,6
-    LORD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,7
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,0
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,1
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,2
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,3
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,4
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,5
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,6
+    LOAD_LUMA_DATA_4		d16,d17,d18,d19,d24,d25,d26,d27,7
 
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,0
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,1
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,2
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,3
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,4
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,5
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,6
-    LORD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,7
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,0
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,1
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,2
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,3
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,4
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,5
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,6
+    LOAD_LUMA_DATA_4		d20,d21,d22,d23,d28,d29,d30,d31,7
 
     vswp		q9, q10
     vswp		d17,d18
@@ -694,14 +694,14 @@
     sub			r1, r1, #2
     vld1.s8	{d15}, [r3]
 
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 0
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 1
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 2
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 3
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 4
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 5
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 6
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 7
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 0
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 1
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 2
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 3
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 4
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 5
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 6
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 7
     vswp		q1, q2
     vswp		d1, d2
     vswp		d6, d5
@@ -753,14 +753,14 @@
     sub			r0, r0, #2
     sub			r1, r1, #2
 
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 0
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 1
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 2
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 3
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 4
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 5
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 6
-    LORD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 7
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 0
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 1
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 2
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 3
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 4
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 5
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 6
+    LOAD_CHROMA_DATA_4	d0, d1, d2, d3, d4, d5, d6, d7, 7
     vswp		q1, q2
     vswp		d1, d2
     vswp		d6, d5
--- a/codec/encoder/core/arm/reconstruct_neon.S
+++ b/codec/encoder/core/arm/reconstruct_neon.S
@@ -35,7 +35,7 @@
 #include "arm_arch_common_macro.S"
 
 #ifdef APPLE_IOS
-.macro	LORD_ALIGNED_DATA_WITH_STRIDE
+.macro	LOAD_ALIGNED_DATA_WITH_STRIDE
 //	{	//	input: $0~$3, src*, src_stride
     vld1.64	{$0}, [$4,:128], $5
     vld1.64	{$1}, [$4,:128], $5
@@ -53,7 +53,7 @@
 //	}
 .endm
 
-.macro	LORD_UNALIGNED_DATA_WITH_STRIDE
+.macro	LOAD_UNALIGNED_DATA_WITH_STRIDE
 //	{	//	input: $0~$3, src*, src_stride
     vld1.64	{$0}, [$4], $5
     vld1.64	{$1}, [$4], $5
@@ -315,7 +315,7 @@
 //	}
 .endm
 #else
-.macro	LORD_ALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
+.macro	LOAD_ALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
 //	{	//	input: \arg0~\arg3, src*, src_stride
     vld1.64	{\arg0}, [\arg4,:128], \arg5
     vld1.64	{\arg1}, [\arg4,:128], \arg5
@@ -333,7 +333,7 @@
 //	}
 .endm
 
-.macro	LORD_UNALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
+.macro	LOAD_UNALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
 //	{	//	input: \arg0~\arg3, src*, src_stride
     vld1.64	{\arg0}, [\arg4], \arg5
     vld1.64	{\arg1}, [\arg4], \arg5
@@ -599,11 +599,11 @@
 
 WELS_ASM_FUNC_BEGIN WelsCopy8x8_neon
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r0, r1
 
@@ -612,19 +612,19 @@
 
 WELS_ASM_FUNC_BEGIN WelsCopy16x16_neon
 
-	LORD_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
+	LOAD_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
 
 	STORE_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r0, r1
 
-	LORD_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
+	LOAD_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
 
 	STORE_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r0, r1
 
-	LORD_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
+	LOAD_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
 
 	STORE_ALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r0, r1
 
-	LORD_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
+	LOAD_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
 
 	STORE_ALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r0, r1
 
@@ -633,19 +633,19 @@
 
 WELS_ASM_FUNC_BEGIN WelsCopy16x16NotAligned_neon
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r0, r1
 
@@ -654,11 +654,11 @@
 
 WELS_ASM_FUNC_BEGIN WelsCopy16x8NotAligned_neon
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q0, q1, q2, q3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	q4, q5, q6, q7, r0, r1
 
@@ -667,19 +667,19 @@
 
 WELS_ASM_FUNC_BEGIN WelsCopy8x16_neon
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d0, d1, d2, d3, r0, r1
 
-	LORD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
+	LOAD_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r2, r3
 
 	STORE_UNALIGNED_DATA_WITH_STRIDE	d4, d5, d6, d7, r0, r1