ref: 2539d6e447bec85ca19606ffc5d874bbe7204cf4
parent: d63fc1004ef6cf2a5998d222b9b2495c4187ed2c
parent: cc7b81f3c39285f69fa24be22dc54f2699570997
author: ruil2 <[email protected]>
date: Mon Mar 10 11:25:20 EDT 2014
Merge pull request #462 from mstorsjo/fix-typos Fix two typos in variable and macro names
--- a/codec/common/deblocking_neon.S
+++ b/codec/common/deblocking_neon.S
@@ -120,7 +120,7 @@
vrshrn.u16 $8, $6, #2
.endm
-.macro LORD_CHROMA_DATA_4
+.macro LOAD_CHROMA_DATA_4
vld4.u8 {$0[$8],$1[$8],$2[$8],$3[$8]}, [r0], r2
vld4.u8 {$4[$8],$5[$8],$6[$8],$7[$8]}, [r1], r2
.endm
@@ -130,7 +130,7 @@
vst4.u8 {$4[$8],$5[$8],$6[$8],$7[$8]}, [r1], r2
.endm
-.macro LORD_LUMA_DATA_3
+.macro LOAD_LUMA_DATA_3
vld3.u8 {$0[$6],$1[$6],$2[$6]}, [r2], r1
vld3.u8 {$3[$6],$4[$6],$5[$6]}, [r0], r1
.endm
@@ -140,7 +140,7 @@
vst4.u8 {$0[$5],$1[$5],$2[$5],$3[$5]}, [r2], r1
.endm
-.macro LORD_LUMA_DATA_4
+.macro LOAD_LUMA_DATA_4
vld4.u8 {$0[$8],$1[$8],$2[$8],$3[$8]}, [r3], r1
vld4.u8 {$4[$8],$5[$8],$6[$8],$7[$8]}, [r0], r1
.endm
@@ -239,7 +239,7 @@
vrshrn.u16 \arg8, \arg6, #2
.endm
-.macro LORD_CHROMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
+.macro LOAD_CHROMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
vld4.u8 {\arg0[\arg8],\arg1[\arg8],\arg2[\arg8],\arg3[\arg8]}, [r0], r2
vld4.u8 {\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r1], r2
.endm
@@ -249,7 +249,7 @@
vst4.u8 {\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r1], r2
.endm
-.macro LORD_LUMA_DATA_3 arg0, arg1, arg2, arg3, arg4, arg5, arg6
+.macro LOAD_LUMA_DATA_3 arg0, arg1, arg2, arg3, arg4, arg5, arg6
vld3.u8 {\arg0[\arg6],\arg1[\arg6],\arg2[\arg6]}, [r2], r1
vld3.u8 {\arg3[\arg6],\arg4[\arg6],\arg5[\arg6]}, [r0], r1
.endm
@@ -259,7 +259,7 @@
vst4.u8 {\arg0[\arg5],\arg1[\arg5],\arg2[\arg5],\arg3[\arg5]}, [r2], r1
.endm
-.macro LORD_LUMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
+.macro LOAD_LUMA_DATA_4 arg0, arg1, arg2, arg3, arg4, arg5, arg6, arg7, arg8
vld4.u8 {\arg0[\arg8],\arg1[\arg8],\arg2[\arg8],\arg3[\arg8]}, [r3], r1
vld4.u8 {\arg4[\arg8],\arg5[\arg8],\arg6[\arg8],\arg7[\arg8]}, [r0], r1
.endm
@@ -402,23 +402,23 @@
vdup.u8 q9, r3
sub r2, r0, #3
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 0
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 1
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 2
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 3
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 4
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 5
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 6
- LORD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 7
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 0
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 1
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 2
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 3
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 4
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 5
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 6
+ LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 7
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 0
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 1
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 2
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 3
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 4
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 5
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 6
- LORD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 7
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 0
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 1
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 2
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 3
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 4
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 5
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 6
+ LOAD_LUMA_DATA_3 d3, d4, d5, d9, d10, d11, 7
vswp d1, d2
vswp d3, d4
@@ -496,23 +496,23 @@
vdup.u8 q4, r3
sub r3, r0, #4 // pix -= 4
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,0
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,1
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,2
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,3
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,4
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,5
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,6
- LORD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,7
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,0
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,1
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,2
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,3
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,4
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,5
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,6
+ LOAD_LUMA_DATA_4 d16,d17,d18,d19,d24,d25,d26,d27,7
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,0
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,1
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,2
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,3
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,4
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,5
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,6
- LORD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,7
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,0
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,1
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,2
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,3
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,4
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,5
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,6
+ LOAD_LUMA_DATA_4 d20,d21,d22,d23,d28,d29,d30,d31,7
vswp q9, q10
vswp d17,d18
@@ -694,14 +694,14 @@
sub r1, r1, #2
vld1.s8 {d15}, [r3]
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 0
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 1
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 2
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 3
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 4
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 5
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 6
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 7
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 0
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 1
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 2
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 3
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 4
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 5
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 6
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 7
vswp q1, q2
vswp d1, d2
vswp d6, d5
@@ -753,14 +753,14 @@
sub r0, r0, #2
sub r1, r1, #2
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 0
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 1
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 2
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 3
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 4
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 5
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 6
- LORD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 7
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 0
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 1
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 2
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 3
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 4
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 5
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 6
+ LOAD_CHROMA_DATA_4 d0, d1, d2, d3, d4, d5, d6, d7, 7
vswp q1, q2
vswp d1, d2
vswp d6, d5
--- a/codec/encoder/core/arm/reconstruct_neon.S
+++ b/codec/encoder/core/arm/reconstruct_neon.S
@@ -35,7 +35,7 @@
#include "arm_arch_common_macro.S"
#ifdef APPLE_IOS
-.macro LORD_ALIGNED_DATA_WITH_STRIDE
+.macro LOAD_ALIGNED_DATA_WITH_STRIDE
// { // input: $0~$3, src*, src_stride
vld1.64 {$0}, [$4,:128], $5
vld1.64 {$1}, [$4,:128], $5
@@ -53,7 +53,7 @@
// }
.endm
-.macro LORD_UNALIGNED_DATA_WITH_STRIDE
+.macro LOAD_UNALIGNED_DATA_WITH_STRIDE
// { // input: $0~$3, src*, src_stride
vld1.64 {$0}, [$4], $5
vld1.64 {$1}, [$4], $5
@@ -315,7 +315,7 @@
// }
.endm
#else
-.macro LORD_ALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
+.macro LOAD_ALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
// { // input: \arg0~\arg3, src*, src_stride
vld1.64 {\arg0}, [\arg4,:128], \arg5
vld1.64 {\arg1}, [\arg4,:128], \arg5
@@ -333,7 +333,7 @@
// }
.endm
-.macro LORD_UNALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
+.macro LOAD_UNALIGNED_DATA_WITH_STRIDE arg0, arg1, arg2, arg3, arg4, arg5
// { // input: \arg0~\arg3, src*, src_stride
vld1.64 {\arg0}, [\arg4], \arg5
vld1.64 {\arg1}, [\arg4], \arg5
@@ -599,11 +599,11 @@
WELS_ASM_FUNC_BEGIN WelsCopy8x8_neon
- LORD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
@@ -612,19 +612,19 @@
WELS_ASM_FUNC_BEGIN WelsCopy16x16_neon
- LORD_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
+ LOAD_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
STORE_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r0, r1
- LORD_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
+ LOAD_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
STORE_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r0, r1
- LORD_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
+ LOAD_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
STORE_ALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r0, r1
- LORD_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
+ LOAD_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
STORE_ALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r0, r1
@@ -633,19 +633,19 @@
WELS_ASM_FUNC_BEGIN WelsCopy16x16NotAligned_neon
- LORD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r0, r1
@@ -654,11 +654,11 @@
WELS_ASM_FUNC_BEGIN WelsCopy16x8NotAligned_neon
- LORD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q0, q1, q2, q3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE q4, q5, q6, q7, r0, r1
@@ -667,19 +667,19 @@
WELS_ASM_FUNC_BEGIN WelsCopy8x16_neon
- LORD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d0, d1, d2, d3, r0, r1
- LORD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
+ LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
--- a/codec/processing/src/vaacalc/vaacalcfuncs.cpp
+++ b/codec/processing/src/vaacalc/vaacalcfuncs.cpp
@@ -39,13 +39,13 @@
uint8_t* tmp_ref = pRefData;
uint8_t* tmp_cur = pCurData;
int32_t iMbWidth = (iPicWidth >> 4);
- int32_t mb_heigth = (iPicHeight >> 4);
+ int32_t mb_height = (iPicHeight >> 4);
int32_t mb_index = 0;
int32_t pic_stride_x8 = iPicStride << 3;
int32_t step = (iPicStride << 4) - iPicWidth;
*pFrameSad = 0;
- for (int32_t i = 0; i < mb_heigth; i ++) {
+ for (int32_t i = 0; i < mb_height; i ++) {
for (int32_t j = 0; j < iMbWidth; j ++) {
int32_t k, l;
int32_t l_sad, l_sqdiff, l_sum, l_sqsum;
@@ -150,13 +150,13 @@
uint8_t* tmp_ref = pRefData;
uint8_t* tmp_cur = pCurData;
int32_t iMbWidth = (iPicWidth >> 4);
- int32_t mb_heigth = (iPicHeight >> 4);
+ int32_t mb_height = (iPicHeight >> 4);
int32_t mb_index = 0;
int32_t pic_stride_x8 = iPicStride << 3;
int32_t step = (iPicStride << 4) - iPicWidth;
*pFrameSad = 0;
- for (int32_t i = 0; i < mb_heigth; i ++) {
+ for (int32_t i = 0; i < mb_height; i ++) {
for (int32_t j = 0; j < iMbWidth; j ++) {
int32_t k, l;
int32_t l_sad, l_sum, l_sqsum;
@@ -254,13 +254,13 @@
uint8_t* tmp_ref = pRefData;
uint8_t* tmp_cur = pCurData;
int32_t iMbWidth = (iPicWidth >> 4);
- int32_t mb_heigth = (iPicHeight >> 4);
+ int32_t mb_height = (iPicHeight >> 4);
int32_t mb_index = 0;
int32_t pic_stride_x8 = iPicStride << 3;
int32_t step = (iPicStride << 4) - iPicWidth;
*pFrameSad = 0;
- for (int32_t i = 0; i < mb_heigth; i ++) {
+ for (int32_t i = 0; i < mb_height; i ++) {
for (int32_t j = 0; j < iMbWidth; j ++) {
int32_t k, l;
int32_t l_sad;
@@ -341,13 +341,13 @@
uint8_t* tmp_ref = pRefData;
uint8_t* tmp_cur = pCurData;
int32_t iMbWidth = (iPicWidth >> 4);
- int32_t mb_heigth = (iPicHeight >> 4);
+ int32_t mb_height = (iPicHeight >> 4);
int32_t mb_index = 0;
int32_t pic_stride_x8 = iPicStride << 3;
int32_t step = (iPicStride << 4) - iPicWidth;
*pFrameSad = 0;
- for (int32_t i = 0; i < mb_heigth; i ++) {
+ for (int32_t i = 0; i < mb_height; i ++) {
for (int32_t j = 0; j < iMbWidth; j ++) {
int32_t k, l;
int32_t l_sad, l_sqdiff, l_sum, l_sqsum, l_sd, l_mad;
@@ -485,13 +485,13 @@
uint8_t* tmp_ref = pRefData;
uint8_t* tmp_cur = pCurData;
int32_t iMbWidth = (iPicWidth >> 4);
- int32_t mb_heigth = (iPicHeight >> 4);
+ int32_t mb_height = (iPicHeight >> 4);
int32_t mb_index = 0;
int32_t pic_stride_x8 = iPicStride << 3;
int32_t step = (iPicStride << 4) - iPicWidth;
*pFrameSad = 0;
- for (int32_t i = 0; i < mb_heigth; i ++) {
+ for (int32_t i = 0; i < mb_height; i ++) {
for (int32_t j = 0; j < iMbWidth; j ++) {
int32_t k, l;
int32_t l_sad, l_sd, l_mad;