Lines Matching refs:MPP_ALIGN
193 RK_S32 mb_w = MPP_ALIGN(w, 64) / 64; in vepu54x_h265_set_roi()
194 RK_S32 mb_h = MPP_ALIGN(h, 64) / 64; in vepu54x_h265_set_roi()
226 RK_S32 mb_w = MPP_ALIGN(ctx->w, 16) / 16; in gen_vepu54x_roi()
227 RK_S32 mb_h = MPP_ALIGN(ctx->h, 16) / 16; in gen_vepu54x_roi()
228 RK_S32 stride_h = MPP_ALIGN(mb_w, 4); in gen_vepu54x_roi()
229 RK_S32 stride_v = MPP_ALIGN(mb_h, 4); in gen_vepu54x_roi()
463 RK_S32 mb_w = MPP_ALIGN(ctx->w, 16) / 16; in gen_vepu580_roi_h264()
464 RK_S32 mb_h = MPP_ALIGN(ctx->h, 16) / 16; in gen_vepu580_roi_h264()
465 RK_S32 stride_h = MPP_ALIGN(mb_w, 4); in gen_vepu580_roi_h264()
466 RK_S32 stride_v = MPP_ALIGN(mb_h, 4); in gen_vepu580_roi_h264()
535 RK_S32 ctu_w = MPP_ALIGN(ctx->w, 64) / 64; in gen_vepu580_roi_h265()
536 RK_S32 ctu_h = MPP_ALIGN(ctx->h, 64) / 64; in gen_vepu580_roi_h265()
674 RK_S32 mb_w = MPP_ALIGN(impl->w, 16) / 16; in mpp_enc_roi_init()
675 RK_S32 mb_h = MPP_ALIGN(impl->h, 16) / 16; in mpp_enc_roi_init()
676 RK_U32 ctu_w = MPP_ALIGN(impl->w, 64) / 64; in mpp_enc_roi_init()
677 RK_U32 ctu_h = MPP_ALIGN(impl->w, 64) / 64; in mpp_enc_roi_init()
678 RK_S32 stride_h = MPP_ALIGN(mb_w, 4); in mpp_enc_roi_init()
679 RK_S32 stride_v = MPP_ALIGN(mb_h, 4); in mpp_enc_roi_init()
710 RK_U32 ctu_w = MPP_ALIGN(w, 64) / 64; in mpp_enc_roi_init()
711 RK_U32 ctu_h = MPP_ALIGN(h, 64) / 64; in mpp_enc_roi_init()
720 RK_U32 mb_w = MPP_ALIGN(w, 64) / 16; in mpp_enc_roi_init()
721 RK_U32 mb_h = MPP_ALIGN(h, 64) / 16; in mpp_enc_roi_init()
758 RK_S32 mb_w = MPP_ALIGN(impl->w, 16) / 16; in mpp_enc_roi_init()
759 RK_S32 mb_h = MPP_ALIGN(impl->h, 16) / 16; in mpp_enc_roi_init()
760 RK_S32 stride_h = MPP_ALIGN(mb_w, 4); in mpp_enc_roi_init()
761 RK_S32 stride_v = MPP_ALIGN(mb_h, 4); in mpp_enc_roi_init()