10 #ifndef MULT_COMMON_PATRS_QXS_H
11 #define MULT_COMMON_PATRS_QXS_H
22 load_vec(pg1, u0, &ux[
VLEN * 0 - 1]);
23 load_add(pg2, u0, &un[
VLEN * 0 +
VLENX - 1]);
25 load_vec(pg1, u1, &ux[
VLEN * 1 - 1]);
26 load_add(pg2, u1, &un[
VLEN * 1 +
VLENX - 1]);
28 load_vec(pg1, u2, &ux[
VLEN * 2 - 1]);
29 load_add(pg2, u2, &un[
VLEN * 2 +
VLENX - 1]);
31 load_vec(pg1, u3, &ux[
VLEN * 3 - 1]);
32 load_add(pg2, u3, &un[
VLEN * 3 +
VLENX - 1]);
34 load_vec(pg1, u4, &ux[
VLEN * 4 - 1]);
35 load_add(pg2, u4, &un[
VLEN * 4 +
VLENX - 1]);
37 load_vec(pg1, u5, &ux[
VLEN * 5 - 1]);
38 load_add(pg2, u5, &un[
VLEN * 5 +
VLENX - 1]);
68 load_vec(pg, u0, &un[
VLEN * 0]);
69 load_vec(pg, u1, &un[
VLEN * 1]);
70 load_vec(pg, u2, &un[
VLEN * 2]);
71 load_vec(pg, u3, &un[
VLEN * 3]);
72 load_vec(pg, u4, &un[
VLEN * 4]);
73 load_vec(pg, u5, &un[
VLEN * 5]);
84 shift_vec_yfw(u0, &ux[
VLEN * 0], &un[
VLEN * 0]);
85 shift_vec_yfw(u1, &ux[
VLEN * 1], &un[
VLEN * 1]);
86 shift_vec_yfw(u2, &ux[
VLEN * 2], &un[
VLEN * 2]);
87 shift_vec_yfw(u3, &ux[
VLEN * 3], &un[
VLEN * 3]);
88 shift_vec_yfw(u4, &ux[
VLEN * 4], &un[
VLEN * 4]);
89 shift_vec_yfw(u5, &ux[
VLEN * 5], &un[
VLEN * 5]);
92 load_vec(pg, u0, &un[
VLEN * 0]);
93 load_vec(pg, u1, &un[
VLEN * 1]);
94 load_vec(pg, u2, &un[
VLEN * 2]);
95 load_vec(pg, u3, &un[
VLEN * 3]);
96 load_vec(pg, u4, &un[
VLEN * 4]);
97 load_vec(pg, u5, &un[
VLEN * 5]);
108 load_vec(pg3, u0, &ux[
VLEN * 0]);
109 load_add(pg1, u0, &ux[
VLEN * 0 - 1]);
111 load_vec(pg3, u1, &ux[
VLEN * 1]);
112 load_add(pg1, u1, &ux[
VLEN * 1 - 1]);
114 load_vec(pg3, u2, &ux[
VLEN * 2]);
115 load_add(pg1, u2, &ux[
VLEN * 2 - 1]);
117 load_vec(pg3, u3, &ux[
VLEN * 3]);
118 load_add(pg1, u3, &ux[
VLEN * 3 - 1]);
120 load_vec(pg3, u4, &ux[
VLEN * 4]);
121 load_add(pg1, u4, &ux[
VLEN * 4 - 1]);
123 load_vec(pg3, u5, &ux[
VLEN * 5]);
124 load_add(pg1, u5, &ux[
VLEN * 5 - 1]);
134 load_vec(pg3, u0, &ux[
VLEN * 0]);
135 load_add(pg1, u0, &ux[
VLEN * 0 - 1]);
136 load_add(pg2, u0, &un[
VLEN * 0 +
VLENX - 1]);
138 load_vec(pg3, u1, &ux[
VLEN * 1]);
139 load_add(pg1, u1, &ux[
VLEN * 1 - 1]);
140 load_add(pg2, u1, &un[
VLEN * 1 +
VLENX - 1]);
142 load_vec(pg3, u2, &ux[
VLEN * 2]);
143 load_add(pg1, u2, &ux[
VLEN * 2 - 1]);
144 load_add(pg2, u2, &un[
VLEN * 2 +
VLENX - 1]);
146 load_vec(pg3, u3, &ux[
VLEN * 3]);
147 load_add(pg1, u3, &ux[
VLEN * 3 - 1]);
148 load_add(pg2, u3, &un[
VLEN * 3 +
VLENX - 1]);
150 load_vec(pg3, u4, &ux[
VLEN * 4]);
151 load_add(pg1, u4, &ux[
VLEN * 4 - 1]);
152 load_add(pg2, u4, &un[
VLEN * 4 +
VLENX - 1]);
154 load_vec(pg3, u5, &ux[
VLEN * 5]);
155 load_add(pg1, u5, &ux[
VLEN * 5 - 1]);
156 load_add(pg2, u5, &un[
VLEN * 5 +
VLENX - 1]);
166 shift_vec(pg1, idx1, u0, &ux[
VLEN * 0], &un[
VLEN * 0]);
167 shift_vec(pg1, idx1, u1, &ux[
VLEN * 1], &un[
VLEN * 1]);
168 shift_vec(pg1, idx1, u2, &ux[
VLEN * 2], &un[
VLEN * 2]);
169 shift_vec(pg1, idx1, u3, &ux[
VLEN * 3], &un[
VLEN * 3]);
170 shift_vec(pg1, idx1, u4, &ux[
VLEN * 4], &un[
VLEN * 4]);
171 shift_vec(pg1, idx1, u5, &ux[
VLEN * 5], &un[
VLEN * 5]);