1/* Copyright (C) 1994, 1995, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2 2004, 2005, 2006 3 Free Software Foundation, Inc. 4 5 * SPDX-License-Identifier: GPL-2.0+ 6 */ 7 8!! libgcc routines for the Renesas / SuperH SH CPUs. 9!! Contributed by Steve Chamberlain. 10!! sac@cygnus.com 11 12!! ashiftrt_r4_x, ___ashrsi3, ___ashlsi3, ___lshrsi3 routines 13!! recoded in assembly by Toshiyasu Morita 14!! tm@netcom.com 15 16/* SH2 optimizations for ___ashrsi3, ___ashlsi3, ___lshrsi3 and 17 ELF local label prefixes by J"orn Rennecke 18 amylaar@cygnus.com */ 19 20 .text 21 .balign 4 22 .global __movmem 23 .global __movstr 24 .set __movstr, __movmem 25 /* This would be a lot simpler if r6 contained the byte count 26 minus 64, and we wouldn't be called here for a byte count of 64. */ 27__movmem: 28 sts.l pr,@-r15 29 shll2 r6 30 bsr __movmemSI52+2 31 mov.l @(48,r5),r0 32 .balign 4 33movmem_loop: /* Reached with rts */ 34 mov.l @(60,r5),r0 35 add #-64,r6 36 mov.l r0,@(60,r4) 37 tst r6,r6 38 mov.l @(56,r5),r0 39 bt movmem_done 40 mov.l r0,@(56,r4) 41 cmp/pl r6 42 mov.l @(52,r5),r0 43 add #64,r5 44 mov.l r0,@(52,r4) 45 add #64,r4 46 bt __movmemSI52 47! done all the large groups, do the remainder 48! jump to movmem+ 49 mova __movmemSI4+4,r0 50 add r6,r0 51 jmp @r0 52movmem_done: ! share slot insn, works out aligned. 53 lds.l @r15+,pr 54 mov.l r0,@(56,r4) 55 mov.l @(52,r5),r0 56 rts 57 mov.l r0,@(52,r4) 58 .balign 4 59 60 .global __movmemSI64 61 .global __movstrSI64 62 .set __movstrSI64, __movmemSI64 63__movmemSI64: 64 mov.l @(60,r5),r0 65 mov.l r0,@(60,r4) 66 .global __movmemSI60 67 .global __movstrSI60 68 .set __movstrSI60, __movmemSI60 69__movmemSI60: 70 mov.l @(56,r5),r0 71 mov.l r0,@(56,r4) 72 .global __movmemSI56 73 .global __movstrSI56 74 .set __movstrSI56, __movmemSI56 75__movmemSI56: 76 mov.l @(52,r5),r0 77 mov.l r0,@(52,r4) 78 .global __movmemSI52 79 .global __movstrSI52 80 .set __movstrSI52, __movmemSI52 81__movmemSI52: 82 mov.l @(48,r5),r0 83 mov.l r0,@(48,r4) 84 .global __movmemSI48 85 .global __movstrSI48 86 .set __movstrSI48, __movmemSI48 87__movmemSI48: 88 mov.l @(44,r5),r0 89 mov.l r0,@(44,r4) 90 .global __movmemSI44 91 .global __movstrSI44 92 .set __movstrSI44, __movmemSI44 93__movmemSI44: 94 mov.l @(40,r5),r0 95 mov.l r0,@(40,r4) 96 .global __movmemSI40 97 .global __movstrSI40 98 .set __movstrSI40, __movmemSI40 99__movmemSI40: 100 mov.l @(36,r5),r0 101 mov.l r0,@(36,r4) 102 .global __movmemSI36 103 .global __movstrSI36 104 .set __movstrSI36, __movmemSI36 105__movmemSI36: 106 mov.l @(32,r5),r0 107 mov.l r0,@(32,r4) 108 .global __movmemSI32 109 .global __movstrSI32 110 .set __movstrSI32, __movmemSI32 111__movmemSI32: 112 mov.l @(28,r5),r0 113 mov.l r0,@(28,r4) 114 .global __movmemSI28 115 .global __movstrSI28 116 .set __movstrSI28, __movmemSI28 117__movmemSI28: 118 mov.l @(24,r5),r0 119 mov.l r0,@(24,r4) 120 .global __movmemSI24 121 .global __movstrSI24 122 .set __movstrSI24, __movmemSI24 123__movmemSI24: 124 mov.l @(20,r5),r0 125 mov.l r0,@(20,r4) 126 .global __movmemSI20 127 .global __movstrSI20 128 .set __movstrSI20, __movmemSI20 129__movmemSI20: 130 mov.l @(16,r5),r0 131 mov.l r0,@(16,r4) 132 .global __movmemSI16 133 .global __movstrSI16 134 .set __movstrSI16, __movmemSI16 135__movmemSI16: 136 mov.l @(12,r5),r0 137 mov.l r0,@(12,r4) 138 .global __movmemSI12 139 .global __movstrSI12 140 .set __movstrSI12, __movmemSI12 141__movmemSI12: 142 mov.l @(8,r5),r0 143 mov.l r0,@(8,r4) 144 .global __movmemSI8 145 .global __movstrSI8 146 .set __movstrSI8, __movmemSI8 147__movmemSI8: 148 mov.l @(4,r5),r0 149 mov.l r0,@(4,r4) 150 .global __movmemSI4 151 .global __movstrSI4 152 .set __movstrSI4, __movmemSI4 153__movmemSI4: 154 mov.l @(0,r5),r0 155 rts 156 mov.l r0,@(0,r4) 157 158 .global __movmem_i4_even 159 .global __movstr_i4_even 160 .set __movstr_i4_even, __movmem_i4_even 161 162 .global __movmem_i4_odd 163 .global __movstr_i4_odd 164 .set __movstr_i4_odd, __movmem_i4_odd 165 166 .global __movmemSI12_i4 167 .global __movstrSI12_i4 168 .set __movstrSI12_i4, __movmemSI12_i4 169 170 .p2align 5 171L_movmem_2mod4_end: 172 mov.l r0,@(16,r4) 173 rts 174 mov.l r1,@(20,r4) 175 176 .p2align 2 177 178__movmem_i4_even: 179 mov.l @r5+,r0 180 bra L_movmem_start_even 181 mov.l @r5+,r1 182 183__movmem_i4_odd: 184 mov.l @r5+,r1 185 add #-4,r4 186 mov.l @r5+,r2 187 mov.l @r5+,r3 188 mov.l r1,@(4,r4) 189 mov.l r2,@(8,r4) 190 191L_movmem_loop: 192 mov.l r3,@(12,r4) 193 dt r6 194 mov.l @r5+,r0 195 bt/s L_movmem_2mod4_end 196 mov.l @r5+,r1 197 add #16,r4 198L_movmem_start_even: 199 mov.l @r5+,r2 200 mov.l @r5+,r3 201 mov.l r0,@r4 202 dt r6 203 mov.l r1,@(4,r4) 204 bf/s L_movmem_loop 205 mov.l r2,@(8,r4) 206 rts 207 mov.l r3,@(12,r4) 208 209 .p2align 4 210__movmemSI12_i4: 211 mov.l @r5,r0 212 mov.l @(4,r5),r1 213 mov.l @(8,r5),r2 214 mov.l r0,@r4 215 mov.l r1,@(4,r4) 216 rts 217 mov.l r2,@(8,r4) 218