1*61e85e36SJonas Bonn /* 2*61e85e36SJonas Bonn * OpenRISC tlb.c 3*61e85e36SJonas Bonn * 4*61e85e36SJonas Bonn * Linux architectural port borrowing liberally from similar works of 5*61e85e36SJonas Bonn * others. All original copyrights apply as per the original source 6*61e85e36SJonas Bonn * declaration. 7*61e85e36SJonas Bonn * 8*61e85e36SJonas Bonn * Modifications for the OpenRISC architecture: 9*61e85e36SJonas Bonn * Copyright (C) 2003 Matjaz Breskvar <phoenix@bsemi.com> 10*61e85e36SJonas Bonn * Copyright (C) 2010-2011 Julius Baxter <julius.baxter@orsoc.se> 11*61e85e36SJonas Bonn * Copyright (C) 2010-2011 Jonas Bonn <jonas@southpole.se> 12*61e85e36SJonas Bonn * 13*61e85e36SJonas Bonn * This program is free software; you can redistribute it and/or 14*61e85e36SJonas Bonn * modify it under the terms of the GNU General Public License 15*61e85e36SJonas Bonn * as published by the Free Software Foundation; either version 16*61e85e36SJonas Bonn * 2 of the License, or (at your option) any later version. 17*61e85e36SJonas Bonn */ 18*61e85e36SJonas Bonn 19*61e85e36SJonas Bonn #include <linux/sched.h> 20*61e85e36SJonas Bonn #include <linux/kernel.h> 21*61e85e36SJonas Bonn #include <linux/errno.h> 22*61e85e36SJonas Bonn #include <linux/string.h> 23*61e85e36SJonas Bonn #include <linux/types.h> 24*61e85e36SJonas Bonn #include <linux/ptrace.h> 25*61e85e36SJonas Bonn #include <linux/mman.h> 26*61e85e36SJonas Bonn #include <linux/mm.h> 27*61e85e36SJonas Bonn #include <linux/init.h> 28*61e85e36SJonas Bonn 29*61e85e36SJonas Bonn #include <asm/system.h> 30*61e85e36SJonas Bonn #include <asm/segment.h> 31*61e85e36SJonas Bonn #include <asm/tlbflush.h> 32*61e85e36SJonas Bonn #include <asm/pgtable.h> 33*61e85e36SJonas Bonn #include <asm/mmu_context.h> 34*61e85e36SJonas Bonn #include <asm/spr_defs.h> 35*61e85e36SJonas Bonn 36*61e85e36SJonas Bonn #define NO_CONTEXT -1 37*61e85e36SJonas Bonn 38*61e85e36SJonas Bonn #define NUM_DTLB_SETS (1 << ((mfspr(SPR_IMMUCFGR) & SPR_IMMUCFGR_NTS) >> \ 39*61e85e36SJonas Bonn SPR_DMMUCFGR_NTS_OFF)) 40*61e85e36SJonas Bonn #define NUM_ITLB_SETS (1 << ((mfspr(SPR_IMMUCFGR) & SPR_IMMUCFGR_NTS) >> \ 41*61e85e36SJonas Bonn SPR_IMMUCFGR_NTS_OFF)) 42*61e85e36SJonas Bonn #define DTLB_OFFSET(addr) (((addr) >> PAGE_SHIFT) & (NUM_DTLB_SETS-1)) 43*61e85e36SJonas Bonn #define ITLB_OFFSET(addr) (((addr) >> PAGE_SHIFT) & (NUM_ITLB_SETS-1)) 44*61e85e36SJonas Bonn /* 45*61e85e36SJonas Bonn * Invalidate all TLB entries. 46*61e85e36SJonas Bonn * 47*61e85e36SJonas Bonn * This comes down to setting the 'valid' bit for all xTLBMR registers to 0. 48*61e85e36SJonas Bonn * Easiest way to accomplish this is to just zero out the xTLBMR register 49*61e85e36SJonas Bonn * completely. 50*61e85e36SJonas Bonn * 51*61e85e36SJonas Bonn */ 52*61e85e36SJonas Bonn 53*61e85e36SJonas Bonn void flush_tlb_all(void) 54*61e85e36SJonas Bonn { 55*61e85e36SJonas Bonn int i; 56*61e85e36SJonas Bonn unsigned long num_tlb_sets; 57*61e85e36SJonas Bonn 58*61e85e36SJonas Bonn /* Determine number of sets for IMMU. */ 59*61e85e36SJonas Bonn /* FIXME: Assumption is I & D nsets equal. */ 60*61e85e36SJonas Bonn num_tlb_sets = NUM_ITLB_SETS; 61*61e85e36SJonas Bonn 62*61e85e36SJonas Bonn for (i = 0; i < num_tlb_sets; i++) { 63*61e85e36SJonas Bonn mtspr_off(SPR_DTLBMR_BASE(0), i, 0); 64*61e85e36SJonas Bonn mtspr_off(SPR_ITLBMR_BASE(0), i, 0); 65*61e85e36SJonas Bonn } 66*61e85e36SJonas Bonn } 67*61e85e36SJonas Bonn 68*61e85e36SJonas Bonn #define have_dtlbeir (mfspr(SPR_DMMUCFGR) & SPR_DMMUCFGR_TEIRI) 69*61e85e36SJonas Bonn #define have_itlbeir (mfspr(SPR_IMMUCFGR) & SPR_IMMUCFGR_TEIRI) 70*61e85e36SJonas Bonn 71*61e85e36SJonas Bonn /* 72*61e85e36SJonas Bonn * Invalidate a single page. This is what the xTLBEIR register is for. 73*61e85e36SJonas Bonn * 74*61e85e36SJonas Bonn * There's no point in checking the vma for PAGE_EXEC to determine whether it's 75*61e85e36SJonas Bonn * the data or instruction TLB that should be flushed... that would take more 76*61e85e36SJonas Bonn * than the few instructions that the following compiles down to! 77*61e85e36SJonas Bonn * 78*61e85e36SJonas Bonn * The case where we don't have the xTLBEIR register really only works for 79*61e85e36SJonas Bonn * MMU's with a single way and is hard-coded that way. 80*61e85e36SJonas Bonn */ 81*61e85e36SJonas Bonn 82*61e85e36SJonas Bonn #define flush_dtlb_page_eir(addr) mtspr(SPR_DTLBEIR, addr) 83*61e85e36SJonas Bonn #define flush_dtlb_page_no_eir(addr) \ 84*61e85e36SJonas Bonn mtspr_off(SPR_DTLBMR_BASE(0), DTLB_OFFSET(addr), 0); 85*61e85e36SJonas Bonn 86*61e85e36SJonas Bonn #define flush_itlb_page_eir(addr) mtspr(SPR_ITLBEIR, addr) 87*61e85e36SJonas Bonn #define flush_itlb_page_no_eir(addr) \ 88*61e85e36SJonas Bonn mtspr_off(SPR_ITLBMR_BASE(0), ITLB_OFFSET(addr), 0); 89*61e85e36SJonas Bonn 90*61e85e36SJonas Bonn void flush_tlb_page(struct vm_area_struct *vma, unsigned long addr) 91*61e85e36SJonas Bonn { 92*61e85e36SJonas Bonn if (have_dtlbeir) 93*61e85e36SJonas Bonn flush_dtlb_page_eir(addr); 94*61e85e36SJonas Bonn else 95*61e85e36SJonas Bonn flush_dtlb_page_no_eir(addr); 96*61e85e36SJonas Bonn 97*61e85e36SJonas Bonn if (have_itlbeir) 98*61e85e36SJonas Bonn flush_itlb_page_eir(addr); 99*61e85e36SJonas Bonn else 100*61e85e36SJonas Bonn flush_itlb_page_no_eir(addr); 101*61e85e36SJonas Bonn } 102*61e85e36SJonas Bonn 103*61e85e36SJonas Bonn void flush_tlb_range(struct vm_area_struct *vma, 104*61e85e36SJonas Bonn unsigned long start, unsigned long end) 105*61e85e36SJonas Bonn { 106*61e85e36SJonas Bonn int addr; 107*61e85e36SJonas Bonn bool dtlbeir; 108*61e85e36SJonas Bonn bool itlbeir; 109*61e85e36SJonas Bonn 110*61e85e36SJonas Bonn dtlbeir = have_dtlbeir; 111*61e85e36SJonas Bonn itlbeir = have_itlbeir; 112*61e85e36SJonas Bonn 113*61e85e36SJonas Bonn for (addr = start; addr < end; addr += PAGE_SIZE) { 114*61e85e36SJonas Bonn if (dtlbeir) 115*61e85e36SJonas Bonn flush_dtlb_page_eir(addr); 116*61e85e36SJonas Bonn else 117*61e85e36SJonas Bonn flush_dtlb_page_no_eir(addr); 118*61e85e36SJonas Bonn 119*61e85e36SJonas Bonn if (itlbeir) 120*61e85e36SJonas Bonn flush_itlb_page_eir(addr); 121*61e85e36SJonas Bonn else 122*61e85e36SJonas Bonn flush_itlb_page_no_eir(addr); 123*61e85e36SJonas Bonn } 124*61e85e36SJonas Bonn } 125*61e85e36SJonas Bonn 126*61e85e36SJonas Bonn /* 127*61e85e36SJonas Bonn * Invalidate the selected mm context only. 128*61e85e36SJonas Bonn * 129*61e85e36SJonas Bonn * FIXME: Due to some bug here, we're flushing everything for now. 130*61e85e36SJonas Bonn * This should be changed to loop over over mm and call flush_tlb_range. 131*61e85e36SJonas Bonn */ 132*61e85e36SJonas Bonn 133*61e85e36SJonas Bonn void flush_tlb_mm(struct mm_struct *mm) 134*61e85e36SJonas Bonn { 135*61e85e36SJonas Bonn 136*61e85e36SJonas Bonn /* Was seeing bugs with the mm struct passed to us. Scrapped most of 137*61e85e36SJonas Bonn this function. */ 138*61e85e36SJonas Bonn /* Several architctures do this */ 139*61e85e36SJonas Bonn flush_tlb_all(); 140*61e85e36SJonas Bonn } 141*61e85e36SJonas Bonn 142*61e85e36SJonas Bonn /* called in schedule() just before actually doing the switch_to */ 143*61e85e36SJonas Bonn 144*61e85e36SJonas Bonn void switch_mm(struct mm_struct *prev, struct mm_struct *next, 145*61e85e36SJonas Bonn struct task_struct *next_tsk) 146*61e85e36SJonas Bonn { 147*61e85e36SJonas Bonn /* remember the pgd for the fault handlers 148*61e85e36SJonas Bonn * this is similar to the pgd register in some other CPU's. 149*61e85e36SJonas Bonn * we need our own copy of it because current and active_mm 150*61e85e36SJonas Bonn * might be invalid at points where we still need to derefer 151*61e85e36SJonas Bonn * the pgd. 152*61e85e36SJonas Bonn */ 153*61e85e36SJonas Bonn current_pgd = next->pgd; 154*61e85e36SJonas Bonn 155*61e85e36SJonas Bonn /* We don't have context support implemented, so flush all 156*61e85e36SJonas Bonn * entries belonging to previous map 157*61e85e36SJonas Bonn */ 158*61e85e36SJonas Bonn 159*61e85e36SJonas Bonn if (prev != next) 160*61e85e36SJonas Bonn flush_tlb_mm(prev); 161*61e85e36SJonas Bonn 162*61e85e36SJonas Bonn } 163*61e85e36SJonas Bonn 164*61e85e36SJonas Bonn /* 165*61e85e36SJonas Bonn * Initialize the context related info for a new mm_struct 166*61e85e36SJonas Bonn * instance. 167*61e85e36SJonas Bonn */ 168*61e85e36SJonas Bonn 169*61e85e36SJonas Bonn int init_new_context(struct task_struct *tsk, struct mm_struct *mm) 170*61e85e36SJonas Bonn { 171*61e85e36SJonas Bonn mm->context = NO_CONTEXT; 172*61e85e36SJonas Bonn return 0; 173*61e85e36SJonas Bonn } 174*61e85e36SJonas Bonn 175*61e85e36SJonas Bonn /* called by __exit_mm to destroy the used MMU context if any before 176*61e85e36SJonas Bonn * destroying the mm itself. this is only called when the last user of the mm 177*61e85e36SJonas Bonn * drops it. 178*61e85e36SJonas Bonn */ 179*61e85e36SJonas Bonn 180*61e85e36SJonas Bonn void destroy_context(struct mm_struct *mm) 181*61e85e36SJonas Bonn { 182*61e85e36SJonas Bonn flush_tlb_mm(mm); 183*61e85e36SJonas Bonn 184*61e85e36SJonas Bonn } 185*61e85e36SJonas Bonn 186*61e85e36SJonas Bonn /* called once during VM initialization, from init.c */ 187*61e85e36SJonas Bonn 188*61e85e36SJonas Bonn void __init tlb_init(void) 189*61e85e36SJonas Bonn { 190*61e85e36SJonas Bonn /* Do nothing... */ 191*61e85e36SJonas Bonn /* invalidate the entire TLB */ 192*61e85e36SJonas Bonn /* flush_tlb_all(); */ 193*61e85e36SJonas Bonn } 194