]> Pileus Git - ~andy/linux/blob - arch/powerpc/kvm/e500.h
KVM: PPC: e500: emulate tlbilx
[~andy/linux] / arch / powerpc / kvm / e500.h
1 /*
2  * Copyright (C) 2008-2011 Freescale Semiconductor, Inc. All rights reserved.
3  *
4  * Author: Yu Liu <yu.liu@freescale.com>
5  *         Ashish Kalra <ashish.kalra@freescale.com>
6  *
7  * Description:
8  * This file is based on arch/powerpc/kvm/44x_tlb.h and
9  * arch/powerpc/include/asm/kvm_44x.h by Hollis Blanchard <hollisb@us.ibm.com>,
10  * Copyright IBM Corp. 2007-2008
11  *
12  * This program is free software; you can redistribute it and/or modify
13  * it under the terms of the GNU General Public License, version 2, as
14  * published by the Free Software Foundation.
15  */
16
17 #ifndef KVM_E500_H
18 #define KVM_E500_H
19
20 #include <linux/kvm_host.h>
21 #include <asm/mmu-book3e.h>
22 #include <asm/tlb.h>
23
24 #define E500_PID_NUM   3
25 #define E500_TLB_NUM   2
26
27 #define E500_TLB_VALID 1
28 #define E500_TLB_DIRTY 2
29 #define E500_TLB_BITMAP 4
30
31 struct tlbe_ref {
32         pfn_t pfn;
33         unsigned int flags; /* E500_TLB_* */
34 };
35
36 struct tlbe_priv {
37         struct tlbe_ref ref; /* TLB0 only -- TLB1 uses tlb_refs */
38 };
39
40 #ifdef CONFIG_KVM_E500
41 struct vcpu_id_table;
42 #endif
43
44 struct kvmppc_e500_tlb_params {
45         int entries, ways, sets;
46 };
47
48 struct kvmppc_vcpu_e500 {
49         struct kvm_vcpu vcpu;
50
51         /* Unmodified copy of the guest's TLB -- shared with host userspace. */
52         struct kvm_book3e_206_tlb_entry *gtlb_arch;
53
54         /* Starting entry number in gtlb_arch[] */
55         int gtlb_offset[E500_TLB_NUM];
56
57         /* KVM internal information associated with each guest TLB entry */
58         struct tlbe_priv *gtlb_priv[E500_TLB_NUM];
59
60         struct kvmppc_e500_tlb_params gtlb_params[E500_TLB_NUM];
61
62         unsigned int gtlb_nv[E500_TLB_NUM];
63
64         /*
65          * information associated with each host TLB entry --
66          * TLB1 only for now.  If/when guest TLB1 entries can be
67          * mapped with host TLB0, this will be used for that too.
68          *
69          * We don't want to use this for guest TLB0 because then we'd
70          * have the overhead of doing the translation again even if
71          * the entry is still in the guest TLB (e.g. we swapped out
72          * and back, and our host TLB entries got evicted).
73          */
74         struct tlbe_ref *tlb_refs[E500_TLB_NUM];
75         unsigned int host_tlb1_nv;
76
77         u32 svr;
78         u32 l1csr0;
79         u32 l1csr1;
80         u32 hid0;
81         u32 hid1;
82         u64 mcar;
83
84         struct page **shared_tlb_pages;
85         int num_shared_tlb_pages;
86
87         u64 *g2h_tlb1_map;
88         unsigned int *h2g_tlb1_rmap;
89
90 #ifdef CONFIG_KVM_E500
91         u32 pid[E500_PID_NUM];
92
93         /* vcpu id table */
94         struct vcpu_id_table *idt;
95 #endif
96 };
97
98 static inline struct kvmppc_vcpu_e500 *to_e500(struct kvm_vcpu *vcpu)
99 {
100         return container_of(vcpu, struct kvmppc_vcpu_e500, vcpu);
101 }
102
103 /* This geometry is the legacy default -- can be overridden by userspace */
104 #define KVM_E500_TLB0_WAY_SIZE          128
105 #define KVM_E500_TLB0_WAY_NUM           2
106
107 #define KVM_E500_TLB0_SIZE  (KVM_E500_TLB0_WAY_SIZE * KVM_E500_TLB0_WAY_NUM)
108 #define KVM_E500_TLB1_SIZE  16
109
110 #define index_of(tlbsel, esel)  (((tlbsel) << 16) | ((esel) & 0xFFFF))
111 #define tlbsel_of(index)        ((index) >> 16)
112 #define esel_of(index)          ((index) & 0xFFFF)
113
114 #define E500_TLB_USER_PERM_MASK (MAS3_UX|MAS3_UR|MAS3_UW)
115 #define E500_TLB_SUPER_PERM_MASK (MAS3_SX|MAS3_SR|MAS3_SW)
116 #define MAS2_ATTRIB_MASK \
117           (MAS2_X0 | MAS2_X1)
118 #define MAS3_ATTRIB_MASK \
119           (MAS3_U0 | MAS3_U1 | MAS3_U2 | MAS3_U3 \
120            | E500_TLB_USER_PERM_MASK | E500_TLB_SUPER_PERM_MASK)
121
122 int kvmppc_e500_emul_mt_mmucsr0(struct kvmppc_vcpu_e500 *vcpu_e500,
123                                 ulong value);
124 int kvmppc_e500_emul_tlbwe(struct kvm_vcpu *vcpu);
125 int kvmppc_e500_emul_tlbre(struct kvm_vcpu *vcpu);
126 int kvmppc_e500_emul_tlbivax(struct kvm_vcpu *vcpu, int ra, int rb);
127 int kvmppc_e500_emul_tlbilx(struct kvm_vcpu *vcpu, int rt, int ra, int rb);
128 int kvmppc_e500_emul_tlbsx(struct kvm_vcpu *vcpu, int rb);
129 int kvmppc_e500_tlb_init(struct kvmppc_vcpu_e500 *vcpu_e500);
130 void kvmppc_e500_tlb_uninit(struct kvmppc_vcpu_e500 *vcpu_e500);
131
132 void kvmppc_get_sregs_e500_tlb(struct kvm_vcpu *vcpu, struct kvm_sregs *sregs);
133 int kvmppc_set_sregs_e500_tlb(struct kvm_vcpu *vcpu, struct kvm_sregs *sregs);
134
135
136 #ifdef CONFIG_KVM_E500
137 unsigned int kvmppc_e500_get_sid(struct kvmppc_vcpu_e500 *vcpu_e500,
138                                  unsigned int as, unsigned int gid,
139                                  unsigned int pr, int avoid_recursion);
140 #endif
141
142 /* TLB helper functions */
143 static inline unsigned int
144 get_tlb_size(const struct kvm_book3e_206_tlb_entry *tlbe)
145 {
146         return (tlbe->mas1 >> 7) & 0x1f;
147 }
148
149 static inline gva_t get_tlb_eaddr(const struct kvm_book3e_206_tlb_entry *tlbe)
150 {
151         return tlbe->mas2 & 0xfffff000;
152 }
153
154 static inline u64 get_tlb_bytes(const struct kvm_book3e_206_tlb_entry *tlbe)
155 {
156         unsigned int pgsize = get_tlb_size(tlbe);
157         return 1ULL << 10 << pgsize;
158 }
159
160 static inline gva_t get_tlb_end(const struct kvm_book3e_206_tlb_entry *tlbe)
161 {
162         u64 bytes = get_tlb_bytes(tlbe);
163         return get_tlb_eaddr(tlbe) + bytes - 1;
164 }
165
166 static inline u64 get_tlb_raddr(const struct kvm_book3e_206_tlb_entry *tlbe)
167 {
168         return tlbe->mas7_3 & ~0xfffULL;
169 }
170
171 static inline unsigned int
172 get_tlb_tid(const struct kvm_book3e_206_tlb_entry *tlbe)
173 {
174         return (tlbe->mas1 >> 16) & 0xff;
175 }
176
177 static inline unsigned int
178 get_tlb_ts(const struct kvm_book3e_206_tlb_entry *tlbe)
179 {
180         return (tlbe->mas1 >> 12) & 0x1;
181 }
182
183 static inline unsigned int
184 get_tlb_v(const struct kvm_book3e_206_tlb_entry *tlbe)
185 {
186         return (tlbe->mas1 >> 31) & 0x1;
187 }
188
189 static inline unsigned int
190 get_tlb_iprot(const struct kvm_book3e_206_tlb_entry *tlbe)
191 {
192         return (tlbe->mas1 >> 30) & 0x1;
193 }
194
195 static inline unsigned int
196 get_tlb_tsize(const struct kvm_book3e_206_tlb_entry *tlbe)
197 {
198         return (tlbe->mas1 & MAS1_TSIZE_MASK) >> MAS1_TSIZE_SHIFT;
199 }
200
201 static inline unsigned int get_cur_pid(struct kvm_vcpu *vcpu)
202 {
203         return vcpu->arch.pid & 0xff;
204 }
205
206 static inline unsigned int get_cur_as(struct kvm_vcpu *vcpu)
207 {
208         return !!(vcpu->arch.shared->msr & (MSR_IS | MSR_DS));
209 }
210
211 static inline unsigned int get_cur_pr(struct kvm_vcpu *vcpu)
212 {
213         return !!(vcpu->arch.shared->msr & MSR_PR);
214 }
215
216 static inline unsigned int get_cur_spid(const struct kvm_vcpu *vcpu)
217 {
218         return (vcpu->arch.shared->mas6 >> 16) & 0xff;
219 }
220
221 static inline unsigned int get_cur_sas(const struct kvm_vcpu *vcpu)
222 {
223         return vcpu->arch.shared->mas6 & 0x1;
224 }
225
226 static inline unsigned int get_tlb_tlbsel(const struct kvm_vcpu *vcpu)
227 {
228         /*
229          * Manual says that tlbsel has 2 bits wide.
230          * Since we only have two TLBs, only lower bit is used.
231          */
232         return (vcpu->arch.shared->mas0 >> 28) & 0x1;
233 }
234
235 static inline unsigned int get_tlb_nv_bit(const struct kvm_vcpu *vcpu)
236 {
237         return vcpu->arch.shared->mas0 & 0xfff;
238 }
239
240 static inline unsigned int get_tlb_esel_bit(const struct kvm_vcpu *vcpu)
241 {
242         return (vcpu->arch.shared->mas0 >> 16) & 0xfff;
243 }
244
245 static inline int tlbe_is_host_safe(const struct kvm_vcpu *vcpu,
246                         const struct kvm_book3e_206_tlb_entry *tlbe)
247 {
248         gpa_t gpa;
249
250         if (!get_tlb_v(tlbe))
251                 return 0;
252
253         /* Does it match current guest AS? */
254         /* XXX what about IS != DS? */
255         if (get_tlb_ts(tlbe) != !!(vcpu->arch.shared->msr & MSR_IS))
256                 return 0;
257
258         gpa = get_tlb_raddr(tlbe);
259         if (!gfn_to_memslot(vcpu->kvm, gpa >> PAGE_SHIFT))
260                 /* Mapping is not for RAM. */
261                 return 0;
262
263         return 1;
264 }
265
266 static inline struct kvm_book3e_206_tlb_entry *get_entry(
267         struct kvmppc_vcpu_e500 *vcpu_e500, int tlbsel, int entry)
268 {
269         int offset = vcpu_e500->gtlb_offset[tlbsel];
270         return &vcpu_e500->gtlb_arch[offset + entry];
271 }
272
273 void kvmppc_e500_tlbil_one(struct kvmppc_vcpu_e500 *vcpu_e500,
274                            struct kvm_book3e_206_tlb_entry *gtlbe);
275 void kvmppc_e500_tlbil_all(struct kvmppc_vcpu_e500 *vcpu_e500);
276
277 #ifdef CONFIG_KVM_E500
278 unsigned int kvmppc_e500_get_tlb_stid(struct kvm_vcpu *vcpu,
279                                       struct kvm_book3e_206_tlb_entry *gtlbe);
280
281 static inline unsigned int get_tlbmiss_tid(struct kvm_vcpu *vcpu)
282 {
283         struct kvmppc_vcpu_e500 *vcpu_e500 = to_e500(vcpu);
284         unsigned int tidseld = (vcpu->arch.shared->mas4 >> 16) & 0xf;
285
286         return vcpu_e500->pid[tidseld];
287 }
288
289 /* Force TS=1 for all guest mappings. */
290 #define get_tlb_sts(gtlbe)              (MAS1_TS)
291 #endif /* CONFIG_KVM_E500 */
292
293 #endif /* KVM_E500_H */