]> Pileus Git - ~andy/linux/blob - arch/powerpc/kvm/e500.h
KVM: PPC: e500mc support
[~andy/linux] / arch / powerpc / kvm / e500.h
1 /*
2  * Copyright (C) 2008-2011 Freescale Semiconductor, Inc. All rights reserved.
3  *
4  * Author: Yu Liu <yu.liu@freescale.com>
5  *         Scott Wood <scottwood@freescale.com>
6  *         Ashish Kalra <ashish.kalra@freescale.com>
7  *         Varun Sethi <varun.sethi@freescale.com>
8  *
9  * Description:
10  * This file is based on arch/powerpc/kvm/44x_tlb.h and
11  * arch/powerpc/include/asm/kvm_44x.h by Hollis Blanchard <hollisb@us.ibm.com>,
12  * Copyright IBM Corp. 2007-2008
13  *
14  * This program is free software; you can redistribute it and/or modify
15  * it under the terms of the GNU General Public License, version 2, as
16  * published by the Free Software Foundation.
17  */
18
19 #ifndef KVM_E500_H
20 #define KVM_E500_H
21
22 #include <linux/kvm_host.h>
23 #include <asm/mmu-book3e.h>
24 #include <asm/tlb.h>
25
26 #define E500_PID_NUM   3
27 #define E500_TLB_NUM   2
28
29 #define E500_TLB_VALID 1
30 #define E500_TLB_DIRTY 2
31 #define E500_TLB_BITMAP 4
32
33 struct tlbe_ref {
34         pfn_t pfn;
35         unsigned int flags; /* E500_TLB_* */
36 };
37
38 struct tlbe_priv {
39         struct tlbe_ref ref; /* TLB0 only -- TLB1 uses tlb_refs */
40 };
41
42 #ifdef CONFIG_KVM_E500
43 struct vcpu_id_table;
44 #endif
45
46 struct kvmppc_e500_tlb_params {
47         int entries, ways, sets;
48 };
49
50 struct kvmppc_vcpu_e500 {
51         struct kvm_vcpu vcpu;
52
53         /* Unmodified copy of the guest's TLB -- shared with host userspace. */
54         struct kvm_book3e_206_tlb_entry *gtlb_arch;
55
56         /* Starting entry number in gtlb_arch[] */
57         int gtlb_offset[E500_TLB_NUM];
58
59         /* KVM internal information associated with each guest TLB entry */
60         struct tlbe_priv *gtlb_priv[E500_TLB_NUM];
61
62         struct kvmppc_e500_tlb_params gtlb_params[E500_TLB_NUM];
63
64         unsigned int gtlb_nv[E500_TLB_NUM];
65
66         /*
67          * information associated with each host TLB entry --
68          * TLB1 only for now.  If/when guest TLB1 entries can be
69          * mapped with host TLB0, this will be used for that too.
70          *
71          * We don't want to use this for guest TLB0 because then we'd
72          * have the overhead of doing the translation again even if
73          * the entry is still in the guest TLB (e.g. we swapped out
74          * and back, and our host TLB entries got evicted).
75          */
76         struct tlbe_ref *tlb_refs[E500_TLB_NUM];
77         unsigned int host_tlb1_nv;
78
79         u32 svr;
80         u32 l1csr0;
81         u32 l1csr1;
82         u32 hid0;
83         u32 hid1;
84         u64 mcar;
85
86         struct page **shared_tlb_pages;
87         int num_shared_tlb_pages;
88
89         u64 *g2h_tlb1_map;
90         unsigned int *h2g_tlb1_rmap;
91
92 #ifdef CONFIG_KVM_E500
93         u32 pid[E500_PID_NUM];
94
95         /* vcpu id table */
96         struct vcpu_id_table *idt;
97 #endif
98 };
99
100 static inline struct kvmppc_vcpu_e500 *to_e500(struct kvm_vcpu *vcpu)
101 {
102         return container_of(vcpu, struct kvmppc_vcpu_e500, vcpu);
103 }
104
105
106 /* This geometry is the legacy default -- can be overridden by userspace */
107 #define KVM_E500_TLB0_WAY_SIZE          128
108 #define KVM_E500_TLB0_WAY_NUM           2
109
110 #define KVM_E500_TLB0_SIZE  (KVM_E500_TLB0_WAY_SIZE * KVM_E500_TLB0_WAY_NUM)
111 #define KVM_E500_TLB1_SIZE  16
112
113 #define index_of(tlbsel, esel)  (((tlbsel) << 16) | ((esel) & 0xFFFF))
114 #define tlbsel_of(index)        ((index) >> 16)
115 #define esel_of(index)          ((index) & 0xFFFF)
116
117 #define E500_TLB_USER_PERM_MASK (MAS3_UX|MAS3_UR|MAS3_UW)
118 #define E500_TLB_SUPER_PERM_MASK (MAS3_SX|MAS3_SR|MAS3_SW)
119 #define MAS2_ATTRIB_MASK \
120           (MAS2_X0 | MAS2_X1)
121 #define MAS3_ATTRIB_MASK \
122           (MAS3_U0 | MAS3_U1 | MAS3_U2 | MAS3_U3 \
123            | E500_TLB_USER_PERM_MASK | E500_TLB_SUPER_PERM_MASK)
124
125 int kvmppc_e500_emul_mt_mmucsr0(struct kvmppc_vcpu_e500 *vcpu_e500,
126                                 ulong value);
127 int kvmppc_e500_emul_tlbwe(struct kvm_vcpu *vcpu);
128 int kvmppc_e500_emul_tlbre(struct kvm_vcpu *vcpu);
129 int kvmppc_e500_emul_tlbivax(struct kvm_vcpu *vcpu, int ra, int rb);
130 int kvmppc_e500_emul_tlbilx(struct kvm_vcpu *vcpu, int rt, int ra, int rb);
131 int kvmppc_e500_emul_tlbsx(struct kvm_vcpu *vcpu, int rb);
132 int kvmppc_e500_tlb_init(struct kvmppc_vcpu_e500 *vcpu_e500);
133 void kvmppc_e500_tlb_uninit(struct kvmppc_vcpu_e500 *vcpu_e500);
134
135 void kvmppc_get_sregs_e500_tlb(struct kvm_vcpu *vcpu, struct kvm_sregs *sregs);
136 int kvmppc_set_sregs_e500_tlb(struct kvm_vcpu *vcpu, struct kvm_sregs *sregs);
137
138
139 #ifdef CONFIG_KVM_E500
140 unsigned int kvmppc_e500_get_sid(struct kvmppc_vcpu_e500 *vcpu_e500,
141                                  unsigned int as, unsigned int gid,
142                                  unsigned int pr, int avoid_recursion);
143 #endif
144
145 /* TLB helper functions */
146 static inline unsigned int
147 get_tlb_size(const struct kvm_book3e_206_tlb_entry *tlbe)
148 {
149         return (tlbe->mas1 >> 7) & 0x1f;
150 }
151
152 static inline gva_t get_tlb_eaddr(const struct kvm_book3e_206_tlb_entry *tlbe)
153 {
154         return tlbe->mas2 & 0xfffff000;
155 }
156
157 static inline u64 get_tlb_bytes(const struct kvm_book3e_206_tlb_entry *tlbe)
158 {
159         unsigned int pgsize = get_tlb_size(tlbe);
160         return 1ULL << 10 << pgsize;
161 }
162
163 static inline gva_t get_tlb_end(const struct kvm_book3e_206_tlb_entry *tlbe)
164 {
165         u64 bytes = get_tlb_bytes(tlbe);
166         return get_tlb_eaddr(tlbe) + bytes - 1;
167 }
168
169 static inline u64 get_tlb_raddr(const struct kvm_book3e_206_tlb_entry *tlbe)
170 {
171         return tlbe->mas7_3 & ~0xfffULL;
172 }
173
174 static inline unsigned int
175 get_tlb_tid(const struct kvm_book3e_206_tlb_entry *tlbe)
176 {
177         return (tlbe->mas1 >> 16) & 0xff;
178 }
179
180 static inline unsigned int
181 get_tlb_ts(const struct kvm_book3e_206_tlb_entry *tlbe)
182 {
183         return (tlbe->mas1 >> 12) & 0x1;
184 }
185
186 static inline unsigned int
187 get_tlb_v(const struct kvm_book3e_206_tlb_entry *tlbe)
188 {
189         return (tlbe->mas1 >> 31) & 0x1;
190 }
191
192 static inline unsigned int
193 get_tlb_iprot(const struct kvm_book3e_206_tlb_entry *tlbe)
194 {
195         return (tlbe->mas1 >> 30) & 0x1;
196 }
197
198 static inline unsigned int
199 get_tlb_tsize(const struct kvm_book3e_206_tlb_entry *tlbe)
200 {
201         return (tlbe->mas1 & MAS1_TSIZE_MASK) >> MAS1_TSIZE_SHIFT;
202 }
203
204 static inline unsigned int get_cur_pid(struct kvm_vcpu *vcpu)
205 {
206         return vcpu->arch.pid & 0xff;
207 }
208
209 static inline unsigned int get_cur_as(struct kvm_vcpu *vcpu)
210 {
211         return !!(vcpu->arch.shared->msr & (MSR_IS | MSR_DS));
212 }
213
214 static inline unsigned int get_cur_pr(struct kvm_vcpu *vcpu)
215 {
216         return !!(vcpu->arch.shared->msr & MSR_PR);
217 }
218
219 static inline unsigned int get_cur_spid(const struct kvm_vcpu *vcpu)
220 {
221         return (vcpu->arch.shared->mas6 >> 16) & 0xff;
222 }
223
224 static inline unsigned int get_cur_sas(const struct kvm_vcpu *vcpu)
225 {
226         return vcpu->arch.shared->mas6 & 0x1;
227 }
228
229 static inline unsigned int get_tlb_tlbsel(const struct kvm_vcpu *vcpu)
230 {
231         /*
232          * Manual says that tlbsel has 2 bits wide.
233          * Since we only have two TLBs, only lower bit is used.
234          */
235         return (vcpu->arch.shared->mas0 >> 28) & 0x1;
236 }
237
238 static inline unsigned int get_tlb_nv_bit(const struct kvm_vcpu *vcpu)
239 {
240         return vcpu->arch.shared->mas0 & 0xfff;
241 }
242
243 static inline unsigned int get_tlb_esel_bit(const struct kvm_vcpu *vcpu)
244 {
245         return (vcpu->arch.shared->mas0 >> 16) & 0xfff;
246 }
247
248 static inline int tlbe_is_host_safe(const struct kvm_vcpu *vcpu,
249                         const struct kvm_book3e_206_tlb_entry *tlbe)
250 {
251         gpa_t gpa;
252
253         if (!get_tlb_v(tlbe))
254                 return 0;
255
256 #ifndef CONFIG_KVM_BOOKE_HV
257         /* Does it match current guest AS? */
258         /* XXX what about IS != DS? */
259         if (get_tlb_ts(tlbe) != !!(vcpu->arch.shared->msr & MSR_IS))
260                 return 0;
261 #endif
262
263         gpa = get_tlb_raddr(tlbe);
264         if (!gfn_to_memslot(vcpu->kvm, gpa >> PAGE_SHIFT))
265                 /* Mapping is not for RAM. */
266                 return 0;
267
268         return 1;
269 }
270
271 static inline struct kvm_book3e_206_tlb_entry *get_entry(
272         struct kvmppc_vcpu_e500 *vcpu_e500, int tlbsel, int entry)
273 {
274         int offset = vcpu_e500->gtlb_offset[tlbsel];
275         return &vcpu_e500->gtlb_arch[offset + entry];
276 }
277
278 void kvmppc_e500_tlbil_one(struct kvmppc_vcpu_e500 *vcpu_e500,
279                            struct kvm_book3e_206_tlb_entry *gtlbe);
280 void kvmppc_e500_tlbil_all(struct kvmppc_vcpu_e500 *vcpu_e500);
281
282 #ifdef CONFIG_KVM_BOOKE_HV
283 #define kvmppc_e500_get_tlb_stid(vcpu, gtlbe)       get_tlb_tid(gtlbe)
284 #define get_tlbmiss_tid(vcpu)           get_cur_pid(vcpu)
285 #define get_tlb_sts(gtlbe)              (gtlbe->mas1 & MAS1_TS)
286 #else
287 unsigned int kvmppc_e500_get_tlb_stid(struct kvm_vcpu *vcpu,
288                                       struct kvm_book3e_206_tlb_entry *gtlbe);
289
290 static inline unsigned int get_tlbmiss_tid(struct kvm_vcpu *vcpu)
291 {
292         struct kvmppc_vcpu_e500 *vcpu_e500 = to_e500(vcpu);
293         unsigned int tidseld = (vcpu->arch.shared->mas4 >> 16) & 0xf;
294
295         return vcpu_e500->pid[tidseld];
296 }
297
298 /* Force TS=1 for all guest mappings. */
299 #define get_tlb_sts(gtlbe)              (MAS1_TS)
300 #endif /* !BOOKE_HV */
301
302 #endif /* KVM_E500_H */