]> Pileus Git - ~andy/linux/blob - arch/powerpc/kvm/e500.h
51d13bd401539d08da4e7f3e4ca781f2435a81c0
[~andy/linux] / arch / powerpc / kvm / e500.h
1 /*
2  * Copyright (C) 2008-2011 Freescale Semiconductor, Inc. All rights reserved.
3  *
4  * Author: Yu Liu <yu.liu@freescale.com>
5  *
6  * Description:
7  * This file is based on arch/powerpc/kvm/44x_tlb.h and
8  * arch/powerpc/include/asm/kvm_44x.h by Hollis Blanchard <hollisb@us.ibm.com>,
9  * Copyright IBM Corp. 2007-2008
10  *
11  * This program is free software; you can redistribute it and/or modify
12  * it under the terms of the GNU General Public License, version 2, as
13  * published by the Free Software Foundation.
14  */
15
16 #ifndef KVM_E500_H
17 #define KVM_E500_H
18
19 #include <linux/kvm_host.h>
20 #include <asm/mmu-book3e.h>
21 #include <asm/tlb.h>
22
23 #define E500_PID_NUM   3
24 #define E500_TLB_NUM   2
25
26 #define E500_TLB_VALID 1
27 #define E500_TLB_DIRTY 2
28
29 struct tlbe_ref {
30         pfn_t pfn;
31         unsigned int flags; /* E500_TLB_* */
32 };
33
34 struct tlbe_priv {
35         struct tlbe_ref ref; /* TLB0 only -- TLB1 uses tlb_refs */
36 };
37
38 struct vcpu_id_table;
39
40 struct kvmppc_e500_tlb_params {
41         int entries, ways, sets;
42 };
43
44 struct kvmppc_vcpu_e500 {
45         /* Unmodified copy of the guest's TLB -- shared with host userspace. */
46         struct kvm_book3e_206_tlb_entry *gtlb_arch;
47
48         /* Starting entry number in gtlb_arch[] */
49         int gtlb_offset[E500_TLB_NUM];
50
51         /* KVM internal information associated with each guest TLB entry */
52         struct tlbe_priv *gtlb_priv[E500_TLB_NUM];
53
54         struct kvmppc_e500_tlb_params gtlb_params[E500_TLB_NUM];
55
56         unsigned int gtlb_nv[E500_TLB_NUM];
57
58         /*
59          * information associated with each host TLB entry --
60          * TLB1 only for now.  If/when guest TLB1 entries can be
61          * mapped with host TLB0, this will be used for that too.
62          *
63          * We don't want to use this for guest TLB0 because then we'd
64          * have the overhead of doing the translation again even if
65          * the entry is still in the guest TLB (e.g. we swapped out
66          * and back, and our host TLB entries got evicted).
67          */
68         struct tlbe_ref *tlb_refs[E500_TLB_NUM];
69         unsigned int host_tlb1_nv;
70
71         u32 host_pid[E500_PID_NUM];
72         u32 pid[E500_PID_NUM];
73         u32 svr;
74
75         /* vcpu id table */
76         struct vcpu_id_table *idt;
77
78         u32 l1csr0;
79         u32 l1csr1;
80         u32 hid0;
81         u32 hid1;
82         u32 tlb0cfg;
83         u32 tlb1cfg;
84         u64 mcar;
85
86         struct page **shared_tlb_pages;
87         int num_shared_tlb_pages;
88
89         struct kvm_vcpu vcpu;
90 };
91
92 static inline struct kvmppc_vcpu_e500 *to_e500(struct kvm_vcpu *vcpu)
93 {
94         return container_of(vcpu, struct kvmppc_vcpu_e500, vcpu);
95 }
96
97 /* This geometry is the legacy default -- can be overridden by userspace */
98 #define KVM_E500_TLB0_WAY_SIZE          128
99 #define KVM_E500_TLB0_WAY_NUM           2
100
101 #define KVM_E500_TLB0_SIZE  (KVM_E500_TLB0_WAY_SIZE * KVM_E500_TLB0_WAY_NUM)
102 #define KVM_E500_TLB1_SIZE  16
103
104 #define index_of(tlbsel, esel)  (((tlbsel) << 16) | ((esel) & 0xFFFF))
105 #define tlbsel_of(index)        ((index) >> 16)
106 #define esel_of(index)          ((index) & 0xFFFF)
107
108 #define E500_TLB_USER_PERM_MASK (MAS3_UX|MAS3_UR|MAS3_UW)
109 #define E500_TLB_SUPER_PERM_MASK (MAS3_SX|MAS3_SR|MAS3_SW)
110 #define MAS2_ATTRIB_MASK \
111           (MAS2_X0 | MAS2_X1)
112 #define MAS3_ATTRIB_MASK \
113           (MAS3_U0 | MAS3_U1 | MAS3_U2 | MAS3_U3 \
114            | E500_TLB_USER_PERM_MASK | E500_TLB_SUPER_PERM_MASK)
115
116 extern void kvmppc_dump_tlbs(struct kvm_vcpu *);
117 extern int kvmppc_e500_emul_mt_mmucsr0(struct kvmppc_vcpu_e500 *, ulong);
118 extern int kvmppc_e500_emul_tlbwe(struct kvm_vcpu *);
119 extern int kvmppc_e500_emul_tlbre(struct kvm_vcpu *);
120 extern int kvmppc_e500_emul_tlbivax(struct kvm_vcpu *, int, int);
121 extern int kvmppc_e500_emul_tlbsx(struct kvm_vcpu *, int);
122 extern int kvmppc_e500_tlb_search(struct kvm_vcpu *, gva_t, unsigned int, int);
123 extern void kvmppc_e500_tlb_put(struct kvm_vcpu *);
124 extern void kvmppc_e500_tlb_load(struct kvm_vcpu *, int);
125 extern int kvmppc_e500_tlb_init(struct kvmppc_vcpu_e500 *);
126 extern void kvmppc_e500_tlb_uninit(struct kvmppc_vcpu_e500 *);
127 extern void kvmppc_e500_tlb_setup(struct kvmppc_vcpu_e500 *);
128 extern void kvmppc_e500_recalc_shadow_pid(struct kvmppc_vcpu_e500 *);
129
130 /* TLB helper functions */
131 static inline unsigned int
132 get_tlb_size(const struct kvm_book3e_206_tlb_entry *tlbe)
133 {
134         return (tlbe->mas1 >> 7) & 0x1f;
135 }
136
137 static inline gva_t get_tlb_eaddr(const struct kvm_book3e_206_tlb_entry *tlbe)
138 {
139         return tlbe->mas2 & 0xfffff000;
140 }
141
142 static inline u64 get_tlb_bytes(const struct kvm_book3e_206_tlb_entry *tlbe)
143 {
144         unsigned int pgsize = get_tlb_size(tlbe);
145         return 1ULL << 10 << pgsize;
146 }
147
148 static inline gva_t get_tlb_end(const struct kvm_book3e_206_tlb_entry *tlbe)
149 {
150         u64 bytes = get_tlb_bytes(tlbe);
151         return get_tlb_eaddr(tlbe) + bytes - 1;
152 }
153
154 static inline u64 get_tlb_raddr(const struct kvm_book3e_206_tlb_entry *tlbe)
155 {
156         return tlbe->mas7_3 & ~0xfffULL;
157 }
158
159 static inline unsigned int
160 get_tlb_tid(const struct kvm_book3e_206_tlb_entry *tlbe)
161 {
162         return (tlbe->mas1 >> 16) & 0xff;
163 }
164
165 static inline unsigned int
166 get_tlb_ts(const struct kvm_book3e_206_tlb_entry *tlbe)
167 {
168         return (tlbe->mas1 >> 12) & 0x1;
169 }
170
171 static inline unsigned int
172 get_tlb_v(const struct kvm_book3e_206_tlb_entry *tlbe)
173 {
174         return (tlbe->mas1 >> 31) & 0x1;
175 }
176
177 static inline unsigned int
178 get_tlb_iprot(const struct kvm_book3e_206_tlb_entry *tlbe)
179 {
180         return (tlbe->mas1 >> 30) & 0x1;
181 }
182
183 static inline unsigned int get_cur_pid(struct kvm_vcpu *vcpu)
184 {
185         return vcpu->arch.pid & 0xff;
186 }
187
188 static inline unsigned int get_cur_as(struct kvm_vcpu *vcpu)
189 {
190         return !!(vcpu->arch.shared->msr & (MSR_IS | MSR_DS));
191 }
192
193 static inline unsigned int get_cur_pr(struct kvm_vcpu *vcpu)
194 {
195         return !!(vcpu->arch.shared->msr & MSR_PR);
196 }
197
198 static inline unsigned int get_cur_spid(const struct kvm_vcpu *vcpu)
199 {
200         return (vcpu->arch.shared->mas6 >> 16) & 0xff;
201 }
202
203 static inline unsigned int get_cur_sas(const struct kvm_vcpu *vcpu)
204 {
205         return vcpu->arch.shared->mas6 & 0x1;
206 }
207
208 static inline unsigned int get_tlb_tlbsel(const struct kvm_vcpu *vcpu)
209 {
210         /*
211          * Manual says that tlbsel has 2 bits wide.
212          * Since we only have two TLBs, only lower bit is used.
213          */
214         return (vcpu->arch.shared->mas0 >> 28) & 0x1;
215 }
216
217 static inline unsigned int get_tlb_nv_bit(const struct kvm_vcpu *vcpu)
218 {
219         return vcpu->arch.shared->mas0 & 0xfff;
220 }
221
222 static inline unsigned int get_tlb_esel_bit(const struct kvm_vcpu *vcpu)
223 {
224         return (vcpu->arch.shared->mas0 >> 16) & 0xfff;
225 }
226
227 static inline int tlbe_is_host_safe(const struct kvm_vcpu *vcpu,
228                         const struct kvm_book3e_206_tlb_entry *tlbe)
229 {
230         gpa_t gpa;
231
232         if (!get_tlb_v(tlbe))
233                 return 0;
234
235         /* Does it match current guest AS? */
236         /* XXX what about IS != DS? */
237         if (get_tlb_ts(tlbe) != !!(vcpu->arch.shared->msr & MSR_IS))
238                 return 0;
239
240         gpa = get_tlb_raddr(tlbe);
241         if (!gfn_to_memslot(vcpu->kvm, gpa >> PAGE_SHIFT))
242                 /* Mapping is not for RAM. */
243                 return 0;
244
245         return 1;
246 }
247
248 #endif /* KVM_E500_H */