]> Pileus Git - ~andy/linux/blob - arch/powerpc/include/asm/hw_irq.h
x86-64, reboot: Be more paranoid in 64-bit reboot=bios
[~andy/linux] / arch / powerpc / include / asm / hw_irq.h
1 /*
2  * Copyright (C) 1999 Cort Dougan <cort@cs.nmt.edu>
3  */
4 #ifndef _ASM_POWERPC_HW_IRQ_H
5 #define _ASM_POWERPC_HW_IRQ_H
6
7 #ifdef __KERNEL__
8
9 #include <linux/errno.h>
10 #include <linux/compiler.h>
11 #include <asm/ptrace.h>
12 #include <asm/processor.h>
13
14 #ifdef CONFIG_PPC64
15
16 /*
17  * PACA flags in paca->irq_happened.
18  *
19  * This bits are set when interrupts occur while soft-disabled
20  * and allow a proper replay. Additionally, PACA_IRQ_HARD_DIS
21  * is set whenever we manually hard disable.
22  */
23 #define PACA_IRQ_HARD_DIS       0x01
24 #define PACA_IRQ_DBELL          0x02
25 #define PACA_IRQ_EE             0x04
26 #define PACA_IRQ_DEC            0x08 /* Or FIT */
27 #define PACA_IRQ_EE_EDGE        0x10 /* BookE only */
28
29 #endif /* CONFIG_PPC64 */
30
31 #ifndef __ASSEMBLY__
32
33 extern void __replay_interrupt(unsigned int vector);
34
35 extern void timer_interrupt(struct pt_regs *);
36 extern void performance_monitor_exception(struct pt_regs *regs);
37
38 #ifdef CONFIG_PPC64
39 #include <asm/paca.h>
40
41 static inline unsigned long arch_local_save_flags(void)
42 {
43         unsigned long flags;
44
45         asm volatile(
46                 "lbz %0,%1(13)"
47                 : "=r" (flags)
48                 : "i" (offsetof(struct paca_struct, soft_enabled)));
49
50         return flags;
51 }
52
53 static inline unsigned long arch_local_irq_disable(void)
54 {
55         unsigned long flags, zero;
56
57         asm volatile(
58                 "li %1,0; lbz %0,%2(13); stb %1,%2(13)"
59                 : "=r" (flags), "=&r" (zero)
60                 : "i" (offsetof(struct paca_struct, soft_enabled))
61                 : "memory");
62
63         return flags;
64 }
65
66 extern void arch_local_irq_restore(unsigned long);
67
68 static inline void arch_local_irq_enable(void)
69 {
70         arch_local_irq_restore(1);
71 }
72
73 static inline unsigned long arch_local_irq_save(void)
74 {
75         return arch_local_irq_disable();
76 }
77
78 static inline bool arch_irqs_disabled_flags(unsigned long flags)
79 {
80         return flags == 0;
81 }
82
83 static inline bool arch_irqs_disabled(void)
84 {
85         return arch_irqs_disabled_flags(arch_local_save_flags());
86 }
87
88 #ifdef CONFIG_PPC_BOOK3E
89 #define __hard_irq_enable()     asm volatile("wrteei 1" : : : "memory");
90 #define __hard_irq_disable()    asm volatile("wrteei 0" : : : "memory");
91 #else
92 #define __hard_irq_enable()     __mtmsrd(local_paca->kernel_msr | MSR_EE, 1)
93 #define __hard_irq_disable()    __mtmsrd(local_paca->kernel_msr, 1)
94 #endif
95
96 static inline void hard_irq_disable(void)
97 {
98         __hard_irq_disable();
99         get_paca()->soft_enabled = 0;
100         get_paca()->irq_happened |= PACA_IRQ_HARD_DIS;
101 }
102
103 /*
104  * This is called by asynchronous interrupts to conditionally
105  * re-enable hard interrupts when soft-disabled after having
106  * cleared the source of the interrupt
107  */
108 static inline void may_hard_irq_enable(void)
109 {
110         get_paca()->irq_happened &= ~PACA_IRQ_HARD_DIS;
111         if (!(get_paca()->irq_happened & PACA_IRQ_EE))
112                 __hard_irq_enable();
113 }
114
115 static inline bool arch_irq_disabled_regs(struct pt_regs *regs)
116 {
117         return !regs->softe;
118 }
119
120 #else /* CONFIG_PPC64 */
121
122 #define SET_MSR_EE(x)   mtmsr(x)
123
124 static inline unsigned long arch_local_save_flags(void)
125 {
126         return mfmsr();
127 }
128
129 static inline void arch_local_irq_restore(unsigned long flags)
130 {
131 #if defined(CONFIG_BOOKE)
132         asm volatile("wrtee %0" : : "r" (flags) : "memory");
133 #else
134         mtmsr(flags);
135 #endif
136 }
137
138 static inline unsigned long arch_local_irq_save(void)
139 {
140         unsigned long flags = arch_local_save_flags();
141 #ifdef CONFIG_BOOKE
142         asm volatile("wrteei 0" : : : "memory");
143 #else
144         SET_MSR_EE(flags & ~MSR_EE);
145 #endif
146         return flags;
147 }
148
149 static inline void arch_local_irq_disable(void)
150 {
151 #ifdef CONFIG_BOOKE
152         asm volatile("wrteei 0" : : : "memory");
153 #else
154         arch_local_irq_save();
155 #endif
156 }
157
158 static inline void arch_local_irq_enable(void)
159 {
160 #ifdef CONFIG_BOOKE
161         asm volatile("wrteei 1" : : : "memory");
162 #else
163         unsigned long msr = mfmsr();
164         SET_MSR_EE(msr | MSR_EE);
165 #endif
166 }
167
168 static inline bool arch_irqs_disabled_flags(unsigned long flags)
169 {
170         return (flags & MSR_EE) == 0;
171 }
172
173 static inline bool arch_irqs_disabled(void)
174 {
175         return arch_irqs_disabled_flags(arch_local_save_flags());
176 }
177
178 #define hard_irq_disable()              arch_local_irq_disable()
179
180 static inline bool arch_irq_disabled_regs(struct pt_regs *regs)
181 {
182         return !(regs->msr & MSR_EE);
183 }
184
185 static inline void may_hard_irq_enable(void) { }
186
187 #endif /* CONFIG_PPC64 */
188
189 #define ARCH_IRQ_INIT_FLAGS     IRQ_NOREQUEST
190
191 /*
192  * interrupt-retrigger: should we handle this via lost interrupts and IPIs
193  * or should we not care like we do now ? --BenH.
194  */
195 struct irq_chip;
196
197 #endif  /* __ASSEMBLY__ */
198 #endif  /* __KERNEL__ */
199 #endif  /* _ASM_POWERPC_HW_IRQ_H */