46b8a1fbe5fab013ba560098c98ba05d9f914b78
[people/balajirrao/gpxe.git] / src / arch / i386 / include / io.h
1 #ifndef ETHERBOOT_IO_H
2 #define ETHERBOOT_IO_H
3
4 #include <stdint.h>
5 #include "virtaddr.h"
6
7 /* virt_to_bus converts an addresss inside of etherboot [_start, _end]
8  * into a memory access cards can use.
9  */
10 #define virt_to_bus virt_to_phys
11
12
13 /* bus_to_virt reverses virt_to_bus, the address must be output
14  * from virt_to_bus to be valid.  This function does not work on
15  * all bus addresses.
16  */
17 #define bus_to_virt phys_to_virt
18
19 /* ioremap converts a random 32bit bus address into something
20  * etherboot can access.
21  */
22 static inline void *ioremap(unsigned long bus_addr, unsigned long length __unused)
23 {
24         return bus_to_virt(bus_addr);
25 }
26
27 /* iounmap cleans up anything ioremap had to setup */
28 static inline void iounmap(void *virt_addr __unused)
29 {
30         return;
31 }
32
33 /*
34  * This file contains the definitions for the x86 IO instructions
35  * inb/inw/inl/outb/outw/outl and the "string versions" of the same
36  * (insb/insw/insl/outsb/outsw/outsl). You can also use "pausing"
37  * versions of the single-IO instructions (inb_p/inw_p/..).
38  *
39  * This file is not meant to be obfuscating: it's just complicated
40  * to (a) handle it all in a way that makes gcc able to optimize it
41  * as well as possible and (b) trying to avoid writing the same thing
42  * over and over again with slight variations and possibly making a
43  * mistake somewhere.
44  */
45
46 /*
47  * Thanks to James van Artsdalen for a better timing-fix than
48  * the two short jumps: using outb's to a nonexistent port seems
49  * to guarantee better timings even on fast machines.
50  *
51  * On the other hand, I'd like to be sure of a non-existent port:
52  * I feel a bit unsafe about using 0x80 (should be safe, though)
53  *
54  *              Linus
55  */
56
57 #ifdef  SLOW_IO_BY_JUMPING
58 #define __SLOW_DOWN_IO __asm__ __volatile__("jmp 1f\n1:\tjmp 1f\n1:")
59 #else
60 #define __SLOW_DOWN_IO __asm__ __volatile__("outb %al,$0x80")
61 #endif
62
63 #ifdef  REALLY_SLOW_IO
64 #define SLOW_DOWN_IO { __SLOW_DOWN_IO; __SLOW_DOWN_IO; __SLOW_DOWN_IO; __SLOW_DOWN_IO; }
65 #else
66 #define SLOW_DOWN_IO __SLOW_DOWN_IO
67 #endif
68
69 /*
70  * readX/writeX() are used to access memory mapped devices. On some
71  * architectures the memory mapped IO stuff needs to be accessed
72  * differently. On the x86 architecture, we just read/write the
73  * memory location directly.
74  */
75 #define readb(addr) (*(volatile uint8_t *) (addr))
76 #define readw(addr) (*(volatile uint16_t *) (addr))
77 #define readl(addr) (*(volatile uint32_t *) (addr))
78
79 #define writeb(b,addr) ((*(volatile uint8_t *) (addr)) = (b))
80 #define writew(b,addr) ((*(volatile uint16_t *) (addr)) = (b))
81 #define writel(b,addr) ((*(volatile uint32_t *) (addr)) = (b))
82
83 #define memcpy_fromio(a,b,c)    memcpy((a),(void *)(b),(c))
84 #define memcpy_toio(a,b,c)      memcpy((void *)(a),(b),(c))
85
86 /*
87  * Force strict CPU ordering.
88  * And yes, this is required on UP too when we're talking
89  * to devices.
90  *
91  * For now, "wmb()" doesn't actually do anything, as all
92  * Intel CPU's follow what Intel calls a *Processor Order*,
93  * in which all writes are seen in the program order even
94  * outside the CPU.
95  *
96  * I expect future Intel CPU's to have a weaker ordering,
97  * but I'd also expect them to finally get their act together
98  * and add some real memory barriers if so.
99  *
100  * Some non intel clones support out of order store. wmb() ceases to be a
101  * nop for these.
102  */
103  
104 #define mb()    __asm__ __volatile__ ("lock; addl $0,0(%%esp)": : :"memory")
105 #define rmb()   mb()
106 #define wmb()   mb();
107
108
109 /*
110  * Talk about misusing macros..
111  */
112
113 #define __OUT1(s,x) \
114 extern void __out##s(unsigned x value, unsigned short port); \
115 extern inline void __out##s(unsigned x value, unsigned short port) {
116
117 #define __OUT2(s,s1,s2) \
118 __asm__ __volatile__ ("out" #s " %" s1 "0,%" s2 "1"
119
120 #define __OUT(s,s1,x) \
121 __OUT1(s,x) __OUT2(s,s1,"w") : : "a" (value), "d" (port)); } \
122 __OUT1(s##c,x) __OUT2(s,s1,"") : : "a" (value), "id" (port)); } \
123 __OUT1(s##_p,x) __OUT2(s,s1,"w") : : "a" (value), "d" (port)); SLOW_DOWN_IO; } \
124 __OUT1(s##c_p,x) __OUT2(s,s1,"") : : "a" (value), "id" (port)); SLOW_DOWN_IO; }
125
126 #define __IN1(s,x) \
127 extern unsigned x __in##s(unsigned short port); \
128 extern inline unsigned x __in##s(unsigned short port) { unsigned x _v;
129
130 #define __IN2(s,s1,s2) \
131 __asm__ __volatile__ ("in" #s " %" s2 "1,%" s1 "0"
132
133 #define __IN(s,s1,x,i...) \
134 __IN1(s,x) __IN2(s,s1,"w") : "=a" (_v) : "d" (port) ,##i ); return _v; } \
135 __IN1(s##c,x) __IN2(s,s1,"") : "=a" (_v) : "id" (port) ,##i ); return _v; } \
136 __IN1(s##_p,x) __IN2(s,s1,"w") : "=a" (_v) : "d" (port) ,##i ); SLOW_DOWN_IO; return _v; } \
137 __IN1(s##c_p,x) __IN2(s,s1,"") : "=a" (_v) : "id" (port) ,##i ); SLOW_DOWN_IO; return _v; }
138
139 #define __INS(s) \
140 extern void ins##s(unsigned short port, void * addr, unsigned long count); \
141 extern inline void ins##s(unsigned short port, void * addr, unsigned long count) \
142 { __asm__ __volatile__ ("cld ; rep ; ins" #s \
143 : "=D" (addr), "=c" (count) : "d" (port),"0" (addr),"1" (count)); }
144
145 #define __OUTS(s) \
146 extern void outs##s(unsigned short port, const void * addr, unsigned long  count); \
147 extern inline void outs##s(unsigned short port, const void * addr, unsigned long count) \
148 { __asm__ __volatile__ ("cld ; rep ; outs" #s \
149 : "=S" (addr), "=c" (count) : "d" (port),"0" (addr),"1" (count)); }
150
151 __IN(b,"", char)
152 __IN(w,"",short)
153 __IN(l,"", long)
154
155 __OUT(b,"b",char)
156 __OUT(w,"w",short)
157 __OUT(l,,int)
158
159 __INS(b)
160 __INS(w)
161 __INS(l)
162
163 __OUTS(b)
164 __OUTS(w)
165 __OUTS(l)
166
167 /*
168  * Note that due to the way __builtin_constant_p() works, you
169  *  - can't use it inside a inline function (it will never be true)
170  *  - you don't have to worry about side effects within the __builtin..
171  */
172 #define outb(val,port) \
173 ((__builtin_constant_p((port)) && (port) < 256) ? \
174         __outbc((val),(port)) : \
175         __outb((val),(port)))
176
177 #define inb(port) \
178 ((__builtin_constant_p((port)) && (port) < 256) ? \
179         __inbc(port) : \
180         __inb(port))
181
182 #define outb_p(val,port) \
183 ((__builtin_constant_p((port)) && (port) < 256) ? \
184         __outbc_p((val),(port)) : \
185         __outb_p((val),(port)))
186
187 #define inb_p(port) \
188 ((__builtin_constant_p((port)) && (port) < 256) ? \
189         __inbc_p(port) : \
190         __inb_p(port))
191
192 #define outw(val,port) \
193 ((__builtin_constant_p((port)) && (port) < 256) ? \
194         __outwc((val),(port)) : \
195         __outw((val),(port)))
196
197 #define inw(port) \
198 ((__builtin_constant_p((port)) && (port) < 256) ? \
199         __inwc(port) : \
200         __inw(port))
201
202 #define outw_p(val,port) \
203 ((__builtin_constant_p((port)) && (port) < 256) ? \
204         __outwc_p((val),(port)) : \
205         __outw_p((val),(port)))
206
207 #define inw_p(port) \
208 ((__builtin_constant_p((port)) && (port) < 256) ? \
209         __inwc_p(port) : \
210         __inw_p(port))
211
212 #define outl(val,port) \
213 ((__builtin_constant_p((port)) && (port) < 256) ? \
214         __outlc((val),(port)) : \
215         __outl((val),(port)))
216
217 #define inl(port) \
218 ((__builtin_constant_p((port)) && (port) < 256) ? \
219         __inlc(port) : \
220         __inl(port))
221
222 #define outl_p(val,port) \
223 ((__builtin_constant_p((port)) && (port) < 256) ? \
224         __outlc_p((val),(port)) : \
225         __outl_p((val),(port)))
226
227 #define inl_p(port) \
228 ((__builtin_constant_p((port)) && (port) < 256) ? \
229         __inlc_p(port) : \
230         __inl_p(port))
231
232 #endif /* ETHERBOOT_IO_H */