]> Pileus Git - ~andy/linux/commitdiff
Merge branch 'linus' into perfcounters/core
authorIngo Molnar <mingo@elte.hu>
Wed, 17 Jun 2009 11:06:17 +0000 (13:06 +0200)
committerIngo Molnar <mingo@elte.hu>
Wed, 17 Jun 2009 11:06:17 +0000 (13:06 +0200)
Conflicts:
arch/x86/include/asm/kmap_types.h
include/linux/mm.h

include/asm-generic/kmap_types.h

Merge reason: We crossed changes with kmap_types.h cleanups in mainline.

Signed-off-by: Ingo Molnar <mingo@elte.hu>
1  2 
arch/powerpc/include/asm/hw_irq.h
include/asm-generic/kmap_types.h
include/linux/mm.h

index 1974cf191b03f74ec6dabf2e100b64b39c79f97e,b7f8f4a87cc04cc882f1179414dd34c3e189c58f..10a642df014ed0c432e9fe8127ba4edffc936eeb
@@@ -80,7 -80,7 +80,7 @@@ static inline void local_irq_disable(vo
        __asm__ __volatile__("wrteei 0": : :"memory");
  #else
        unsigned long msr;
-       __asm__ __volatile__("": : :"memory");
        msr = mfmsr();
        SET_MSR_EE(msr & ~MSR_EE);
  #endif
@@@ -92,7 -92,7 +92,7 @@@ static inline void local_irq_enable(voi
        __asm__ __volatile__("wrteei 1": : :"memory");
  #else
        unsigned long msr;
-       __asm__ __volatile__("": : :"memory");
        msr = mfmsr();
        SET_MSR_EE(msr | MSR_EE);
  #endif
@@@ -108,7 -108,6 +108,6 @@@ static inline void local_irq_save_ptr(u
  #else
        SET_MSR_EE(msr & ~MSR_EE);
  #endif
-       __asm__ __volatile__("": : :"memory");
  }
  
  #define local_save_flags(flags)       ((flags) = mfmsr())
@@@ -163,6 -162,7 +162,6 @@@ static inline unsigned long test_perf_c
        return 0;
  }
  
 -static inline void set_perf_counter_pending(void) {}
  static inline void clear_perf_counter_pending(void) {}
  #endif /* CONFIG_PERF_COUNTERS */
  
index 58c33055c304f65a1c6f576d1d1e8b0c8533afad,54e8b3d956b7fe9ba20082844b50237d27050681..eddbce0f9fb9447f8fae3534ed0a0d3f4373dc7f
@@@ -1,7 -1,7 +1,7 @@@
  #ifndef _ASM_GENERIC_KMAP_TYPES_H
  #define _ASM_GENERIC_KMAP_TYPES_H
  
- #ifdef CONFIG_DEBUG_HIGHMEM
+ #ifdef __WITH_KM_FENCE
  # define D(n) __KM_FENCE_##n ,
  #else
  # define D(n)
@@@ -24,7 -24,7 +24,10 @@@ D(12)        KM_SOFTIRQ1
  D(13) KM_SYNC_ICACHE,
  D(14) KM_SYNC_DCACHE,
  D(15) KM_UML_USERCOPY, /* UML specific, for copy_*_user - used in do_op_one_page */
--D(16) KM_TYPE_NR
++D(16) KM_IRQ_PTE,
++D(17) KM_NMI,
++D(18) KM_NMI_PTE,
++D(19) KM_TYPE_NR
  };
  
  #undef D
diff --combined include/linux/mm.h
index b457bc047ab153651313cf75d44cb64905318c05,d88d6fc530ade07b88272c033804404c064c2440..cf260d848eb925edf884e4d82a8477a1f890f6f4
@@@ -7,7 -7,6 +7,6 @@@
  
  #include <linux/gfp.h>
  #include <linux/list.h>
- #include <linux/mmdebug.h>
  #include <linux/mmzone.h>
  #include <linux/rbtree.h>
  #include <linux/prio_tree.h>
@@@ -725,7 -724,7 +724,7 @@@ static inline int shmem_lock(struct fil
        return 0;
  }
  #endif
- struct file *shmem_file_setup(char *name, loff_t size, unsigned long flags);
+ struct file *shmem_file_setup(const char *name, loff_t size, unsigned long flags);
  
  int shmem_zero_setup(struct vm_area_struct *);
  
@@@ -793,6 -792,8 +792,8 @@@ int copy_page_range(struct mm_struct *d
                        struct vm_area_struct *vma);
  void unmap_mapping_range(struct address_space *mapping,
                loff_t const holebegin, loff_t const holelen, int even_cows);
+ int follow_pfn(struct vm_area_struct *vma, unsigned long address,
+       unsigned long *pfn);
  int follow_phys(struct vm_area_struct *vma, unsigned long address,
                unsigned int flags, unsigned long *prot, resource_size_t *phys);
  int generic_access_phys(struct vm_area_struct *vma, unsigned long addr,
@@@ -824,8 -825,11 +825,11 @@@ static inline int handle_mm_fault(struc
  extern int make_pages_present(unsigned long addr, unsigned long end);
  extern int access_process_vm(struct task_struct *tsk, unsigned long addr, void *buf, int len, int write);
  
- int get_user_pages(struct task_struct *tsk, struct mm_struct *mm, unsigned long start,
-               int len, int write, int force, struct page **pages, struct vm_area_struct **vmas);
+ int get_user_pages(struct task_struct *tsk, struct mm_struct *mm,
+                       unsigned long start, int len, int write, int force,
+                       struct page **pages, struct vm_area_struct **vmas);
+ int get_user_pages_fast(unsigned long start, int nr_pages, int write,
+                       struct page **pages);
  
  extern int try_to_release_page(struct page * page, gfp_t gfp_mask);
  extern void do_invalidatepage(struct page *page, unsigned long offset);
@@@ -849,25 -853,6 +853,12 @@@ extern int mprotect_fixup(struct vm_are
                          struct vm_area_struct **pprev, unsigned long start,
                          unsigned long end, unsigned long newflags);
  
- /*
-  * get_user_pages_fast provides equivalent functionality to get_user_pages,
-  * operating on current and current->mm (force=0 and doesn't return any vmas).
-  *
-  * get_user_pages_fast may take mmap_sem and page tables, so no assumptions
-  * can be made about locking. get_user_pages_fast is to be implemented in a
-  * way that is advantageous (vs get_user_pages()) when the user memory area is
-  * already faulted in and present in ptes. However if the pages have to be
-  * faulted in, it may turn out to be slightly slower).
-  */
- int get_user_pages_fast(unsigned long start, int nr_pages, int write,
-                       struct page **pages);
 +/*
 + * doesn't attempt to fault and will return short.
 + */
 +int __get_user_pages_fast(unsigned long start, int nr_pages, int write,
 +                        struct page **pages);
 +
  /*
   * A callback you can register to apply pressure to ageable caches.
   *
@@@ -1067,7 -1052,8 +1058,8 @@@ extern int __meminit __early_pfn_to_nid
  extern void set_dma_reserve(unsigned long new_dma_reserve);
  extern void memmap_init_zone(unsigned long, int, unsigned long,
                                unsigned long, enum memmap_context);
- extern void setup_per_zone_pages_min(void);
+ extern void setup_per_zone_wmarks(void);
+ extern void calculate_zone_inactive_ratio(struct zone *zone);
  extern void mem_init(void);
  extern void __init mmap_init(void);
  extern void show_mem(void);
@@@ -1184,8 -1170,6 +1176,6 @@@ void task_dirty_inc(struct task_struct 
  #define VM_MAX_READAHEAD      128     /* kbytes */
  #define VM_MIN_READAHEAD      16      /* kbytes (includes current page) */
  
- int do_page_cache_readahead(struct address_space *mapping, struct file *filp,
-                       pgoff_t offset, unsigned long nr_to_read);
  int force_page_cache_readahead(struct address_space *mapping, struct file *filp,
                        pgoff_t offset, unsigned long nr_to_read);
  
@@@ -1203,6 -1187,9 +1193,9 @@@ void page_cache_async_readahead(struct 
                                unsigned long size);
  
  unsigned long max_sane_readahead(unsigned long nr);
+ unsigned long ra_submit(struct file_ra_state *ra,
+                       struct address_space *mapping,
+                       struct file *filp);
  
  /* Do stack extension */
  extern int expand_stack(struct vm_area_struct *vma, unsigned long address);