xref: /openbmc/linux/arch/x86/kernel/acpi/wakeup_64.S (revision 8569c914)
1.text
2#include <linux/linkage.h>
3#include <asm/segment.h>
4#include <asm/pgtable.h>
5#include <asm/page.h>
6#include <asm/msr.h>
7#include <asm/asm-offsets.h>
8
9# Copyright 2003 Pavel Machek <pavel@suse.cz>, distribute under GPLv2
10
11.code64
12	/*
13	 * Hooray, we are in Long 64-bit mode (but still running in low memory)
14	 */
15ENTRY(wakeup_long64)
16wakeup_long64:
17	movq	saved_magic, %rax
18	movq	$0x123456789abcdef0, %rdx
19	cmpq	%rdx, %rax
20	jne	bogus_64_magic
21
22	movw	$__KERNEL_DS, %ax
23	movw	%ax, %ss
24	movw	%ax, %ds
25	movw	%ax, %es
26	movw	%ax, %fs
27	movw	%ax, %gs
28	movq	saved_rsp, %rsp
29
30	movq	saved_rbx, %rbx
31	movq	saved_rdi, %rdi
32	movq	saved_rsi, %rsi
33	movq	saved_rbp, %rbp
34
35	movq	saved_rip, %rax
36	jmp	*%rax
37
38bogus_64_magic:
39	jmp	bogus_64_magic
40
41	.align 2
42	.p2align 4,,15
43.globl do_suspend_lowlevel
44	.type	do_suspend_lowlevel,@function
45do_suspend_lowlevel:
46.LFB5:
47	subq	$8, %rsp
48	xorl	%eax, %eax
49	call	save_processor_state
50
51	movq	$saved_context, %rax
52	movq	%rsp, pt_regs_sp(%rax)
53	movq	%rbp, pt_regs_bp(%rax)
54	movq	%rsi, pt_regs_si(%rax)
55	movq	%rdi, pt_regs_di(%rax)
56	movq	%rbx, pt_regs_bx(%rax)
57	movq	%rcx, pt_regs_cx(%rax)
58	movq	%rdx, pt_regs_dx(%rax)
59	movq	%r8, pt_regs_r8(%rax)
60	movq	%r9, pt_regs_r9(%rax)
61	movq	%r10, pt_regs_r10(%rax)
62	movq	%r11, pt_regs_r11(%rax)
63	movq	%r12, pt_regs_r12(%rax)
64	movq	%r13, pt_regs_r13(%rax)
65	movq	%r14, pt_regs_r14(%rax)
66	movq	%r15, pt_regs_r15(%rax)
67	pushfq
68	popq	pt_regs_flags(%rax)
69
70	movq	$.L97, saved_rip(%rip)
71
72	movq	%rsp, saved_rsp
73	movq	%rbp, saved_rbp
74	movq	%rbx, saved_rbx
75	movq	%rdi, saved_rdi
76	movq	%rsi, saved_rsi
77
78	addq	$8, %rsp
79	movl	$3, %edi
80	xorl	%eax, %eax
81	jmp	acpi_enter_sleep_state
82.L97:
83	.p2align 4,,7
84.L99:
85	.align 4
86	movl	$24, %eax
87	movw	%ax, %ds
88
89	/* We don't restore %rax, it must be 0 anyway */
90	movq	$saved_context, %rax
91	movq	saved_context_cr4(%rax), %rbx
92	movq	%rbx, %cr4
93	movq	saved_context_cr3(%rax), %rbx
94	movq	%rbx, %cr3
95	movq	saved_context_cr2(%rax), %rbx
96	movq	%rbx, %cr2
97	movq	saved_context_cr0(%rax), %rbx
98	movq	%rbx, %cr0
99	pushq	pt_regs_flags(%rax)
100	popfq
101	movq	pt_regs_sp(%rax), %rsp
102	movq	pt_regs_bp(%rax), %rbp
103	movq	pt_regs_si(%rax), %rsi
104	movq	pt_regs_di(%rax), %rdi
105	movq	pt_regs_bx(%rax), %rbx
106	movq	pt_regs_cx(%rax), %rcx
107	movq	pt_regs_dx(%rax), %rdx
108	movq	pt_regs_r8(%rax), %r8
109	movq	pt_regs_r9(%rax), %r9
110	movq	pt_regs_r10(%rax), %r10
111	movq	pt_regs_r11(%rax), %r11
112	movq	pt_regs_r12(%rax), %r12
113	movq	pt_regs_r13(%rax), %r13
114	movq	pt_regs_r14(%rax), %r14
115	movq	pt_regs_r15(%rax), %r15
116
117	xorl	%eax, %eax
118	addq	$8, %rsp
119	jmp	restore_processor_state
120.LFE5:
121.Lfe5:
122	.size	do_suspend_lowlevel, .Lfe5-do_suspend_lowlevel
123
124.data
125ALIGN
126ENTRY(saved_rbp)	.quad	0
127ENTRY(saved_rsi)	.quad	0
128ENTRY(saved_rdi)	.quad	0
129ENTRY(saved_rbx)	.quad	0
130
131ENTRY(saved_rip)	.quad	0
132ENTRY(saved_rsp)	.quad	0
133
134ENTRY(saved_magic)	.quad	0
135