17837699fSSheng Yang /* 27837699fSSheng Yang * 8253/8254 interval timer emulation 37837699fSSheng Yang * 47837699fSSheng Yang * Copyright (c) 2003-2004 Fabrice Bellard 57837699fSSheng Yang * Copyright (c) 2006 Intel Corporation 67837699fSSheng Yang * Copyright (c) 2007 Keir Fraser, XenSource Inc 77837699fSSheng Yang * Copyright (c) 2008 Intel Corporation 89611c187SNicolas Kaiser * Copyright 2009 Red Hat, Inc. and/or its affiliates. 97837699fSSheng Yang * 107837699fSSheng Yang * Permission is hereby granted, free of charge, to any person obtaining a copy 117837699fSSheng Yang * of this software and associated documentation files (the "Software"), to deal 127837699fSSheng Yang * in the Software without restriction, including without limitation the rights 137837699fSSheng Yang * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell 147837699fSSheng Yang * copies of the Software, and to permit persons to whom the Software is 157837699fSSheng Yang * furnished to do so, subject to the following conditions: 167837699fSSheng Yang * 177837699fSSheng Yang * The above copyright notice and this permission notice shall be included in 187837699fSSheng Yang * all copies or substantial portions of the Software. 197837699fSSheng Yang * 207837699fSSheng Yang * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR 217837699fSSheng Yang * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, 227837699fSSheng Yang * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL 237837699fSSheng Yang * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER 247837699fSSheng Yang * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, 257837699fSSheng Yang * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN 267837699fSSheng Yang * THE SOFTWARE. 277837699fSSheng Yang * 287837699fSSheng Yang * Authors: 297837699fSSheng Yang * Sheng Yang <sheng.yang@intel.com> 307837699fSSheng Yang * Based on QEMU and Xen. 317837699fSSheng Yang */ 327837699fSSheng Yang 33a78d9626SJoe Perches #define pr_fmt(fmt) "pit: " fmt 34a78d9626SJoe Perches 357837699fSSheng Yang #include <linux/kvm_host.h> 365a0e3ad6STejun Heo #include <linux/slab.h> 377837699fSSheng Yang 38*49df6397SSteve Rutherford #include "ioapic.h" 397837699fSSheng Yang #include "irq.h" 407837699fSSheng Yang #include "i8254.h" 419ed96e87SMarcelo Tosatti #include "x86.h" 427837699fSSheng Yang 437837699fSSheng Yang #ifndef CONFIG_X86_64 446f6d6a1aSRoman Zippel #define mod_64(x, y) ((x) - (y) * div64_u64(x, y)) 457837699fSSheng Yang #else 467837699fSSheng Yang #define mod_64(x, y) ((x) % (y)) 477837699fSSheng Yang #endif 487837699fSSheng Yang 497837699fSSheng Yang #define RW_STATE_LSB 1 507837699fSSheng Yang #define RW_STATE_MSB 2 517837699fSSheng Yang #define RW_STATE_WORD0 3 527837699fSSheng Yang #define RW_STATE_WORD1 4 537837699fSSheng Yang 547837699fSSheng Yang /* Compute with 96 bit intermediate result: (a*b)/c */ 557837699fSSheng Yang static u64 muldiv64(u64 a, u32 b, u32 c) 567837699fSSheng Yang { 577837699fSSheng Yang union { 587837699fSSheng Yang u64 ll; 597837699fSSheng Yang struct { 607837699fSSheng Yang u32 low, high; 617837699fSSheng Yang } l; 627837699fSSheng Yang } u, res; 637837699fSSheng Yang u64 rl, rh; 647837699fSSheng Yang 657837699fSSheng Yang u.ll = a; 667837699fSSheng Yang rl = (u64)u.l.low * (u64)b; 677837699fSSheng Yang rh = (u64)u.l.high * (u64)b; 687837699fSSheng Yang rh += (rl >> 32); 696f6d6a1aSRoman Zippel res.l.high = div64_u64(rh, c); 706f6d6a1aSRoman Zippel res.l.low = div64_u64(((mod_64(rh, c) << 32) + (rl & 0xffffffff)), c); 717837699fSSheng Yang return res.ll; 727837699fSSheng Yang } 737837699fSSheng Yang 747837699fSSheng Yang static void pit_set_gate(struct kvm *kvm, int channel, u32 val) 757837699fSSheng Yang { 767837699fSSheng Yang struct kvm_kpit_channel_state *c = 777837699fSSheng Yang &kvm->arch.vpit->pit_state.channels[channel]; 787837699fSSheng Yang 797837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 807837699fSSheng Yang 817837699fSSheng Yang switch (c->mode) { 827837699fSSheng Yang default: 837837699fSSheng Yang case 0: 847837699fSSheng Yang case 4: 857837699fSSheng Yang /* XXX: just disable/enable counting */ 867837699fSSheng Yang break; 877837699fSSheng Yang case 1: 887837699fSSheng Yang case 2: 897837699fSSheng Yang case 3: 907837699fSSheng Yang case 5: 917837699fSSheng Yang /* Restart counting on rising edge. */ 927837699fSSheng Yang if (c->gate < val) 937837699fSSheng Yang c->count_load_time = ktime_get(); 947837699fSSheng Yang break; 957837699fSSheng Yang } 967837699fSSheng Yang 977837699fSSheng Yang c->gate = val; 987837699fSSheng Yang } 997837699fSSheng Yang 1008b2cf73cSHarvey Harrison static int pit_get_gate(struct kvm *kvm, int channel) 1017837699fSSheng Yang { 1027837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 1037837699fSSheng Yang 1047837699fSSheng Yang return kvm->arch.vpit->pit_state.channels[channel].gate; 1057837699fSSheng Yang } 1067837699fSSheng Yang 107fd668423SMarcelo Tosatti static s64 __kpit_elapsed(struct kvm *kvm) 108fd668423SMarcelo Tosatti { 109fd668423SMarcelo Tosatti s64 elapsed; 110fd668423SMarcelo Tosatti ktime_t remaining; 111fd668423SMarcelo Tosatti struct kvm_kpit_state *ps = &kvm->arch.vpit->pit_state; 112fd668423SMarcelo Tosatti 11326ef1924SAvi Kivity if (!ps->period) 1140ff77873SMarcelo Tosatti return 0; 1150ff77873SMarcelo Tosatti 116ede2ccc5SMarcelo Tosatti /* 117ede2ccc5SMarcelo Tosatti * The Counter does not stop when it reaches zero. In 118ede2ccc5SMarcelo Tosatti * Modes 0, 1, 4, and 5 the Counter ``wraps around'' to 119ede2ccc5SMarcelo Tosatti * the highest count, either FFFF hex for binary counting 120ede2ccc5SMarcelo Tosatti * or 9999 for BCD counting, and continues counting. 121ede2ccc5SMarcelo Tosatti * Modes 2 and 3 are periodic; the Counter reloads 122ede2ccc5SMarcelo Tosatti * itself with the initial count and continues counting 123ede2ccc5SMarcelo Tosatti * from there. 124ede2ccc5SMarcelo Tosatti */ 12526ef1924SAvi Kivity remaining = hrtimer_get_remaining(&ps->timer); 12626ef1924SAvi Kivity elapsed = ps->period - ktime_to_ns(remaining); 127fd668423SMarcelo Tosatti 128fd668423SMarcelo Tosatti return elapsed; 129fd668423SMarcelo Tosatti } 130fd668423SMarcelo Tosatti 131fd668423SMarcelo Tosatti static s64 kpit_elapsed(struct kvm *kvm, struct kvm_kpit_channel_state *c, 132fd668423SMarcelo Tosatti int channel) 133fd668423SMarcelo Tosatti { 134fd668423SMarcelo Tosatti if (channel == 0) 135fd668423SMarcelo Tosatti return __kpit_elapsed(kvm); 136fd668423SMarcelo Tosatti 137fd668423SMarcelo Tosatti return ktime_to_ns(ktime_sub(ktime_get(), c->count_load_time)); 138fd668423SMarcelo Tosatti } 139fd668423SMarcelo Tosatti 1407837699fSSheng Yang static int pit_get_count(struct kvm *kvm, int channel) 1417837699fSSheng Yang { 1427837699fSSheng Yang struct kvm_kpit_channel_state *c = 1437837699fSSheng Yang &kvm->arch.vpit->pit_state.channels[channel]; 1447837699fSSheng Yang s64 d, t; 1457837699fSSheng Yang int counter; 1467837699fSSheng Yang 1477837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 1487837699fSSheng Yang 149fd668423SMarcelo Tosatti t = kpit_elapsed(kvm, c, channel); 1507837699fSSheng Yang d = muldiv64(t, KVM_PIT_FREQ, NSEC_PER_SEC); 1517837699fSSheng Yang 1527837699fSSheng Yang switch (c->mode) { 1537837699fSSheng Yang case 0: 1547837699fSSheng Yang case 1: 1557837699fSSheng Yang case 4: 1567837699fSSheng Yang case 5: 1577837699fSSheng Yang counter = (c->count - d) & 0xffff; 1587837699fSSheng Yang break; 1597837699fSSheng Yang case 3: 1607837699fSSheng Yang /* XXX: may be incorrect for odd counts */ 1617837699fSSheng Yang counter = c->count - (mod_64((2 * d), c->count)); 1627837699fSSheng Yang break; 1637837699fSSheng Yang default: 1647837699fSSheng Yang counter = c->count - mod_64(d, c->count); 1657837699fSSheng Yang break; 1667837699fSSheng Yang } 1677837699fSSheng Yang return counter; 1687837699fSSheng Yang } 1697837699fSSheng Yang 1707837699fSSheng Yang static int pit_get_out(struct kvm *kvm, int channel) 1717837699fSSheng Yang { 1727837699fSSheng Yang struct kvm_kpit_channel_state *c = 1737837699fSSheng Yang &kvm->arch.vpit->pit_state.channels[channel]; 1747837699fSSheng Yang s64 d, t; 1757837699fSSheng Yang int out; 1767837699fSSheng Yang 1777837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 1787837699fSSheng Yang 179fd668423SMarcelo Tosatti t = kpit_elapsed(kvm, c, channel); 1807837699fSSheng Yang d = muldiv64(t, KVM_PIT_FREQ, NSEC_PER_SEC); 1817837699fSSheng Yang 1827837699fSSheng Yang switch (c->mode) { 1837837699fSSheng Yang default: 1847837699fSSheng Yang case 0: 1857837699fSSheng Yang out = (d >= c->count); 1867837699fSSheng Yang break; 1877837699fSSheng Yang case 1: 1887837699fSSheng Yang out = (d < c->count); 1897837699fSSheng Yang break; 1907837699fSSheng Yang case 2: 1917837699fSSheng Yang out = ((mod_64(d, c->count) == 0) && (d != 0)); 1927837699fSSheng Yang break; 1937837699fSSheng Yang case 3: 1947837699fSSheng Yang out = (mod_64(d, c->count) < ((c->count + 1) >> 1)); 1957837699fSSheng Yang break; 1967837699fSSheng Yang case 4: 1977837699fSSheng Yang case 5: 1987837699fSSheng Yang out = (d == c->count); 1997837699fSSheng Yang break; 2007837699fSSheng Yang } 2017837699fSSheng Yang 2027837699fSSheng Yang return out; 2037837699fSSheng Yang } 2047837699fSSheng Yang 2057837699fSSheng Yang static void pit_latch_count(struct kvm *kvm, int channel) 2067837699fSSheng Yang { 2077837699fSSheng Yang struct kvm_kpit_channel_state *c = 2087837699fSSheng Yang &kvm->arch.vpit->pit_state.channels[channel]; 2097837699fSSheng Yang 2107837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 2117837699fSSheng Yang 2127837699fSSheng Yang if (!c->count_latched) { 2137837699fSSheng Yang c->latched_count = pit_get_count(kvm, channel); 2147837699fSSheng Yang c->count_latched = c->rw_mode; 2157837699fSSheng Yang } 2167837699fSSheng Yang } 2177837699fSSheng Yang 2187837699fSSheng Yang static void pit_latch_status(struct kvm *kvm, int channel) 2197837699fSSheng Yang { 2207837699fSSheng Yang struct kvm_kpit_channel_state *c = 2217837699fSSheng Yang &kvm->arch.vpit->pit_state.channels[channel]; 2227837699fSSheng Yang 2237837699fSSheng Yang WARN_ON(!mutex_is_locked(&kvm->arch.vpit->pit_state.lock)); 2247837699fSSheng Yang 2257837699fSSheng Yang if (!c->status_latched) { 2267837699fSSheng Yang /* TODO: Return NULL COUNT (bit 6). */ 2277837699fSSheng Yang c->status = ((pit_get_out(kvm, channel) << 7) | 2287837699fSSheng Yang (c->rw_mode << 4) | 2297837699fSSheng Yang (c->mode << 1) | 2307837699fSSheng Yang c->bcd); 2317837699fSSheng Yang c->status_latched = 1; 2327837699fSSheng Yang } 2337837699fSSheng Yang } 2347837699fSSheng Yang 235ee032c99SHarvey Harrison static void kvm_pit_ack_irq(struct kvm_irq_ack_notifier *kian) 2363cf57fedSMarcelo Tosatti { 2373cf57fedSMarcelo Tosatti struct kvm_kpit_state *ps = container_of(kian, struct kvm_kpit_state, 2383cf57fedSMarcelo Tosatti irq_ack_notifier); 23933572ac0SChris Lalancette int value; 24033572ac0SChris Lalancette 24133572ac0SChris Lalancette spin_lock(&ps->inject_lock); 24226ef1924SAvi Kivity value = atomic_dec_return(&ps->pending); 24333572ac0SChris Lalancette if (value < 0) 24433572ac0SChris Lalancette /* spurious acks can be generated if, for example, the 24533572ac0SChris Lalancette * PIC is being reset. Handle it gracefully here 24633572ac0SChris Lalancette */ 24726ef1924SAvi Kivity atomic_inc(&ps->pending); 24833572ac0SChris Lalancette else if (value > 0) 24933572ac0SChris Lalancette /* in this case, we had multiple outstanding pit interrupts 25033572ac0SChris Lalancette * that we needed to inject. Reinject 25133572ac0SChris Lalancette */ 252b6ddf05fSJan Kiszka queue_kthread_work(&ps->pit->worker, &ps->pit->expired); 2533cf57fedSMarcelo Tosatti ps->irq_ack = 1; 25433572ac0SChris Lalancette spin_unlock(&ps->inject_lock); 2553cf57fedSMarcelo Tosatti } 2563cf57fedSMarcelo Tosatti 2572f599714SMarcelo Tosatti void __kvm_migrate_pit_timer(struct kvm_vcpu *vcpu) 2582f599714SMarcelo Tosatti { 2592f599714SMarcelo Tosatti struct kvm_pit *pit = vcpu->kvm->arch.vpit; 2602f599714SMarcelo Tosatti struct hrtimer *timer; 2612f599714SMarcelo Tosatti 262c5af89b6SGleb Natapov if (!kvm_vcpu_is_bsp(vcpu) || !pit) 2632f599714SMarcelo Tosatti return; 2642f599714SMarcelo Tosatti 26526ef1924SAvi Kivity timer = &pit->pit_state.timer; 2662febc839SAndy Honig mutex_lock(&pit->pit_state.lock); 2672f599714SMarcelo Tosatti if (hrtimer_cancel(timer)) 268beb20d52SArjan van de Ven hrtimer_start_expires(timer, HRTIMER_MODE_ABS); 2692febc839SAndy Honig mutex_unlock(&pit->pit_state.lock); 2702f599714SMarcelo Tosatti } 2712f599714SMarcelo Tosatti 27233572ac0SChris Lalancette static void destroy_pit_timer(struct kvm_pit *pit) 2737837699fSSheng Yang { 27426ef1924SAvi Kivity hrtimer_cancel(&pit->pit_state.timer); 275b6ddf05fSJan Kiszka flush_kthread_work(&pit->expired); 2767837699fSSheng Yang } 2777837699fSSheng Yang 278b6ddf05fSJan Kiszka static void pit_do_work(struct kthread_work *work) 27933572ac0SChris Lalancette { 28033572ac0SChris Lalancette struct kvm_pit *pit = container_of(work, struct kvm_pit, expired); 28133572ac0SChris Lalancette struct kvm *kvm = pit->kvm; 28233572ac0SChris Lalancette struct kvm_vcpu *vcpu; 28333572ac0SChris Lalancette int i; 28433572ac0SChris Lalancette struct kvm_kpit_state *ps = &pit->pit_state; 28533572ac0SChris Lalancette int inject = 0; 28633572ac0SChris Lalancette 28733572ac0SChris Lalancette /* Try to inject pending interrupts when 28833572ac0SChris Lalancette * last one has been acked. 28933572ac0SChris Lalancette */ 29033572ac0SChris Lalancette spin_lock(&ps->inject_lock); 29133572ac0SChris Lalancette if (ps->irq_ack) { 29233572ac0SChris Lalancette ps->irq_ack = 0; 29333572ac0SChris Lalancette inject = 1; 29433572ac0SChris Lalancette } 29533572ac0SChris Lalancette spin_unlock(&ps->inject_lock); 29633572ac0SChris Lalancette if (inject) { 297aa2fbe6dSYang Zhang kvm_set_irq(kvm, kvm->arch.vpit->irq_source_id, 0, 1, false); 298aa2fbe6dSYang Zhang kvm_set_irq(kvm, kvm->arch.vpit->irq_source_id, 0, 0, false); 29933572ac0SChris Lalancette 30033572ac0SChris Lalancette /* 30133572ac0SChris Lalancette * Provides NMI watchdog support via Virtual Wire mode. 30233572ac0SChris Lalancette * The route is: PIT -> PIC -> LVT0 in NMI mode. 30333572ac0SChris Lalancette * 30433572ac0SChris Lalancette * Note: Our Virtual Wire implementation is simplified, only 30533572ac0SChris Lalancette * propagating PIT interrupts to all VCPUs when they have set 30633572ac0SChris Lalancette * LVT0 to NMI delivery. Other PIC interrupts are just sent to 30733572ac0SChris Lalancette * VCPU0, and only if its LVT0 is in EXTINT mode. 30833572ac0SChris Lalancette */ 30942720138SRadim Krčmář if (atomic_read(&kvm->arch.vapics_in_nmi_mode) > 0) 31033572ac0SChris Lalancette kvm_for_each_vcpu(i, vcpu, kvm) 31133572ac0SChris Lalancette kvm_apic_nmi_wd_deliver(vcpu); 31233572ac0SChris Lalancette } 31333572ac0SChris Lalancette } 31433572ac0SChris Lalancette 31533572ac0SChris Lalancette static enum hrtimer_restart pit_timer_fn(struct hrtimer *data) 31633572ac0SChris Lalancette { 31726ef1924SAvi Kivity struct kvm_kpit_state *ps = container_of(data, struct kvm_kpit_state, timer); 31826ef1924SAvi Kivity struct kvm_pit *pt = ps->kvm->arch.vpit; 31933572ac0SChris Lalancette 32026ef1924SAvi Kivity if (ps->reinject || !atomic_read(&ps->pending)) { 32126ef1924SAvi Kivity atomic_inc(&ps->pending); 322b6ddf05fSJan Kiszka queue_kthread_work(&pt->worker, &pt->expired); 32333572ac0SChris Lalancette } 32433572ac0SChris Lalancette 32526ef1924SAvi Kivity if (ps->is_periodic) { 32626ef1924SAvi Kivity hrtimer_add_expires_ns(&ps->timer, ps->period); 32733572ac0SChris Lalancette return HRTIMER_RESTART; 32833572ac0SChris Lalancette } else 32933572ac0SChris Lalancette return HRTIMER_NORESTART; 33033572ac0SChris Lalancette } 33133572ac0SChris Lalancette 3320924ab2cSJan Kiszka static void create_pit_timer(struct kvm *kvm, u32 val, int is_period) 3337837699fSSheng Yang { 3340924ab2cSJan Kiszka struct kvm_kpit_state *ps = &kvm->arch.vpit->pit_state; 3357837699fSSheng Yang s64 interval; 3367837699fSSheng Yang 337*49df6397SSteve Rutherford if (!ioapic_in_kernel(kvm) || 338*49df6397SSteve Rutherford ps->flags & KVM_PIT_FLAGS_HPET_LEGACY) 3390924ab2cSJan Kiszka return; 3400924ab2cSJan Kiszka 3417837699fSSheng Yang interval = muldiv64(val, NSEC_PER_SEC, KVM_PIT_FREQ); 3427837699fSSheng Yang 343a78d9626SJoe Perches pr_debug("create pit timer, interval is %llu nsec\n", interval); 3447837699fSSheng Yang 3457837699fSSheng Yang /* TODO The new value only affected after the retriggered */ 34626ef1924SAvi Kivity hrtimer_cancel(&ps->timer); 347b6ddf05fSJan Kiszka flush_kthread_work(&ps->pit->expired); 34826ef1924SAvi Kivity ps->period = interval; 349d3c7b77dSMarcelo Tosatti ps->is_periodic = is_period; 350d3c7b77dSMarcelo Tosatti 35126ef1924SAvi Kivity ps->timer.function = pit_timer_fn; 35226ef1924SAvi Kivity ps->kvm = ps->pit->kvm; 353d3c7b77dSMarcelo Tosatti 35426ef1924SAvi Kivity atomic_set(&ps->pending, 0); 3553cf57fedSMarcelo Tosatti ps->irq_ack = 1; 3567837699fSSheng Yang 3579ed96e87SMarcelo Tosatti /* 3589ed96e87SMarcelo Tosatti * Do not allow the guest to program periodic timers with small 3599ed96e87SMarcelo Tosatti * interval, since the hrtimers are not throttled by the host 3609ed96e87SMarcelo Tosatti * scheduler. 3619ed96e87SMarcelo Tosatti */ 3629ed96e87SMarcelo Tosatti if (ps->is_periodic) { 3639ed96e87SMarcelo Tosatti s64 min_period = min_timer_period_us * 1000LL; 3649ed96e87SMarcelo Tosatti 3659ed96e87SMarcelo Tosatti if (ps->period < min_period) { 3669ed96e87SMarcelo Tosatti pr_info_ratelimited( 3679ed96e87SMarcelo Tosatti "kvm: requested %lld ns " 3689ed96e87SMarcelo Tosatti "i8254 timer period limited to %lld ns\n", 3699ed96e87SMarcelo Tosatti ps->period, min_period); 3709ed96e87SMarcelo Tosatti ps->period = min_period; 3719ed96e87SMarcelo Tosatti } 3729ed96e87SMarcelo Tosatti } 3739ed96e87SMarcelo Tosatti 37426ef1924SAvi Kivity hrtimer_start(&ps->timer, ktime_add_ns(ktime_get(), interval), 3757837699fSSheng Yang HRTIMER_MODE_ABS); 3767837699fSSheng Yang } 3777837699fSSheng Yang 3787837699fSSheng Yang static void pit_load_count(struct kvm *kvm, int channel, u32 val) 3797837699fSSheng Yang { 3807837699fSSheng Yang struct kvm_kpit_state *ps = &kvm->arch.vpit->pit_state; 3817837699fSSheng Yang 3827837699fSSheng Yang WARN_ON(!mutex_is_locked(&ps->lock)); 3837837699fSSheng Yang 384a78d9626SJoe Perches pr_debug("load_count val is %d, channel is %d\n", val, channel); 3857837699fSSheng Yang 3867837699fSSheng Yang /* 387ede2ccc5SMarcelo Tosatti * The largest possible initial count is 0; this is equivalent 388ede2ccc5SMarcelo Tosatti * to 216 for binary counting and 104 for BCD counting. 3897837699fSSheng Yang */ 3907837699fSSheng Yang if (val == 0) 3917837699fSSheng Yang val = 0x10000; 3927837699fSSheng Yang 3937837699fSSheng Yang ps->channels[channel].count = val; 3947837699fSSheng Yang 395fd668423SMarcelo Tosatti if (channel != 0) { 396fd668423SMarcelo Tosatti ps->channels[channel].count_load_time = ktime_get(); 3977837699fSSheng Yang return; 398fd668423SMarcelo Tosatti } 3997837699fSSheng Yang 4007837699fSSheng Yang /* Two types of timer 4017837699fSSheng Yang * mode 1 is one shot, mode 2 is period, otherwise del timer */ 4027837699fSSheng Yang switch (ps->channels[0].mode) { 403ede2ccc5SMarcelo Tosatti case 0: 4047837699fSSheng Yang case 1: 405ece15babSMarcelo Tosatti /* FIXME: enhance mode 4 precision */ 406ece15babSMarcelo Tosatti case 4: 4070924ab2cSJan Kiszka create_pit_timer(kvm, val, 0); 4087837699fSSheng Yang break; 4097837699fSSheng Yang case 2: 410f6975545SAurelien Jarno case 3: 4110924ab2cSJan Kiszka create_pit_timer(kvm, val, 1); 4127837699fSSheng Yang break; 4137837699fSSheng Yang default: 41433572ac0SChris Lalancette destroy_pit_timer(kvm->arch.vpit); 4157837699fSSheng Yang } 4167837699fSSheng Yang } 4177837699fSSheng Yang 418e9f42757SBeth Kon void kvm_pit_load_count(struct kvm *kvm, int channel, u32 val, int hpet_legacy_start) 419e0f63cb9SSheng Yang { 420e9f42757SBeth Kon u8 saved_mode; 421e9f42757SBeth Kon if (hpet_legacy_start) { 422e9f42757SBeth Kon /* save existing mode for later reenablement */ 423e9f42757SBeth Kon saved_mode = kvm->arch.vpit->pit_state.channels[0].mode; 424e9f42757SBeth Kon kvm->arch.vpit->pit_state.channels[0].mode = 0xff; /* disable timer */ 425e0f63cb9SSheng Yang pit_load_count(kvm, channel, val); 426e9f42757SBeth Kon kvm->arch.vpit->pit_state.channels[0].mode = saved_mode; 427e9f42757SBeth Kon } else { 428e9f42757SBeth Kon pit_load_count(kvm, channel, val); 429e9f42757SBeth Kon } 430e0f63cb9SSheng Yang } 431e0f63cb9SSheng Yang 432d76685c4SGregory Haskins static inline struct kvm_pit *dev_to_pit(struct kvm_io_device *dev) 433d76685c4SGregory Haskins { 434d76685c4SGregory Haskins return container_of(dev, struct kvm_pit, dev); 435d76685c4SGregory Haskins } 436d76685c4SGregory Haskins 437d76685c4SGregory Haskins static inline struct kvm_pit *speaker_to_pit(struct kvm_io_device *dev) 438d76685c4SGregory Haskins { 439d76685c4SGregory Haskins return container_of(dev, struct kvm_pit, speaker_dev); 440d76685c4SGregory Haskins } 441d76685c4SGregory Haskins 442bda9020eSMichael S. Tsirkin static inline int pit_in_range(gpa_t addr) 443bda9020eSMichael S. Tsirkin { 444bda9020eSMichael S. Tsirkin return ((addr >= KVM_PIT_BASE_ADDRESS) && 445bda9020eSMichael S. Tsirkin (addr < KVM_PIT_BASE_ADDRESS + KVM_PIT_MEM_LENGTH)); 446bda9020eSMichael S. Tsirkin } 447bda9020eSMichael S. Tsirkin 448e32edf4fSNikolay Nikolaev static int pit_ioport_write(struct kvm_vcpu *vcpu, 449e32edf4fSNikolay Nikolaev struct kvm_io_device *this, 4507837699fSSheng Yang gpa_t addr, int len, const void *data) 4517837699fSSheng Yang { 452d76685c4SGregory Haskins struct kvm_pit *pit = dev_to_pit(this); 4537837699fSSheng Yang struct kvm_kpit_state *pit_state = &pit->pit_state; 4547837699fSSheng Yang struct kvm *kvm = pit->kvm; 4557837699fSSheng Yang int channel, access; 4567837699fSSheng Yang struct kvm_kpit_channel_state *s; 4577837699fSSheng Yang u32 val = *(u32 *) data; 458bda9020eSMichael S. Tsirkin if (!pit_in_range(addr)) 459bda9020eSMichael S. Tsirkin return -EOPNOTSUPP; 4607837699fSSheng Yang 4617837699fSSheng Yang val &= 0xff; 4627837699fSSheng Yang addr &= KVM_PIT_CHANNEL_MASK; 4637837699fSSheng Yang 4647837699fSSheng Yang mutex_lock(&pit_state->lock); 4657837699fSSheng Yang 4667837699fSSheng Yang if (val != 0) 467a78d9626SJoe Perches pr_debug("write addr is 0x%x, len is %d, val is 0x%x\n", 4687837699fSSheng Yang (unsigned int)addr, len, val); 4697837699fSSheng Yang 4707837699fSSheng Yang if (addr == 3) { 4717837699fSSheng Yang channel = val >> 6; 4727837699fSSheng Yang if (channel == 3) { 4737837699fSSheng Yang /* Read-Back Command. */ 4747837699fSSheng Yang for (channel = 0; channel < 3; channel++) { 4757837699fSSheng Yang s = &pit_state->channels[channel]; 4767837699fSSheng Yang if (val & (2 << channel)) { 4777837699fSSheng Yang if (!(val & 0x20)) 4787837699fSSheng Yang pit_latch_count(kvm, channel); 4797837699fSSheng Yang if (!(val & 0x10)) 4807837699fSSheng Yang pit_latch_status(kvm, channel); 4817837699fSSheng Yang } 4827837699fSSheng Yang } 4837837699fSSheng Yang } else { 4847837699fSSheng Yang /* Select Counter <channel>. */ 4857837699fSSheng Yang s = &pit_state->channels[channel]; 4867837699fSSheng Yang access = (val >> 4) & KVM_PIT_CHANNEL_MASK; 4877837699fSSheng Yang if (access == 0) { 4887837699fSSheng Yang pit_latch_count(kvm, channel); 4897837699fSSheng Yang } else { 4907837699fSSheng Yang s->rw_mode = access; 4917837699fSSheng Yang s->read_state = access; 4927837699fSSheng Yang s->write_state = access; 4937837699fSSheng Yang s->mode = (val >> 1) & 7; 4947837699fSSheng Yang if (s->mode > 5) 4957837699fSSheng Yang s->mode -= 4; 4967837699fSSheng Yang s->bcd = val & 1; 4977837699fSSheng Yang } 4987837699fSSheng Yang } 4997837699fSSheng Yang } else { 5007837699fSSheng Yang /* Write Count. */ 5017837699fSSheng Yang s = &pit_state->channels[addr]; 5027837699fSSheng Yang switch (s->write_state) { 5037837699fSSheng Yang default: 5047837699fSSheng Yang case RW_STATE_LSB: 5057837699fSSheng Yang pit_load_count(kvm, addr, val); 5067837699fSSheng Yang break; 5077837699fSSheng Yang case RW_STATE_MSB: 5087837699fSSheng Yang pit_load_count(kvm, addr, val << 8); 5097837699fSSheng Yang break; 5107837699fSSheng Yang case RW_STATE_WORD0: 5117837699fSSheng Yang s->write_latch = val; 5127837699fSSheng Yang s->write_state = RW_STATE_WORD1; 5137837699fSSheng Yang break; 5147837699fSSheng Yang case RW_STATE_WORD1: 5157837699fSSheng Yang pit_load_count(kvm, addr, s->write_latch | (val << 8)); 5167837699fSSheng Yang s->write_state = RW_STATE_WORD0; 5177837699fSSheng Yang break; 5187837699fSSheng Yang } 5197837699fSSheng Yang } 5207837699fSSheng Yang 5217837699fSSheng Yang mutex_unlock(&pit_state->lock); 522bda9020eSMichael S. Tsirkin return 0; 5237837699fSSheng Yang } 5247837699fSSheng Yang 525e32edf4fSNikolay Nikolaev static int pit_ioport_read(struct kvm_vcpu *vcpu, 526e32edf4fSNikolay Nikolaev struct kvm_io_device *this, 5277837699fSSheng Yang gpa_t addr, int len, void *data) 5287837699fSSheng Yang { 529d76685c4SGregory Haskins struct kvm_pit *pit = dev_to_pit(this); 5307837699fSSheng Yang struct kvm_kpit_state *pit_state = &pit->pit_state; 5317837699fSSheng Yang struct kvm *kvm = pit->kvm; 5327837699fSSheng Yang int ret, count; 5337837699fSSheng Yang struct kvm_kpit_channel_state *s; 534bda9020eSMichael S. Tsirkin if (!pit_in_range(addr)) 535bda9020eSMichael S. Tsirkin return -EOPNOTSUPP; 5367837699fSSheng Yang 5377837699fSSheng Yang addr &= KVM_PIT_CHANNEL_MASK; 538ee73f656SMarcelo Tosatti if (addr == 3) 539ee73f656SMarcelo Tosatti return 0; 540ee73f656SMarcelo Tosatti 5417837699fSSheng Yang s = &pit_state->channels[addr]; 5427837699fSSheng Yang 5437837699fSSheng Yang mutex_lock(&pit_state->lock); 5447837699fSSheng Yang 5457837699fSSheng Yang if (s->status_latched) { 5467837699fSSheng Yang s->status_latched = 0; 5477837699fSSheng Yang ret = s->status; 5487837699fSSheng Yang } else if (s->count_latched) { 5497837699fSSheng Yang switch (s->count_latched) { 5507837699fSSheng Yang default: 5517837699fSSheng Yang case RW_STATE_LSB: 5527837699fSSheng Yang ret = s->latched_count & 0xff; 5537837699fSSheng Yang s->count_latched = 0; 5547837699fSSheng Yang break; 5557837699fSSheng Yang case RW_STATE_MSB: 5567837699fSSheng Yang ret = s->latched_count >> 8; 5577837699fSSheng Yang s->count_latched = 0; 5587837699fSSheng Yang break; 5597837699fSSheng Yang case RW_STATE_WORD0: 5607837699fSSheng Yang ret = s->latched_count & 0xff; 5617837699fSSheng Yang s->count_latched = RW_STATE_MSB; 5627837699fSSheng Yang break; 5637837699fSSheng Yang } 5647837699fSSheng Yang } else { 5657837699fSSheng Yang switch (s->read_state) { 5667837699fSSheng Yang default: 5677837699fSSheng Yang case RW_STATE_LSB: 5687837699fSSheng Yang count = pit_get_count(kvm, addr); 5697837699fSSheng Yang ret = count & 0xff; 5707837699fSSheng Yang break; 5717837699fSSheng Yang case RW_STATE_MSB: 5727837699fSSheng Yang count = pit_get_count(kvm, addr); 5737837699fSSheng Yang ret = (count >> 8) & 0xff; 5747837699fSSheng Yang break; 5757837699fSSheng Yang case RW_STATE_WORD0: 5767837699fSSheng Yang count = pit_get_count(kvm, addr); 5777837699fSSheng Yang ret = count & 0xff; 5787837699fSSheng Yang s->read_state = RW_STATE_WORD1; 5797837699fSSheng Yang break; 5807837699fSSheng Yang case RW_STATE_WORD1: 5817837699fSSheng Yang count = pit_get_count(kvm, addr); 5827837699fSSheng Yang ret = (count >> 8) & 0xff; 5837837699fSSheng Yang s->read_state = RW_STATE_WORD0; 5847837699fSSheng Yang break; 5857837699fSSheng Yang } 5867837699fSSheng Yang } 5877837699fSSheng Yang 5887837699fSSheng Yang if (len > sizeof(ret)) 5897837699fSSheng Yang len = sizeof(ret); 5907837699fSSheng Yang memcpy(data, (char *)&ret, len); 5917837699fSSheng Yang 5927837699fSSheng Yang mutex_unlock(&pit_state->lock); 593bda9020eSMichael S. Tsirkin return 0; 5947837699fSSheng Yang } 5957837699fSSheng Yang 596e32edf4fSNikolay Nikolaev static int speaker_ioport_write(struct kvm_vcpu *vcpu, 597e32edf4fSNikolay Nikolaev struct kvm_io_device *this, 5987837699fSSheng Yang gpa_t addr, int len, const void *data) 5997837699fSSheng Yang { 600d76685c4SGregory Haskins struct kvm_pit *pit = speaker_to_pit(this); 6017837699fSSheng Yang struct kvm_kpit_state *pit_state = &pit->pit_state; 6027837699fSSheng Yang struct kvm *kvm = pit->kvm; 6037837699fSSheng Yang u32 val = *(u32 *) data; 604bda9020eSMichael S. Tsirkin if (addr != KVM_SPEAKER_BASE_ADDRESS) 605bda9020eSMichael S. Tsirkin return -EOPNOTSUPP; 6067837699fSSheng Yang 6077837699fSSheng Yang mutex_lock(&pit_state->lock); 6087837699fSSheng Yang pit_state->speaker_data_on = (val >> 1) & 1; 6097837699fSSheng Yang pit_set_gate(kvm, 2, val & 1); 6107837699fSSheng Yang mutex_unlock(&pit_state->lock); 611bda9020eSMichael S. Tsirkin return 0; 6127837699fSSheng Yang } 6137837699fSSheng Yang 614e32edf4fSNikolay Nikolaev static int speaker_ioport_read(struct kvm_vcpu *vcpu, 615e32edf4fSNikolay Nikolaev struct kvm_io_device *this, 6167837699fSSheng Yang gpa_t addr, int len, void *data) 6177837699fSSheng Yang { 618d76685c4SGregory Haskins struct kvm_pit *pit = speaker_to_pit(this); 6197837699fSSheng Yang struct kvm_kpit_state *pit_state = &pit->pit_state; 6207837699fSSheng Yang struct kvm *kvm = pit->kvm; 6217837699fSSheng Yang unsigned int refresh_clock; 6227837699fSSheng Yang int ret; 623bda9020eSMichael S. Tsirkin if (addr != KVM_SPEAKER_BASE_ADDRESS) 624bda9020eSMichael S. Tsirkin return -EOPNOTSUPP; 6257837699fSSheng Yang 6267837699fSSheng Yang /* Refresh clock toggles at about 15us. We approximate as 2^14ns. */ 6277837699fSSheng Yang refresh_clock = ((unsigned int)ktime_to_ns(ktime_get()) >> 14) & 1; 6287837699fSSheng Yang 6297837699fSSheng Yang mutex_lock(&pit_state->lock); 6307837699fSSheng Yang ret = ((pit_state->speaker_data_on << 1) | pit_get_gate(kvm, 2) | 6317837699fSSheng Yang (pit_get_out(kvm, 2) << 5) | (refresh_clock << 4)); 6327837699fSSheng Yang if (len > sizeof(ret)) 6337837699fSSheng Yang len = sizeof(ret); 6347837699fSSheng Yang memcpy(data, (char *)&ret, len); 6357837699fSSheng Yang mutex_unlock(&pit_state->lock); 636bda9020eSMichael S. Tsirkin return 0; 6377837699fSSheng Yang } 6387837699fSSheng Yang 639308b0f23SSheng Yang void kvm_pit_reset(struct kvm_pit *pit) 6407837699fSSheng Yang { 6417837699fSSheng Yang int i; 642308b0f23SSheng Yang struct kvm_kpit_channel_state *c; 643308b0f23SSheng Yang 644308b0f23SSheng Yang mutex_lock(&pit->pit_state.lock); 645e9f42757SBeth Kon pit->pit_state.flags = 0; 646308b0f23SSheng Yang for (i = 0; i < 3; i++) { 647308b0f23SSheng Yang c = &pit->pit_state.channels[i]; 648308b0f23SSheng Yang c->mode = 0xff; 649308b0f23SSheng Yang c->gate = (i != 2); 650308b0f23SSheng Yang pit_load_count(pit->kvm, i, 0); 651308b0f23SSheng Yang } 652308b0f23SSheng Yang mutex_unlock(&pit->pit_state.lock); 653308b0f23SSheng Yang 65426ef1924SAvi Kivity atomic_set(&pit->pit_state.pending, 0); 6553cf57fedSMarcelo Tosatti pit->pit_state.irq_ack = 1; 656308b0f23SSheng Yang } 657308b0f23SSheng Yang 6584780c659SAvi Kivity static void pit_mask_notifer(struct kvm_irq_mask_notifier *kimn, bool mask) 6594780c659SAvi Kivity { 6604780c659SAvi Kivity struct kvm_pit *pit = container_of(kimn, struct kvm_pit, mask_notifier); 6614780c659SAvi Kivity 6624780c659SAvi Kivity if (!mask) { 66326ef1924SAvi Kivity atomic_set(&pit->pit_state.pending, 0); 6644780c659SAvi Kivity pit->pit_state.irq_ack = 1; 6654780c659SAvi Kivity } 6664780c659SAvi Kivity } 6674780c659SAvi Kivity 668d76685c4SGregory Haskins static const struct kvm_io_device_ops pit_dev_ops = { 669d76685c4SGregory Haskins .read = pit_ioport_read, 670d76685c4SGregory Haskins .write = pit_ioport_write, 671d76685c4SGregory Haskins }; 672d76685c4SGregory Haskins 673d76685c4SGregory Haskins static const struct kvm_io_device_ops speaker_dev_ops = { 674d76685c4SGregory Haskins .read = speaker_ioport_read, 675d76685c4SGregory Haskins .write = speaker_ioport_write, 676d76685c4SGregory Haskins }; 677d76685c4SGregory Haskins 67879fac95eSMarcelo Tosatti /* Caller must hold slots_lock */ 679c5ff41ceSJan Kiszka struct kvm_pit *kvm_create_pit(struct kvm *kvm, u32 flags) 680308b0f23SSheng Yang { 6817837699fSSheng Yang struct kvm_pit *pit; 6827837699fSSheng Yang struct kvm_kpit_state *pit_state; 683b6ddf05fSJan Kiszka struct pid *pid; 684b6ddf05fSJan Kiszka pid_t pid_nr; 685090b7affSGregory Haskins int ret; 6867837699fSSheng Yang 6877837699fSSheng Yang pit = kzalloc(sizeof(struct kvm_pit), GFP_KERNEL); 6887837699fSSheng Yang if (!pit) 6897837699fSSheng Yang return NULL; 6907837699fSSheng Yang 6915550af4dSSheng Yang pit->irq_source_id = kvm_request_irq_source_id(kvm); 692e17d1dc0SAvi Kivity if (pit->irq_source_id < 0) { 693e17d1dc0SAvi Kivity kfree(pit); 6945550af4dSSheng Yang return NULL; 695e17d1dc0SAvi Kivity } 6965550af4dSSheng Yang 6977837699fSSheng Yang mutex_init(&pit->pit_state.lock); 6987837699fSSheng Yang mutex_lock(&pit->pit_state.lock); 69933572ac0SChris Lalancette spin_lock_init(&pit->pit_state.inject_lock); 70033572ac0SChris Lalancette 701b6ddf05fSJan Kiszka pid = get_pid(task_tgid(current)); 702b6ddf05fSJan Kiszka pid_nr = pid_vnr(pid); 703b6ddf05fSJan Kiszka put_pid(pid); 704b6ddf05fSJan Kiszka 705b6ddf05fSJan Kiszka init_kthread_worker(&pit->worker); 706b6ddf05fSJan Kiszka pit->worker_task = kthread_run(kthread_worker_fn, &pit->worker, 707b6ddf05fSJan Kiszka "kvm-pit/%d", pid_nr); 708b6ddf05fSJan Kiszka if (IS_ERR(pit->worker_task)) { 709673813e8SJiri Slaby mutex_unlock(&pit->pit_state.lock); 7106b5d7a9fSXiao Guangrong kvm_free_irq_source_id(kvm, pit->irq_source_id); 71133572ac0SChris Lalancette kfree(pit); 71233572ac0SChris Lalancette return NULL; 71333572ac0SChris Lalancette } 714b6ddf05fSJan Kiszka init_kthread_work(&pit->expired, pit_do_work); 7157837699fSSheng Yang 7167837699fSSheng Yang kvm->arch.vpit = pit; 7177837699fSSheng Yang pit->kvm = kvm; 7187837699fSSheng Yang 7197837699fSSheng Yang pit_state = &pit->pit_state; 7207837699fSSheng Yang pit_state->pit = pit; 72126ef1924SAvi Kivity hrtimer_init(&pit_state->timer, CLOCK_MONOTONIC, HRTIMER_MODE_ABS); 7223cf57fedSMarcelo Tosatti pit_state->irq_ack_notifier.gsi = 0; 7233cf57fedSMarcelo Tosatti pit_state->irq_ack_notifier.irq_acked = kvm_pit_ack_irq; 7243cf57fedSMarcelo Tosatti kvm_register_irq_ack_notifier(kvm, &pit_state->irq_ack_notifier); 72526ef1924SAvi Kivity pit_state->reinject = true; 7267837699fSSheng Yang mutex_unlock(&pit->pit_state.lock); 7277837699fSSheng Yang 728308b0f23SSheng Yang kvm_pit_reset(pit); 7297837699fSSheng Yang 7304780c659SAvi Kivity pit->mask_notifier.func = pit_mask_notifer; 7314780c659SAvi Kivity kvm_register_irq_mask_notifier(kvm, 0, &pit->mask_notifier); 7324780c659SAvi Kivity 7336b66ac1aSGregory Haskins kvm_iodevice_init(&pit->dev, &pit_dev_ops); 734743eeb0bSSasha Levin ret = kvm_io_bus_register_dev(kvm, KVM_PIO_BUS, KVM_PIT_BASE_ADDRESS, 735743eeb0bSSasha Levin KVM_PIT_MEM_LENGTH, &pit->dev); 736090b7affSGregory Haskins if (ret < 0) 737090b7affSGregory Haskins goto fail; 7386b66ac1aSGregory Haskins 7396b66ac1aSGregory Haskins if (flags & KVM_PIT_SPEAKER_DUMMY) { 7406b66ac1aSGregory Haskins kvm_iodevice_init(&pit->speaker_dev, &speaker_dev_ops); 741e93f8a0fSMarcelo Tosatti ret = kvm_io_bus_register_dev(kvm, KVM_PIO_BUS, 742743eeb0bSSasha Levin KVM_SPEAKER_BASE_ADDRESS, 4, 743090b7affSGregory Haskins &pit->speaker_dev); 744090b7affSGregory Haskins if (ret < 0) 745090b7affSGregory Haskins goto fail_unregister; 7466b66ac1aSGregory Haskins } 7476b66ac1aSGregory Haskins 7487837699fSSheng Yang return pit; 749090b7affSGregory Haskins 750090b7affSGregory Haskins fail_unregister: 751e93f8a0fSMarcelo Tosatti kvm_io_bus_unregister_dev(kvm, KVM_PIO_BUS, &pit->dev); 752090b7affSGregory Haskins 753090b7affSGregory Haskins fail: 754d225f53bSWei Yongjun kvm_unregister_irq_mask_notifier(kvm, 0, &pit->mask_notifier); 755d225f53bSWei Yongjun kvm_unregister_irq_ack_notifier(kvm, &pit_state->irq_ack_notifier); 756090b7affSGregory Haskins kvm_free_irq_source_id(kvm, pit->irq_source_id); 757b6ddf05fSJan Kiszka kthread_stop(pit->worker_task); 758090b7affSGregory Haskins kfree(pit); 759090b7affSGregory Haskins return NULL; 7607837699fSSheng Yang } 7617837699fSSheng Yang 7627837699fSSheng Yang void kvm_free_pit(struct kvm *kvm) 7637837699fSSheng Yang { 7647837699fSSheng Yang struct hrtimer *timer; 7657837699fSSheng Yang 7667837699fSSheng Yang if (kvm->arch.vpit) { 767aea924f6SXiao Guangrong kvm_io_bus_unregister_dev(kvm, KVM_PIO_BUS, &kvm->arch.vpit->dev); 768aea924f6SXiao Guangrong kvm_io_bus_unregister_dev(kvm, KVM_PIO_BUS, 769aea924f6SXiao Guangrong &kvm->arch.vpit->speaker_dev); 7704780c659SAvi Kivity kvm_unregister_irq_mask_notifier(kvm, 0, 7714780c659SAvi Kivity &kvm->arch.vpit->mask_notifier); 77284fde248SGleb Natapov kvm_unregister_irq_ack_notifier(kvm, 77384fde248SGleb Natapov &kvm->arch.vpit->pit_state.irq_ack_notifier); 7747837699fSSheng Yang mutex_lock(&kvm->arch.vpit->pit_state.lock); 77526ef1924SAvi Kivity timer = &kvm->arch.vpit->pit_state.timer; 7767837699fSSheng Yang hrtimer_cancel(timer); 777b6ddf05fSJan Kiszka flush_kthread_work(&kvm->arch.vpit->expired); 778b6ddf05fSJan Kiszka kthread_stop(kvm->arch.vpit->worker_task); 7795550af4dSSheng Yang kvm_free_irq_source_id(kvm, kvm->arch.vpit->irq_source_id); 7807837699fSSheng Yang mutex_unlock(&kvm->arch.vpit->pit_state.lock); 7817837699fSSheng Yang kfree(kvm->arch.vpit); 7827837699fSSheng Yang } 7837837699fSSheng Yang } 784