powerpc/eeh: Don't report error in eeh_pe_reset_and_recover()
[firefly-linux-kernel-4.4.55.git] / arch / powerpc / kernel / eeh_driver.c
1 /*
2  * PCI Error Recovery Driver for RPA-compliant PPC64 platform.
3  * Copyright IBM Corp. 2004 2005
4  * Copyright Linas Vepstas <linas@linas.org> 2004, 2005
5  *
6  * All rights reserved.
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License as published by
10  * the Free Software Foundation; either version 2 of the License, or (at
11  * your option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful, but
14  * WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE, GOOD TITLE or
16  * NON INFRINGEMENT.  See the GNU General Public License for more
17  * details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
22  *
23  * Send comments and feedback to Linas Vepstas <linas@austin.ibm.com>
24  */
25 #include <linux/delay.h>
26 #include <linux/interrupt.h>
27 #include <linux/irq.h>
28 #include <linux/module.h>
29 #include <linux/pci.h>
30 #include <asm/eeh.h>
31 #include <asm/eeh_event.h>
32 #include <asm/ppc-pci.h>
33 #include <asm/pci-bridge.h>
34 #include <asm/prom.h>
35 #include <asm/rtas.h>
36
37 /**
38  * eeh_pcid_name - Retrieve name of PCI device driver
39  * @pdev: PCI device
40  *
41  * This routine is used to retrieve the name of PCI device driver
42  * if that's valid.
43  */
44 static inline const char *eeh_pcid_name(struct pci_dev *pdev)
45 {
46         if (pdev && pdev->dev.driver)
47                 return pdev->dev.driver->name;
48         return "";
49 }
50
51 /**
52  * eeh_pcid_get - Get the PCI device driver
53  * @pdev: PCI device
54  *
55  * The function is used to retrieve the PCI device driver for
56  * the indicated PCI device. Besides, we will increase the reference
57  * of the PCI device driver to prevent that being unloaded on
58  * the fly. Otherwise, kernel crash would be seen.
59  */
60 static inline struct pci_driver *eeh_pcid_get(struct pci_dev *pdev)
61 {
62         if (!pdev || !pdev->driver)
63                 return NULL;
64
65         if (!try_module_get(pdev->driver->driver.owner))
66                 return NULL;
67
68         return pdev->driver;
69 }
70
71 /**
72  * eeh_pcid_put - Dereference on the PCI device driver
73  * @pdev: PCI device
74  *
75  * The function is called to do dereference on the PCI device
76  * driver of the indicated PCI device.
77  */
78 static inline void eeh_pcid_put(struct pci_dev *pdev)
79 {
80         if (!pdev || !pdev->driver)
81                 return;
82
83         module_put(pdev->driver->driver.owner);
84 }
85
86 /**
87  * eeh_disable_irq - Disable interrupt for the recovering device
88  * @dev: PCI device
89  *
90  * This routine must be called when reporting temporary or permanent
91  * error to the particular PCI device to disable interrupt of that
92  * device. If the device has enabled MSI or MSI-X interrupt, we needn't
93  * do real work because EEH should freeze DMA transfers for those PCI
94  * devices encountering EEH errors, which includes MSI or MSI-X.
95  */
96 static void eeh_disable_irq(struct pci_dev *dev)
97 {
98         struct eeh_dev *edev = pci_dev_to_eeh_dev(dev);
99
100         /* Don't disable MSI and MSI-X interrupts. They are
101          * effectively disabled by the DMA Stopped state
102          * when an EEH error occurs.
103          */
104         if (dev->msi_enabled || dev->msix_enabled)
105                 return;
106
107         if (!irq_has_action(dev->irq))
108                 return;
109
110         edev->mode |= EEH_DEV_IRQ_DISABLED;
111         disable_irq_nosync(dev->irq);
112 }
113
114 /**
115  * eeh_enable_irq - Enable interrupt for the recovering device
116  * @dev: PCI device
117  *
118  * This routine must be called to enable interrupt while failed
119  * device could be resumed.
120  */
121 static void eeh_enable_irq(struct pci_dev *dev)
122 {
123         struct eeh_dev *edev = pci_dev_to_eeh_dev(dev);
124
125         if ((edev->mode) & EEH_DEV_IRQ_DISABLED) {
126                 edev->mode &= ~EEH_DEV_IRQ_DISABLED;
127                 /*
128                  * FIXME !!!!!
129                  *
130                  * This is just ass backwards. This maze has
131                  * unbalanced irq_enable/disable calls. So instead of
132                  * finding the root cause it works around the warning
133                  * in the irq_enable code by conditionally calling
134                  * into it.
135                  *
136                  * That's just wrong.The warning in the core code is
137                  * there to tell people to fix their assymetries in
138                  * their own code, not by abusing the core information
139                  * to avoid it.
140                  *
141                  * I so wish that the assymetry would be the other way
142                  * round and a few more irq_disable calls render that
143                  * shit unusable forever.
144                  *
145                  *      tglx
146                  */
147                 if (irqd_irq_disabled(irq_get_irq_data(dev->irq)))
148                         enable_irq(dev->irq);
149         }
150 }
151
152 static bool eeh_dev_removed(struct eeh_dev *edev)
153 {
154         /* EEH device removed ? */
155         if (!edev || (edev->mode & EEH_DEV_REMOVED))
156                 return true;
157
158         return false;
159 }
160
161 static void *eeh_dev_save_state(void *data, void *userdata)
162 {
163         struct eeh_dev *edev = data;
164         struct pci_dev *pdev;
165
166         if (!edev)
167                 return NULL;
168
169         pdev = eeh_dev_to_pci_dev(edev);
170         if (!pdev)
171                 return NULL;
172
173         pci_save_state(pdev);
174         return NULL;
175 }
176
177 /**
178  * eeh_report_error - Report pci error to each device driver
179  * @data: eeh device
180  * @userdata: return value
181  *
182  * Report an EEH error to each device driver, collect up and
183  * merge the device driver responses. Cumulative response
184  * passed back in "userdata".
185  */
186 static void *eeh_report_error(void *data, void *userdata)
187 {
188         struct eeh_dev *edev = (struct eeh_dev *)data;
189         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
190         enum pci_ers_result rc, *res = userdata;
191         struct pci_driver *driver;
192
193         if (!dev || eeh_dev_removed(edev))
194                 return NULL;
195         dev->error_state = pci_channel_io_frozen;
196
197         driver = eeh_pcid_get(dev);
198         if (!driver) return NULL;
199
200         eeh_disable_irq(dev);
201
202         if (!driver->err_handler ||
203             !driver->err_handler->error_detected) {
204                 eeh_pcid_put(dev);
205                 return NULL;
206         }
207
208         rc = driver->err_handler->error_detected(dev, pci_channel_io_frozen);
209
210         /* A driver that needs a reset trumps all others */
211         if (rc == PCI_ERS_RESULT_NEED_RESET) *res = rc;
212         if (*res == PCI_ERS_RESULT_NONE) *res = rc;
213
214         eeh_pcid_put(dev);
215         return NULL;
216 }
217
218 /**
219  * eeh_report_mmio_enabled - Tell drivers that MMIO has been enabled
220  * @data: eeh device
221  * @userdata: return value
222  *
223  * Tells each device driver that IO ports, MMIO and config space I/O
224  * are now enabled. Collects up and merges the device driver responses.
225  * Cumulative response passed back in "userdata".
226  */
227 static void *eeh_report_mmio_enabled(void *data, void *userdata)
228 {
229         struct eeh_dev *edev = (struct eeh_dev *)data;
230         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
231         enum pci_ers_result rc, *res = userdata;
232         struct pci_driver *driver;
233
234         if (!dev || eeh_dev_removed(edev))
235                 return NULL;
236
237         driver = eeh_pcid_get(dev);
238         if (!driver) return NULL;
239
240         if (!driver->err_handler ||
241             !driver->err_handler->mmio_enabled ||
242             (edev->mode & EEH_DEV_NO_HANDLER)) {
243                 eeh_pcid_put(dev);
244                 return NULL;
245         }
246
247         rc = driver->err_handler->mmio_enabled(dev);
248
249         /* A driver that needs a reset trumps all others */
250         if (rc == PCI_ERS_RESULT_NEED_RESET) *res = rc;
251         if (*res == PCI_ERS_RESULT_NONE) *res = rc;
252
253         eeh_pcid_put(dev);
254         return NULL;
255 }
256
257 /**
258  * eeh_report_reset - Tell device that slot has been reset
259  * @data: eeh device
260  * @userdata: return value
261  *
262  * This routine must be called while EEH tries to reset particular
263  * PCI device so that the associated PCI device driver could take
264  * some actions, usually to save data the driver needs so that the
265  * driver can work again while the device is recovered.
266  */
267 static void *eeh_report_reset(void *data, void *userdata)
268 {
269         struct eeh_dev *edev = (struct eeh_dev *)data;
270         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
271         enum pci_ers_result rc, *res = userdata;
272         struct pci_driver *driver;
273
274         if (!dev || eeh_dev_removed(edev))
275                 return NULL;
276         dev->error_state = pci_channel_io_normal;
277
278         driver = eeh_pcid_get(dev);
279         if (!driver) return NULL;
280
281         eeh_enable_irq(dev);
282
283         if (!driver->err_handler ||
284             !driver->err_handler->slot_reset ||
285             (edev->mode & EEH_DEV_NO_HANDLER)) {
286                 eeh_pcid_put(dev);
287                 return NULL;
288         }
289
290         rc = driver->err_handler->slot_reset(dev);
291         if ((*res == PCI_ERS_RESULT_NONE) ||
292             (*res == PCI_ERS_RESULT_RECOVERED)) *res = rc;
293         if (*res == PCI_ERS_RESULT_DISCONNECT &&
294              rc == PCI_ERS_RESULT_NEED_RESET) *res = rc;
295
296         eeh_pcid_put(dev);
297         return NULL;
298 }
299
300 static void *eeh_dev_restore_state(void *data, void *userdata)
301 {
302         struct eeh_dev *edev = data;
303         struct pci_dev *pdev;
304
305         if (!edev)
306                 return NULL;
307
308         pdev = eeh_dev_to_pci_dev(edev);
309         if (!pdev)
310                 return NULL;
311
312         pci_restore_state(pdev);
313         return NULL;
314 }
315
316 /**
317  * eeh_report_resume - Tell device to resume normal operations
318  * @data: eeh device
319  * @userdata: return value
320  *
321  * This routine must be called to notify the device driver that it
322  * could resume so that the device driver can do some initialization
323  * to make the recovered device work again.
324  */
325 static void *eeh_report_resume(void *data, void *userdata)
326 {
327         struct eeh_dev *edev = (struct eeh_dev *)data;
328         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
329         struct pci_driver *driver;
330
331         if (!dev || eeh_dev_removed(edev))
332                 return NULL;
333         dev->error_state = pci_channel_io_normal;
334
335         driver = eeh_pcid_get(dev);
336         if (!driver) return NULL;
337
338         eeh_enable_irq(dev);
339
340         if (!driver->err_handler ||
341             !driver->err_handler->resume ||
342             (edev->mode & EEH_DEV_NO_HANDLER)) {
343                 edev->mode &= ~EEH_DEV_NO_HANDLER;
344                 eeh_pcid_put(dev);
345                 return NULL;
346         }
347
348         driver->err_handler->resume(dev);
349
350         eeh_pcid_put(dev);
351         return NULL;
352 }
353
354 /**
355  * eeh_report_failure - Tell device driver that device is dead.
356  * @data: eeh device
357  * @userdata: return value
358  *
359  * This informs the device driver that the device is permanently
360  * dead, and that no further recovery attempts will be made on it.
361  */
362 static void *eeh_report_failure(void *data, void *userdata)
363 {
364         struct eeh_dev *edev = (struct eeh_dev *)data;
365         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
366         struct pci_driver *driver;
367
368         if (!dev || eeh_dev_removed(edev))
369                 return NULL;
370         dev->error_state = pci_channel_io_perm_failure;
371
372         driver = eeh_pcid_get(dev);
373         if (!driver) return NULL;
374
375         eeh_disable_irq(dev);
376
377         if (!driver->err_handler ||
378             !driver->err_handler->error_detected) {
379                 eeh_pcid_put(dev);
380                 return NULL;
381         }
382
383         driver->err_handler->error_detected(dev, pci_channel_io_perm_failure);
384
385         eeh_pcid_put(dev);
386         return NULL;
387 }
388
389 static void *eeh_rmv_device(void *data, void *userdata)
390 {
391         struct pci_driver *driver;
392         struct eeh_dev *edev = (struct eeh_dev *)data;
393         struct pci_dev *dev = eeh_dev_to_pci_dev(edev);
394         int *removed = (int *)userdata;
395
396         /*
397          * Actually, we should remove the PCI bridges as well.
398          * However, that's lots of complexity to do that,
399          * particularly some of devices under the bridge might
400          * support EEH. So we just care about PCI devices for
401          * simplicity here.
402          */
403         if (!dev || (dev->hdr_type & PCI_HEADER_TYPE_BRIDGE))
404                 return NULL;
405
406         /*
407          * We rely on count-based pcibios_release_device() to
408          * detach permanently offlined PEs. Unfortunately, that's
409          * not reliable enough. We might have the permanently
410          * offlined PEs attached, but we needn't take care of
411          * them and their child devices.
412          */
413         if (eeh_dev_removed(edev))
414                 return NULL;
415
416         driver = eeh_pcid_get(dev);
417         if (driver) {
418                 eeh_pcid_put(dev);
419                 if (driver->err_handler &&
420                     driver->err_handler->error_detected &&
421                     driver->err_handler->slot_reset)
422                         return NULL;
423         }
424
425         /* Remove it from PCI subsystem */
426         pr_debug("EEH: Removing %s without EEH sensitive driver\n",
427                  pci_name(dev));
428         edev->bus = dev->bus;
429         edev->mode |= EEH_DEV_DISCONNECTED;
430         (*removed)++;
431
432         pci_lock_rescan_remove();
433         pci_stop_and_remove_bus_device(dev);
434         pci_unlock_rescan_remove();
435
436         return NULL;
437 }
438
439 static void *eeh_pe_detach_dev(void *data, void *userdata)
440 {
441         struct eeh_pe *pe = (struct eeh_pe *)data;
442         struct eeh_dev *edev, *tmp;
443
444         eeh_pe_for_each_dev(pe, edev, tmp) {
445                 if (!(edev->mode & EEH_DEV_DISCONNECTED))
446                         continue;
447
448                 edev->mode &= ~(EEH_DEV_DISCONNECTED | EEH_DEV_IRQ_DISABLED);
449                 eeh_rmv_from_parent_pe(edev);
450         }
451
452         return NULL;
453 }
454
455 /*
456  * Explicitly clear PE's frozen state for PowerNV where
457  * we have frozen PE until BAR restore is completed. It's
458  * harmless to clear it for pSeries. To be consistent with
459  * PE reset (for 3 times), we try to clear the frozen state
460  * for 3 times as well.
461  */
462 static void *__eeh_clear_pe_frozen_state(void *data, void *flag)
463 {
464         struct eeh_pe *pe = (struct eeh_pe *)data;
465         bool *clear_sw_state = flag;
466         int i, rc = 1;
467
468         for (i = 0; rc && i < 3; i++)
469                 rc = eeh_unfreeze_pe(pe, clear_sw_state);
470
471         /* Stop immediately on any errors */
472         if (rc) {
473                 pr_warn("%s: Failure %d unfreezing PHB#%x-PE#%x\n",
474                         __func__, rc, pe->phb->global_number, pe->addr);
475                 return (void *)pe;
476         }
477
478         return NULL;
479 }
480
481 static int eeh_clear_pe_frozen_state(struct eeh_pe *pe,
482                                      bool clear_sw_state)
483 {
484         void *rc;
485
486         rc = eeh_pe_traverse(pe, __eeh_clear_pe_frozen_state, &clear_sw_state);
487         if (!rc)
488                 eeh_pe_state_clear(pe, EEH_PE_ISOLATED);
489
490         return rc ? -EIO : 0;
491 }
492
493 int eeh_pe_reset_and_recover(struct eeh_pe *pe)
494 {
495         int result, ret;
496
497         /* Bail if the PE is being recovered */
498         if (pe->state & EEH_PE_RECOVERING)
499                 return 0;
500
501         /* Put the PE into recovery mode */
502         eeh_pe_state_mark(pe, EEH_PE_RECOVERING);
503
504         /* Save states */
505         eeh_pe_dev_traverse(pe, eeh_dev_save_state, NULL);
506
507         /* Issue reset */
508         ret = eeh_reset_pe(pe);
509         if (ret) {
510                 eeh_pe_state_clear(pe, EEH_PE_RECOVERING);
511                 return ret;
512         }
513
514         /* Unfreeze the PE */
515         ret = eeh_clear_pe_frozen_state(pe, true);
516         if (ret) {
517                 eeh_pe_state_clear(pe, EEH_PE_RECOVERING);
518                 return ret;
519         }
520
521         /* Notify completion of reset */
522         eeh_pe_dev_traverse(pe, eeh_report_reset, &result);
523
524         /* Restore device state */
525         eeh_pe_dev_traverse(pe, eeh_dev_restore_state, NULL);
526
527         /* Resume */
528         eeh_pe_dev_traverse(pe, eeh_report_resume, NULL);
529
530         /* Clear recovery mode */
531         eeh_pe_state_clear(pe, EEH_PE_RECOVERING);
532
533         return 0;
534 }
535
536 /**
537  * eeh_reset_device - Perform actual reset of a pci slot
538  * @pe: EEH PE
539  * @bus: PCI bus corresponding to the isolcated slot
540  *
541  * This routine must be called to do reset on the indicated PE.
542  * During the reset, udev might be invoked because those affected
543  * PCI devices will be removed and then added.
544  */
545 static int eeh_reset_device(struct eeh_pe *pe, struct pci_bus *bus)
546 {
547         struct pci_bus *frozen_bus = eeh_pe_bus_get(pe);
548         struct timeval tstamp;
549         int cnt, rc, removed = 0;
550
551         /* pcibios will clear the counter; save the value */
552         cnt = pe->freeze_count;
553         tstamp = pe->tstamp;
554
555         /*
556          * We don't remove the corresponding PE instances because
557          * we need the information afterwords. The attached EEH
558          * devices are expected to be attached soon when calling
559          * into pcibios_add_pci_devices().
560          */
561         eeh_pe_state_mark(pe, EEH_PE_KEEP);
562         if (bus) {
563                 eeh_pe_state_clear(pe, EEH_PE_PRI_BUS);
564                 pci_lock_rescan_remove();
565                 pcibios_remove_pci_devices(bus);
566                 pci_unlock_rescan_remove();
567         } else if (frozen_bus) {
568                 eeh_pe_dev_traverse(pe, eeh_rmv_device, &removed);
569         }
570
571         /*
572          * Reset the pci controller. (Asserts RST#; resets config space).
573          * Reconfigure bridges and devices. Don't try to bring the system
574          * up if the reset failed for some reason.
575          *
576          * During the reset, it's very dangerous to have uncontrolled PCI
577          * config accesses. So we prefer to block them. However, controlled
578          * PCI config accesses initiated from EEH itself are allowed.
579          */
580         rc = eeh_reset_pe(pe);
581         if (rc)
582                 return rc;
583
584         pci_lock_rescan_remove();
585
586         /* Restore PE */
587         eeh_ops->configure_bridge(pe);
588         eeh_pe_restore_bars(pe);
589
590         /* Clear frozen state */
591         rc = eeh_clear_pe_frozen_state(pe, false);
592         if (rc)
593                 return rc;
594
595         /* Give the system 5 seconds to finish running the user-space
596          * hotplug shutdown scripts, e.g. ifdown for ethernet.  Yes,
597          * this is a hack, but if we don't do this, and try to bring
598          * the device up before the scripts have taken it down,
599          * potentially weird things happen.
600          */
601         if (bus) {
602                 pr_info("EEH: Sleep 5s ahead of complete hotplug\n");
603                 ssleep(5);
604
605                 /*
606                  * The EEH device is still connected with its parent
607                  * PE. We should disconnect it so the binding can be
608                  * rebuilt when adding PCI devices.
609                  */
610                 eeh_pe_traverse(pe, eeh_pe_detach_dev, NULL);
611                 pcibios_add_pci_devices(bus);
612         } else if (frozen_bus && removed) {
613                 pr_info("EEH: Sleep 5s ahead of partial hotplug\n");
614                 ssleep(5);
615
616                 eeh_pe_traverse(pe, eeh_pe_detach_dev, NULL);
617                 pcibios_add_pci_devices(frozen_bus);
618         }
619         eeh_pe_state_clear(pe, EEH_PE_KEEP);
620
621         pe->tstamp = tstamp;
622         pe->freeze_count = cnt;
623
624         pci_unlock_rescan_remove();
625         return 0;
626 }
627
628 /* The longest amount of time to wait for a pci device
629  * to come back on line, in seconds.
630  */
631 #define MAX_WAIT_FOR_RECOVERY 300
632
633 static void eeh_handle_normal_event(struct eeh_pe *pe)
634 {
635         struct pci_bus *frozen_bus;
636         int rc = 0;
637         enum pci_ers_result result = PCI_ERS_RESULT_NONE;
638
639         frozen_bus = eeh_pe_bus_get(pe);
640         if (!frozen_bus) {
641                 pr_err("%s: Cannot find PCI bus for PHB#%d-PE#%x\n",
642                         __func__, pe->phb->global_number, pe->addr);
643                 return;
644         }
645
646         eeh_pe_update_time_stamp(pe);
647         pe->freeze_count++;
648         if (pe->freeze_count > eeh_max_freezes)
649                 goto excess_failures;
650         pr_warn("EEH: This PCI device has failed %d times in the last hour\n",
651                 pe->freeze_count);
652
653         /* Walk the various device drivers attached to this slot through
654          * a reset sequence, giving each an opportunity to do what it needs
655          * to accomplish the reset.  Each child gets a report of the
656          * status ... if any child can't handle the reset, then the entire
657          * slot is dlpar removed and added.
658          *
659          * When the PHB is fenced, we have to issue a reset to recover from
660          * the error. Override the result if necessary to have partially
661          * hotplug for this case.
662          */
663         pr_info("EEH: Notify device drivers to shutdown\n");
664         eeh_pe_dev_traverse(pe, eeh_report_error, &result);
665         if ((pe->type & EEH_PE_PHB) &&
666             result != PCI_ERS_RESULT_NONE &&
667             result != PCI_ERS_RESULT_NEED_RESET)
668                 result = PCI_ERS_RESULT_NEED_RESET;
669
670         /* Get the current PCI slot state. This can take a long time,
671          * sometimes over 300 seconds for certain systems.
672          */
673         rc = eeh_ops->wait_state(pe, MAX_WAIT_FOR_RECOVERY*1000);
674         if (rc < 0 || rc == EEH_STATE_NOT_SUPPORT) {
675                 pr_warn("EEH: Permanent failure\n");
676                 goto hard_fail;
677         }
678
679         /* Since rtas may enable MMIO when posting the error log,
680          * don't post the error log until after all dev drivers
681          * have been informed.
682          */
683         pr_info("EEH: Collect temporary log\n");
684         eeh_slot_error_detail(pe, EEH_LOG_TEMP);
685
686         /* If all device drivers were EEH-unaware, then shut
687          * down all of the device drivers, and hope they
688          * go down willingly, without panicing the system.
689          */
690         if (result == PCI_ERS_RESULT_NONE) {
691                 pr_info("EEH: Reset with hotplug activity\n");
692                 rc = eeh_reset_device(pe, frozen_bus);
693                 if (rc) {
694                         pr_warn("%s: Unable to reset, err=%d\n",
695                                 __func__, rc);
696                         goto hard_fail;
697                 }
698         }
699
700         /* If all devices reported they can proceed, then re-enable MMIO */
701         if (result == PCI_ERS_RESULT_CAN_RECOVER) {
702                 pr_info("EEH: Enable I/O for affected devices\n");
703                 rc = eeh_pci_enable(pe, EEH_OPT_THAW_MMIO);
704
705                 if (rc < 0)
706                         goto hard_fail;
707                 if (rc) {
708                         result = PCI_ERS_RESULT_NEED_RESET;
709                 } else {
710                         pr_info("EEH: Notify device drivers to resume I/O\n");
711                         eeh_pe_dev_traverse(pe, eeh_report_mmio_enabled, &result);
712                 }
713         }
714
715         /* If all devices reported they can proceed, then re-enable DMA */
716         if (result == PCI_ERS_RESULT_CAN_RECOVER) {
717                 pr_info("EEH: Enabled DMA for affected devices\n");
718                 rc = eeh_pci_enable(pe, EEH_OPT_THAW_DMA);
719
720                 if (rc < 0)
721                         goto hard_fail;
722                 if (rc) {
723                         result = PCI_ERS_RESULT_NEED_RESET;
724                 } else {
725                         /*
726                          * We didn't do PE reset for the case. The PE
727                          * is still in frozen state. Clear it before
728                          * resuming the PE.
729                          */
730                         eeh_pe_state_clear(pe, EEH_PE_ISOLATED);
731                         result = PCI_ERS_RESULT_RECOVERED;
732                 }
733         }
734
735         /* If any device has a hard failure, then shut off everything. */
736         if (result == PCI_ERS_RESULT_DISCONNECT) {
737                 pr_warn("EEH: Device driver gave up\n");
738                 goto hard_fail;
739         }
740
741         /* If any device called out for a reset, then reset the slot */
742         if (result == PCI_ERS_RESULT_NEED_RESET) {
743                 pr_info("EEH: Reset without hotplug activity\n");
744                 rc = eeh_reset_device(pe, NULL);
745                 if (rc) {
746                         pr_warn("%s: Cannot reset, err=%d\n",
747                                 __func__, rc);
748                         goto hard_fail;
749                 }
750
751                 pr_info("EEH: Notify device drivers "
752                         "the completion of reset\n");
753                 result = PCI_ERS_RESULT_NONE;
754                 eeh_pe_dev_traverse(pe, eeh_report_reset, &result);
755         }
756
757         /* All devices should claim they have recovered by now. */
758         if ((result != PCI_ERS_RESULT_RECOVERED) &&
759             (result != PCI_ERS_RESULT_NONE)) {
760                 pr_warn("EEH: Not recovered\n");
761                 goto hard_fail;
762         }
763
764         /* Tell all device drivers that they can resume operations */
765         pr_info("EEH: Notify device driver to resume\n");
766         eeh_pe_dev_traverse(pe, eeh_report_resume, NULL);
767
768         return;
769
770 excess_failures:
771         /*
772          * About 90% of all real-life EEH failures in the field
773          * are due to poorly seated PCI cards. Only 10% or so are
774          * due to actual, failed cards.
775          */
776         pr_err("EEH: PHB#%d-PE#%x has failed %d times in the\n"
777                "last hour and has been permanently disabled.\n"
778                "Please try reseating or replacing it.\n",
779                 pe->phb->global_number, pe->addr,
780                 pe->freeze_count);
781         goto perm_error;
782
783 hard_fail:
784         pr_err("EEH: Unable to recover from failure from PHB#%d-PE#%x.\n"
785                "Please try reseating or replacing it\n",
786                 pe->phb->global_number, pe->addr);
787
788 perm_error:
789         eeh_slot_error_detail(pe, EEH_LOG_PERM);
790
791         /* Notify all devices that they're about to go down. */
792         eeh_pe_dev_traverse(pe, eeh_report_failure, NULL);
793
794         /* Mark the PE to be removed permanently */
795         eeh_pe_state_mark(pe, EEH_PE_REMOVED);
796
797         /*
798          * Shut down the device drivers for good. We mark
799          * all removed devices correctly to avoid access
800          * the their PCI config any more.
801          */
802         if (frozen_bus) {
803                 eeh_pe_state_clear(pe, EEH_PE_PRI_BUS);
804                 eeh_pe_dev_mode_mark(pe, EEH_DEV_REMOVED);
805
806                 pci_lock_rescan_remove();
807                 pcibios_remove_pci_devices(frozen_bus);
808                 pci_unlock_rescan_remove();
809         }
810 }
811
812 static void eeh_handle_special_event(void)
813 {
814         struct eeh_pe *pe, *phb_pe;
815         struct pci_bus *bus;
816         struct pci_controller *hose;
817         unsigned long flags;
818         int rc;
819
820
821         do {
822                 rc = eeh_ops->next_error(&pe);
823
824                 switch (rc) {
825                 case EEH_NEXT_ERR_DEAD_IOC:
826                         /* Mark all PHBs in dead state */
827                         eeh_serialize_lock(&flags);
828
829                         /* Purge all events */
830                         eeh_remove_event(NULL, true);
831
832                         list_for_each_entry(hose, &hose_list, list_node) {
833                                 phb_pe = eeh_phb_pe_get(hose);
834                                 if (!phb_pe) continue;
835
836                                 eeh_pe_state_mark(phb_pe, EEH_PE_ISOLATED);
837                         }
838
839                         eeh_serialize_unlock(flags);
840
841                         break;
842                 case EEH_NEXT_ERR_FROZEN_PE:
843                 case EEH_NEXT_ERR_FENCED_PHB:
844                 case EEH_NEXT_ERR_DEAD_PHB:
845                         /* Mark the PE in fenced state */
846                         eeh_serialize_lock(&flags);
847
848                         /* Purge all events of the PHB */
849                         eeh_remove_event(pe, true);
850
851                         if (rc == EEH_NEXT_ERR_DEAD_PHB)
852                                 eeh_pe_state_mark(pe, EEH_PE_ISOLATED);
853                         else
854                                 eeh_pe_state_mark(pe,
855                                         EEH_PE_ISOLATED | EEH_PE_RECOVERING);
856
857                         eeh_serialize_unlock(flags);
858
859                         break;
860                 case EEH_NEXT_ERR_NONE:
861                         return;
862                 default:
863                         pr_warn("%s: Invalid value %d from next_error()\n",
864                                 __func__, rc);
865                         return;
866                 }
867
868                 /*
869                  * For fenced PHB and frozen PE, it's handled as normal
870                  * event. We have to remove the affected PHBs for dead
871                  * PHB and IOC
872                  */
873                 if (rc == EEH_NEXT_ERR_FROZEN_PE ||
874                     rc == EEH_NEXT_ERR_FENCED_PHB) {
875                         eeh_handle_normal_event(pe);
876                         eeh_pe_state_clear(pe, EEH_PE_RECOVERING);
877                 } else {
878                         pci_lock_rescan_remove();
879                         list_for_each_entry(hose, &hose_list, list_node) {
880                                 phb_pe = eeh_phb_pe_get(hose);
881                                 if (!phb_pe ||
882                                     !(phb_pe->state & EEH_PE_ISOLATED) ||
883                                     (phb_pe->state & EEH_PE_RECOVERING))
884                                         continue;
885
886                                 /* Notify all devices to be down */
887                                 eeh_pe_state_clear(pe, EEH_PE_PRI_BUS);
888                                 bus = eeh_pe_bus_get(phb_pe);
889                                 eeh_pe_dev_traverse(pe,
890                                         eeh_report_failure, NULL);
891                                 pcibios_remove_pci_devices(bus);
892                         }
893                         pci_unlock_rescan_remove();
894                 }
895
896                 /*
897                  * If we have detected dead IOC, we needn't proceed
898                  * any more since all PHBs would have been removed
899                  */
900                 if (rc == EEH_NEXT_ERR_DEAD_IOC)
901                         break;
902         } while (rc != EEH_NEXT_ERR_NONE);
903 }
904
905 /**
906  * eeh_handle_event - Reset a PCI device after hard lockup.
907  * @pe: EEH PE
908  *
909  * While PHB detects address or data parity errors on particular PCI
910  * slot, the associated PE will be frozen. Besides, DMA's occurring
911  * to wild addresses (which usually happen due to bugs in device
912  * drivers or in PCI adapter firmware) can cause EEH error. #SERR,
913  * #PERR or other misc PCI-related errors also can trigger EEH errors.
914  *
915  * Recovery process consists of unplugging the device driver (which
916  * generated hotplug events to userspace), then issuing a PCI #RST to
917  * the device, then reconfiguring the PCI config space for all bridges
918  * & devices under this slot, and then finally restarting the device
919  * drivers (which cause a second set of hotplug events to go out to
920  * userspace).
921  */
922 void eeh_handle_event(struct eeh_pe *pe)
923 {
924         if (pe)
925                 eeh_handle_normal_event(pe);
926         else
927                 eeh_handle_special_event();
928 }