Bostrom kategorisiert solche Bedrohungen der Menschheit in einer sogenannten Schwachstellentypologie. Die erste Bedrohung – Typ-1 genannt – besteht gemäß seiner hypothetischen Betrachtung darin, dass sich jeder einzelne eine Atombombe zu Hause bauen könnte.
Man stelle sich einmal vor: Bei der Entdeckung der Kernspaltung wäre nicht ersichtlich geworden, dass es äußerst aufwendig ist, aus radioaktivem Material größere Mengen an Energie freizusetzen. Stattdessen wäre dies etwa mithilfe einiger Alltagsgegenstände und einem kleinen Stromimpuls möglich gewesen. Die Folgen wären katastrophal gewesen.
Stellt man sich vor, dass bei der Entdeckung der Kernspaltung nicht ersichtlich geworden wäre, dass es äußerst aufwendig ist, aus radioaktivem Material größere Mengen an Energie freizusetzen, sondern dass dies etwa mithilfe einiger Alltagsgegenstände und einem kleinen Stromimpuls möglich gewesen wäre, wären die Folgen katastrophal gewesen. Zum einen wäre wohl das Wissen darüber rasch in den Umlauf geraten, zum anderen fänden sich stets einzelne Individuen (der „apokalyptische Rest“: Nihilisten, Revanchisten, Personen, die schlicht sehen wollen, was passiert), die einen solchen selbstgebauten atomaren Sprengkopf zünden würden.
Typ-2a stellt das Szenario eines „sicheren Erstschlags“ dar, bei dem mächtige Akteure wie Staaten einen militärtechnologischen Vorsprung vor ihren Widersachern errungen hätten. Bei der Benutzung dieser vermeintlich sicheren Technologie, könnte jedoch unerwartet die menschliche Zivilisation gefährdet werden.
Weiterhin in Betracht kommt Typ-2b, bei dem sich die Folgen des Klimawandels irgendwann zu einer Existenzbedrohung verdichtend potenzieren würden. Ausgelöst würde dies durch das Zusammenwirken von Individuen überall auf der Welt, die zu ihrem eigenen Nutzen das Schadenspotenzial neuer Technologien ignorieren.
Die letzte große Bedrohung – Typ-0 – wird beschrieben als eine „überraschend seltsame Materie“. Sie ist gleichsam eine Wildcard für eine beliebige Technologie, die ein verstecktes Risiko beinhaltet, sodass ihre Entdeckung zu einer unbeabsichtigten zivilisatorischen Verwüstung führen würde. Anschaulich dargestellt wird der letzte Fall etwa durch das Entstehen eines schwarzen Lochs aufgrund falscher Kalkulationen bei einem Teilchenbeschleuniger.
Der allgemeine Verzicht auf technologischen Fortschritt ist keine wirkliche Option, jedoch wären bei riskanter Forschung begrenzte Einschränkungen erfinderischer Tätigkeiten durchaus sinnvoll. Nicht alles, was machbar ist, muss auch erforscht werden respektive sofort erforscht werden. Mitunter spielt auch die Reihenfolge von Erfindungen eine bedeutende Rolle, bei der etwa idealerweise eine schützende vor der schädlichen Technologie entwickelt wird. Explizit zu fördern wären zudem Technologien, die vorwiegend schützen, indem sie etwa eine effizientere Überwachung von Krankheitsausbrüchen ermöglichen.
Insbesondere die unbeschränkte Entwicklung biosynthetischer Stoffe birgt Gefahren. Vorstellbar ist, dass es durch die Entwicklung eines geeigneten Stoffs für einen Durchschnittsmenschen möglich wäre, rund eine Million Menschen zu töten. Mithin wäre es dann genauso wahrscheinlich, dass damit auch gezielt eine Milliarde oder die ganze Menschheit ausgelöscht werden könnte.
Neben der Beeinflussung der Richtung der Forschung gäbe es weitere mögliche Maßnahmen, solche zivilisatorischen Schwachstellen zu schließen. Zu diesen zählen das Verhindern der Ausbreitung gefährlicher Informationen, das Einschränken des Zugangs zu erforderlichen Geräten und Materialien samt weitreichenden Backgroundchecks für Mitarbeitende im biotechnischen Bereich. Weitere Maßnahmen wären, das Abschrecken potenzieller Übeltäter durch hohe Strafen und das Schaffen von Überwachungs- und Durchsetzungsmechanismen, die Versuche zur Durchführung einer destruktiven Handlung vereiteln könnten.