「できるだけ多くのペーパークリップを作ることを唯一の目標とする AI があったとします」とボストロムは 2003 年の著作の中で書いています。 「AI は、人間がスイッチを切るかもしれないので、人間がいないほうがはるかに良いことをすぐに理解するでしょう。なぜなら、人間がそうすれば、クリップの数が減るからです。また、人間の体には、危険な可能性がある原子がたくさん含まれています。 AIが目指している未来は、ペーパークリップはたくさんあるが人間がいない未来だろう。」
「私はボストロムの作品が本当に好きです」とランツは言う。しかし、人工知能の潜在的なリスク、つまり彼が AI の安全性に関する議論と呼んでいるものに関しては、ランツ氏は外交的な立場をとります。彼によれば、この議論は確率対可能性の問題だという。科学と現実とサイエンスフィクションの関係ではありません。 「AI の安全性に関する議論は非常に興味深いものです。覚えておくべきことは、問題のある AI が発生する可能性が高いかどうかではなく、それが可能かどうかということです。安全担当者は、これは問題になる可能性がある、これは爆発して危険になる可能性がある、と言っています。」その一方で、フランソワ・ショレのような人たちがこう言っています――いや、そんなことは不可能だ、なぜならこんなことは決して起こらないようにしているこれこれの原則のせいだ。」
テスラの CEO で AI の予言者イーロン・マスクの称賛を得たボストロム氏の著作と比較すると、ランツ氏のペーパークリップへの探求は、AI 倫理に関する論文というほどではありません。その代わりに、ランツはボストロムのディストピアに対してさらに暗いサブプロットを提示している。ユニバーサル・ペーパークリップが何かの兆候であるとすれば、人類は超知能AIに出し抜かれるだけでなく、その滅亡に積極的に参加することになるだろう。