A kvantum-alagutazás kezd problémává válni. Némi elektromosság átmegy az akadályokon, ha az akadály elég vékony, mint az a fekete-fehér GIF azon a wiki linken. Nem annyi lépne át, hogy bármi is átkapcsolódjon, de annyi veszne el, hogy a veszteség kompenzálásához növelni kellene a teljesítményt, és ha minden elég vékony, akkor nagyon alacsony lesz a plafon a maximális feszültség tekintetében. Elkezdesz elektronokat veszíteni, így növeled az elektronokat, hogy elég legyen ahhoz, hogy a tranzisztorok ténylegesen csináljanak dolgokat, de az összes elveszett elektron és a hozzáadott teljesítmény csak egy energiaéhes és forró chipet eredményez. Elég kicsi litográfia esetén nem lenne mód a feszültség olyan mértékű növelésére, hogy kompenzálja a veszteségeket, anélkül, hogy a feszültség elég magas lenne ahhoz, hogy tönkretegye a chipet. Ahhoz, hogy a processzor ne pusztítsa el magát, csökkenteni kellene az órajelek sebességét és a tranzisztorok számát, és ezen a ponton ez már visszalépés lenne a legfrissebb chipekhez képest. Lehetséges, de értelmetlen.
Valószínűleg sok problémát fogunk látni 5 nm-nél vagy az alatt – ha valamelyik cég die shrinket akar csinálni, de a die shrink több energiát fogyaszt és melegebben működik a jelenség miatt, akkor maradnak a régi litográfiájuknál, nem? Úgy értem, ha az AMD 7 nm-es technológiája elképesztő, és megpróbálkoznak az 5 nm-essel, de az több energiát igényel és forróbb, akkor maradnának a 7 nm-nél, amíg ki nem találják, hogyan kezeljék azokat a problémákat, amelyekkel az 5 nm-nél szembesülnek? Valahogy úgy, ahogy az Intel megrekedt, amikor megpróbált egy jó 10nm-es chipet készíteni – nem pontosan ezzel az akadállyal néznek szembe, de egy akadállyal néznek szembe, és nem tudnak jobb chipet készíteni, mint a 14nm-es++++++++, ezért maradnak a 14nm-esnél+++++++++++++.
.