Quanten-Tunneling beginnt ein Problem zu werden. Ein Teil der Elektrizität überquert Barrieren, wenn die Barriere dünn genug ist, wie das schwarz-weiße GIF in diesem Wiki-Link. Es würde nicht so viel passieren, dass irgendetwas umschaltet, aber es würde so viel verloren gehen, dass die Leistung erhöht werden müsste, um diesen Verlust auszugleichen, und wenn alles dünn genug ist, gibt es eine sehr niedrige Grenze für die maximale Spannung. Man beginnt, Elektronen zu verlieren, also erhöht man die Anzahl der Elektronen, damit man genug hat, um die Transistoren zum Arbeiten zu bringen, aber all die verlorenen Elektronen und die zusätzliche Leistung führen nur zu einem stromhungrigen und heißen Chip. Wenn die Lithographie klein genug ist, gibt es keine Möglichkeit, die Spannung so weit zu erhöhen, dass die Verluste ausgeglichen werden, ohne dass die Spannung so hoch wird, dass der Chip zerstört wird. Um den Prozessor vor der Selbstzerstörung zu bewahren, müssten die Taktfrequenz und die Anzahl der Transistoren verringert werden, und dann wäre es ein Downgrade gegenüber den neuesten Chips. Möglich, aber sinnlos.
Wir werden wahrscheinlich viele Probleme bei 5nm oder darunter sehen – wenn ein Unternehmen einen Die Shrink machen will, aber der Die Shrink verbraucht mehr Strom und läuft wegen dieses Phänomens heißer, dann würden sie einfach bei ihrer alten Lithographie bleiben, oder? Ich meine, wenn AMDs 7nm erstaunlich ist und sie es mit 5nm versuchen, aber es ist stromhungriger und heißer, würden sie dann einfach bei 7nm bleiben, bis sie herausgefunden haben, wie sie mit den Problemen bei 5nm umgehen können? Ähnlich wie Intel bei dem Versuch, einen guten 10nm-Chip herzustellen – sie stehen nicht genau vor dieser Hürde, aber sie stehen vor einer Hürde und können keinen besseren Chip als ihren 14nm-Chip herstellen, also bleiben sie bei 14nm.