
Come procederà lo sviluppo dei chip nei prossimi anni? La legge di Moore dice che e prestazioni dei processori e il numero di transistor raddoppiano ogni 18 mesi. Ma secondo alcuni esperti siamo vicini al momento in cui questa regola non sarà più valida, perché i costi diventeranno talmente alti da costringere a limitare lo sviluppo dei chip ad un certo livello di grandezza fisica.
2015: fine dello sviluppo dei chip
Secondo alcuni esperti che studiano lo sviluppo dei chip, la nozione di una continuazione puramente fisica della Legge di Moore deve essere annullata. Secondo alcuni esperti entro il 2015 o forse già nel 2013 la legge non sarà più valida. Certo, ci saranno sempre delle novità per la produzione di semiconduttori. Ma non è possibile andare avanti ancora per raggiungere la velocità di produzione o le rese necessarie per permettere il raddoppio della densità, raddoppio di prestazioni, o risparmi di costo unitario che sarebbe stati possibili fino a questo momento.
La maggior parte dei dispositivi ha bisogno di un chip per portare a termine il lavoro. Tutti comunque hanno a che fare con significativi effetti fisici, incluso il danno termico, i difetti di forma e l’elettromigrazione attraverso il chip.
Per quanto riguarda invece i circuiti integrati basati su grafene, quello è un modello del tutto nuovo che richiederà una completa riscrittura della simulazione, progettazione, verifica, produzione e test dei dispositivi. In altre parole, questa tecnologia non sarà pronta almeno fino al 2015, se non più avanti. Intel sta sperimentando dispositivi a lavorazione laser, che probabilmente sono tra le poche innovazioni che supportano il ridimensionamento fisico a lungo termine.
Il punto è che ogni chip costruito dopo il 2015, dell’ordine di grandezza sotto i 20 nanometri, dovrà essere strategicamente cruciale. Questi chip infatti possono essere estremamente costosi, in seguito al prezzo di offerta. Ci saranno pochi di questi chip, quindi il loro prezzo relativo rispetto all’intero sistema sarà molto elevato. Cosa più importante, il numero di imprese che riuscirà a ottenere i loro circuiti integrati in questo modo saranno estremamente pochi.
Quali altre strade per lo sviluppo?
Cosa succederà allora a tutti gli altri aviluppatori di chip? Al momento, tutte le nostre strutture tradizionali di produzione dei semiconduttori in tutto il mondo sono in esecuzione a pieno regime. E mentre gli analisti del settore si aspettano un rallentamento, in parte a causa di effetti stagionali, in parte perché l’iPad sembra avere avuto un effetto sulla vendite di notebook, finora non c'è alcuna indicazione reale che le cose siano in rallentamento come dato di fatto. Piuttosto, ci sono più gadget e più alternative all’iPad. Così le linee di produzione convenzionale dovranno espandersi piuttosto velocemente.
Nuovi paradigmi nel settore della trasformazione, dell'imballaggio e del design sono anche costretti a svilupparsi con estrema velocità. Il multiprocessore di grandi dimensioni con domini di alimentazione multipla permetterà ai produttori di chip di simulare la funzionalità dei sistemi interi senza muoversi sotto i venti nanometri di silicio. Alcune forme di tecnologia di stacking consentiranno la progettazione tridimensionale dei chip. I sistemi embedded di elaborazione parallela permetteranno l'integrazione delle funzionalità seriali e parallele, con CPU e GPU a bordo.
Così è davvero molto probabile che lo sviluppo dei chip l'industria dei semiconduttori continueranno a prosperare in futuro, ma sono destinata a crescere in direzioni radicalmente nuove. Ci saranno i chip sotto i 20 nm, ma non per tutti. Il resto dovrà essere innovato in altri modi. L'innovazione dei semiconduttori dovrà espandersi in nuove direzioni, aprire nuove porte, esplorare nuove idee.
immagine | ZmeScience

La legge di Moore ha rappresentato per diversi anni e per diversi filoni tecnologici la crescita della densità di transistor su chip. Oramai però sembra essere arrivati alla frutta in quanto i 22nm di lunghezza di canale dei singoli transistor dovrebbero rappresentare quel limite minimo al di sotto del quale non si può andare per motivi legati alla fisica del componente. Infatti, la tecnologia viene etichettata con la lunghezza minima del canale dei transistor Mosfet che costituiscono la tecnologia CMOS.
Il transistor MOS (Metal Oxide Silicon), per chi non lo sapesse, ha una struttura planare costituita da un terminale di gate in polisilicio fatto cresce su un ossido sottile (tipicamente ossido di silicio) che separa il gate da un substrato ad esempio di tipo p. Sui due lati opposti della struttura di gate sono fatte crescere, nel substrato, due zone fortemente drograte di tipo n che costituiscono le zone di drain e di source. In pratica si tratta di un interruttore (nella visione più semplicistica possibile) la cui accensione è pilotata dalla tensione applicata tra il gate e source oppure meglio tra gate e il substrato. Guardando ad un’immagine è molto più semplice capirne la struttura.
La tecnologia ad esempio dei 22nm significa che lo spazio che intercorre tra la zona di drain e quella di source (quindi la lunghezza del canale subito sotto il gate) è disegnata per essere lunga 22nm. Polarizzando positivamente e oltre la soglia di accensione un nMOS, in prossimità dell’interfaccia ossido-semiconduttore (sotto al gate e tra drain e source) avviene l’accumulo di cariche negative (elettroni) che costituiscono un percorso conduttivo tra il drain e il source. In definitiva lavora proprio come un interruttore. Il problema di questo interruttore, con lo scalare della tecnologia, non sta nel chiuderlo ma nell’aprirlo, cioè nel poter considerare totalmente estinto il percorso conduttivo quando con la tensione di gate si va sotto la soglia di accensione. Diciamo che il modello dell’interruttore lavorava abbastanza bene su tecnologie molto vecchie (diciamo dal um in su come lunghezza di canale) e diventa sempre più approssimato e affetto da effetti del secondo ordine man mano che la tecnologia scala, al punto da essere costretti a ritoccare i modelli matematici che governano lo studio e l’analisi di questi dispositivi. Gli effetti di canale corto principali che interessano nella progettazione di chip di ultima generazione sono la corrente di sottosoglia (il transistor non si spegne totalmente con tensione di gate-source minori della soglia di accensione e questo contributo viene visto, almeno nell’ambito digitale, come una corrente di perdita che contribuisce all’aumento della dissipazione di potenza statica) e le correnti di gate e bulk dovuto al meccanismo degli elettroni caldi (elettroni altamente energetici che se nelle condizioni statistiche giuste (modello “Lucky electrons”) possono attraversare senza problemi l’ossido di gate contribuendo ad una corrente statica attraverso il dielettrico che in condizioni normali non dovrebbe esserci…anche questo contributo di corrente contribuisce ad aumentare la dissipazione di potenza statica).
L’altro motivo per cui non si riesce ad andare sotto il limite dei 22nm è insito nel processo fotolitografico con cui questi transistor vengono prodotti, da una serie di maschere al die vero e proprio. In pratica minori sono le dimensioni da dover riprodurre e minore deve essere la lunghezza d’onda della radiazione luminosa che impressiona le aree del die. Questo aspetto prettamente tecnologico non è assolutamente banale come può sembrare
Oggi gli studi si stanno spostando verso altre due filosofie:
1) l’introduzione di nuovi materiali ovvero dielettrici low-k per gli isolamenti tra le interconnessioni in modo da ridurre RC equivalente della pista;
2) dielettrici high-k per sostituire l’ossido di gate ormai arrivato al limite dello scaling. Scalare l’ossido sotto i 2 nm comporta tutta una serie di problemi prestazionali ed affidabilistici non facilmente risolvibili.
Io penso quindi che la produzione si sposterà proprio sullo studio di nuovi materiali.