Procesory pro 21. stoletíSoftwarové noviny, 12/2002
"Když jsme uvedli v roce 1989 uvedli na trh procesor Intel 486
pracující na 25 MHz, lidé si mysleli, že je to rychlý
procesor. Následující tři roky jsme strávil tím, že jsme se jej snažil
zrychlit na 50 MHz. Dnes o 25 MHz zrychlujeme každý týden. A za dva
roky nám na to bude stačit jediný den." (Pat Gelsinger, Chief
Technology Officer, Intel Corporation)
Pamatujete si také tu slávu, s jakou byly před lety uváděny
první procesory pracující s taktovací frekvencí 100 MHz? Dnes jsme
o řád dále - pro trh jsou připravovány procesory pracující se 4 a více
GHz a do konce desetiletí se zřejmě posuneme ještě o jeden řád
výše. Co všechno si tyto změny vyžadují? A jak dlouho bude ještě možné
zvyšovat výkon procesoru prostým zvýšením jeho taktovací
frekvence?
Zdánlivě je to velmi prosté. Rychlejší procesor toho za jednu
vteřinu stihne víc, protože provede více operací. To je pravda. Jenže
vyšší rychlost s sebou přináší také nežádoucí jevy. Například vždy
vyžaduje zmenšení tranzistorů tvořících procesor. S rostoucí frekvencí
čipu navíc roste jeho spotřeba, ztrátové teplo je přitom nutné odvést
povrchem, aby procesor neshořel. Jestliže jej kvůli zrychlení
zmenšíme, musíme vyšší teplo odvést menší plochou. Spotřebu lze
ovlivnit výškou napájecího napětí - čím nižší bude, tím nižší bude
spotřeba. Jinými slovy, vyšší frekvence vyžaduje také nižší napájecí
napětí.
Již nyní je jasné, na jaké hranice jednou narazíme, budeme-li
postupovat podle jednoduchého vzoru vyšší výkon = vyšší taktovací
frekvence. Procesor není možné neustále zmenšovat. Tranzistory, které
tvoří jeho základ, totiž nebudou pracovat, pokud budou poskládány jen
z několika atomů. Tranzistory také nebudou pracovat správně, pokud jim
příliš snížíme napájecí napětí.
Co s tím? Máme několik možností. První z nich je změna vnitřní
architektury procesoru. Dnes nejpoužívanější procesory s architekturou
odvozenou od Pentia totiž nejsou žádný zázrak. Existují přece
architektury (RISC, PowerPC), které dosáhnou srovnatelného výkonu
s nižší taktovací frekvencí. Změna architektury je však příliš odvážný
krok -- v konečném důsledku totiž vyžaduje úpravu architektury celého
PC a také úpravu a nový překlad všech existujících aplikací. Pro
uživatele to znamená přestavět kvůli procesoru celý počítač a ještě
shánět nové aplikace. Pro vývojáře znamená nová architektura novou
instrukční sadu a možná i novou metodiku pro návrh aplikací, což sebou
nese nutnost pořídit si nové překladače a nové vývojové
nástroje. A konečně pro výrobce představuje nová architektura zásah do
výrobní linky a změnu výrobní technologie. Jinými slovy, nová
architektura je jistou komplikací pro každého.
Proto je vcelku pochopitelné, že se výrobci takového kroku
obávají a drží se stávající architektury jako klíšťata. A tak se stále dokola snaží
vyrábět menší a menší tranzistory s menším a menším napájecím napětím,
které zvládnou vyšší a vyšší taktovací frekvence.
|
Směrem k nanotechnologii
Základem všech digitálních obvodů je unipolární tranzistor,
který přepíná mezi stavem logické jedničky a nuly. Hlavní
charakteristikou, která se používá pro popis jeho velikosti, je délka
řídící elektrody, neboli délka hradla. Od této veličiny lze snadno
odvodit ostatní rozměry tranzistoru. Délka hradla také zásadním
způsobem ovlivňuje další vlastnosti tranzistoru.
Již jsme uvedli, že vyšší frekvence vyžadují menší
tranzistor. Jenže ten nelze zmenšovat do nekonečna. Proč? Všechny
jeho charakteristiky totiž byly odvozeny za předpokladu, že je délka
hradla alespoň o několik řádů větší než rozměry atomů v materiálu,
z něhož je tranzistor vyroben. Jakmile se délka hradla přiblíží
k velikosti atomů, přestanou tyto podmínky platit, a vůbec není jisté,
že bude tranzistor pracovat tak, jak potřebujeme. Velkým problémem je
také již zmíněná spotřeba - jakmile se s rozměry tranzistoru dostaneme
pod 30 nm, začíná jeho spotřeba narůstat natolik, že jej téměř není
možné chladit.
Současné tranzistory jsou vyráběny z křemíku, jehož atomy měří
v průměru několik desetin nanometru. První unipolární tranzistory měly
hradla dlouhá stovky mikrometrů a všechno bylo v pořádku. Dnes však už
běžně v procesorech zcela pracují tranzistory, jejichž hradla se měří
ve stovkách nanometrů. A jak to bude dál? Letos v březnu Intel
oznámil, že již dokáže sériově vyrábět tranzistory s hradlem dlouhým
jen 90 nm a pro příští roky slibuje posun až k 15 nm! Nejsou to žádné
plané sliby - na webových stránkách firmy Intel můžete již dnes najít
fotografie prvních takových tranzistorů, údajně se již podařilo
vyrobit a otestovat tranzistor s hradlem dlouhým pouhých 10nm.
Jak to u Intelu dokázali? Zásadním způsobem změnili strukturu
dnes používaných tranzistorů. Ty nové, označované jako DST (depleted
substrate transistors), se původním unipolárním tranzistorům příliš
nepodobají (viz obrázky 1 a 2). Mají dvě řídící elektrody, a především
na rozdíl od klasických tranzistorů "trčí" nahoru z křemíkového
podkladu a pro jejich realizaci se používají nové materiály. I když
mají tyto tranzistory zatraceně krátké hradlo (až by se chtělo říci,
že mají délku hradla proklatě nízko :-), ještě užší je vrstva
izolantu, který odděluje hradlo od vlastního tranzistoru. Tato vrstva
je totiž vysoká jen několik desetin nm (!) a je tvořena několika
vrstvami atomů izolantu (viz obrázek 3). Vlastnosti izolace mezi
řídící elektrodou a hradlem jsou také nesmírně důležité - čím je
tenčí, tím je tranzistor rychlejší. Proto se výrobci snaží jej
snižovat a proto se autoři DST tak rádi chlubí že "jejich" hradlo sedí
jen nad 0,1 nm oxidu. Dříve se používal SiO2, pro DST se používají
materiály označované jako "High K dielectrics". Mají ještě jednu
příjemnou vlastnost, mnohem lépe izolují a výrazně tak snižují
nežádoucí ztrátový proud mezi řídící elektrodou
a tranzistorem. Zkrátka a dobře, DST je tak malý a tak úsporný, jak
jen tranzistor pro 10 GHz může být. Součástky, které přijdou po něm,
už pravděpodobně vůbec nebudou tranzistory, protože DST se už dotýká
oné pomyslné hranice: jeho hradlový oxid už nemůže být tenčí a jeho
rozměry také není možné výrazně snižovat, rozhodně ne o celé řády,
jako tomu bylo u klasických tranzistorů.
Klasické procesory byly v podstatě "placaté", neboť vznikaly
tak, že se do hloubky ploché podkladové destičky přidávaly různé
příměsi. První vlaštovkou, která ukazuje, že tomu tak dlouho nebude,
je zmíněný DST. A druhou vlaštovku vypustil Intel v polovině září:
podařilo se vyrobit a otestovat skutečný trojrozměrný tranzistor. Na
rozdíl od DST nyní z křemíku ven kouká celá aktivní část tranzistoru,
nikoliv jen řídící elektroda. Proč jsou tyto tranzistory lepší?
Obloukem se vrátíme zpět k problému s přílišným zahříváním
tranzistoru. Zmenšíme-li klasickou planární strukturu, zmenšíme úměrně
také vodivé cesty, které spojují jednotlivé prvky tranzistoru
i tranzistory navzájem. Protože zůstane zachována velikost proudu,
který obvodem protéká, začnou se vodivé cesty příliš
zahřívat. Trojrozměrná struktura umožní zvětšit třikrát celkovou
plochu pro vodivé cesty, neboť ty jsou nyní vedeny ze tří stran po
povrchu sloupku tvořícího tranzistor. Navíc se na zvětšení objemu
vodivých cest nemusí zvětšit plocha čipu - tranzistory přece vyrostou
nahoru nad plochu. A protože nad plochou čipu ční tranzistory do
závratné výše stovek nm, pravděpodobně ještě chvíli potrvá, než nám
zde začnou překážet.
|
|
|
Problémy s litografií
I kdybychom zkusili zapomenout na fakt, že tranzistory prostě
nemohou být nekonečně malé, i tak se při dalším a dalším zmenšování
objeví jiný problém. Proces výroby současných polovodičových obvodů
lze přirovnat k vyvolávání fotografií. Traznistory vznikají tak, že se
na křemíkovou destičku postupně nanášejí nebo do ní vyleptávají
jednotlivé vrstvy. Před každým krokem se destička pokryje citlivým
materiálem a připraví se průsvitná maska s motivem, který chceme na
destičku nanést. Maska funguje jako jakýsi negativ - skrze ni se
posvítí na destičku a na místech, kam dopadlo světlo se změní
struktura citlivého materiálu. Ten potom lze smýt a na destičce tak
zůstane nanesen stejný motiv, jako byl na masce.
Základním limitním faktorem takového postupu je vlnová délka
světla, kterým svítíme skrze masku. Udává totiž minimální rozměr, jaký
jsme schopni na křemík nakreslit. Zhruba do začátku devadesátých let
se používalo normální viditelné světlo. Jenže klasická litografie je
použitelná jen pro rozměry do 100 nm. Menší motivy již vyžadují kratší
vlnové délky. Proto se dnes výrobci musí posouvat ve spektru směrem
k zářením s kratšími vlnovými délkami - k ultrafialovému záření, potom
k rentgenovému záření a nakonec ke svazku elektronů s vysokou
energií. Rovnou si přiznejme, že práce s takovými vlnovými délkami
není nijak příjemná, neboť nás to nutí pracovat s vysokými energiemi
a s agresivním zářením. To klade vysoké nároky na materiály, z nichž
je vyrobena maska. Přitom právě masky jsou nejdůležitější součástí
celého výrobního procesu, neboť chyba v masce znamená chybu ve všech
vyráběných čipech. Kdyby byla maska poškozena průchodem vysoce
energetického záření, došlo by ke znehodnocení celé série. Proto se
musí hledat materiály, které jsou odolné vůči zářením s krátkými
vlnovými délkami.
Nejdále pokročil výzkum v oblasti ultrafialového záření
o krátkých vlnových délkách. Společnosti Intel, Motorola, AMD, Micron,
Infineon založily konsorcium, které vyvíjí zařízení pro práci se
zářením o vlnové délce 13 nm. Protože je toto záření poměrně snadno
pohlcováno atmosférou i nejrůznějšími materiály, bylo nutno trochu
upravit celý technologický proces, aby nebyl paprsek při průchodu
maskou pohlcen. Proto bylo nakonec rozhodnuto, že litografie EUV bude
používat odrazné masky.
Na podzim 2001 byly představeny standardní masky pro tuto
technologii. Jejich velkou výhodou je, že k jejich výrobě bude možné
použít stávající linky pro výrobu masek, jen bude nutné je trochu
rozšířit. To je důležité, neboť výroba přesných masek je drahá
a výrobní linky pro masky jsou také velmi drahé. Zhruba v té době byla
také představena alfa verze výrobní linky pro tuto
tehcnologii. V současné době již existují funkční prototypy, do výroby
bude tento proces nasazen v roce 2005.
|
|
|
Jiné alternativy?
Předcházející řádky naznačují, že ještě pár let bude možné
zvyšovat taktovací frekvence i hustotu integrace. Ale jedno je jasné:
hranice už jsou opravdu blízko. Pesimisté hovoří o sedmi až devíti
letech, optimisté říkají, že do roku 2016 je ještě pořád co
zvyšovat.
V těchto souvislostech znamená změna architektury procesoru jen
berličku pro několik nejbližších let. I když se změní architektura
procesoru, takže bude možné dnes pracovat zase na 100 MHz, naše
nenasytnost nás záhy dožene do velmi podobné situace. Proto výzkumná
pracoviště hledají nová a úplně jiná řešení, než jsou logické obvody
postavené na křemíkových destičkách.
V nejbližší budoucnosti se rýsují různé alternativy, ale žádná
z nich nenahradí křemíkové technologie úplně. Silikon pravděpodobně
částečně nahradí různé nové materiály, připravují se kvantové počítače
a počítače pracující s DNA.
Začněme těmi posledně jmenovanými. DNA počítač je zařízení,
v němž se jako aktivní látka používá namísto elektrických veličin
deoxyribonukleová kyselina. Tyto počítače by dokázaly v jednom kroku
provést paralelně velmi mnoho operací a proto by mohly být mnohem
rychlejší, než stávající počítače. Zatím však existují jen funkční
prototypy, které mnohem víc připomínají složité laboratorní zařízení,
než opravdový počítač. Dokáží nyní - byť neuvěřitelně rychle - vyřešit
jen jednu konkrétní úlohu, na niž musí být navrženy. Příprava úlohy
trvá relativně dlouho a dlouho také trvá vyhodnocení výsledků. Tyto
počítače se rozhodně na trhu domácích počítačů neuplatní. Jestliže se
ale skutečně podaří vyrobit funkční a snadno ovladatelná zařízení,
mohly by být použitelné tam, kde je nutné něco opravdu rychle počítat
a kde nám nevadí, že výsledky výpočtu budeme ještě týden
vyhodnocovat. Typickým případem je kryptografie a násilné prolamování
šifer. Bez klasických počítačů se DNA počítače neobejdou asi nikdy -
pro řízení výpočtu a při jeho vyhodnocování je nutný "normální"
počítač.
Podobné je to zatím i s kvantovými počítači. Ty jsou v podstatě
extrémním zmenšením klasických logických prvků. Klasická elektronika
doslova plýtvá elektrony, k vyjádření jednoho logického stavu jich
spotřebuje tisíce. Kvantové počítače by pro vyjádření jednoho
logického stavu potřebovaly jen jednu jedinou částici. Logický stav by
odpovídal kvantovému stavu, v němž by se částice nacházela. Analogií
"našeho" bitu je pro kvantové počítače tzv. qbit, neboli kvantový stav
systému definovaného pouhými dvěma základními stavy. Do N izolovaných
qbitů lze uložit 2 na N komplexních čísel a s propojením qbitů roste
jejich kapacita s mocniou 2. V praxi to znamená strašlivě malé
počítače s neuvěřitelnou paměťovou kapacitou. A navíc budou strašně
rychlé, protože dokáží přirozeně pracovat s logaritmy, což se docela
hodí při násobení. Jenže kvantový svět se nedá dobýt tak snadno. Aby
bylo možné kvantový počítač realizovat, musí se technologové naučit
vyrábět tzv. kvantové tečky - struktury, které jsou ve všech rozměrech
srovnatelné s velikostí elektronu. Elektron lapený v kvantové tečce
potom smí nabývat jen tolika stavů, kolik mu umožní rozměry
tečky. Tyto struktury současné technologie vyrobit umí, a to minimálně
pro testovací účely. Současná moderní optoelektronika totiž kvantové
pasti používá ke zlepšení spektra laserů a světločivných prvků.
Samotné kvantové tečky ale nestačí - ještě potřebujeme být
schopni kvantové stavy inicializovat, měnit a vyhodnotit výsledky
dokončené operace. To zatím není vůbec jednoduché. V současné době se
hledají materiály a metodiky, jak tyto úlohy řešit. Kvantové počítače
budou také potřebovat úplně nové matematické modely, neboť pracují na
jiných principech, než klasické počítače. Matematici budou muset najít
způsoby, jak vytvořit programy pro kvantové počítače, které ještě
v praxi vůbec neexistují a výrobci zase budou muset vymyslet počítače
pro neexistující logiku. Ani ti největší optimisté nečekají, že bychom
se prvních funkčních kvantových počítačů v nejbližších deseti letech,
i ve velimi optimistických odhadech se hovoří spíše o desítkách
let.
|
|
|
Závěrečná otázka: kam s nimi?
Jestliže se splní všechna očekávání a všechny plány, které si
vytyčili výrobci procesorů, zřejmě se během nejbližších dvaceti let
dočkáme procesorů pracujících v blízkosti 1T Hz. To je jistě výborné,
ale budeme opravdu potřebovat takové procesory v obyčejných osobních
počítačích? Vizionáři nás ujišťují, že ano. "Počítač většinu svého
pracovního času čeká na vstupy od uživatele. Představte si, že nám
vyšší výkon umožní připravit takové procesory, které podle dosavadního
chování uživatele dokáží odhadnout, co se teprve chystá udělat," říká
Gerald Marcyk, jenž u Intelu zodpovídá za tu část vývoje, která
podporuje logické technologie.
Musím přiznat, že vlatně ani nevím, jestli si takový počítač
přeji. Po zkušenostech s různými programy, které se taky snažily
odhadnout, co budu za chvíli dělat, mne děsí představa, že se by můj
milý, tichý počítač změnil v obrovského (promiňte, nanometrového) pana
Sponku, který za mne bude číst maily a ještě mi bude mluvit do
karet. Ale třeba tyhle funkce půjdou vypnout a já budu mít superrychlý
procesor, který bude tisíckrát rychleji než ten současný čekat na mé
vstupy. A budu jej používat k rychlému zpracování obrázků, k hrátkám
s digitálním videem, budu jej ovládat hlasem a on mi oplátkou do
ničeho nebude mluvit.
|
|
Autorkou tohoto webu je LenkaKT, alias Lenka Kosková-Třísková. Bádám a vyučuji na TU Liberec. |
Poslední změna: 3. 3. 2011
|
|