LenkaKT L.M.A.T.

Procesory pro 21. století

Softwarové noviny, 12/2002

"Když jsme uvedli v roce 1989 uvedli na trh procesor Intel 486 pracující na 25 MHz, lidé si mysleli, že je to rychlý procesor. Následující tři roky jsme strávil tím, že jsme se jej snažil zrychlit na 50 MHz. Dnes o 25 MHz zrychlujeme každý týden. A za dva roky nám na to bude stačit jediný den." (Pat Gelsinger, Chief Technology Officer, Intel Corporation)

Pamatujete si také tu slávu, s jakou byly před lety uváděny první procesory pracující s taktovací frekvencí 100 MHz? Dnes jsme o řád dále - pro trh jsou připravovány procesory pracující se 4 a více GHz a do konce desetiletí se zřejmě posuneme ještě o jeden řád výše. Co všechno si tyto změny vyžadují? A jak dlouho bude ještě možné zvyšovat výkon procesoru prostým zvýšením jeho taktovací frekvence?

Zdánlivě je to velmi prosté. Rychlejší procesor toho za jednu vteřinu stihne víc, protože provede více operací. To je pravda. Jenže vyšší rychlost s sebou přináší také nežádoucí jevy. Například vždy vyžaduje zmenšení tranzistorů tvořících procesor. S rostoucí frekvencí čipu navíc roste jeho spotřeba, ztrátové teplo je přitom nutné odvést povrchem, aby procesor neshořel. Jestliže jej kvůli zrychlení zmenšíme, musíme vyšší teplo odvést menší plochou. Spotřebu lze ovlivnit výškou napájecího napětí - čím nižší bude, tím nižší bude spotřeba. Jinými slovy, vyšší frekvence vyžaduje také nižší napájecí napětí.

Již nyní je jasné, na jaké hranice jednou narazíme, budeme-li postupovat podle jednoduchého vzoru vyšší výkon = vyšší taktovací frekvence. Procesor není možné neustále zmenšovat. Tranzistory, které tvoří jeho základ, totiž nebudou pracovat, pokud budou poskládány jen z několika atomů. Tranzistory také nebudou pracovat správně, pokud jim příliš snížíme napájecí napětí.

Co s tím? Máme několik možností. První z nich je změna vnitřní architektury procesoru. Dnes nejpoužívanější procesory s architekturou odvozenou od Pentia totiž nejsou žádný zázrak. Existují přece architektury (RISC, PowerPC), které dosáhnou srovnatelného výkonu s nižší taktovací frekvencí. Změna architektury je však příliš odvážný krok -- v konečném důsledku totiž vyžaduje úpravu architektury celého PC a také úpravu a nový překlad všech existujících aplikací. Pro uživatele to znamená přestavět kvůli procesoru celý počítač a ještě shánět nové aplikace. Pro vývojáře znamená nová architektura novou instrukční sadu a možná i novou metodiku pro návrh aplikací, což sebou nese nutnost pořídit si nové překladače a nové vývojové nástroje. A konečně pro výrobce představuje nová architektura zásah do výrobní linky a změnu výrobní technologie. Jinými slovy, nová architektura je jistou komplikací pro každého.

Proto je vcelku pochopitelné, že se výrobci takového kroku obávají a drží se stávající architektury jako klíšťata. A tak se stále dokola snaží vyrábět menší a menší tranzistory s menším a menším napájecím napětím, které zvládnou vyšší a vyšší taktovací frekvence.

Směrem k nanotechnologii

Základem všech digitálních obvodů je unipolární tranzistor, který přepíná mezi stavem logické jedničky a nuly. Hlavní charakteristikou, která se používá pro popis jeho velikosti, je délka řídící elektrody, neboli délka hradla. Od této veličiny lze snadno odvodit ostatní rozměry tranzistoru. Délka hradla také zásadním způsobem ovlivňuje další vlastnosti tranzistoru.

Již jsme uvedli, že vyšší frekvence vyžadují menší tranzistor. Jenže ten nelze zmenšovat do nekonečna. Proč? Všechny jeho charakteristiky totiž byly odvozeny za předpokladu, že je délka hradla alespoň o několik řádů větší než rozměry atomů v materiálu, z něhož je tranzistor vyroben. Jakmile se délka hradla přiblíží k velikosti atomů, přestanou tyto podmínky platit, a vůbec není jisté, že bude tranzistor pracovat tak, jak potřebujeme. Velkým problémem je také již zmíněná spotřeba - jakmile se s rozměry tranzistoru dostaneme pod 30 nm, začíná jeho spotřeba narůstat natolik, že jej téměř není možné chladit.

Současné tranzistory jsou vyráběny z křemíku, jehož atomy měří v průměru několik desetin nanometru. První unipolární tranzistory měly hradla dlouhá stovky mikrometrů a všechno bylo v pořádku. Dnes však už běžně v procesorech zcela pracují tranzistory, jejichž hradla se měří ve stovkách nanometrů. A jak to bude dál? Letos v březnu Intel oznámil, že již dokáže sériově vyrábět tranzistory s hradlem dlouhým jen 90 nm a pro příští roky slibuje posun až k 15 nm! Nejsou to žádné plané sliby - na webových stránkách firmy Intel můžete již dnes najít fotografie prvních takových tranzistorů, údajně se již podařilo vyrobit a otestovat tranzistor s hradlem dlouhým pouhých 10nm.

Jak to u Intelu dokázali? Zásadním způsobem změnili strukturu dnes používaných tranzistorů. Ty nové, označované jako DST (depleted substrate transistors), se původním unipolárním tranzistorům příliš nepodobají (viz obrázky 1 a 2). Mají dvě řídící elektrody, a především na rozdíl od klasických tranzistorů "trčí" nahoru z křemíkového podkladu a pro jejich realizaci se používají nové materiály. I když mají tyto tranzistory zatraceně krátké hradlo (až by se chtělo říci, že mají délku hradla proklatě nízko :-), ještě užší je vrstva izolantu, který odděluje hradlo od vlastního tranzistoru. Tato vrstva je totiž vysoká jen několik desetin nm (!) a je tvořena několika vrstvami atomů izolantu (viz obrázek 3). Vlastnosti izolace mezi řídící elektrodou a hradlem jsou také nesmírně důležité - čím je tenčí, tím je tranzistor rychlejší. Proto se výrobci snaží jej snižovat a proto se autoři DST tak rádi chlubí že "jejich" hradlo sedí jen nad 0,1 nm oxidu. Dříve se používal SiO2, pro DST se používají materiály označované jako "High K dielectrics". Mají ještě jednu příjemnou vlastnost, mnohem lépe izolují a výrazně tak snižují nežádoucí ztrátový proud mezi řídící elektrodou a tranzistorem. Zkrátka a dobře, DST je tak malý a tak úsporný, jak jen tranzistor pro 10 GHz může být. Součástky, které přijdou po něm, už pravděpodobně vůbec nebudou tranzistory, protože DST se už dotýká oné pomyslné hranice: jeho hradlový oxid už nemůže být tenčí a jeho rozměry také není možné výrazně snižovat, rozhodně ne o celé řády, jako tomu bylo u klasických tranzistorů.

Klasické procesory byly v podstatě "placaté", neboť vznikaly tak, že se do hloubky ploché podkladové destičky přidávaly různé příměsi. První vlaštovkou, která ukazuje, že tomu tak dlouho nebude, je zmíněný DST. A druhou vlaštovku vypustil Intel v polovině září: podařilo se vyrobit a otestovat skutečný trojrozměrný tranzistor. Na rozdíl od DST nyní z křemíku ven kouká celá aktivní část tranzistoru, nikoliv jen řídící elektroda. Proč jsou tyto tranzistory lepší? Obloukem se vrátíme zpět k problému s přílišným zahříváním tranzistoru. Zmenšíme-li klasickou planární strukturu, zmenšíme úměrně také vodivé cesty, které spojují jednotlivé prvky tranzistoru i tranzistory navzájem. Protože zůstane zachována velikost proudu, který obvodem protéká, začnou se vodivé cesty příliš zahřívat. Trojrozměrná struktura umožní zvětšit třikrát celkovou plochu pro vodivé cesty, neboť ty jsou nyní vedeny ze tří stran po povrchu sloupku tvořícího tranzistor. Navíc se na zvětšení objemu vodivých cest nemusí zvětšit plocha čipu - tranzistory přece vyrostou nahoru nad plochu. A protože nad plochou čipu ční tranzistory do závratné výše stovek nm, pravděpodobně ještě chvíli potrvá, než nám zde začnou překážet.

Problémy s litografií

I kdybychom zkusili zapomenout na fakt, že tranzistory prostě nemohou být nekonečně malé, i tak se při dalším a dalším zmenšování objeví jiný problém. Proces výroby současných polovodičových obvodů lze přirovnat k vyvolávání fotografií. Traznistory vznikají tak, že se na křemíkovou destičku postupně nanášejí nebo do ní vyleptávají jednotlivé vrstvy. Před každým krokem se destička pokryje citlivým materiálem a připraví se průsvitná maska s motivem, který chceme na destičku nanést. Maska funguje jako jakýsi negativ - skrze ni se posvítí na destičku a na místech, kam dopadlo světlo se změní struktura citlivého materiálu. Ten potom lze smýt a na destičce tak zůstane nanesen stejný motiv, jako byl na masce.

Základním limitním faktorem takového postupu je vlnová délka světla, kterým svítíme skrze masku. Udává totiž minimální rozměr, jaký jsme schopni na křemík nakreslit. Zhruba do začátku devadesátých let se používalo normální viditelné světlo. Jenže klasická litografie je použitelná jen pro rozměry do 100 nm. Menší motivy již vyžadují kratší vlnové délky. Proto se dnes výrobci musí posouvat ve spektru směrem k zářením s kratšími vlnovými délkami - k ultrafialovému záření, potom k rentgenovému záření a nakonec ke svazku elektronů s vysokou energií. Rovnou si přiznejme, že práce s takovými vlnovými délkami není nijak příjemná, neboť nás to nutí pracovat s vysokými energiemi a s agresivním zářením. To klade vysoké nároky na materiály, z nichž je vyrobena maska. Přitom právě masky jsou nejdůležitější součástí celého výrobního procesu, neboť chyba v masce znamená chybu ve všech vyráběných čipech. Kdyby byla maska poškozena průchodem vysoce energetického záření, došlo by ke znehodnocení celé série. Proto se musí hledat materiály, které jsou odolné vůči zářením s krátkými vlnovými délkami.

Nejdále pokročil výzkum v oblasti ultrafialového záření o krátkých vlnových délkách. Společnosti Intel, Motorola, AMD, Micron, Infineon založily konsorcium, které vyvíjí zařízení pro práci se zářením o vlnové délce 13 nm. Protože je toto záření poměrně snadno pohlcováno atmosférou i nejrůznějšími materiály, bylo nutno trochu upravit celý technologický proces, aby nebyl paprsek při průchodu maskou pohlcen. Proto bylo nakonec rozhodnuto, že litografie EUV bude používat odrazné masky.

Na podzim 2001 byly představeny standardní masky pro tuto technologii. Jejich velkou výhodou je, že k jejich výrobě bude možné použít stávající linky pro výrobu masek, jen bude nutné je trochu rozšířit. To je důležité, neboť výroba přesných masek je drahá a výrobní linky pro masky jsou také velmi drahé. Zhruba v té době byla také představena alfa verze výrobní linky pro tuto tehcnologii. V současné době již existují funkční prototypy, do výroby bude tento proces nasazen v roce 2005.

Jiné alternativy?

Předcházející řádky naznačují, že ještě pár let bude možné zvyšovat taktovací frekvence i hustotu integrace. Ale jedno je jasné: hranice už jsou opravdu blízko. Pesimisté hovoří o sedmi až devíti letech, optimisté říkají, že do roku 2016 je ještě pořád co zvyšovat.

V těchto souvislostech znamená změna architektury procesoru jen berličku pro několik nejbližších let. I když se změní architektura procesoru, takže bude možné dnes pracovat zase na 100 MHz, naše nenasytnost nás záhy dožene do velmi podobné situace. Proto výzkumná pracoviště hledají nová a úplně jiná řešení, než jsou logické obvody postavené na křemíkových destičkách.

V nejbližší budoucnosti se rýsují různé alternativy, ale žádná z nich nenahradí křemíkové technologie úplně. Silikon pravděpodobně částečně nahradí různé nové materiály, připravují se kvantové počítače a počítače pracující s DNA.

Začněme těmi posledně jmenovanými. DNA počítač je zařízení, v němž se jako aktivní látka používá namísto elektrických veličin deoxyribonukleová kyselina. Tyto počítače by dokázaly v jednom kroku provést paralelně velmi mnoho operací a proto by mohly být mnohem rychlejší, než stávající počítače. Zatím však existují jen funkční prototypy, které mnohem víc připomínají složité laboratorní zařízení, než opravdový počítač. Dokáží nyní - byť neuvěřitelně rychle - vyřešit jen jednu konkrétní úlohu, na niž musí být navrženy. Příprava úlohy trvá relativně dlouho a dlouho také trvá vyhodnocení výsledků. Tyto počítače se rozhodně na trhu domácích počítačů neuplatní. Jestliže se ale skutečně podaří vyrobit funkční a snadno ovladatelná zařízení, mohly by být použitelné tam, kde je nutné něco opravdu rychle počítat a kde nám nevadí, že výsledky výpočtu budeme ještě týden vyhodnocovat. Typickým případem je kryptografie a násilné prolamování šifer. Bez klasických počítačů se DNA počítače neobejdou asi nikdy - pro řízení výpočtu a při jeho vyhodnocování je nutný "normální" počítač.

Podobné je to zatím i s kvantovými počítači. Ty jsou v podstatě extrémním zmenšením klasických logických prvků. Klasická elektronika doslova plýtvá elektrony, k vyjádření jednoho logického stavu jich spotřebuje tisíce. Kvantové počítače by pro vyjádření jednoho logického stavu potřebovaly jen jednu jedinou částici. Logický stav by odpovídal kvantovému stavu, v němž by se částice nacházela. Analogií "našeho" bitu je pro kvantové počítače tzv. qbit, neboli kvantový stav systému definovaného pouhými dvěma základními stavy. Do N izolovaných qbitů lze uložit 2 na N komplexních čísel a s propojením qbitů roste jejich kapacita s mocniou 2. V praxi to znamená strašlivě malé počítače s neuvěřitelnou paměťovou kapacitou. A navíc budou strašně rychlé, protože dokáží přirozeně pracovat s logaritmy, což se docela hodí při násobení. Jenže kvantový svět se nedá dobýt tak snadno. Aby bylo možné kvantový počítač realizovat, musí se technologové naučit vyrábět tzv. kvantové tečky - struktury, které jsou ve všech rozměrech srovnatelné s velikostí elektronu. Elektron lapený v kvantové tečce potom smí nabývat jen tolika stavů, kolik mu umožní rozměry tečky. Tyto struktury současné technologie vyrobit umí, a to minimálně pro testovací účely. Současná moderní optoelektronika totiž kvantové pasti používá ke zlepšení spektra laserů a světločivných prvků.

Samotné kvantové tečky ale nestačí - ještě potřebujeme být schopni kvantové stavy inicializovat, měnit a vyhodnotit výsledky dokončené operace. To zatím není vůbec jednoduché. V současné době se hledají materiály a metodiky, jak tyto úlohy řešit. Kvantové počítače budou také potřebovat úplně nové matematické modely, neboť pracují na jiných principech, než klasické počítače. Matematici budou muset najít způsoby, jak vytvořit programy pro kvantové počítače, které ještě v praxi vůbec neexistují a výrobci zase budou muset vymyslet počítače pro neexistující logiku. Ani ti největší optimisté nečekají, že bychom se prvních funkčních kvantových počítačů v nejbližších deseti letech, i ve velimi optimistických odhadech se hovoří spíše o desítkách let.

Závěrečná otázka: kam s nimi?

Jestliže se splní všechna očekávání a všechny plány, které si vytyčili výrobci procesorů, zřejmě se během nejbližších dvaceti let dočkáme procesorů pracujících v blízkosti 1T Hz. To je jistě výborné, ale budeme opravdu potřebovat takové procesory v obyčejných osobních počítačích? Vizionáři nás ujišťují, že ano. "Počítač většinu svého pracovního času čeká na vstupy od uživatele. Představte si, že nám vyšší výkon umožní připravit takové procesory, které podle dosavadního chování uživatele dokáží odhadnout, co se teprve chystá udělat," říká Gerald Marcyk, jenž u Intelu zodpovídá za tu část vývoje, která podporuje logické technologie.

Musím přiznat, že vlatně ani nevím, jestli si takový počítač přeji. Po zkušenostech s různými programy, které se taky snažily odhadnout, co budu za chvíli dělat, mne děsí představa, že se by můj milý, tichý počítač změnil v obrovského (promiňte, nanometrového) pana Sponku, který za mne bude číst maily a ještě mi bude mluvit do karet. Ale třeba tyhle funkce půjdou vypnout a já budu mít superrychlý procesor, který bude tisíckrát rychleji než ten současný čekat na mé vstupy. A budu jej používat k rychlému zpracování obrázků, k hrátkám s digitálním videem, budu jej ovládat hlasem a on mi oplátkou do ničeho nebude mluvit.

Autorkou tohoto webu je LenkaKT, alias Lenka Kosková-Třísková. Bádám a vyučuji na TU Liberec.

Poslední změna: 3. 3. 2011