Prawo Moore’a: Różnice pomiędzy wersjami
[wersja przejrzana] | [wersja przejrzana] |
m ujednolicam zapis daty dostępu w szablonie cytowania |
|||
Linia 15: | Linia 15: | ||
* przepustowości [[sieć komputerowa|sieci komputerowych]] |
* przepustowości [[sieć komputerowa|sieci komputerowych]] |
||
Nie wszystko jednak podlega tak rozszerzonemu prawu Moore’a, np. [[czas dostępu]] dla [[pamięć komputerowa|pamięci komputerowej]], dysków twardych czy sieci komputerowych maleje powoli, pomimo rosnącej ich [[ |
Nie wszystko jednak podlega tak rozszerzonemu prawu Moore’a, np. [[czas dostępu]] dla [[pamięć komputerowa|pamięci komputerowej]], dysków twardych czy sieci komputerowych maleje powoli, pomimo rosnącej ich [[Przepustowość kanału|przepustowości]]. W niewielkim stopniu spadły też ceny typowych komputerów, ich rozmiar czy pobór mocy. |
||
== Granice prawa Moore’a == |
== Granice prawa Moore’a == |
Wersja z 08:02, 6 mar 2023
Prawo Moore’a – prawo empiryczne, wynikające z obserwacji, że ekonomicznie optymalna liczba tranzystorów w układzie scalonym zwiększa się w kolejnych latach zgodnie z trendem wykładniczym (podwaja się w niemal równych odcinkach czasu). Autorstwo tego prawa przypisuje się Gordonowi Moore’owi, jednemu z założycieli firmy Intel, który w 1965 r. zaobserwował podwajanie się liczby tranzystorów co ok. 18 miesięcy[1]. Liczba ta była następnie korygowana i obecnie przyjmuje się, że liczba tranzystorów w mikroprocesorach od wielu lat podwaja się co ok. 24 miesiące. Na zasadzie analogii, prawo Moore’a stosuje się też do wielu innych parametrów sprzętu komputerowego, np. pojemności dysków twardych czy wielkości pamięci operacyjnej.
Zakres znaczenia
Termin ten jest też używany do określenia praktycznie dowolnego postępu technologicznego. „Prawo Moore’a”, mówiące że „moc obliczeniowa komputerów podwaja się co 24 miesiące”, jest nawet popularniejsze od oryginalnego prawa Moore’a.
Podobnie (z innym okresem) mówi się o:
- stosunku mocy obliczeniowej do kosztu
- liczbie tranzystorów w stosunku do powierzchni układu scalonego
- rozmiarach pamięci RAM
- pojemności dysków twardych
- przepustowości sieci komputerowych
Nie wszystko jednak podlega tak rozszerzonemu prawu Moore’a, np. czas dostępu dla pamięci komputerowej, dysków twardych czy sieci komputerowych maleje powoli, pomimo rosnącej ich przepustowości. W niewielkim stopniu spadły też ceny typowych komputerów, ich rozmiar czy pobór mocy.
Granice prawa Moore’a
Jednym z głównych powodów, dzięki któremu ten wykładniczy wzrost jest możliwy, jest stosowanie coraz mniejszych elementów w procesie fabrykacji. Współcześnie dominują technologie 14nm i ostatnio 7nm, kiedy we wczesnych latach 90. używano technologii 500 nm. Biorąc pod uwagę fizykę klasyczną rozmiary te nie mogą zmniejszać się bez końca – granicę stanowi tutaj rozmiar atomów, a kolejnym ograniczeniem jest prędkość światła w próżni wyznaczająca górną granicę dla prędkości przesyłania informacji.
Według dokumentów International Technology Roadmap for Semiconductors, uwzględniających potencjalne problemy z rozwojem i miniaturyzacją, należy oczekiwać kolejnych procesów dostępnych (na rynku) w latach, 32 nm – 2009, 22 nm – 2012, 14 nm – 2015, 10 nm – 2018(Intel), 7 nm - 2019(AMD), 5 nm ~ 2020, 3 nm ~ 2022, a dalszy rozwój w ramach elektroniki stoi pod znakiem zapytania. Ostatnie 10 lat będą miały mniejszą dynamikę wzrostu niż wskazuje na to Prawo Moore’a. [potrzebny przypis].
Po osiągnięciu granicy
Nawet jeżeli wymienione powyżej problemy pozostaną rozwiązane (nowe procesy litograficzne, użycie innych półprzewodników), zawsze można spodziewać się wystąpienia innych problemów w wytwarzaniu szybkich układów scalonych oraz wysokich kosztów. Dlatego już teraz trend całego przemysłu komputerowego jest skierowany ku tworzeniu układów wieloprocesorowych (lub wielordzeniowych) i przetwarzaniu równoległym (stosowanym do tej pory w wydajnych serwerach i superkomputerach). Również ta forma przedłużenia prawa Moore’a ma swoje granice w postaci prawa Amdahla i wysokich opóźnień w dostępie do danych (np. w pamięci RAM, tzw. ściana powolnej pamięci). Również dużym problemem obecnych technologii jest duży pobór prądu i wydzielane ciepło (rosnące wraz z częstotliwością pracy układów).
Zobacz też
Przypisy
- ↑ Gordon E. Moore , Cramming more components onto integrated circuits [online], Electronics Magazine 38 (8), 19 kwietnia 1965 [dostęp 2013-10-23] (ang.).