Was bedeutet die Anzahl der Kerne in einem Computerprozessor? Was ist besser: Multicore oder höhere Frequenz?

Wir haben ein unangenehmes Problem mit der Taktbegrenzung entdeckt. Nach Erreichen der 3-GHz-Schwelle sahen sich die Entwickler mit einem deutlichen Anstieg des Stromverbrauchs und der Wärmeableitung ihrer Produkte konfrontiert. Der Stand der Technik im Jahr 2004 erlaubte keine wesentliche Reduzierung der Transistorengröße in einem Siliziumkristall, und der Ausweg aus dieser Situation war der Versuch, nicht die Frequenzen zu erhöhen, sondern die Anzahl der pro Taktzyklus durchgeführten Operationen zu erhöhen. Aufgrund der Erfahrungen von Serverplattformen, bei denen bereits ein Multiprozessor-Layout getestet wurde, entschied man sich für die Kombination zweier Prozessoren auf einem Chip.

Seitdem ist viel Zeit vergangen; CPUs mit zwei, drei, vier, sechs und sogar acht Kernen sind weit verbreitet. Der Hauptmarktanteil wird jedoch immer noch von 2- und 4-Kern-Modellen eingenommen. AMD versucht, die Situation zu ändern, aber ihre Bulldozer-Architektur hat die Erwartungen nicht erfüllt und preisgünstige Achtkernprozessoren erfreuen sich weltweit immer noch nicht großer Beliebtheit. Deshalb ist die FrageWas ist besser: 2- oder 4-Kern-Prozessor, bleibt immer noch relevant.

Unterschied zwischen 2- und 4-Kern-Prozessor

Auf Hardware-EbeneDer Hauptunterschied zwischen einem 2-Kern-Prozessor und einem 4-Kern-Prozessor– Anzahl der Funktionsblöcke. Jeder Kern ist im Wesentlichen eine separate CPU, die mit eigenen Rechenknoten ausgestattet ist. 2 oder 4 solcher CPUs sind über einen internen Hochgeschwindigkeitsbus und einen gemeinsamen Speichercontroller für die Interaktion mit dem RAM miteinander verbunden. Auch andere Funktionseinheiten können gemeinsam sein: Die meisten modernen CPUs verfügen über individuelle Cache-Speicher der ersten (L1) und zweiten (L2) Ebene, Blöcke für Ganzzahlberechnungen und Gleitkommaoperationen. Der relativ große L3-Cache ist einer und für alle Kerne zugänglich. Separat können wir die bereits erwähnten AMD FX (sowie Athlon-CPUs und A-Serie-APUs) erwähnen: Sie haben nicht nur einen Cache-Speicher und einen Controller gemeinsam, sondern auch Gleitkomma-Recheneinheiten: Jedes dieser Module gehört gleichzeitig dazu zwei Kerne.

Diagramm des AMD Athlon Quad-Core-Prozessors

Aus BenutzersichtUnterschied zwischen 2 und 4- Kernprozessor ist die Anzahl der Aufgaben, die die CPU in einem Taktzyklus verarbeiten kann. Bei gleicher Architektur beträgt der theoretische Unterschied das Zweifache für 2 und 4 Kerne bzw. das Vierfache für 2 und 8 Kerne. Wenn also mehrere Prozesse gleichzeitig laufen, sollte eine Erhöhung der Anzahl eine Steigerung der Systemleistung mit sich bringen. Denn statt zwei Vorgänge kann eine Quad-Core-CPU vier gleichzeitig ausführen.

Was ist der Grund für die Beliebtheit von Dual-Core-CPUs?

Es scheint, dass Dual-Core-Prozessoren im Vergleich zu Modellen mit vier, sechs oder acht Kernen keine Chance haben, wenn eine Erhöhung der Kernzahl eine Leistungssteigerung mit sich bringt. Allerdings aktualisiert der Weltmarktführer im CPU-Markt, Intel, jährlich seine Produktpalette und bringt neue Modelle mit nur wenigen Kernen (Core i3, Celeron, Pentium) auf den Markt. Und das vor dem Hintergrund, dass Nutzer solchen CPUs auch bei Smartphones und Tablets mit Misstrauen oder Verachtung begegnen. Um zu verstehen, warum die beliebtesten Modelle Prozessoren mit zwei Kernen sind, sollten Sie mehrere Schlüsselfaktoren berücksichtigen.

Intel Core Prozessor i3 – die beliebtesten Dual-Core-Prozessoren für Heim-PCs

Kompatibilitätsproblem. Bei der Erstellung von Software achten Entwickler darauf, dass diese sowohl auf neuen Computern als auch auf bestehenden CPU- und GPU-Modellen funktioniert. Angesichts des Angebots auf dem Markt ist es wichtig sicherzustellen, dass das Spiel sowohl auf zwei als auch auf acht Kernen normal läuft. Der Großteil aller vorhandenen Heim-PCs ist mit einem Dual-Core-Prozessor ausgestattet, weshalb der Unterstützung solcher Computer die größte Aufmerksamkeit gewidmet wird.

Schwierigkeiten bei der Parallelisierung von Aufgaben. Um eine effiziente Nutzung aller Kerne zu gewährleisten, sollten die während des Programmlaufs durchgeführten Berechnungen unterteilt werden in gleiche Ströme. Eine Aufgabe, die alle Kerne optimal nutzen kann, indem man ihnen jeweils einen oder zwei Prozesse zuordnet, ist beispielsweise die gleichzeitige Komprimierung mehrerer Videos. Bei Spielen ist es schwieriger, da alle darin ausgeführten Operationen miteinander verbunden sind. Auch wenn die Hauptarbeit vom Grafikprozessor der Grafikkarte übernommen wird, ist es die CPU, die die Informationen für die Generierung eines 3D-Bildes aufbereitet. Es ist ziemlich schwierig, dafür zu sorgen, dass jeder Kern seinen eigenen Datenanteil verarbeitet und ihn dann synchron mit den anderen an die GPU weiterleitet. Je mehr Rechenströme gleichzeitig verarbeitet werden müssen, desto schwieriger ist die Umsetzung der Aufgabe.

Kontinuität der Technologien. Softwareentwickler nutzen für ihre neuen Projekte bestehende Entwicklungen, die einer wiederholten Modernisierung unterliegen. In manchen Fällen kommt es dazu, dass solche Technologien 10–15 Jahre alt sind. Eine Entwicklung, die auf einem zehn Jahre alten Projekt basiert, lässt sich nur sehr ungern oder gar nicht einer radikalen Überarbeitung zur idealen Optimierung unterziehen. Infolgedessen ist die Software nicht in der Lage, die Hardwarefunktionen des PCs sinnvoll zu nutzen. Spiel S.T.A.L.K.E.R. Call of Pripyat wurde 2009 (in der Blütezeit der Multi-Core-CPUs) veröffentlicht und basiert auf einer 2001-Engine und kann daher nicht mehr als einen Kern laden.

S.T.A.L.K.E.R. Nutzt nur einen Kern einer 4-Kern-CPU vollständig aus

Ähnlich verhält es sich mit dem beliebten Online-Rollenspiel World of Tanks: Die zugrunde liegende Big-World-Engine entstand 2005, als Multi-Core-CPUs noch nicht als einzige wahrgenommen wurden möglicher Weg Entwicklung.

World of Tanks weiß auch nicht, wie man die Last gleichmäßig auf die Kerne verteilt

Finanziellen Schwierigkeiten. Eine Konsequenz dieses Problems ist der vorherige Punkt. Wenn Sie jede Anwendung von Grund auf erstellen, ohne vorhandene Technologien zu nutzen, wird ihre Implementierung enorme Summen kosten. Beispielsweise betrugen die Kosten für die Entwicklung von GTA V mehr als 200 Millionen US-Dollar. Gleichzeitig wurden einige Technologien noch nicht „von Grund auf neu“ entwickelt, sondern aus früheren Projekten übernommen, da das Spiel für 5 Plattformen gleichzeitig geschrieben wurde (Sony PS3, PS4, Xbox 360 und One sowie PC).

GTA V ist für Multicore optimiert und kann den Prozessor gleichmäßig belasten

All diese Nuancen erlauben es uns nicht, das Potenzial von Multicore-Prozessoren in der Praxis voll auszuschöpfen. Interdependenz der Produzenten Hardware und Softwareentwickler schaffen einen Teufelskreis.

Welcher Prozessor ist besser: 2 oder 4 Kerne

Es liegt auf der Hand, dass trotz aller Vorteile das Potenzial von Multicore-Prozessoren noch immer ungenutzt bleibt. Einige Aufgaben wissen nicht, wie sie die Last gleichmäßig verteilen und in einem Thread arbeiten sollen, andere erledigen dies mit mittelmäßiger Effizienz und nur ein kleiner Teil der Software interagiert vollständig mit allen Kernen. Deshalb ist die FrageWelche besserer Prozessor, 2 oder 4 KerneDer Kauf erfordert eine sorgfältige Untersuchung der aktuellen Situation.

Auf dem Markt gibt es Produkte von zwei Herstellern: Intel und AMD, die sich in ihren Umsetzungsmerkmalen unterscheiden. Advanced Micro Devices konzentrieren sich traditionell auf Multi-Cores, während Intel einen solchen Schritt zurückhält und die Anzahl der Kerne nur dann erhöht, wenn dies nicht zu einer Verringerung der spezifischen Leistung pro Kern führt (was sehr schwer zu vermeiden ist).

Eine Erhöhung der Anzahl der Kerne verringert die endgültige Leistung jedes einzelnen Kerns

In der Regel ist die theoretische und praktische Gesamtleistung einer Multi-Core-CPU geringer als die einer ähnlichen CPU (aufgebaut auf der gleichen Mikroarchitektur, mit dem gleichen technischen Prozessor) mit einem einzigen Kern. Dies liegt daran, dass die Kernel gemeinsam genutzte Ressourcen nutzen, was jedoch nicht der Fall ist auf die bestmögliche Art und Weise wirkt sich auf die Leistung aus. Sie können also nicht einfach einen leistungsstarken Vier- oder Sechskernprozessor kaufen und erwarten, dass dieser auf keinen Fall schwächer ist als ein Zweikernprozessor derselben Serie. In manchen Situationen wird es so sein und es wird spürbar sein. Ein Beispiel ist die Ausführung alter Spiele auf einem Computer mit einem AMD FX-Prozessor mit acht Kernen: Die FPS sind manchmal niedriger als auf einem ähnlichen PC mit einer Quad-Core-CPU.

Braucht es heute Multicore?

Bedeutet das, dass viele Kerne nicht benötigt werden? Obwohl die Schlussfolgerung logisch erscheint, ist sie es nicht. Leichte Alltagsaufgaben (wie das Surfen im Internet oder das gleichzeitige Ausführen mehrerer Programme) reagieren positiv auf eine Erhöhung der Anzahl der Prozessorkerne. Aus diesem Grund konzentrieren sich Smartphone-Hersteller auf die Quantität und lassen die spezifische Leistung zurück. Opera (und andere Browser auf Chrom-Motor), Firefox wird alle gestartet Tab öffnen Als separater Prozess gilt: Je mehr Kerne, desto schneller der Übergang zwischen den Registerkarten. Dateimanager, Office-Programme, Player - an sich sind nicht ressourcenintensiv. Wenn Sie jedoch häufig zwischen ihnen wechseln müssen, verbessert ein Multi-Core-Prozessor die Systemleistung.

Der Opera-Browser weist jedem Tab einen eigenen Prozess zu

Intel ist sich dessen bewusst, denn die HuperThreading-Technologie, die es dem Kern ermöglicht, einen zweiten Thread mit ungenutzten Ressourcen abzuarbeiten, tauchte bereits zu Zeiten des Pentium 4 auf. Sie gleicht die mangelnde Leistung jedoch nicht vollständig aus.

Im Task-Manager erscheint ein 2-Kern-Prozessor mit Huper Threading als 4-Kern-Prozessor

Unterdessen holen die Spieleentwickler allmählich auf. Das Aufkommen neuer Generationen von Sony Play Station- und Microsoft Xbox-Konsolen hat Entwickler dazu angeregt, den Multi-Core-Funktionen mehr Aufmerksamkeit zu schenken. Beide Konsolen basieren auf AMD-Chips mit acht Kernen, sodass Programmierer bei der Portierung eines Spiels auf einen PC keinen großen Optimierungsaufwand mehr betreiben müssen. Angesichts der wachsenden Beliebtheit dieser Konsolen konnten diejenigen, die vom Kauf der AMD FX 8xxx enttäuscht waren, aufatmen. Wie aus den Testberichten hervorgeht, erobern Multi-Core-Prozessoren stark ihre Marktposition.

Ich habe Ihnen erklärt, warum das Wachstum der Prozessorfrequenzen bei mehreren Gigahertz ins Stocken geraten ist. Lassen Sie uns nun darüber sprechen, warum die Entwicklung der Anzahl der Kerne bei Consumer-Prozessoren ebenfalls extrem langsam verläuft: Beispielsweise erschien bereits 2006 der erste ehrliche Dual-Core-Prozessor (bei dem sich beide Kerne in einem Chip befanden), der auf der x86-Architektur basiert , vor 12 Jahren - das war Intel-Linie Kernduo. Und seitdem haben 2-Kern-Prozessoren die Arena nicht verlassen, außerdem entwickeln sie sich aktiv weiter: zum Beispiel erst neulich Lenovo-Laptop mit einem Prozessor, der auf der neuesten (für x86-Architektur) 10-nm-Prozesstechnologie basiert. Und ja, wie Sie vielleicht schon erraten haben, hat dieser Prozessor genau 2 Kerne.

Bei Consumer-Prozessoren liegt die Anzahl der Kerne seit der Veröffentlichung der Linie im Jahr 2010 bei 6 AMD-Phänomen X6 – ja, AMD FX waren keine ehrlichen 8-Kern-Prozessoren (es gab 4 APUs), genau wie Ryzen 7 zwei Blöcke mit je 4 Kernen nebeneinander auf dem Chip befanden. Und hier stellt sich natürlich die Frage: Warum ist das so? Immerhin ist es den gleichen Grafikkarten, die 1995/96 im Wesentlichen „single-headed“ (also mit 1 Shader) waren, inzwischen gelungen, ihre Zahl auf mehrere Tausend zu erhöhen – zum Beispiel gibt es in Nvidia Titan V solche ganze 5120 davon! Gleichzeitig haben sich Benutzerprozessoren über einen viel längeren Zeitraum der Entwicklung der x86-Architektur auf ehrliche 6 Kerne pro Chip und CPUs für Hochleistungs-PCs auf 18 festgelegt, also ein paar Größenordnungen weniger denen von Grafikkarten. Warum? Wir werden weiter unten darüber sprechen.

CPU-Architektur

Ursprünglich waren alle Intel x86-Prozessoren auf der CISC-Architektur (Complex Instruction Set Computing, Prozessoren mit vollständigem Befehlssatz) aufgebaut – das heißt, sie implementierten die maximale Anzahl an Befehlen „für alle Gelegenheiten“. Das ist einerseits großartig: In den 90er Jahren war beispielsweise die CPU sowohl für die Bildwiedergabe als auch für den Ton verantwortlich (es gab einen Life-Hack – wenn das Spiel langsam ist, kann es helfen, den Ton darin auszuschalten). Und schon jetzt ist der Prozessor eine Art Kombinierer, der alles kann – und das ist auch ein Problem: Eine zufällige Aufgabe über mehrere Kerne hinweg zu parallelisieren, ist keine triviale Aufgabe. Nehmen wir an, mit zwei Kernen geht das ganz einfach: Wir „hängen“ das System und alle Hintergrundaufgaben an einen Kern und nur die Anwendung an den anderen. Das wird immer funktionieren, aber die Leistungssteigerung wird bei weitem nicht doppelt so hoch sein wie üblich Hintergrundprozesse erfordern deutlich weniger Ressourcen als die derzeit schwere Aufgabe.

Auf der linken Seite sehen Sie ein Diagramm der Nvidia GTX 980 Ti GPU, in dem Sie 2816 zu Clustern zusammengefasste CUDA-Kerne sehen können. Rechts ist ein Foto eines AMD-Ryzen-Prozessorchips, auf dem 4 große Kerne zu sehen sind.

Stellen wir uns nun vor, wir hätten nicht zwei, sondern 4 oder sogar 8 Kerne. Ja, bei Archivierungs- und anderen Rechenaufgaben funktioniert die Parallelisierung gut (und deshalb können dieselben Serverprozessoren mehrere Dutzend Kerne haben). Aber was ist, wenn wir eine Aufgabe mit zufälligem Ausgang haben (was leider die Mehrheit ist) – sagen wir, ein Spiel? Schließlich hängt hier jede neue Aktion ganz vom Spieler ab, so dass es keine leichte Aufgabe ist, eine solche Last auf mehrere Kerne zu „verteilen“, weshalb Entwickler oft „handschriftlich“ schreiben, was die Kerne tun: Beispielsweise kann nur einer mit Bearbeitungshandlungen beschäftigt sein künstliche Intelligenz, ein anderer ist nur für den Surround-Sound zuständig und so weiter. Es ist fast unmöglich, selbst einen 8-Kern-Prozessor auf diese Weise zu belasten, was wir in der Praxis sehen.

Bei Grafikkarten ist alles einfacher: Die GPU kümmert sich tatsächlich nur um Berechnungen, und die Anzahl der Berechnungsarten ist begrenzt und gering. Dadurch ist es erstens möglich, die Rechenkerne selbst (Nvidia nennt sie CUDA) gezielt für die benötigten Aufgaben zu optimieren, und zweitens bereitet der Parallelisierungsprozess keine Schwierigkeiten, da alle möglichen Aufgaben bekannt sind. Und drittens erfolgt die Steuerung nicht durch einzelne Shader, sondern durch Rechenmodule, die 64-192 Shader umfassen, sodass eine große Anzahl von Shadern kein Problem darstellt.

Energieverbrauch

Einer der Gründe für den Verzicht auf einen weiteren Frequenzwettlauf ist der stark gestiegene Energieverbrauch. Wie ich bereits im Artikel über die Verlangsamung des Anstiegs der CPU-Frequenz erläutert habe, ist die Wärmeabgabe des Prozessors proportional zur dritten Potenz der Frequenz. Mit anderen Worten: Wenn der Prozessor bei einer Frequenz von 2 GHz 100 W Wärme abgibt, die im Prinzip problemlos mit einem Luftkühler abgeführt werden kann, sind es bei 4 GHz bereits 800 W, die bei abgeführt werden können am besten mit einer Verdampfungskammer mit flüssigem Stickstoff (wobei jedoch zu berücksichtigen ist, dass die Formel noch Näherungswerte ist und der Prozessor nicht nur über Rechenkerne verfügt, sondern es durchaus möglich ist, mit seiner Hilfe die Reihenfolge der Zahlen zu ermitteln).

Daher war die Vergrößerung der Breite eine hervorragende Lösung: Grob gesagt verbraucht ein Dual-Core-2-GHz-Prozessor 200 W, ein Single-Core-3-GHz-Prozessor jedoch fast 340 W, d. h. der Gewinn an Wärmeableitung beträgt mehr als 50 %, während bei Aufgaben mit guter Optimierung für Multithreading eine Dual-Core-CPU mit niedriger Frequenz immer noch schneller ist als eine Single-Core-CPU mit hoher Frequenz.


Ein Beispiel für eine Verdampfungskammer mit flüssigem Stickstoff zur Kühlung extrem übertakteter CPUs.

Es scheint, dass dies eine Goldgrube ist, wir stellen schnell einen 10-Core-Prozessor mit einer Frequenz von 1 GHz her, der nur 25 % mehr Wärme erzeugt als eine Single-Core-CPU mit 2 GHz (wenn ein 2-GHz-Prozessor 100 W erzeugt). von Wärme, dann 1 GHz - nur 12,5 W, 10 Kerne - etwa 125 W). Doch hier stoßen wir schnell auf die Tatsache, dass nicht alle Aufgaben gut parallelisiert sind, sodass sich in der Praxis häufig herausstellen wird, dass eine deutlich günstigere Single-Core-CPU mit 2 GHz deutlich schneller ist als eine deutlich teurere 10-Core-CPU mit 1 GHz. Aber es gibt immer noch solche Prozessoren – im Serversegment, wo es keine Probleme mit der Parallelisierung von Aufgaben gibt und eine 40-60-Kern-CPU mit Frequenzen von 1,5 GHz oft um ein Vielfaches schneller ist als 8-10-Kern-Prozessoren mit Frequenzen von 4 GHz, bei vergleichbarer Wärmeabgabe.

Daher müssen CPU-Hersteller sicherstellen, dass die Single-Thread-Leistung nicht leidet, wenn die Kerne wachsen, und unter Berücksichtigung der Tatsache, dass die Wärmeableitungsgrenze in einem typischen Heim-PC schon vor langer Zeit „gefunden“ wurde (diese liegt bei etwa 60). -100 W) gibt es Möglichkeiten, die Anzahl der Kerne bei gleicher Single-Core-Leistung und gleicher Wärmeableitung zu erhöhen, es gibt nur zwei Möglichkeiten: Entweder die Prozessorarchitektur selbst zu optimieren und ihre Leistung pro Taktzyklus zu erhöhen, oder den technischen Prozess zu reduzieren. Aber leider geht es bei beiden immer langsamer voran: In den mehr als 30 Jahren des Bestehens von x86-Prozessoren wurde fast alles, was möglich ist, bereits „poliert“, sodass die Steigerung bestenfalls 5 % pro Generation beträgt und die technische Reduzierung abnimmt Der Prozess wird aufgrund grundlegender Probleme bei der Herstellung korrekt funktionierender Transistoren immer schwieriger (bei Abmessungen von zehn Nanometern beginnen bereits Quanteneffekte zu wirken, es ist schwierig, einen geeigneten Laser herzustellen usw.) – daher erhöht sich leider die Anzahl der Kerne wird immer schwieriger.

Kristallgröße

Wenn wir uns die Fläche der Prozessorchips vor 15 Jahren ansehen, werden wir feststellen, dass sie nur etwa 100-150 Quadratmillimeter groß war. Vor etwa 5–7 Jahren „wuchsen“ die Späne auf 300–400 mm² an und... der Prozess kam praktisch zum Stillstand. Warum? Alles ist einfach: Erstens ist es sehr schwierig, Riesenkristalle herzustellen, weshalb die Anzahl der Defekte und damit die Endkosten der CPU stark ansteigen.

Zweitens nimmt die Zerbrechlichkeit zu: Ein großer Kristall kann sehr leicht spalten und seine verschiedenen Kanten können sich unterschiedlich erwärmen, was wiederum zu physischen Schäden führen kann.


Vergleich von Intel Pentium 3- und Core i9-Kristallen.

Und drittens bringt die Lichtgeschwindigkeit auch ihre eigene Grenze mit sich: Ja, sie ist zwar hoch, aber nicht unendlich, und bei großen Kristallen kann dies zu einer Verzögerung führen oder sogar den Betrieb des Prozessors unmöglich machen.

Infolgedessen stoppte die maximale Kristallgröße bei etwa 500 mm² und es ist unwahrscheinlich, dass sie weiter wächst. Um die Anzahl der Kerne zu erhöhen, müssen Sie daher deren Größe verringern. Es scheint, dass Nvidia oder AMD dazu in der Lage waren und ihre GPUs über Tausende von Shader verfügen. Hier ist jedoch zu verstehen, dass Shader keine vollwertigen Kerne sind – sie verfügen beispielsweise nicht über einen eigenen Cache, sondern nur über einen gemeinsamen, und das „Schärfen“ für bestimmte Aufgaben ermöglichte es, alles Unnötige „herauszuwerfen“. sie, was sich wiederum auf ihre Größe auswirkte. Und die CPU verfügt nicht nur über vollwertige Kerne mit eigenem Cache, sondern oft sind auch Grafik und diverse Controller auf demselben Kristall untergebracht – letztlich also wieder fast die einzige Möglichkeit, die Anzahl der Kerne bei gleicher Kristallgröße zu erhöhen sind die gleiche Optimierung und die gleiche Reduzierung des technischen Prozesses, und sie gehen, wie ich bereits geschrieben habe, langsam voran.

Betriebsoptimierung

Stellen wir uns vor, dass wir ein Team von Leuten haben, die verschiedene Aufgaben erledigen, von denen einige die Arbeit mehrerer Leute gleichzeitig erfordern. Wenn zwei Personen darin sind, können sie sich einigen und effektiv arbeiten. Vier ist schwieriger, aber die Arbeit wird auch recht effektiv sein. Was ist, wenn es 10 oder sogar 20 Personen sind? Hier brauchen wir bereits Kommunikationsmittel zwischen ihnen, sonst kommt es zu „Verzerrungen“ in der Arbeit, wenn jemand mit nichts beschäftigt ist. Bei Intel-Prozessoren handelt es sich bei diesem Kommunikationsmittel um einen Ringbus, der alle Kerne verbindet und es ihnen ermöglicht, Informationen untereinander auszutauschen.

Aber auch das hilft nicht: Beispielsweise bei gleichen Frequenzen 10-Kern- und 18-Kern-Prozessoren aus Intel-Generation Skylake-X unterscheiden sich in der Leistung nur um 25–30 %, obwohl sie theoretisch bis zu 80 % betragen sollten. Der Grund ist genau der Bus – egal wie gut er ist, es wird immer noch Verzögerungen und Ausfallzeiten geben, und je mehr Kerne, desto schlimmer wird die Situation. Aber warum gibt es dann bei Grafikkarten keine derartigen Probleme? Es ist ganz einfach: Wenn man sich die Prozessorkerne als Menschen vorstellen kann, die verschiedene Aufgaben ausführen können, dann ähneln die Recheneinheiten von Grafikkarten eher Robotern am Fließband, die nur bestimmte Anweisungen ausführen können. Sie müssen im Wesentlichen nicht „zustimmen“ – daher nimmt die Effizienz mit zunehmender Anzahl langsamer ab: Beispielsweise beträgt der CUDA-Unterschied zwischen 1080 (2560 Einheiten) und 1080 Ti (3584 Einheiten) in der Praxis 40 % beträgt sie etwa 25-35 %, dann gibt es deutlich weniger Verluste.


Je mehr Kerne, desto schlechter arbeiten sie zusammen, bis hin zu einem Leistungsgewinn von null, wenn die Anzahl der Kerne steigt.

Daher macht es keinen besonderen Sinn, die Anzahl der Kerne zu erhöhen – die Steigerung mit jedem neuen Kern wird immer geringer ausfallen. Darüber hinaus ist es ziemlich schwierig, dieses Problem zu lösen – Sie müssen einen Bus entwickeln, der die Datenübertragung zwischen zwei beliebigen Kernen mit der gleichen Verzögerung ermöglicht. In diesem Fall eignet sich die Sterntopologie am besten – wenn alle Kerne an einen Hub angeschlossen werden sollen, in der Realität jedoch noch niemand eine solche Implementierung durchgeführt hat.

Letztendlich ist es also, wie wir sehen, eine ziemlich schwierige Aufgabe, die Frequenz und die Anzahl der Kerne zu erhöhen, und das Spiel ist oft die Kerze nicht wert. Und es ist unwahrscheinlich, dass sich in naher Zukunft etwas ernsthaft ändern wird, da noch nichts Besseres als Siliziumkristalle erfunden wurde.

...im Laufe der Entwicklung wird die Anzahl der Kerne immer größer.

(Intel-Entwickler)

Noch Kern, und auch Kern und viele, viele mehr Kern!..

...Bis vor Kurzem hatten wir noch nichts davon gehört oder gewusst Multi-Core Prozessoren, und heute ersetzen sie aggressiv Single-Core-Prozessoren. Der Boom der Multi-Core-Prozessoren hat begonnen, der allerdings nur geringfügig anhält! – werden durch ihre relativ hohen Preise zurückgehalten. Aber niemand zweifelt daran, dass die Zukunft den Multi-Core-Prozessoren gehört!

Was ist ein Prozessorkern?

Im Zentrum eines modernen zentralen Mikroprozessors ( CPU– Abk. aus dem Englischen Zentraleinheit– zentrales Rechengerät) ist der Kern ( Kern) ist ein Siliziumkristall mit einer Fläche von etwa einem Quadratzentimeter, auf dem der Schaltplan des Prozessors, der sogenannte die Architektur (Chip-Architektur).

Der Kern ist mit dem Rest des Chips verbunden (das „Paket“ genannt). CPU-Paket) mit Flip-Chip-Technologie ( Flip Chip, Flip-Chip-Bonding– umgedrehter Kern, Befestigung im Umkehrkristallverfahren). Diese Technologie hat ihren Namen, weil der nach außen gerichtete – sichtbare – Teil des Kerns eigentlich dessen „Unterseite“ ist – um für eine bessere Wärmeübertragung direkten Kontakt mit dem Kühlkörper des Kühlers herzustellen. Auf der Rückseite (unsichtbar) befindet sich die „Schnittstelle“ selbst – die Verbindung zwischen Kristall und Verpackung. Die Verbindung zwischen Prozessorkern und Gehäuse erfolgt über Pin-Pins ( Löthöcker).

Der Kern befindet sich auf einer Textolith-Basis, entlang der Kontaktpfade zu den „Beinen“ (Kontaktpads) verlaufen, mit einer thermischen Schnittstelle gefüllt und mit einer schützenden Metallabdeckung abgedeckt sind.

Der erste (natürlich Single-Core!) Mikroprozessor Intel 4004 wurde am 15. November 1971 von der Intel Corporation eingeführt. Es enthielt 2.300 Transistoren, taktete mit 108 kHz und kostete 300 US-Dollar.

Die Anforderungen an die Rechenleistung des zentralen Mikroprozessors sind stetig gewachsen und wachsen weiter. Aber während frühere Prozessorhersteller sich ständig an die aktuell drängenden (ständig wachsenden!) Benutzeranforderungen anpassen mussten, sind Chiphersteller jetzt der Zeit voraus!

Leistungsverbesserungen herkömmlicher Single-Core-Prozessoren erfolgten lange Zeit vor allem durch eine konsequente Erhöhung der Taktfrequenz (ca. 80 % der Prozessorleistung wurde durch die Taktfrequenz bestimmt) bei gleichzeitiger Erhöhung der Anzahl der Transistoren auf einem Single-Core Chip. Eine weitere Erhöhung der Taktfrequenz (bei einer Taktfrequenz von mehr als 3,8 GHz überhitzen die Chips einfach!) stößt jedoch auf eine Reihe grundlegender physikalischer Hindernisse (da der technologische Prozess fast die Größe eines Atoms erreicht hat): Heutzutage werden Prozessoren in 45-nm-Technologie hergestellt und die Größe eines Siliziumatoms beträgt etwa 0,543 nm.

Erstens nimmt der Leckstrom der Transistoren zu, wenn die Kristallgröße abnimmt und die Taktfrequenz zunimmt. Dies führt zu einem erhöhten Stromverbrauch und einer erhöhten Wärmeabgabe;

Zweitens werden die Vorteile höherer Taktraten teilweise durch die Speicherzugriffslatenz zunichte gemacht, da die Speicherzugriffszeiten nicht mit steigenden Taktraten mithalten können.

Drittens werden herkömmliche serielle Architekturen bei einigen Anwendungen mit steigenden Taktraten aufgrund des sogenannten „von-Neumann-Engpasses“, einer Leistungsbeschränkung, die sich aus dem sequentiellen Rechenfluss ergibt, ineffizient. Gleichzeitig nehmen die Verzögerungen bei der RC-Signalübertragung zu, was einen zusätzlichen Engpass im Zusammenhang mit einer Erhöhung der Taktfrequenz darstellt.

Auch der Einsatz von Multiprozessorsystemen ist nicht weit verbreitet, da hierfür komplexe und teure Multiprozessor-Motherboards erforderlich sind. Daher wurde beschlossen, die Leistung von Mikroprozessoren auf andere Weise weiter zu verbessern. Das Konzept wurde als die effektivste Richtung anerkannt Multithreading, das seinen Ursprung in der Welt der Supercomputer hat, ist die gleichzeitige parallele Verarbeitung mehrerer Befehlsströme.

Also in den Tiefen des Unternehmens Intel wurde geboren Hyper-Threading-Technologie (HTT) ist eine Super-Threaded-Datenverarbeitungstechnologie, die es dem Prozessor ermöglicht, bis zu vier Programm-Threads gleichzeitig auf einem Single-Core-Prozessor parallel auszuführen. Hyper-Threading Erhöht die Effizienz beim Ausführen ressourcenintensiver Anwendungen (z. B. im Zusammenhang mit der Audio- und Videobearbeitung) erheblich. 3D-Simulation) sowie der Betrieb des Betriebssystems im Multitasking-Modus.

CPU Pentium 4 mit enthalten Hyper-Threading hat eins körperlich Kern, der in zwei Teile geteilt ist logisch, daher identifiziert das Betriebssystem ihn als zwei verschiedene Prozessoren (statt als einen).

Hyper-Threading wurde tatsächlich zum Sprungbrett für die Entwicklung von Prozessoren mit zwei physischen Kernen auf einem Chip. Bei einem 2-Kern-Chip arbeiten zwei Kerne (zwei Prozessoren!) parallel, die für eine niedrigere Taktfrequenz sorgen Ö bessere Leistung, da zwei unabhängige Befehlsströme parallel (gleichzeitig!) ausgeführt werden.

Als bezeichnet wird die Fähigkeit eines Prozessors bezeichnet, mehrere Programmthreads gleichzeitig auszuführen Parallelität auf Thread-Ebene (TLPParallelität auf Thread-Ebene). Benötigen für TLP hängt von der jeweiligen Situation ab (in manchen Fällen ist es einfach nutzlos!).

Die Hauptprobleme bei der Erstellung von Prozessoren

Jeder Prozessorkern muss unabhängig sein, einen unabhängigen Stromverbrauch und eine steuerbare Leistung aufweisen.

Der Softwaremarkt sollte mit Programmen ausgestattet sein, die den Befehlsverzweigungsalgorithmus effektiv in eine gerade (für Prozessoren mit einer geraden Anzahl von Kernen) oder eine ungerade (für Prozessoren mit einer ungeraden Anzahl von Kernen) Anzahl von Threads aufteilen können;

Nach Angaben des Pressedienstes AMD, heute macht der Markt für 4-Kern-Prozessoren nicht mehr als 2 % des Gesamtvolumens aus. Offensichtlich macht die Anschaffung eines 4-Kern-Prozessors für den Heimbedarf für einen modernen Käufer aus vielen Gründen immer noch wenig Sinn. Erstens gibt es heute praktisch keine Programme, die vier gleichzeitig laufende Threads effektiv nutzen können; zweitens die Hersteller Position 4-Core-Prozessoren als Hallo-End-Lösungen durch Ergänzung der Ausrüstung die modernsten Grafikkarten und volumetrisch Festplatten, – und dies erhöht letztlich die ohnehin schon teuren Kosten

Entwickler Intel Sie sagen: „... im Laufe der Entwicklung wird die Anzahl der Kerne immer größer ...“.

Was uns in Zukunft erwartet

In einem Konzern Intel Sie sprechen nicht mehr von „Multi-Core“ ( Multi-Core) Prozessoren, wie es in Bezug auf 2-, 4-, 8-, 16- oder sogar 32-Kern-Lösungen der Fall ist, aber über „Multi-Core“ ( Viele Kerne), was eine völlig neue Makrostruktur der Chiparchitektur impliziert, die mit der Prozessorarchitektur vergleichbar (aber nicht ähnlich) ist Zelle.

Die Struktur solcher Viele Kerne-Chip beinhaltet die Arbeit mit demselben Befehlssatz, jedoch unter Verwendung eines leistungsstarken zentralen Kerns oder mehrerer leistungsstarker CPU, „umgeben“ von vielen Hilfskernen, die dazu beitragen, komplexe Multimedia-Anwendungen im Multithread-Modus effizienter zu verarbeiten. Neben „Allzweck“-Kernen auch Prozessoren Intel wird auch über spezielle Kerne für die Ausführung verschiedener Aufgabenklassen verfügen – etwa Grafiken, Spracherkennungsalgorithmen und die Verarbeitung von Kommunikationsprotokollen.

Dies ist genau die Architektur, die Justin Rattner präsentiert ( Justin R. Rattner), Leiter der Branche Unternehmenstechnologiegruppe Intel, auf einer Pressekonferenz in Tokio. Ihm zufolge könnte es in einem neuen Mehrkernprozessor mehrere Dutzend solcher Hilfskerne geben. Im Gegensatz zum Fokus auf große, energieintensive Rechenkerne mit hoher Wärmeableitung stehen Multicore-Kristalle Intel aktiviert nur die Kerne, die zum Abschließen der aktuellen Aufgabe erforderlich sind, während die verbleibenden Kerne deaktiviert werden. Dadurch kann der Kristall genau so viel Strom verbrauchen, wie zu einem bestimmten Zeitpunkt benötigt wird.

Im Juli 2008 wurde die Gesellschaft Intel berichtete, dass es die Möglichkeit erwägt, mehrere Zehntausende Rechenkerne in einen Prozessor zu integrieren. Leitender Ingenieur der Firma Envar Galum ( Anwar Ghuloum) schrieb in seinem Blog: „Letztendlich empfehle ich, den folgenden Rat von mir zu befolgen … Entwickler sollten jetzt anfangen, über Dutzende, Hunderte und Tausende von Kernen nachzudenken.“ Ihm zufolge im Moment Intel erforscht Technologien, die das Computing „um die Anzahl der Kerne, die wir noch nicht verkaufen“ skalieren könnten.

Letztendlich werde der Erfolg von Multicore-Systemen von den Entwicklern abhängen, die wahrscheinlich die Programmiersprachen ändern und bestehende Bibliotheken neu schreiben müssten, sagte Galum.

Es ist unmöglich, dieses Problem zu verstehen, ohne zu wissen, was ein 4-Kern-Prozessor ist. Bei Single-, Dual- und Triple-Core-Prozessoren ist alles einfach: Sie haben jeweils einen, zwei oder drei Kerne. Beim 4-Kerner ist nicht alles so, wie es auf den ersten Blick scheint.

2- oder 4-Kern-Prozessor?

Die meisten Menschen machen den Fehler zu glauben, dass sich die Frequenz jedes Kerns addiert. Da die Frequenz der Kerne 2,5 GHz beträgt und es 4 Kerne gibt, bedeutet das 2,5 * 4 = 10 GHz. Dies ist jedoch nicht der Fall: Die Frequenz ist immer gleich – 2,5 GHz. Warum summiert sich die Häufigkeit nicht? Denn bei dieser Frequenz arbeitet jeder Prozessor parallel.

Ein Teil ist ein Zeitabschnitt, für dessen Berechnung der Prozessor allen in den Prozessor eintretenden Threads Ressourcen zuweist. Es ist wie bei 4 Autobahnen mit einer Höchstgeschwindigkeit von 60 km/h (2,5 GHz): Wir haben Lastwagen, die Waren an uns liefern müssen (das sind unsere Teile des Programms oder Teile des Programms), und damit wir die Geschwindigkeit erhöhen können Um die Liefergeschwindigkeit zu erhöhen (die Leistung des Systems zu steigern), müssen wir alle 4 Autobahnen nutzen oder die maximale Geschwindigkeit (3,0 GHz) erhöhen. Für die meisten Programme ist es jedoch unmöglich, in mehreren Threads zu arbeiten, da sie in einem Thread arbeiten und nur eine Autobahn nutzen können (was bedeutet, dass unserem Programm nur 25 % der gesamten Prozessorleistung zugewiesen werden), weil im Programm die Logik muss sequentiell (threaded) ausgeführt werden. Wenn Sie die Sequenz unterbrechen, wird die Logik unterbrochen, was zu Fehlern führt. Neue Programme versuchen, Multiprogramming zu nutzen – die Fähigkeit, in mehreren Threads (unseren Autobahnen) zu arbeiten und nicht in einem, wie die meisten Programme derzeit. Spiele sind größtenteils auch für Multithreading optimiert, der Hauptthread läuft jedoch normalerweise auf einem. Obwohl sie jetzt versuchen, es in mehrere aufzuteilen, um es einfacher und schneller zu machen. Daher ist es für Spiele oder Anwendungen, die normalerweise in einem oder zwei Threads laufen, besser, einen 2-Kern-Prozessor zu nehmen.

Wenn die Frequenz eines Dual-Core-Geräts mit der eines Quad-Core-Geräts übereinstimmt, ist es natürlich besser, ein Quad-Core-Gerät zu nehmen, da wir eine große Anzahl von Programmen gleichzeitig ausführen, wenn auch mit eine schwache Belastung. Wir gewinnen an Systemleistung, da alle anderen Prozesse auf einen anderen Kern verlagert werden können, wenn einer von ihnen vollständig ausgelastet ist. Aber normalerweise ist die Häufigkeit neuer Dual-Core-Modelle höher als die neuer Quad-Core-Modelle. Aus diesem Grund gewinnen beim Testen in Spielen 2-Kerner mit einer höheren Frequenz als 4-Kerner mit einer niedrigeren Frequenz.

Nun zu den Warteschlangen:

Lassen Sie uns nun verstehen, dass beim Übergang von Single-Core zu Dual-Core die Geschwindigkeit nicht nur aufgrund der gleichzeitigen Verarbeitung durch die Kerne, sondern auch aufgrund des Wartens und Anstehens auf dem Prozessor schneller zunimmt.

Die Frequenz eines Single-Core-Prozessors und eines Dual-Core-Prozessors ist gleich, aber der Computer läuft mit 2 Kernen schneller. Der Punkt ist, dass beim Multiprogramming beim Übergang von Single-Core zu Dual-Core die Geschwindigkeit deutlich steigt. Und Multiprogramming arbeitet mit Threads. Stellen wir uns zum Beispiel 2 Threads vor: Windows funktioniert und ein laufendes Computerspiel. Wenn wir einen Kern haben, werden das Spiel (Teil) und dann die Windows-Arbeit (Teil) nacheinander abgearbeitet. Prozesse müssen in der Schlange stehen, d. h. wenn ein „Teil“ des Spiels verarbeitet wird, muss Windows auf das Ende der Spielverarbeitung (Teil des Spiels) warten. Wenn wir auf 2 Kerne umgestiegen sind, beginnt der Computer selbst bei der gleichen Frequenz wie bei einem Einzelkern schneller mit der Verarbeitung, da die Warteschlange um das Zweifache reduziert wird.

Das erkläre ich am Beispiel von 100 Bewerbungen genauer. Wenn wir 1 Kern haben, dann wird 1 Bewerbung bearbeitet, die restlichen 99 warten darauf, an die Reihe zu kommen. Und je länger die Warteschlange ist, desto länger dauern die Aktualisierungen, und dann haben wir das Gefühl, dass unser System langsamer wird. Und wenn wir zwei Kerne haben, wird die Warteschlange in zwei Hälften geteilt, d. h. 50 Anwendungen auf dem einen und 50 auf dem anderen, sodass es einfacher und schneller ist, sie zu aktualisieren. Es ist wichtig zu wissen, dass die Warteschlange kleiner wird und unsere Anwendungen schneller aktualisiert werden.

Führen Sie für den Flow-Test winrar zum Komprimieren aus große Datei, und sehen Sie im Manager nach (er komprimiert ihn in einen Thread), wie viele Prozessorressourcen er verbrauchen wird (25 % auf 4 Kernen und 50 % auf 2 Kernen). Daraus folgt, dass unserem Spiel, wenn es in einem Thread auf einem Quad-Core-Prozessor läuft, 25 % der Prozessorleistung zugeteilt wird, 50 %, wenn es auf einem Dual-Core-Prozessor läuft. In Spielen gibt es Multithreading, aber der Hauptthread im Spiel wird immer noch von einem Viertel des Prozessors verarbeitet (in einem Quad-Core-Prozessor).

Alles wurde vereinfacht betrachtet: Ein 2-Kerner mit höherer Frequenz eignet sich besser für Spiele, da einem Thread mehr Frequenz zugewiesen wird, und ein 4-Kerner eignet sich für Multithread-Daten, beispielsweise wenn viele Anwendungen ausgeführt werden gleichzeitig.

Der 2-Kern-i5-Prozessor verfügt über eine Technologie, die es ihm ermöglicht, den Systembetrieb wie mit einem 4-Kern-Prozessor zu simulieren. Tatsächlich sind es nur 2 Kerne, für Windows wird jedoch der Betrieb von 4 Kernen simuliert. 4 Warteschlangen (Threads) 2 Warteschlangen (Threads) pro Kern werden nacheinander abgearbeitet. Jeder Kern nimmt einen Teil jedes Threads ein, das heißt, er kann Quad-Core sein.

Um den richtigen Laptop auszuwählen, müssen Sie festlegen, wie dieses Gerät verwendet werden soll. Der Punkt ist, dass genau die Software, die Sie darauf ausführen möchten, bestimmt, welches Modell Sie wählen müssen. Wenn Sie dies nicht im Voraus analysieren, kann es sein, dass Ihnen die Leistungsfähigkeit des Laptops schmerzlich fehlt und Sie ihn nicht bestimmungsgemäß nutzen können. Außerdem besteht die Gefahr, dass Sie für Funktionen, die Sie überhaupt nicht benötigen, zu viel bezahlen.

So ermitteln Sie die technischen Parameter eines Laptops

Die bestimmenden Parameter eines Laptops sind seine technischen Eigenschaften. Diese finden Sie im Gerätepass, den Sie bei den Beratern im Laden erfragen können. Sie können es auch herausfinden notwendige Informationen aus einer speziellen Broschüre, die neben dem Preisschild angebracht ist. In Online-Shops finden Sie diese Informationen in der Beschreibung jedes Modells.

Prozessortyp und -frequenz

Der Prozessor ist die Hauptkomponente eines jeden Geräts und bestimmt seine Betriebsgeschwindigkeit und seinen Energieverbrauch. Die wichtigsten Hersteller auf dem PC-Markt sind die bekannten Unternehmen Intel und AMD. Intel-Prozessoren sind teurer, aber ihre Produkte erweisen sich oft als echter technologischer Durchbruch in der IT-Technologie.

AMD-Prozessoren werden als kostengünstige und kostengünstige Lösung positioniert. Im Kampf um den Markt ist dieser Hersteller bestrebt, eine mit Intel-Produkten vergleichbare Leistung und niedrige Kosten aufrechtzuerhalten. Derzeit gehen Verbesserungen der Prozessorgeschwindigkeit in Richtung einer Erhöhung der Anzahl der Kerne sowie einer Optimierung ihres Zusammenspiels.

Die gängigsten Prozessoren in Laptops und Netbooks sind heute Single- und Dual-Core-Prozessoren. Allerdings erfreuen sich in jüngster Zeit auch Sechs- und Acht-Kern-Architekturen zunehmender Beliebtheit, die früher nur in Desktop-PCs verbaut wurden.

Anzahl der Prozessorkerne

Die wichtigsten technischen Parameter des Prozessors sind die Anzahl der Kerne, die Taktrate, der Cache-Speicher und die Busfrequenz. Vor einiger Zeit gelang es den Herstellern, die Leistung von Prozessoren einfach durch eine Erhöhung der Taktfrequenz zu steigern, was zu deren Überhitzung führte. Infolgedessen waren Entwickler gezwungen, nach einer neuen Möglichkeit zu suchen, die Leistung von Geräten zu steigern; die Lösung bestand in der Verwendung mehrerer Kerne, was eine Steigerung der Systemleistung durch die gleichzeitige Ausführung mehrerer Programmthreads ermöglichte.

Die Vorteile von Multicore-Prozessoren hängen weitgehend von der Art des verwendeten Prozessors ab. Software. Ältere Anwendungen, die nicht für Multi-Cores konzipiert sind, nutzen die zusätzlichen Kerne nur begrenzt, sodass Single-Core-Prozessoren bei der Ausführung älterer Programme möglicherweise eine bessere Leistung erbringen. Moderne Anwendungen sind für den Einsatz auf Geräten mit Mehrkernprozessoren konzipiert und Betriebssysteme verteilen die Last automatisch auf die Kerne.

Prozessorspezifikationen

Die CPU-Taktrate gibt an, wie schnell der Prozessor bestimmte Berechnungen durchführt. Dieser Wert wird in Gigahertz gemessen und wirkt sich direkt auf seine Rechenleistung aus. Heutzutage, da alle neuen Prozessormodelle Multi-Core-Prozessoren sind, ist die Taktrate nicht mehr das wichtigste Leistungsmerkmal.

Cache-Speicher ist ein ultraschneller Speicher, dessen Volumen zwischen 1 und 8 MB liegt. Befindet sich auf dem Prozessorchip. Um Videobearbeitungsprogramme, Spiele und Filme zu beschleunigen, wird viel Cache-Speicher benötigt.

Die Systembusfrequenz ist die Anzahl der Taktzyklen pro Sekunde, die der Systembus und der Hauptkanal für den Datenaustausch zwischen dem Prozessor mit RAM und anderen Geräten ausführen.

Rom

Bei der Auswahl eines Laptops ist es sehr wichtig, nicht den sehr häufigen Fehler zu machen, den viele unerfahrene Benutzer machen. Dieses Missverständnis ist darauf zurückzuführen, dass viele den Arbeitsspeicher als das Hauptmerkmal betrachten, das die Geschwindigkeit eines Computers bestimmt.

Tatsächlich kann RAM die Geschwindigkeit von Computeroperationen in keiner Weise verbessern, wenn andere Komponenten dies nicht zulassen. Beispielsweise ist ein leistungsstarker Multi-Core-Prozessor praktisch nutzlos, wenn er in einem Gerät mit 512 MB RAM installiert ist, während ressourcenintensive Anwendungen, die 4 GB RAM benötigen, auf einem schwachen Prozessor nicht laufen können.

Denken Sie auch daran, dass RAM eine Funktion ist, die erhöht werden kann, während der Prozessor und Hauptplatine kann nicht ersetzt werden. Deshalb gute Entscheidung Vielleicht kaufen Sie zum Beispiel einen Laptop mit 2 GB RAM, aber mit Hauptplatine, wodurch Sie die Kapazität auf bis zu 16 Gigabyte erhöhen können.

Bitte beachten Sie, dass Sie keinen Laptop mit mehr als 4 GB RAM kaufen sollten, wenn Sie 32-Bit-Windows XP installieren möchten Windows Vista, da diese Betriebssysteme einfach nicht mehr Speicher „sehen“.

Festplattenkapazität

Derzeit gibt es zwei Arten Festplatte, die sich in der internen Speichertechnologie voneinander unterscheiden – HDD und SDD. Das Festplattenlaufwerk (HDD) ist am gebräuchlichsten. Solche Scheiben sind zwar günstiger, haben aber noch eine Reihe weiterer Nachteile. Da alle darauf befindlichen Informationen in Form magnetisierter Zellen gespeichert und von einem speziellen beweglichen Kopf gelesen werden, können die Geräte durch Stürze oder Einwirkung von Magnetfeldern sehr leicht beschädigt werden.

Solid State Drives (SSDs) basieren auf der Flash-Speichertechnologie. Die gleiche Technologie ist bei USB-Sticks zu finden. Sie sind schneller, stoßfest und aufgrund des Verzichts auf bewegliche Teile auch völlig geräuschlos. Installieren des Betriebssystems auf solide Lagerung Damit können Sie das Gerät in wenigen Sekunden einschalten. Die maximale Kapazität von SSD ist derzeit geringer als die von HDD: 2 TB gegenüber 512 GB.

Derzeit sind NVidia und AMD die größten Hersteller von Grafikcontrollern auf dem Markt. Diese Hersteller konkurrieren ständig miteinander um die Marktführerschaft, daher stellt sich die Frage, ob man sich entscheiden soll NVidia-Grafikkarte oder AMD ist falsch. Jedes Unternehmen bietet Benutzern regelmäßig neue funktionale und produktive Produkte an. Daher ist es zum Vergleich notwendig, Geräte zu analysieren, die zu bestimmten Grafikkartenfamilien gehören.

Wenn Sie einen Laptop verwenden, um darauf moderne 3D-Spiele auszuführen, achten Sie unbedingt auf die Grafikkarte (Art des Grafikcontrollers) des Geräts. Derzeit gibt es in Laptops zwei Arten von Grafikcontrollern: integriert, wenn der Controller in den Prozessor integriert ist, und diskret, wenn der Controller ein separates Gerät ist. Einige Geräte verfügen gleichzeitig über integrierte und separate Controller.

Hauptmerkmale von Grafikkarten

Integriert in Hauptplatine, Mainboard, Motherboard Die Grafikkarte eines Computers nutzt die Ressourcen des Zentralprozessors und des RAM, um Grafiken zu verarbeiten. Ein solcher Controller ist im Vergleich zu einem externen Controller deutlich leistungsschwächer, kostet aber auch deutlich weniger. Wenn Sie den Laptop nicht für 3D-Spiele, Foto- und Videobearbeitung nutzen und gleichzeitig Kosten sparen möchten, ist der integrierte Grafikcontroller Ihre Wahl. Die eingebaute Grafikkarte ist durchaus in der Lage, nicht ressourcenintensive Spiele zu spielen und ermöglicht sogar das Ansehen von HD-Filmen. Es ermöglicht Ihnen auch, ältere Spiele auszuführen, die keine 3D-Grafik verwendeten.

Ein diskretes Grafiksystem zeichnet sich durch das Vorhandensein eines eigenen Prozessors aus, der speziell für die Anzeige grafischer Informationen entwickelt wurde. Darüber hinaus verfügt es über eine separate RAM(Videospeicher). Diskreter Speicher ist viel teurer und leistungsfähiger als integrierter Speicher.

Gewicht und Abmessungen des Geräts

Je nachdem, wie Sie den Laptop nutzen möchten, müssen Sie auf Gewicht und Abmessungen achten. Wenn Sie häufig reisen und planen, das Gerät auf Ihren Reisen mitzunehmen, dann ist es genau das Richtige für Sie wichtiger Punkt wird es sein, wie bequem es ist, den Laptop mitzunehmen.

Für einen komfortableren Transport müssen Sie jedoch auf die Leistung des Geräts verzichten. U kleines Gerät, für den ständigen Transport bestimmt, Bildschirmdiagonale nicht größer als 15 Zoll, Gewicht weniger als 2 Kilogramm, matte Beschichtung, was schwer zu kratzen ist. Für besonders häufige Reisen, bei denen Sie keine Spiele und ressourcenintensiven Anwendungen ausführen möchten, ist die Anschaffung eines Netbooks oder sogar eines Tablets deutlich rentabler.

Wenn Sie planen, Ihren Laptop ausschließlich zu Hause zu nutzen, sollten Sie sich darauf konzentrieren technische Spezifikationen Gerät, da dessen Gewicht und Abmessungen für Sie keine große Rolle spielen.

Akkuleistung und Akkulaufzeit

Wenn Sie planen, einen Laptop in Zügen und Nahverkehrszügen zu verwenden, wo es keine Steckdosen gibt, müssen Sie nur ein Modell wählen, das ohne Aufladen möglichst lange arbeiten kann.

Bei der Auswahl eines Laptops nach Zeit Batterielebensdauer Es ist notwendig, alle verfügbaren Informationen sehr sorgfältig zu analysieren. Oftmals stimmen die vom Hersteller angegebenen technischen Parameter überhaupt nicht mit den Testergebnissen überein. Wenn die Akkulaufzeit für Sie also ein sehr wichtiges Gerätemerkmal ist, lesen Sie unabhängige Laptop-Rezensionen in Computerzeitschriften. Darüber hinaus finden sich in Fachforen nützliche Informationen.

So verlängern Sie die Akkulaufzeit Ihres Laptops

Die Akkulaufzeit wird von mehreren Parametern beeinflusst: Prozessorleistung, Akkukapazität, Akkukapazität, Displayhelligkeit, Leistung, Nutzung zusätzlicher Geräte. Es gibt mehrere Möglichkeiten, die Betriebszeit des Geräts zu erhöhen, sie sind jedoch alle mit verschiedenen Einschränkungen verbunden (Reduzierung der Displayhelligkeit, Verweigerung der Arbeit mit ressourcenintensiven Anwendungen, Ausschalten). Netzwerkkarte oder WLAN-Adapter usw.). Der einfachste Weg, die Lebensdauer eines Laptops zu verlängern, besteht jedoch darin, einen Ersatzakku zu kaufen, den Sie einfach mitnehmen können.

Die neuesten Laptop-Modelle arbeiten energiesparend Intel-Technologien Speed-Step und AMD PowerNow!, die regulieren Taktfrequenz Prozessor.

Wechseldatenträger

Trotz der weit verbreiteten Nutzung von Internet- und Flash-Technologien ist es immer noch bequemer, einige Informationen auf CDs und CDs zu speichern DVD-Discs Der Vorteil liegt in den geringen Kosten und der Möglichkeit des Umschreibens.

Viele Hersteller lehnen den Einsatz jedoch ab optische Laufwerke, da Sie dadurch die Größe und das Gewicht des Geräts reduzieren können. Daher sind ultraportable Computer in der Regel nicht mit Laufwerken ausgestattet. Wenn Sie jedoch vorhaben, ständig neue Spiele auf Ihrem Laptop zu installieren und Filme anzusehen, ohne sie zu verwenden DVD-Laufwerk Du kommst nicht durch.

Operationssystem

In der Regel werden Laptops mit vorinstalliertem Betriebssystem verkauft. Die gängigsten Betriebssysteme sind derzeit die Windows-Familie: XP, Vista, 7, die für die Bedürfnisse der meisten Benutzer völlig ausreichend sind. Diese Systeme erfordern jedoch eine Lizenz und erhöhen daher die Kosten des Laptops. Wenn Sie also die Möglichkeit haben, einen Laptop mit ähnlichen technischen Parametern zu einem günstigeren Preis zu erwerben, ist dieser nicht für Sie geeignet Betriebssystem, können Sie es gerne kaufen und das erforderliche Betriebssystem selbst installieren.

Apple-Laptops verfügen über ein proprietäres Betriebssystem Mac-System Betriebssystem und eine Reihe aller für den Betrieb notwendigen Anwendungen. In diesem Fall müssen Sie nichts neu installieren. Am häufigsten verzichten Benutzer auf Linux/Unix-basierte Systeme, die höhere Qualifikationen erfordern und nicht für die Ausführung von Spielen und einer Reihe anderer Anwendungen geeignet sind.