1. Der Ausdruck sequentielles Berechnen wird üblicherweise als Gegenbegriff zum parallelen Berechnen benutzt und kennzeichnet die normale Methode, mit einem einzigen Computer oder Prozessor zu rechnen.
2. Sie werden vielleicht einwerfen, daß eine wachsende Anzahl an Prozessoren nicht ausführbar ist, da ein Computer eine feste Größe besitzt. In einem engen Sinne stimmt dies zwar, doch ähnliche Argumente würden auch für Speicherplatz und eventuell auch den Zeitbedarf gelten. In der Komplexitätstheorie geht es aber darum zu messen, wie die Menge der benötigten Ressourcen mit der Eingabe wächst. Wir müssen ein algorithmisches Problem auch für die Eingaben von morgen lösen und können nicht jedesmal einen neuen Algorithmus entwerfen. In dieser Hinsicht werden Prozessoren als eine Ressource wie alle anderen auch betrachtet. Wir wollen einfach wissen, wie groß die Hardware für wachsende Eingaben sein muß.
3. P. M. B. Vitànyi „Locality, Communication and Interconnect Length in Multicomputers“, SIAM J. Comput. 17 (1988), S. 659–672.
4. Interessanterweise stellt sich heraus, daß Parallel-PTIME (also die Klasse der mit Parallelität in Polynomialzeit lösbaren Probleme) genau die Klasse PSPACE (der sequentiell lösbaren Probleme, die einen nur polynomialen Speicherplatzbedarf haben) ist. Daher ist die Frage, ob Parallel-PTIME größer als PTIME ist, gleichwertig zu einer Frage, die nur sequentielles Rechnen betrifft, nämlich ob PSPACE größer als PTIME ist. Diese P=PSPACE-Frage wird von den Wissenschaftlern als sehr schwierig angesehen, ähnlich wie die P=NP-Frage. Eine weitere zentrale Frage besteht darin, was „gut“ im Beisein von Parallelität wirklich bedeuten soll. Parallel-PTIME könnte nicht die richtige Wahl sein, denn wie bereits erwähnt, könnten polynomiale Parallelalgorithmen eine exponentielle Anzahl an Prozessoren benötigen und sogar mehr als polynomial viel Zeit, wenn sie auf einem wirklichen Parallelrechner laufen. Einer der Zwecke, für die man Parallelität eingeführt hat, liegt darin, die Laufzeit zu verringern, und zwar nach Möglichkeit drastisch. Oft wollen wir sublineare Algorithmen, welche die Parallelität in einem solchen Maße ausnutzen, daß normale Rechner in dieser Zeit nicht einmal die gesamte Eingabe lesen könnten. Diese Herausforderung führt auf die interessante Problemklasse NC. Probleme in NC gestatten äußerst schnelle Parallellösungen, viel schneller als Linearzeit (nämlich polylogarithmische Zeit), aber brauchen nur polynomial viele Prozessoren. Siehe N. Pippenger „On Simultaneous Resource Bounds (preliminary version)“, Proc. 20th IEEE Symp. on Foundations of Computer Science, IEEE, New York 1979, S. 307–311; S. A. Cook „Towards a Complexity Theory of Synchronous Parallel Computation“, L’Enseignement Mathématique 27 (1981), S. 99-124. Obwohl viele bekannte Probleme in NC liegen, zum Beispiel das Sortierproblem, wissen wir doch recht wenig über diese Klasse. Zum Beispiel weiß niemand, ob diese Art Beschleunigung für alle Probleme in PTIME möglich ist. Wir wissen zwar, daß NC in PTIME enthalten ist, dies wiederum in NP, und dieses in PSPACE; doch wir wissen nicht, ob die Inklusionen echt sind (also keine Gleichheit vorliegt). Die Situation verhält sich also folgendermaßen, wobei das Symbol $$ \mathop \subset \limits^? $$ bedeutet, daß die links davon stehende Menge in der rechts davon stehenden enthalten ist, aber unbekannt ist, ob Gleichheit vorliegt: NC $$ \mathop \subset \limits^? $$ PTIME $$ \mathop \subset \limits^? $$ NP $$ \mathop \subset \limits^? $$ PSPACE (= Parallel-PTIME) Viele Informatiker glauben, daß die Inklusionen echt sind. In Worten handelt es sich also um folgende drei Vermutungen (von links nach rechts): (1) Es gibt Probleme, die sequentiell mit wenig Zeitbedarf gelöst werden können, aber nicht parallel mit äußerst wenig Zeitbedarf und gutem Hardware-Aufwand. (2) Es gibt Probleme, die sequentiell mit wenig Zeitbedarf gelöst werden können, sofern magischer Nicht-Determinismus erlaubt ist, nicht aber ohne ihn. (3) Es gibt Probleme, die sequentiell mit wenig Speicherplatz gelöst werden können — oder gleichbedeutend, die parallel mit wenig Zeitbedarf gelöst werden können (aber eventuell schlechtem Hardware-Aufwand) —, die aber nicht sequentiell mit wenig Zeitbedarf gelöst werden können, auch nicht unter Zuhilfenahme magischen Nicht-Determinismus. Dies sind drei der tiefestgehenden, wichtigsten und schwierigsten offenen Fragen in der Informatik. Ein Beweis oder eine Widerlegung einer dieser vermuteten Ungleichheiten würde einen bedeutenden Durchbruch fur das Verständnis der Berechenbarkeit bringen}.
5. Die Ausdrücke „Las Vegas“ und „Monte Carlo“ sind nicht besonders aussagekräftig, aber aus irgendwelchen Gründen wurden sie von Informatikern benutzt und scheinen jetzt eingebürgerte Begriffe zu sein.