8

Ich habe mich gerade gefragt, was andere CPU-Architekturen als INTEL & AMD zur Verfügung stehen. So, gefunden List of CPU architectures auf Wikipedia.Warum brauchen wir unterschiedliche CPU-Architektur für Server & Mini/Mainframe & Mixed-Core?

Es kategorisiert bemerkenswerte CPU-Architekturen in folgende Kategorien.

  1. Embedded CPU-Architekturen
  2. MikrocomputerCPU Architekturen
  3. Workstation/Server-CPU-Architekturen
  4. Mini/Mainframe-CPU-Architekturen
  5. Mixed-Core-CPU-Architekturen

ich ihre Zwecke wurde die Analyse und habe wenig Zweifel. Unter MikrocomputerCPU (PC) Architektur als Referenz und einen Vergleich mit anderen, die wir haben:

Embedded-CPU-Architektur:

  • Sie sind eine völlig neue Welt.
  • Eingebettete Systeme sind kleinen & tun sehr spezifische Aufgabe meist Echtzeit & geringer Stromverbrauch also nicht wir & so breites Register in einem Mikrocomputer CPU (typischer PC) so viele brauchen. Mit anderen Worten, wir brauchen eine neue kleine & winzige Architektur. Daher neue Architektur & neue Anweisung RISC.
  • Der obige Punkt verdeutlicht auch, warum wir ein separates Betriebssystem (RTOS) benötigen.

Workstation/Server-CPU-Architekturen

  • Ich weiß nicht, was ein Arbeitsplatz ist. Jemand klärt über die Workstation.
  • Ab dem Server. Es ist für die Ausführung einer bestimmten Software (Server-Software wie httpd, mysql etc.) bestimmt. Selbst wenn andere Prozesse laufen, müssen wir dem Serverprozess Priorität einräumen, daher besteht ein Bedarf für ein neues Ablaufplanungsschema und daher brauchen wir ein Betriebssystem, das sich von dem allgemeinen unterscheidet. Wenn Sie weitere Punkte für die Notwendigkeit eines Server-Betriebssystems haben, geben Sie dies bitte an.
  • Aber ich verstehe nicht, warum wir eine neue CPU-Architektur brauchen. Warum kann Microcomputer-CPU-Architektur die Arbeit nicht leisten. Kann jemand bitte klarstellen?

Mini/Mainframe-CPU-Architekturen

  • Auch weiß ich nicht, was diese & was miniframes oder Großrechnern verwendet? Ich weiß nur, dass sie sehr groß sind und den ganzen Boden einnehmen. Aber ich lese nie etwas über reale Probleme, die sie zu lösen versuchen. Wenn jemand an einem davon arbeitet. Teilen Sie Ihr Wissen.
  • Kann jemand seinen Zweck klarstellen & warum ist es, dass Mikrocomputer CPU archicture nicht dafür geeignet ist?
  • Gibt es dafür auch ein neues Betriebssystem? Warum?

Mixed-Core-CPU-Architekturen

  • nie davon gehört.

Wenn möglich halten Sie bitte Ihre Antwort in diesem Format:

XYZ CPU-Architekturen

  • Zweck der XYZ
  • Notwendigkeit für eine neue Architektur. Warum kann nicht aktuellen Mikrocomputer CPU Architektur arbeiten? Sie gehen bis 3GHZ & haben bis zu 8 Kerne.
  • Benötigen Sie ein neues Betriebssystem? Warum brauchen wir eine neue Art von Betriebssystem für diese Art von Architkturen?

EDIT:

Jungs, das ist kein Problem Hausaufgaben. Ich kann nichts tun, um euch glauben zu machen. Ich weiß nicht, ob die Frage nicht klar oder etwas anderes ist, aber ich bin nur an bestimmten technischen Details interessiert.

Lassen Sie mich einen Teil dieser Frage auf andere Weise stellen. Sie sind in einem Interview und wenn der Interviewer Sie fragt, "sagen Sie mir, Mikrocomputer-Prozessoren sind schnell & viel in der Lage und unsere PC-Betriebssysteme sind gut. Warum brauchen wir eine andere Architektur wie SPARC, Itanium und brauchen ein anderes Betriebssystem wie Windows Server." für Server? ". Was würdest du antworten? Ich hoffe, ich habe verstanden.

+1

Dies kann eine Frage sein, die am besten bei Server Fault fragt. – kevchadders

+0

Sind das Hausaufgaben? Warum brauchen Sie die Antworten, um dieses Format zu haben? –

+1

PC-Architektur ist ein Chaos, jeder OS-Entwickler würde Ihnen das sagen. Aber die Massenproduktion von grauen PC-Boxen mit einer Lebenserwartung von weniger als einem Jahr gibt den Menschen den Eindruck, dass es nie etwas Besseres gab und niemand etwas anderes möchte. Es ist Marketing. –

Antwort

2

Mainframe

  • Prozesse enorme Menge an Informationen mit vielen Anweisungen zur gleichen Zeit ausgeführt werden.
  • Ein Heimcomputer (PC/Desktop) kann nicht viel Code gleichzeitig verarbeiten und verarbeitet nicht viele Daten.
  • Ein Betriebssystem speziell für die jeweilige Architektur macht es effizienter für die spezifische Hardware.

HW Architektur Beispiel

Eine Wettermainframe-Verarbeitung in Echtzeit Informationen von Sensoren in verschiedenen Zuständen.

OS Architektur Beispiel

Lasst sich der normale Befehl sagt etwas zu zeichnen ist: DRAW "text". Das ist auf einem normalen PC.Nehmen wir nun an, Sie haben viele Bildschirme und möchten das gleiche auf jedem Bildschirm zeichnen. Auf diesem PC müssen Sie DRAW "text" aufrufen. Sie können jedoch einige Hardware mit einem Befehl "DRAWS" machen, die automatisch den gleichen Text auf jedem Bildschirm zeichnet: DRAWS "text"

0

Auf den Punkt gebracht: Jedes Design muss einige Anforderungen erfüllen. Um komplexe Anforderungen zu erfüllen, müssen Kompromisse gemacht werden. Wenn die Anforderung X bis zum n-ten Grad erfüllt wird, kann es unmöglich sein, die Anforderung Y zu erfüllen. Also, ob Sie über CPUs oder Waschmaschinen sprechen, wird es eine Vielzahl geben Designs, die eine Vielzahl von Anforderungen erfüllen.

Die Situation wird durch die Entwicklung beider Technologien und der Anforderungen im Laufe der Zeit komplexer, aber nicht wesentlich verändert.

-1

Konnten Sie zum Beispiel alle Transportprobleme in der Welt lösen, wenn das einzige Fahrzeug ein toyota Anhalter des automatischen Getriebes war (die alten kleinen nicht die neuere volle Größe)?

Warum würden Sie jemals etwas anderes brauchen?

Nun, nicht jeder kann einen Stock fahren, nicht jeder passt in einen Toyota (ich denke Höhe mehr als Breite). Du kannst die Familie nicht tragen. Sie können keine großen Objekte transportieren, sicherlich nicht effizient. Wie bringen Sie die LKWs zum Händler zum Verkaufen? Sie einzeln fahren?

Wenn wir einen Server-Klasse-Prozessor in unserer Fernsehfernbedienung verwenden würden, würden wir ein Verlängerungskabel und einen Kühlventilator benötigen oder die Batterien bei jedem Tastendruck ersetzen und darauf warten, dass er zuerst startet.

Rtoses und Betriebssysteme, gleiche Antwort wie oben. Sie verwenden kein Rtos in einem Mikrocontroller mit niedriger Leistung, normalerweise nicht, Sie haben oft ROM in Hunderten von Bytes gemessen und RAM in Dutzenden von Bytes gemessen. Kein Platz für Bloatware. Speziell entwickelte Software für speziell entwickelte Hardware.

Schauen Sie sich die ARM vs Intel-Sache jetzt geht, Intel ist schrecklich im Hardware-Design, ihr Erfolg ist rein in Konferenzräumen und Telecons nicht in Hardware auf einem Motherboard. Sie können die gleiche Leistung mit alternativen Anweisungssätzen von alternativen Anbietern zu einem Bruchteil der Anfangs- und Betriebskosten erzielen. Warum sich mit einer uralten Lösung begnügen?

Nur wenige Betriebssysteme sind zuverlässig, gleiches gilt für Compiler und Hardware. Einige Software und Hardware ist auf Leistung oder Zuverlässigkeit ausgelegt, aber nicht unbedingt auf Benutzerfreundlichkeit. Ich möchte nicht, dass der Fahrwerkshebel den Piloten dazu bringt, zu einer Maus zu greifen und die OK-Taste auf dem "Bist du sicher, dass du das Fahrwerkfenster aufstellen willst" zu überprüfen und dann die Sanduhr zu sehen, während sie darüber nachdenkt ob man es macht oder nicht.

Aus dem gleichen Grund benötigen Sie einen Pickup für einige Jobs und einen Sattelzug für andere, Sie benötigen eine Klasse von Maschinen (und Software) für den Desktop, einen für kleine und mittlere Business Server und einen für große Unternehmen . Sie können nicht einfach eine Pickup kleiner und unendlich größer je nach Job, Sie brauchen mehr Räder manchmal, Gehäuse oder nicht, mehr oder weniger Sitze, Zapfwellen, Hydraulik oder nicht, etc je nach der Aufgabe, für die es bestimmt ist.

Wo wären wir, wenn wir beim 8-Bit-Prozessor mit CP/M gestoppt hätten? Es löst alle Probleme der Welt, warum sollte jemals eine Alternative entwickelt werden? 100% der Innovationen, Kosteneinsparungen, Leistungssteigerungen sind das Ergebnis der Befragung der aktuellen Lösung und dem Versuch, etwas anderes zu versuchen.

Eine Einheitsgröße passt für niemanden gut.

+0

-1 Ich danke Ihnen für Ihre Zeit und Mühe, um mich das Zeug zu verstehen. Aber ich bin nicht dumm genug zu wissen, warum wir andere Lösungen brauchen. Sie lösen verschiedene Probleme. Aber das ist nur ein Überblick. Ich bin auf der Suche nach bestimmten technischen Details, nicht nach der Philosophie, warum wir verschiedene Dinge machen müssen. Deshalb habe ich nicht nur gefragt, was ich brauche, sondern technische Details über das, was ich weiß, geschrieben und deshalb auch ein Antwortformat angefordert. – claws

+0

Lass es mich so sagen. Sie sind in einem Interview und wenn der Interviewer Sie fragt, "sagen Sie mir, Mikrocomputer-Prozessoren sind schnell und sehr fähig und unsere PC-Betriebssysteme sind gut. Warum brauchen wir eine andere Architektur wie SPARC, Itanium und benötigen ein anderes Betriebssystem wie Windows Server für Server? ". Ist das nicht ein Teil meiner Frage? Wäre es angemessen, wenn ich deine Antwort gebe? – claws

9

Workstations sind jetzt fast ausgestorben Form von Computern. Im Grunde genommen waren sie High-End-Computer, die wie Desktops aussahen, aber mit einigen wichtigen Unterschieden, wie RISC-Prozessoren, SCSI-Laufwerke anstelle von IDE und mit UNIX- oder (später) NT-Betriebssystemen von Windows. Mac Pro kann als eine aktuelle Form der Workstation angesehen werden.

Mainframes sind groß (obwohl sie nicht unbedingt ganze Etage belegen) Computer. Sie bieten eine sehr hohe Verfügbarkeit (die meisten Teile eines Mainframes, einschließlich Prozessoren und Speicher, können ausgetauscht werden, ohne dass das System herunterfährt) und Abwärtskompatibilität (viele moderne Mainframes können unmodifizierte Software ausführen, die für 70 Mainframes geschrieben wurde).

Der größte Vorteil der x86-Architektur ist die Kompatibilität mit der x86-Architektur. CISC wird normalerweise als veraltet angesehen, weshalb die meisten modernen Architekturen auf RISC basieren. Auch neue Intel & AMD Prozessoren sind RISC unter der Haube.

In der Vergangenheit war die Lücke zwischen Heimcomputern und "professioneller" Hardware viel größer als heute, so dass "Mikrocomputer" -Hardware für Server nicht geeignet war. Als die meisten RISC- "Server" -Architekturen (SPARC, PowerPC, MIPS, Alpha) erstellt wurden, waren die meisten Mikrocomputerchips immer noch 16 Bit. Erster 64-Bit-PC-Chip (AMD Opteron) ausgeliefert über 10 Jahre nach MIPS R4000. Das gleiche galt für Betriebssysteme: PC-Betriebssysteme (DOS und Nicht-Windows NT) waren für Server einfach nicht geeignet.

In eingebetteten Systemen sind x86-Chips einfach nicht leistungsfähig genug. ARM-Prozessoren bieten eine vergleichbare Verarbeitungsleistung mit viel weniger Energie.

+0

+1 das war hilfreich. aber können Sie einige Hinweise geben, um diesen Punkt zu unterstützen "Sogar neue Intel- und AMD-Prozessoren sind RISC unter der Haube." – claws

+0

http://en.wikipedia.org/wiki/IA-32#Current_implementations –

+0

Aber vielleicht sollte ich sagen "sind irgendwie RISC-wie unter der Haube". –

6

Ich weiß nicht, was eine Arbeitsstation ist. Jemand klären über die Workstation.

Workstations verwendet, um eine Klasse von Systemen sein soll, die von einzelnen für Aufgaben (oder alternierend) Benutzern verwendet werden, die mehr Rechenleistung als ein PC angeboten gefordert. Sie starben im Grunde in den 1990er Jahren aus, da die Größenvorteile in R & D es erlaubten, dass Standard-PC-Hardware die gleiche (und schließlich mehr) Leistung für einen viel niedrigeren Preis bot.

Workstations wurden von Firmen wie Sun, SGI und HP hergestellt. Sie hatten normalerweise eine proprietäre Unix-Variante und hatten oft spezialisierte Hardware. Typische Anwendungen waren wissenschaftliche Datenverarbeitung, CAD und High-End-Grafik.

"Workstation-Architekturen" zeichneten sich durch das Ziel aus, hohe Leistung für Einzelplatzanwendungen zu bieten, wobei der Preis eine sehr untergeordnete Rolle spielte.

4

Es wird wahrscheinlich helfen, darüber nachzudenken, wie die Welt vor zwanzig Jahren aussah.

Damals war es nicht so teuer, Weltklasse-CPUs zu entwickeln und zu bauen, und so viele Unternehmen hatten ihre eigenen. Was seitdem passiert ist, ist größtenteils durch die steigenden Preise für CPU-Design und Fabs erklärbar, was bedeutet, dass das, was in sehr großen Stückzahlen verkauft wurde, viel besser überstanden hat als das, was nicht.

Es gab Mainframes, meist von IBM. Diese sind auf hohen Durchsatz und Zuverlässigkeit spezialisiert. Sie würden nichts Besonderes mit ihnen machen, da es viel kosteneffektiver ist, kostengünstigere Maschinen zu verwenden, aber sie waren und sind ideal für große Geschäftstransaktionen, wie sie in COBOL programmiert sind. Banken verwenden viele davon. Dies sind spezialisierte Systeme. Außerdem führen sie Programme von weit her aus, daher ist die Kompatibilität mit frühen IBM 360s in Architektur und Betriebssystem viel wichtiger als die Kompatibilität mit x86.

Damals gab es Minicomputer, die kleiner als Mainframes waren, in der Regel einfacher zu bedienen und größer als alles andere. Diese hatten ihre eigenen CPUs und Betriebssysteme. Ich glaube, sie starben zu der Zeit, und sie sind jetzt größtenteils tot. Die führende Minicomputerfirma, Digital Equipment Corporation, wurde schließlich von Compaq, einem PC-Hersteller, gekauft. Sie neigten dazu, spezielle Betriebssysteme zu haben.

Es gab auch Workstations, die hauptsächlich als Personal Computer für Leute gedacht waren, die viel Rechenleistung benötigten. Sie hatten wesentlich sauberere CPUs als Intels im Allgemeinen, und zu dieser Zeit konnten sie viel schneller laufen. Eine andere Form der Workstation war die Lisp Machine, die zumindest in den späten 80er Jahren von Symbolics und Texas Instruments erhältlich war. Dies waren CPUs, die entworfen wurden, um Lisp effizient zu betreiben. Einige dieser Architekturen bleiben bestehen, aber im Laufe der Zeit wurde es viel weniger kosteneffektiv, diese aufrechtzuerhalten. Mit Ausnahme von Lisp-Rechnern liefen diese Versionen von Unix.

Der Standard-IBM-kompatible Personalcomputer der damaligen Zeit war nicht so leistungsstark und die Komplexität der Intel-Architektur hielt ihn deutlich zurück. Das hat sich geändert. Die Macintoshes der Zeit liefen auf Motorolas 680x0-Architekturen, die erhebliche Vorteile in der Rechenleistung boten. Später wechselten sie zur PowerPC-Architektur, die von IBM-Workstations entwickelt wurde.

Embedded-CPUs, wie wir sie jetzt kennen, stammen aus den späten 1970er Jahren. Sie zeichneten sich dadurch aus, dass sie komplette Low-End-Systeme mit geringer Chipanzahl, vorzugsweise mit wenig Leistung, waren. Der Intel 8080 war, als er herauskam, im Wesentlichen eine Drei-Chip-CPU und benötigte zusätzliche Chips für ROM und RAM. Der 8035 war ein Chip mit einer CPU, einem ROM und einem RAM an Bord, entsprechend weniger leistungsfähig, aber für eine große Anzahl von Anwendungen geeignet.

Supercomputer hatten von Hand entworfene CPUs und zeichneten sich dadurch aus, dass sie das parallele Rechnen so einfach wie möglich machten und die CPU für (hauptsächlich) Fließkomma-Multiplikation optimierten.

Seitdem sind Mainframes sehr erfolgreich in ihrer Nische geblieben, und Minicomputer und Workstations wurden stark gequetscht. Einige Workstation-CPUs bleiben teilweise aus historischen Gründen übrig. Macintoshes wechselte schließlich von PowerPC zu Intel, obwohl IIRC der PowerPC in Xbox 360 und einigen IBM Maschinen weiterlebt. Die Kosten für die Aktualisierung eines guten Betriebssystems sind gestiegen, und moderne Nicht-Mainframe-Systeme neigen dazu, entweder Microsoft Windows oder Linux zu verwenden.

Embedded Computer sind auch besser geworden. Es gibt immer noch kleine und billige Chips, aber die ARM-Architektur wird immer wichtiger. Es war in einigen frühen Netbooks und ist im iPhone, iPad und vielen vergleichbaren Geräten. Es hat den Vorteil, dass es bei geringem Stromverbrauch relativ leistungsstark ist, wodurch es sich sehr gut für tragbare Geräte eignet.

Die andere Art von CPU, auf die Sie bei herkömmlichen Systemen stoßen werden, ist die GPU, die speziell für die Hochgeschwindigkeits-Parallelverarbeitung entwickelt wurde. Es gibt Software-Plattformen, die es ermöglichen, diese für andere Dinge zu programmieren und ihre Stärken auszunutzen.

Der Unterschied zwischen Desktop- und Serverversionen von Betriebssystemen ist nicht mehr grundlegend. In der Regel haben beide das gleiche zugrunde liegende Betriebssystem, aber die Schnittstellenebene ist sehr unterschiedlich. Ein Desktop oder Laptop ist so konzipiert, dass er von einem Benutzer leicht verwendet werden kann, während ein Server von einer Person verwaltet werden muss, die auch eine ganze Reihe anderer Server verwaltet.

Ich werde einen Stich im gemischten Kern nehmen, aber ich kann nicht genau sein (Korrekturen willkommen). Die Sony Playstation 3 hat einen seltsamen Prozessor mit verschiedenen Kernen, die für verschiedene Zwecke spezialisiert sind. Theoretisch ist dies sehr effizient. Praktischerweise ist es sehr schwierig, ein Mixed-Core-System zu programmieren, und sie sind eher spezialisiert.Ich denke nicht, dass dieses Konzept eine besonders gute Zukunft hat, aber es macht in der Gegenwart schöne Dinge für Sony-Verkäufe.

+1

Es ist erwähnenswert, dass Mikroprozessoren, wenn man noch ein bisschen weiter zurückgeht, nicht für "Rechen" -Tasks gedacht waren, sondern für Hardware-Steuerungsaufgaben, die entweder mit diskreter Logik oder mit niedriger Logik ausgeführt worden wären. Endprozessoren, die aus diskreter Logik für Hardware-Schnittstellen aufgebaut sind. Während es möglich gewesen wäre, ein Anzeigeterminal unter Verwendung von vollständig diskreter Logik aufzubauen, könnte beispielsweise die Menge an Logik, die benötigt wird, um einen Prozessor vergleichbar mit einem Low-End-PIC zu bilden, mit der Tastatur, der Anzeige und der seriellen Schnittstelle verbunden sein weniger als ... – supercat

+0

... wäre erforderlich gewesen, um alle für ein relativ einfaches Terminal erforderlichen Funktionen auszuführen. – supercat

3

Es scheint, wie Ihre Frage und Ziel ist es wirklich die Geschichte der Rechnerarchitektur zu verstehen. Wenn das stimmt, brauchst du dieses Buch. Es sollte Ihnen helfen, das Verständnis zu gewinnen, die Sie suchen:

http://www.amazon.com/Computer-Architecture-Concepts-Evolution-2/dp/0201105578

Dr. Brooks die Geschichte der Computerarchitektur umfasst, die anfängliche Auftreten neuer Ideen und verfolgt die Entwicklung dieser Ideen durch verschiedene Maschinen über Zeit.

4

Eine Ergänzung für Embedded-CPU-Architektur: Sie haben als Mainstream-Prozessoren in der Regel billiger sein, so dass sie nicht die Lebensdauer des Produkts erheblich erhöhen.

Mixed-Core-CPU-Architekturen

  • Sie werden in der Regel dort eingesetzt, wo es einen Bedarf für einen hohen Durchsatz ist, Geschwindigkeit und/oder geringeren Leistungsanforderungen - Embedded-Anwendungen, DSPs, Kryptographie, Spiele, High Performance Computing .

  • Mixed Core-Architekturen bieten eine oder mehrere spezialisierte Kerne, die eine bestimmte Problemdomäne neben dem General Purpose (GP) Kern passen. Die spezialisierten Kerne können als Beschleuniger für einen bestimmten Teil der Anwendung verwendet werden, der als Engpass betrachtet wird. Obwohl man die gleiche Leistung durch Hinzufügen von mehr GP-Kernen erreichen kann, kann dies aufgrund der verwendeten Technologie, der Chipgröße, der Leistungsbeschränkungen, der Verlustwärme oder der Programmierbarkeit unpraktisch sein - die spezialisierten Kerne machen eine Sache oder zumindest einige Dinge schneller und effizienter als ein GP-Kern. Sie existieren aus den gleichen Gründen, warum Grafikkarten in ihren Grafikprozessoren eine andere Architektur verwenden.

  • Mainstream OSes geschrieben und für Mainstream-CPUs optimiert. Sie sind auf eine Mainstream-Prozessorarchitektur abgestimmt. Darüber hinaus sind die spezialisierten Kerne normalerweise nicht generisch genug, um ihr Betriebssystem zu betreiben. Daher brauchen wir nicht explizit ein neues Betriebssystem, nur Modifikationen, die es dem System ermöglichen, die spezialisierten Kerne zu erkennen und zu verwenden - entweder durch eine Bibliothek oder durch einen Treiber. Die Verwendung des spezialisierten Kerns erfordert eine teilweise Neukompilierung, so dass der ausführbare Code den spezialisierten Kern adressiert.

Einige Anmerkungen:

  • Mainstream-Chips sind effektiv Mixed-Cores. Sie haben MMX-, SSE-, SSE2-, SSE3-Befehle, Fließkomma-Befehle und manchmal kryptografische Erweiterungen. Dies macht sie effektiv zu einer "Mixed-Core" -Architektur. Sie sind jedoch so beliebt, dass sie in der Mikrocomputer-Prozessor-Kategorie enthalten sind. Denken Sie an AMDs Fusion und Intel Larrabbee.

  • x86 ist so beliebt, weil es viel Forschung, Mühe und Investition gibt, um gute Werkzeuge (Compiler, Debugger usw.) für sie zu machen. Darüber hinaus ist die Mehrheit der Programme Closed Source und kompiliert für x86, so dass Sie sie auf keiner anderen Architektur ausführen können. Schließlich enthält viel Code handgeschriebene Optimierungen oder Annahmen im Code, der auf einem x86 kompiliert und ausgeführt wird. Dies würde ein partielles Neuschreiben der Anwendung erfordern, um für eine andere Architektur zu kompilieren.

  • Ein weiterer guter Grund für verschiedene Architekturen ist, die Kontrolle und die enge Integration der verschiedenen Subsysteme.IBM verfügt über eigene CPUs (PowerPC), Betriebssystem (AIX) und Bibliotheken, die ein optimal abgestimmtes Paket bieten, von dem man sich nach dem Kauf kaum trennen kann. Gleiches gilt für Sun (jetzt Oracle) mit SPARC und Solaris und vor ein paar Jahren mit HP mit HP-RISC und HP/UX. Es ist nichts Böses oder Ähnliches: Sie bieten ein Paket, das genau zu Ihrer Anwendung passt, und sie wissen und können leicht reproduziert werden, wenn etwas schief geht, weil sie mit allen Aspekten des Systems, sowohl Hardware als auch Software, vertraut sind.