web-dev-qa-db-fra.com

Pourquoi Tanenbaum s'est-il trompé dans les débats Tanenbaum-Torvalds?

On m'a récemment confié la lecture de les débats de Tanenbaum-Torvalds dans ma classe OS. Dans les débats, Tanenbaum fait quelques prédictions:

  1. Les micro-noyaux sont l'avenir
  2. x86 s'éteindra et les architectures RISC domineront le marché
  3. (5 ans à partir de ce moment-là) tout le monde exécutera un système d'exploitation gratuit GNU

J'avais un an quand les débats ont eu lieu, donc je manque d'intuition historique. Pourquoi ces prévisions n'ont-elles pas été vérifiées? Il me semble que du point de vue de Tanenbaum, ce sont des prévisions assez raisonnables de l'avenir. Que s'est-il passé pour qu'ils ne se réalisent pas?

236
Robz

Les micro-noyaux sont l'avenir

Je pense que Linus a frappé les points sur les noyaux monolithiques dans son débat. Il est certain que certaines leçons tirées de la recherche sur les micro-noyaux ont été appliquées aux noyaux monolithiques. Microsoft affirmait parfois que le noyau Win32 était une architecture micro-noyau. C'est un peu exagéré quand on regarde certains micro-noyaux de manuels, mais les revendications avaient une justification technique.

x86 s'éteindra et les architectures RISC domineront le marché

Si vous sauvegardez à partir de postes de travail et de serveurs, RISC domine le marché des processeurs à tout prix. BRAS (R signifie RISC) vend x86 en nombre de processeurs, il y a plus de processeurs ARM que de processeurs x86 en cours d'utilisation) , et la capacité de calcul totale ARM) est supérieure à la capacité de calcul x86. Cette année, un seul fournisseur ARM (ouais, Apple) pourrait surpasser tous les fournisseurs x86 combinés Ce n'est que dans l'espace bureau et serveur que x86 domine. Tant que Windows est la plate-forme dominante pour les ordinateurs de bureau et Linux pour les serveurs, il est probable que cela continuera d'être vrai pendant un certain temps.

Il y a aussi une partie b . Les ingénieurs d'Intel ont fait un travail incroyable pour extraire la vie de leur jeu d'instructions, au point même de créer un noyau RISC avec un traducteur d'opcode qui se trouve au sommet. Comparez-le à l'un des principaux fabricants de puces de bureau RISC, IBM, qui n'a pas pu obtenir un ordinateur de haute performance et économe en énergie G5 pour Apple ordinateurs portables dans un délai raisonnable).

(Dans 5 ans), tout le monde exécutera un système d'exploitation gratuit GNU

Je pense que les différents fournisseurs de systèmes d'exploitation offrent toujours des propositions de valeur convaincantes sur leurs systèmes d'exploitation. GNU n'est même pas nécessairement le joueur le plus important de la communauté Open Source, donc même une adoption plus répandue des logiciels open source ne s'est pas nécessairement traduite en GNU = OS. Pourtant, il y a beaucoup de GNU trucs là-bas (tous les Mac sont livrés avec GNU Bash , par exemple. Il y a probablement des GNU outils système sur Android Android). Je pense que l'écosystème informatique est beaucoup plus diversifié que Tanenbaum prévoyait, même lorsque vous limitez votre vue aux ordinateurs de bureau.

172
ccoakley

Les experts en logiciels ont ignoré l'économie du matériel

... ou "Moore avait raison et ils avaient tous les deux tort"

La plus grande chose qui a été négligée dans ce débat a été l'impact de la technologie et de l'économie de la fabrication de CPU, entraînée par la réduction de la taille des transistors telle qu'exprimée dans la loi de Moore (pas surprenant comme s'ils en savaient beaucoup sur le matériel CPU, ces gars ont étudié et débattu des logiciels, pas Fabrication de CPU ou économie). Les coûts de fabrication fixes qui sont amortis sur les CPU (par exemple ISA conception, conception de CPU et installations de production de CPU) ont augmenté rapidement, augmentant ainsi la valeur des économies d'échelle; avec les coûts unitaires du processeur (en termes de "rapport qualité/prix" et "rapport qualité/prix"), le coût d'un processeur n'a pas besoin d'être amorti sur une si large sélection de fonctions pour fournir de la valeur, donc calculer dans les produits à fonction fixe a explosé; Les budgets des transistors CPU ont augmenté de façon exponentielle, gaspillant ainsi un nombre fixe de transistors en raison de l'inefficacité de la conception de [ISA _ est sans conséquence.

1. L'échelle du processeur l'emporte sur la diversité du processeur

L'importance des économies d'échelle a fait que les avantages d'un ISA/CPU ciblant un marché plus grand (donc plus large) l'emportent sur les avantages potentiels des choix de conception qui restreignent le marché pour un ISA/CPU. Les systèmes d'exploitation peuvent traiter des portions de plus en plus importantes du marché par ISA/CPU pris en charge, il n'y a donc pas vraiment besoin (ou même pas besoin) d'exercices de portage pour permettre à un écosystème de système d'exploitation de prospérer. La cible des domaines problématiques ISA et CPU a tendance à être si large qu'ils se chevauchent principalement, donc pour tout logiciel au-delà d'un compilateur, la taille des exercices de portage a également diminué. On peut dire que Torvalds et Tanenbaum a surestimé la partie de la conception et de l'implémentation du noyau qui doit maintenant être ISA ou même spécifique au CPU. Comme Tanenbaum l'a décrit, les noyaux OS modernes résument les distinctions entre les processeurs et les ISA. Cependant, le code spécifique CPU/ISA dans les systèmes d'exploitation modernes est beaucoup plus petit qu'un micro-noyau. Plutôt que de mettre en œuvre la gestion/planification des interruptions, la gestion de la mémoire, la communication et les E/S, ces bits non portables ne concernent qu'une infime partie de la mise en œuvre de ces services, la grande majorité de l'architecture de ces fonctions de système d'exploitation de base étant portable.

2. L'Open Source a remporté la bataille, mais a perdu la guerre

Plus le rapport qualité-prix signifie qu'une plus grande part de l'informatique est effectuée par des produits à fonction fixe, où la possibilité de modifier le produit ne fait pas partie de la proposition de valeur pour le client. Ironiquement, l'open source a prospéré dans ces appareils à fonction fixe, mais le plus souvent, les avantages de ces libertés sont davantage réalisés par ceux qui fabriquent les produits plutôt que par les utilisateurs finaux (ce qui était en fait le cas du marché des logiciels à l'époque: Microsoft était un gros consommateur de logiciels open source, mais pas leurs clients). De même, on pourrait soutenir que l'open source a plus de difficultés dans l'espace de bureau à usage général que partout ailleurs, mais à mesure que le Web et le cloud computing se développent, l'informatique de bureau a été de plus en plus utilisée à des fins plus étroites (principalement avec un navigateur), avec le fonctions restantes fonctionnant dans le cloud (ironiquement, principalement sur les plates-formes open source). En bref: l'open source possède vraiment l'espace informatique à usage général, mais le marché est devenu plus sophistiqué; le conditionnement des produits informatiques s'arrête moins souvent à une fonction à usage général, mais continue jusqu'au produit destiné aux fonctions fixes, où une grande partie des avantages de l'informatique open source est en conflit avec les objectifs du produit.

3. 2n La croissance signifie que les économies fixes ne sont pas importantes

La croissance exponentielle des budgets des transistors a permis de réaliser que le coût du budget des transistors d'une architecture CISC est presque complètement fixe. L'avantage stratégique de RISC est qu'il a déplacé la complexité du jeu d'instructions du CPU vers le compilateur (sans doute en partie motivé par le fait que les rédacteurs du compilateur bénéficiaient beaucoup moins des ISA complexes que les développeurs humains codant dans Assembly, mais les compilateurs pouvaient beaucoup plus facilement raisonner mathématiquement sur, et donc exploiter, un ISA plus simple); les économies de transistor qui en résultent pourraient ensuite être appliquées à l'amélioration des performances du processeur. La mise en garde était que les économies de budget des transistors d'un ISA plus simple étaient principalement fixes (et les frais généraux dans la conception du compilateur étaient également principalement fixes). Alors que cet impact fixe représentait une énorme partie du budget à l'époque, comme on peut l'imaginer, il suffit de quelques cycles de croissance exponentielle pour que l'impact devienne trivial. Cet impact en déclin rapide combiné à l'importance croissante mentionnée ci-dessus de la monoculture de CPU signifiait une très petite fenêtre d'opportunité pour que tout nouveau [ISA _ s'établisse. Même là où de nouveaux ISA ont réussi, les ISA "RISC" modernes ne sont pas les ISA orthogonales décrites par la stratégie RISC, car la croissance continue des budgets des transistors et l'applicabilité plus large du traitement SIMD en particulier ont encouragé l'adoption de nouvelles instructions adaptées à des fonctions spécifiques.

4. Simple: séparation des préoccupations. Complexe: séparation de l'espace d'adressage.

Le noyau Linux moderne (avec la plupart des autres noyaux) correspond à la définition plutôt vague d'un macro-noyau et non à la définition plutôt qu'à la définition étroite d'un micro-noyau. Cela dit, avec son architecture de pilote, ses modules chargés dynamiquement et ses optimisations multitraitement qui font que les communications spatiales du noyau ressemblent de plus en plus au passage d'un message de micro-noyau, sa structure ressemble plus à une conception de micro-noyau (telle qu'incarnée par Minix) qu'à la conception de macro-noyau (telle qu'incarnée par la conception de Linux. au moment de la discussion). Comme une conception de micro-noyau, le noyau Linux fournit une communication généralisée, une planification, une gestion des interruptions et une gestion de la mémoire pour tous les autres composants du système d'exploitation; ses composants ont tendance à avoir des structures de code et de données distinctes. Alors que les modules sont chargés dynamiquement, des morceaux de code portable faiblement couplés, qui communiquent via des interfaces fixes, ils n'utilisent pas une propriété restante des micro-noyaux: ce ne sont pas des processus d'espace utilisateur. En fin de compte, la loi de Moore a permis de réduire les problèmes motivés par des problèmes matériels tels que la portabilité (une préoccupation de Tanenbaum) et les performances (une préoccupation de Torvalds), mais les problèmes de développement logiciel sont devenus d'une importance capitale. Les avantages non réalisés restants qu'une séparation des espaces d'adressage pourrait fournir sont compensés par les bagages supplémentaires imposés au logiciel OS en raison des limitations de conception et de la complexité accrue des interfaces des composants.

Fait intéressant, ce a été une tendance forte est l'émergence de l'hyperviseur, qui, tout comme les micro-noyaux, résume le matériel. Certains prétendent que les hyperviseurs sont des micro-noyaux. L'architecture des hyperviseurs est différente, car les responsabilités censées appartenir aux micro-noyaux sont gérées par les noyaux "invités" assis au sommet, avec des hyperviseurs multiplexés entre eux, et l'abstraction de l'hyperviseur n'est pas un espace de messagerie et d'adresse mémoire générique, mais une émulation matérielle principalement réelle.

En conclusion: l'avenir favorise ceux qui adoptent une sémantique moins stricte

* .. ou "les salauds craignent de prédire l'avenir"

Dans la pratique, une grande partie de la justesse/injustice dans le débat est une question de sémantique (et cela faisait partie de ce que Torvalds argumentait et à mon humble avis Tanenbaum n'a pas pleinement apprécié). Il est difficile de faire des définitions précises de l'avenir car il y a tellement de facteurs en dehors de l'argument qui peuvent entrer en jeu; une sémantique plus lâche signifie que vos prédictions sont une cible plus grande sur le jeu de fléchettes que celle de l'autre gars, vous donnant de bien meilleures chances. Si vous ignorez la sémantique, les arguments avancés par Torvalds et Tanenbaum avaient raison sur beaucoup de choses et tort sur très peu.

tl; dr

La plupart des ISA ne correspondent pas à la définition sémantique de RISC, mais exploitent la plupart des avantages de conception qui étaient caractéristiques des CPU RISC à l'époque; la quantité de système d'exploitation spécifique au processeur est inférieure à celle attendue par Tanenbaum, sans parler de Torvalds; l'open source domine l'informatique à usage général, mais les consommateurs de ce marché sont désormais principalement ceux qui regroupent l'informatique dans des produits à fonction plus fixe où la plupart des avantages des logiciels open source ne sont pas réalisés; la séparation de la fonction du système d'exploitation sur les espaces d'adressage ne s'est pas avérée bénéfique, mais la séparation de la fonction du système d'exploitation sur le matériel "virtuel" l'a été. Si vous voulez affirmer que vos prédictions se sont avérées exactes, laissez-vous autant de marge de manœuvre sémantique que possible, tout comme M. Torvalds.

PS Une dernière observation ironique: Linus Torvalds est l'un des plus fervents partisans de garder autant de nouvelles fonctionnalités que possible dans l'espace utilisateur et hors du noyau Linux .

60
Christopher Smith
  • Les micro-noyaux sont l'avenir

Il s'est trompé, il semble que tout converge vers l'utilisation de noyaux hybrides. Linux est formellement encore monolithique, mais l'ajout de trucs comme Fuse, etc. donne également un aspect un peu hybride.

  • x86 s'éteindra et les architectures RISC domineront le marché

Ok, donc x86 ne s'est pas éteint. Mais RISC ne domine-t-il pas le marché? Des milliards de smartphones utilisant ARM, toutes les consoles de jeu utilisant des processeurs RISC, la plupart du matériel réseau utilisant des processeurs MIPS.

En outre, au début des années 2000, le RISC et le CISC ont tellement convergé qu'il n'y avait pas de différence nette dans la conception interne. Les processeurs x86 modernes sont essentiellement RISC en interne avec une interface CISC.

  • (Dans 5 ans), tout le monde utilisera un système d'exploitation GNU gratuit

Si par GNU OS il voulait dire GNU Hurd, alors en effet une prédiction totalement ratée. Ce que les gens utilisent massivement, c'est Android. Android est Linux, mais c'est pas GNU, car il n'utilise pas GNU libc. Au lieu de cela, il utilise le propre de Google Bionic . Et la part de marché de Linux de bureau standard est toujours inférieure à 2%. Mais voulait-il vraiment dire les PC grand public? Sur le marché des serveurs, Linux domine absolument avec 70 à 90% des parts selon le segment.

42
vartec
  1. Pas certain.

  2. Demi-droite. Les puces "x86" d'aujourd'hui sont RISC sous le capot, avec essentiellement une "interface CISC". x86 ne s'est pas éteint parce qu'Intel avait suffisamment de parts de marché et de revenus pour effectuer cette transition et y arriver avant que d'autres solutions RISC ne leur capturent une part de marché importante.

  3. Deux raisons principales: la compatibilité et la convivialité.

    Encore une fois, les systèmes existants (Windows et, dans une moindre mesure, Mac OS) ont une très grande base installée. Cela signifie que beaucoup d'utilisateurs utilisent de nombreux programmes. Gratuit GNU Les OS ne peuvent pas reproduire cela. Le projet WINE a fait beaucoup de travail dans cette direction, mais il ne remplace toujours pas un système Windows réel, et les développeurs de WINE ne le font même pas. essayez de prétendre que c'est le cas. Les gens ne veulent pas utiliser un système d'exploitation qui n'exécutera pas leurs programmes préférés, peu importe à quel point c'est génial. (Et sans une base d'utilisateurs installée, personne ne veut développer pour le système. C'est un problème de poulet et d'oeuf.)

    Et puis nous arrivons à la convivialité. Ma maman a un système Windows. Elle peut l'utiliser très bien pour ses besoins. Tout ce dont elle a besoin pour travailler avec son ordinateur est disponible à partir de l'interface Windows, et si je lui disais les mots "ligne de commande", elle ne saurait même pas de quoi je parle. Pour autant que je sache, il est toujours impossible de le faire sur un système d'exploitation gratuit GNU. En fait, - Linux est si difficile à travailler que même les plus grands demi-dieux de la communauté ont parfois de sérieux problèmes avec des tâches simples. Et ils ne semblent jamais "comprendre" et travaillent pour résoudre les problèmes, c'est pourquoi ils n'ont jamais gagner des parts de marché. (L'article lié devrait être une lecture obligatoire pour quiconque essaie de produire un programme grand public!)

21
Mason Wheeler

Je pense qu'il y a quelques raisons qui sont assez sérieuses, mais qui n'ont pas été mentionnées.

Le premier est l'hypothèse plutôt aveugle de Tanenbaum selon laquelle la supériorité technique conduirait à la domination du marché. Les gens se disputent depuis des années pour savoir si les micro-noyaux (nanokernels, picokernels, etc.) sont techniquement supérieurs, mais pour le moment, supposons simplement qu'ils le sont. Reste à savoir si cette supériorité technique se traduira probablement par une domination du marché. Je vais affirmer que ce n'est pas le cas. Pour la plupart des gens, Windows, Mac OS, etc., sont assez bons. Pire encore, les améliorations qui feraient une différence significative pour la plupart des utilisateurs seraient dans l'interface utilisateur, pas dans le noyau.

La seconde est une surestimation drastique du taux de changement dans un marché (raisonnablement) mature. Il est assez facile de changer les choses à la hâte lorsque vous avez un nouveau marché. Pour que pratiquement tout le monde change en cinq ans, la migration aurait dû avoir lieu à toute vitesse, comme il l'avait prédit.

Je noterais également une autre façon dont il avait raison que je n'ai pas vue mentionnée. Les gens ont déjà noté l'omniprésence du RISC (par exemple, dans les téléphones portables). Ce qu'ils n'ont pas mentionné, c'est l'omniprésence de ce que j'appellerais "microkernel 2.0". Il s'agit désormais plus souvent d'une "machine virtuelle" ou d'un "hyperviseur". Ce sont vraiment des micro-noyaux.

La grande différence est que Tanenbaum a pensé en termes de micro-noyau et d'émulation de système d'exploitation en mode utilisateur, conçues spécifiquement l'une pour l'autre. Au lieu de cela, nous avons gardé le système d'exploitation essentiellement inchangé et adapté le micro-noyau pour l'exécuter tel quel. Ce n'est pas aussi agréable techniquement, mais du point de vue du marché, il est considérablement supérieur - au lieu d'un tout nouveau système de haut en bas, l'utilisateur peut continuer à utiliser la plupart de son code existant tel quel, et simplement ajouter une nouvelle "utilitaire" qui se trouve être vraiment un micro-noyau OS.

14
Jerry Coffin

Une des principales raisons était Windows, en particulier Windows 3.1 et un peu plus tard, Windows 95 et NT 3.51. Les consommateurs ont particulièrement aimé les interfaces GUI par opposition aux anciens systèmes basés sur du texte d'Unix et DOS. Cela signifiait que plus de gens en moyenne achèteraient des ordinateurs pour un usage domestique. De plus, l'explosion d'Internet au milieu des années 90 a augmenté les ventes.

Les prix des PC ont également baissé au cours des années 90 jusqu'à ce qu'ils atteignent le point où ils se trouvent aujourd'hui. Cela était dû aux économies d'échelle présentées par une demande accrue des consommateurs et des entreprises. Par exemple, les cinq de mes ordinateurs actuels coûtent moins cher combinés que le bureau 486 que j'ai acheté en 1992.

Maintenant, d'une certaine manière, il avait peut-être raison, mais dans une direction inattendue. L'essor des appareils mobiles, des smartphones et des tablettes a en partie entraîné des systèmes d'exploitation simplifiés et pourrait réduire l'importance de x86. Cependant, ils vont bien au-delà de ce qui avait été prévu en 1992.

8
jfrankcarr

En fin de compte, tout se résume au fait que les choses n'aiment pas vraiment changer.

Nous n'avons pas migré vers un micro-noyau mieux architecturé, car les monolithiques étaient plus faciles à créer, fonctionnaient plus rapidement et tout le monde savait comment les construire. De plus, parce que Linux a été développé en tant que noyau monolithique et est devenu populaire, il n'y avait pas de micro-noyaux qui ont obtenu suffisamment de succès pour décoller. (c'est un peu comme la même raison pour laquelle nous exécutons tous Windows, nous exécutons Windows parce que tout le monde exécute Windows)

RISC, d'autres ont souligné que x86 est à peu près une architecture RISC de nos jours, avec un wrapper CISC sur le dessus pour une compatibilité descendante.

Beaucoup de gens utilisent un système d'exploitation GNU - gratuit) sur le serveur. Le Web est à peu près dirigé par lui. Personne ne le remarque car tous les clients sont Windows. À l'époque, vous aviez un choix: Linux qui était toujours un OS de loisir; une saveur d'Unix mais vous ne pouviez pas vous le permettre; ou Windows pas cher et joyeux. Linux a pris trop de temps pour remplacer Unix, et n'a toujours pas assez de solution convaincante pour s'exécuter sur le bureau (en partie à cause de problèmes idéologiques avec différents systèmes Windows, des pilotes graphiques binaires et le manque d'un ABI stable). Il se porte plutôt bien sur d'autres marchés non-bureau comme embarqué et mobile cependant.

7
gbjbaanb

Tout cela est vrai si vous ne pensez pas qu'un ordinateur est quelque chose sur votre bureau.

  1. Vrai - les micro-noyaux n'ont jamais fonctionné parce qu'ils n'étaient jamais assez micro. Si l'ensemble de votre Linux embarqué dépouillé est plus petit que le bit spécifique x86 du noyau MACH, la question des micro-noyaux est-elle pertinente?

  2. Le RISC domine le marché. Plus ARM cpus sont vendus chaque année que X86 cpus jamais. Vous n'êtes probablement jamais à plus de 6 pieds d'un ARM cpu.

  3. Presque tout le monde exécute Linux, c'est dans leur routeur, leur décodeur TV, leur Tivo et leur Android - ils ne savent tout simplement pas que ceux-ci ont un système d'exploitation

6
Martin Beckett

1) Il avait tort sur les micro-noyaux. À ma connaissance, le besoin d'exigence de vitesse l'emporte sur la séparation des préoccupations imposées dans les micro-noyaux, au moins dans le noyau Linux.

2) L'architecture prédominante des tablettes et des téléphones portables est ARM qui est un jeu d'instructions RISC. Même Windows a été porté.

3) Tout le monde n'exécute pas un système d'exploitation gratuit GNU. Cela est principalement dû aux brevets et à la compatibilité descendante. Ceux qui ne veulent pas Windows choisissent fréquemment OS X.

4
user1249

1. Microkernels a échoué

Pour les raisons que Linus Torvalds a déclaré, que sur le papier, il semble théoriquement attrayant mais dans la mise en œuvre sur des systèmes modernes - qui sont des systèmes très complexes - la complexité devient exponentiellement ingérable. L'étude de cas est GNU Hurd, un système entièrement micro-noyau qui n'a même pas réussi à atteindre les fonctions de base. Mac OS X est similaire à Hurd dans sa structure et c'est le système d'exploitation le moins stable et le plus contraint sur le marché.

2. Architecture CPU

Cela s'est diversifié pour différents cas d'utilisation. Une architecture de processeur n'a pas dominé car les cas d'utilisation intégrés, mobiles, de bureau, de serveur, etc. sont différents et nécessitent des approches différentes. Tannenbaum n'a pas vu cette diversification.

3. GNU vs Monde?

GNU n'a pas dominé, mais Linux l'a fait sur serveur, embarqué et mobile. Apple tablettes et téléphones exécutent iOS qui est tout simplement un vieil Unix. Des statistiques précises sont difficiles à obtenir pour les déploiements Linux sur le bureau car il n'y a pas de véritable mécanisme de base - vente d'unités - qui peut sûrement donner un valeur exacte. La plupart des déploiements Linux sur le bureau sont parfois enregistrés comme des déploiements Windows parce que les utilisateurs achètent un système Windows et l'écrivent ensuite avec Linux. Cependant, si vous segmentez les systèmes d'exploitation, Linux a environ 5-6% sur le bureau selon - http://www.w3schools.com/browsers/browsers_os.asp et ceci est égal au nombre d'utilisateurs de Windows Vista dans le monde, ce qui est très significatif.

Sur la base de mes propres estimations provenant de diverses sources, il semble que Linux sur le bureau pourrait en fait être égal au nombre d'utilisateurs sur Windows XP - environ 25% - si vous comptez des pays non occidentaux comme la Chine et en Inde, où Linux est plus populaire qu'aux États-Unis ou dans l'UE, mais qui pourrait ne pas être pris en compte dans les statistiques occidentales car il ne comptabilise que le trafic vers des sites Web anglophones destinés aux occidentaux.

En Inde, la plupart des étudiants utilisent Ubuntu ou Fedora car c'est le système d'exploitation par défaut des systèmes éducatifs indiens et des fameux IIT. La plupart des bureaux du gouvernement indien utilisent également Linux. En Chine, Red Flag Linux est le système d'exploitation officiel du gouvernement chinois et des systèmes scolaires - Académies des arts et des sciences - et est le système d'exploitation recommandé en Chine par les médias d'État afin d'empêcher les jeunes chinois pauvres d'utiliser des copies piratées de Windows. Si vous comptiez l'utilisation de Linux en Inde et en Chine, cela choquerait la plupart des experts technologiques occidentaux et changerait radicalement les perceptions de la véritable domination du bureau Linux dans les pays en développement non occidentaux où il est dominant.

2
AG Restringere
  1. Les micro-noyaux remplacent les appels de méthode par la messagerie inter-processus, ce qui ajoute de la complexité au développement pour certains avantages hypothétiques. Comme il s'avère que pour la plupart, vous pouvez obtenir à peu près les mêmes avantages d'une bonne segmentation, même si tout se déroule dans un seul grand processus.
  2. La question n'est plus d'actualité. Les architectures CISC n'existent plus, tous les processeurs modernes sont RISC dans leur cœur, mais cela n'a pas tué le jeu d'instructions x86. Les processeurs x86 depuis l'ère Pentium-Pro (il y a 17 ans) utilisent la traduction de code op pour permettre à un noyau essentiellement RISC de ressembler à un processeur x86 de l'extérieur.
  3. Classique le pire c'est mieux . L'itération, le pragmatisme, les effets de réseau et d'écosystème battent à chaque fois la pureté.
1
Wedge

La production est devenue moins chère, x86 était si proche du prix du RISC, qu'il n'était plus possible de l'utiliser. Il y avait aussi un petit blocage des fournisseurs.

1
Lucas Kauffman

Les micro-noyaux sont le futur x86 s'éteindra et les architectures RISC domineront le marché (5 ans après) tout le monde utilisera un système d'exploitation gratuit GNU

Cela dépend de la façon dont vous voyez et définissez l'avenir, au sens traditionnel de ses prédictions ont échoué.

Cependant, le temps n'est pas encore écoulé (une autre discussion plus approfondie à part).

Ainsi, les choses pourraient encore changer:

  1. Les micro-noyaux ou une variante pourraient faire leur retour

  2. RISC/ARM pourrait bien dominer -> tablettes/mobiles

  3. Dans 10 ou 15 ans. Qui sait, l'open source change lentement le monde ..

1
Darknight

Pour 2: le jeu d'instructions CISIC a un gros avantage: il est plus compact, comme le code machine compressé. De nos jours, il est très bon marché de décoder les instructions CISC en micro-opérations et il est très coûteux d'accéder à la RAM. Le CISC a donc l'avantage de pousser plus de code dans les caches L1/L2/L3

0
Christian

Je me souviens du temps - et du temps qui l'a précédé. Je ne sais pas pour les micro-noyaux, mais

2) L'idée de RISC avait deux jambes: que les optimisations logicielles pouvaient être faites dans le logiciel mieux que dans le matériel, et que les puces RISC pouvaient être économiquement plus rapides que les puces CISC.

Les deux idées se sont révélées fausses à court terme. Intel a pu, et a fait, des puces CISC qui cadencaient les instructions plus rapidement que les puces RISC concurrentes, à un prix compétitif. Intel a pu et a fait des puces CISC qui optimisaient mieux le programme dans le matériel que dans le compilateur ou dans le superviseur d'exécution du logiciel - et toute optimisation logicielle pourrait être ajoutée en plus de cela, tout comme avec un Puce RISC.

3) L'informatique, la programmation et les opérations ont été complètement réinventées 4 fois dans ma carrière. Du châssis principal au PC. De la ligne de commande à l'interface graphique. De l'interface graphique à Internet. De l'Internet à l'iPad. La révolution semble normale maintenant, mais WE DID PAS PRÉDIRE QUE. Comme tous les programmeurs plus âgés à l'époque, il prédit la "fin de l'histoire").

Très peu de personnes utilisaient un système d'exploitation GNU en cinq ans, car le décompte avait redémarré.

Peut-être que cela se produit encore. Il y a 5 ans, vous auriez prédit que notre serveur Windows serait remplacé par des serveurs * nix (au moment où j'écris, SAMBA a publié un serveur de domaine AD, qui était la pièce manquante du puzzle). Cela ne se produira pas là où je travaille: nous n'aurons pas de serveurs locaux.

0
david