TROLL : PHOENIX ou MultideskOS 2.0, Jayce sors de ce corps !

Nous sommes vendredi, le jour du Troll, et cette semaine c’est du lourd, du très lourd qui nous est tombé dessus, le projet PHOENIX, un nouvel OS que l’on ne peut s’empêcher de comparer à MultideskOS, a été initié par deux personnes dont une aime à expliquer la vie aux développeurs Linux et Windows qui sont « des gros nazes qui ne savent pas coder » ….

C’est TRES drôle et ça a d’ailleur fait son petit effet aussi bien sur PCinpact que sur LinuxFR. C’est le peut-être le buzz geek de l’année, ne le ratez surtout pas.

from windows.kikoolol.aero import GUI
from linux.kernel. import sur network
from multidesktopOS.ghost.of.jayce import troll


EDIT———————

Actaruss ayant effacé son post et comme on avait senti le vent venir, je vous propose de vous recoller l’intégralité ci-dessous, ce serait vraiment dommage de perdre une telle perle non ?

——————————————- DEBUT ————————————

Un ami et moi, nous avons décidé de créer un nouvel OS.

Phoenix pour « Environnement d’Exploitation Serviable Populaire Non Issu de linuX »

Popular
Helpful
Operating
Environment
Non
Inherited from
linuX

est le nom (temporaire ?) du projet.

Si vous avez une meilleur idée de nom ou d’acronyme pour Phoenix, n’hésitez pas, mais entre Phoenix et Cortex, nous tenons à garder ce genre…

Je ne peux vous garantir que ce ne soit pas un vaporware tant que le projet, débuté depuis 1 mois, n’aura pas prit plus d’ampleur, c’est à dire tant que nous n’aurons pas crée un site internet (prévu pour dans 1 à 2 ans environ, nos études nous bouffant pas mal de temps), et tant que la première version du noyau ne sera pas sortie.

Je place ce sujet sur le forum en vue de le faire fructifier.
Libre à un modo de l’épingler si ce topic prend de la consistance.

Le but de ce topic est une boîte à idées.

Postez ici toutes les reproches à Linux / Windows, et tout ce que vous aimeriez voir dans un OS.

Je ne mettrai rien de technique sur ce topic dans la mesure où je veux les idées de tout le monde, même celles qui semblent les plus bêtes et les plus simples.

Idée :

En gros :
Nous en avons marre des OS actuels.

– Windows est un système d’exploitation commercial fait par des gens pas super-bons en info, mais qui a l’avantage d’être tourné vers le néophyte qui n’y connaît rien. Commercial en somme.

Avantages
* Il est bien présenté, avec une interface graphique correcte.

* Il a l’avantage d’être simple d’abord.

* Compatible avec un grand nombre d’applications, et surtout avec les jeux.

* Euh… Il est beau.

* Il est beau, ça c’est sûr… Et… Euh… Euh…

Inconvénients
*Sécurité déplorable, puisque Microsoft fait du partenariat avec les boîtes anti-viri qui produisent elles-mêmes la majorité des viri. La sécurité ne sera donc jamais correcte pour des raisons commerciales, en dépit de tout ce que Microsoft a toujours raconté à chaque lancement d’un nouveau Windows.

* Il ne laisse pas de droits d’accès, il verrouille trop de choses (notamment les couches comme la 2, le réseau et Windows, c’est pas l’extase…).

* Les questions de priorité des comptes sont mal gérées, chacun débute sur un compte admin, ce qui est une très grosse erreur.

* L’installation du système est très incomplète, les questions posées et les composants installées et réglages devraient être bien plus nombreuses.

* Le système des DLL est catastrophique, chaque application place des DLL et des drivers n’importe où, ce qui abouti à la polution de system32 et de la base des registres (winrot)

* Le système de base des registres est un enfer, la configuration devrait être dispatchée dans des fichiers. (par exemple, chaque fenêtre devrait avoir son fichier de config avec taille, position, etc.)

* Désinstallation très mal gérée, elles sont souvent très sales, il faudrait un système qui se passe des installations. Il faudrait que le script des installations soit réutilisé pour désinstaller, et qu’il n’y ait qu’un dossier à supprimer.

La notion même d’installer un programme telle qu’elle est définie sous Windows est une hérésie informatique.

– Linux est un système d’exploitation de vieil informaticien, fait par des gens pas non plus super-bons en info (le C bas niveau est bien maîtrisé, mais le niveau de maîtrise du C++ et de l’ASM est catastrophique), mais qui a l’avantage d’être très modulable.

Défaut majeur : Il ne faut jamais taper dessus sur un forum, sinon on se fait latter les couilles. Mais si Linux était si bien que ça, il n’aurait pas que 1% de parts de marché.

Avantages
* Il a l’avantage d’être rapide, bien mieux pensé fondamentalement en terme de perf et de sécurité.

* Avantage des standards ouvert, créer un pilote est enfantin tant qu’on a les spécifications.

* Très bon système des gestion des paquets, pas de désinstallations sales, dépendance bien gérées.

* Bonne sécurisation des applis avec le système SandBox ou le fait que chaque application ne s’exécute que dans son dossier d’installation, pas besoin d’aller placer des DLL ailleurs.

* Pas de base des registres (enfin presque), le choix du « tout fichier » est excellent.

* Très bonne gestion des droits d’accès.

* Excellente gestion du réseau.

Inconvénients
* Sa modularisation est son plus gros défaut : Chaque application doit pouvoir tourner sous différentes distributions, ce qui pénalise son expansion auprès des utilisateur néophytes.

* Enfer des dépendances : Les dépendances aux bibliothèques selon les versions est un défaut énorme. Certaines applis ne tournent parfois que sous d’anciennes versions, ce qui oblige à downgrader son noyau…

L’entretient du système demande un effort de rétrocompatibilité à l’ensemble de la communauté.

* Il est incompatible avec les jeux (et qu’on ose se l’avouer ou pas, Wine reste une vieille daube pourrie qui fait très mal tourner les jeux, imparfaitement, lentement, et avec plein de bugs, et encore quand ils tournent. Même après 10 ans de développement).

* Pas de centralisation du panneau de configuration, chaque panneau de conf devrait être accessible depuis un seul endroit.

* Pas assez d’interfaces graphiques, personne ne devrait jamais avoir à bidouiller des fichiers de conf :

Un truc m’énerve sous nux :

Sous couvert d’un esprit communautaire, c’est en fait un énorme tas d’élitistes hypocrites qui se terre dans la communauté linuxienne, dans la mesure ou la moitié des programmes nécessitent la lecture d’une ReadMe de 30 Ko avant d’utiliser les progs en tapant des lignes de commandes. Puisque l’user a l’honneur d’utiliser linux, il doit se creuser la tête. Ce qui est intolérable.

Les linuxiens ont trop tendance à estimer que l’user doit être capable de bidouiller, ce qui empêche la pénétration du système dans le grand publique.

Que certains soient d’accords ou pas, la « ligne de commande pure et dure » est un concept archaïque et dépassé qui doit être abandonné si Linux veut progresser. Les programmes doivent être graphiques et intuitifs.

Et certains ne l’ont toujours pas compris…

Ce n’est pas à l’user d’aller à Linux, c’est à Linux de s’adapter à l’user.

Bref, à force d’utiliser Windows et Linux (et UNIX, et Solaris, etc.), nous avons finit par être dégoûté des deux.

Nous avons donc décidé de créer notre propre système d’exploitation qui sera un compromis entre les 2, il aura les avantages de Linux ET de Windows, et s’arrangera pour virer les défauts.

Le directeur principal du projet est ingénieur en informatique, en réseau, et en électronique, avec un master de maths. Autrement dit, appelez-le Dieu parce qu’il code comme un Dieu. Qui plus est, il a ses entrées chez Microsoft, donc il connaît bien Windows et les (coûteuses) connaissances de ses spécifications (notamment celles requises pour créer des drivers).

Quant à la motivation, elle évolue par accoups, c’est pour cela que le projet sera peut-être un vaporware… Tout dépend du temps que notre emploi-du-temps nous permettra d’y consacrer.

En ce qui concerne le devenir, le projet sera bien entendu open-source et gratuit. Une double licence permettant aux entreprises de réutiliser le code est à l’étude…

Si le projet mûrit, il sera sans doute confié à la communauté du libre.

En espérant qu’ils seront capable de l’entretenir correctement, à cause de la complexité du code notamment, qui ne sera pas accessible à n’importe qui, même si nous allons essayer de détailler et commenter au maximum.

Pour cela, un autre système de développement communautaire plus élaboré sera mis en place, avec des normes strictes. C’est pour cela que l’idée de développer notre propre langage de prog est né, mais là c’est un peu hard… A voir.

Car le développement à la Linux :
– « C’est bon, le code vous convient ? »
– « Non, moi je trouve qu’il faudrait un P au lieu d’un p ici »
donne un bordel monstrueux.

Pour s’en rendre compte, il suffit de regarder le langage script Bash : J’ai rarement vu un bordel aussi énorme. C’est puissant, mais la clarté du langage relève d’une bande de trisomiques. Complètement illogique sur bien des points. Ce côté de Linux « bordel communautaire » est vraiment très agaçant.

Les bases :

Nous sommes conscient qu’il est impossible de réécrire un OS entier en partant de rien à 2.

Nous devrons donc reprendre des briques de Linux telles que l’interface graphique
(ext4, Compiz Fusion avec KDE parce que nous n’aimons pas Gnome, Firefox, Thunderbird, etc.), et il nous faudra sans doute y apporter notre contribution. Mais pour l’instant nous n’en sommes pas là.

Nous en sommes en tout début. Au bases des bases.

Après, nous reprendrons un maximum de composants afin de rendre le système le plus polyvalent possible.

La programmation :

La programmation des composants principaux sera faite en assembleur. Norme X86 standard et X64 (AMD64).

La plupart des bouquins d’ASM sont actuellement trop vieux, et l’ASM a évolué depuis.

Ce langage est notre point fort dans la mesure où nous le maîtrisons bien, ce qui est extrêmement rare parmi les informaticiens que ce langage fait fuir.

Nous avons remarqué actuellement, les capacité des processeurs sont sous-exploitées par rapport à ce qu’elles pourraient être. Nous avons donc voulu remédier à cela.

Cela devrait permettre d’accélérer le système d’un facteur allant entre 6 et 20. Donc très rapide (je ne sais pas si vous avez déjà fait de l’ASM mais en terme de perf, il n’existe rien de mieux (mais rien de pire à coder)).

Les parties ne nécessitant pas d’ASM seront faîtes en C++.

Le directeur du projet a émit l’idée de créer son propre langage de programmation pour le reste, mais nous ignorons si ce projet sera maintenu. Personnellement je ne pense pas…

Le compromis :

Le but de notre OS est de concilier les avantages de Linux et Windows.

Le noyau :

Pour l’instant, seul le boot est terminé.

Ca marche, et ça marche bien, vu qu’en assembleur, les choses vont bien plus vite. Cette fois, quand on vous dit que l’ordinateur va s’allumer comme une TV, ce sera vrai.

Pour la structure, nous avons opté pour une sorte de noyau hybride (dans le détail ce sera légèrement différent mais je ne ferai pas de technique sur ce topic).

Pour faire simple : Un gros noyau qui gère le principal (notamment répartir les tâches entre les micro-noyaux) et d’autres noyaux à côté.

Seul ce système nous permettra de concilier Linux et son monolithique modulaire, et Windows avec son nuage de services, le tout étant d’éviter au maximum le bordel de services de Windows, et le fait de devoir sans cesse recompiler son noyau sous Linux.

La principale particularité du noyau résidera dans le fait que, pour parler simplement, le noyau s’arrangera pour que chaque programme utilise toutes les capacités du CPU.

Le principe est identique à la compilation sur chaque machine proposée par feu-Gentoo.

Très vulgairement : Le noyau utilisera un fichier pour chaque type de processeur, et sur ce fichier seront mentionnées les instructions spécifiques aux processeurs ainsi que la transcription des jeux d’instructions de base afin d’utiliser ces instructions spécifiques.

C’est la tâche la plus complexe à mettre au point mais c’est en cours. Le plus difficile est de rendre les choses le plus limpide possible afin de permettre à d’autres de reprendre le travail.

Nous sommes catégoriquement contre le système de noyau Linux, à savoir le système modulable. Le manque d’unicité de ce noyau, le fait qu’il faille réadapter à chaque fois les paquets pour chaque distribution, est un frein majeur à l’expansion de Linux.

Nous pensons que s’il y avait UNE norme Linux et que toutes les applis Linux pouvaient tourner sur toutes les distribs, le système se développerait bien plus vite.

Le fait de ne (pas toujours) pouvoir réutiliser des paquets Debian sous Ubuntu n’a aucun sens. Le but est donc de faire un noyau performant et unifié.

Le noyau devra supporter des applications des 2 système nativement, Windows et Linux, c’est à dire sans émulation (pour Linux, seuls les paquets Debian et autres distribs majeures seront pris en charge).

Sécurité et droits d’accès :

Les comptes Administrateur et Utilisateur ne seront plus seuls.

Il est prévu de tout pousser à l’extrême en faisant 4 ou 5 types de comptes :

– Super-administrateur : Les droits seront supérieurs au « root » du linux actuel. C’est impossible me direz-vous, si vous répondrais-je, avec encore plus de commandes et des priorités totales, notamment sur le Hardware. Destruction de PC garantie pour les bidouilleurs.

– Administrateur : Tous les droits mais des interdictions pour les risques de destruction logicielle / matérielle

– Utilisateur : Compte normal. Interdiction d’installation / désinstallation. Le compte sécurisé.

– Enfant : Compte Utilisateur paramétrable à souhait sur le contrôle parental, les applis autorisées…
Au coeur du système dans la mesure où les enfants vont de plus en plus dans le cyber-world, et c’est pas toujours très bon.

– Invité : Le compte minimal.

Un passe pour l’admin sera demandé à l’installation. Le super-admin sera verrouillé par défaut et accessible que depuis l’admin. Après tout se fera depuis un compte utilisateur avec des élévations de droits requises.
Le système Linux en somme.
Certains applications pourront s’exécuter toujours en admin dès le démarrage, mais il faudra gérer ça de manière sûre.

Centralisation et Sectorisation :

Certains choses devraient être centralisées, et d’autre non.

Les applications ne devraient JAMAIS être centralisées, car elles proviennent de plusieurs éditeurs différents. Microsoft a fait cette erreur cruciale, Linux ne l’a (presque) pas faite.

Chaque application ne pourra donc s’installer que dans son dossier d’installation et pas ailleurs. Ou alors en ayant des droits de super-admin. Pas de composants placés ailleurs que dans le dossier d’installation.

system32 sera le répertoire de Windows et rien de plus, pas de DLL supplémentaire venant de DivX ou Real…
=> Pour l’instant, nous hésitons entre le fait d’obliger à copier chaque bibliothèques dans chaque dossiers d’applications, ou le fait de faire un fichier de configuration (par exemple pour les .exe, permettant de référ

encer les versions des DLL nécessaires).

Je pense que la première se fera, avec une possibilité copie automatique…

Les disques durs se font de plus en plus gros, donc copier un grand nombre de fois la même bibliothèque n’est pas tellement un problème…

Cela éviterait notamment les problèmes de rétro-compatibilité dus au vieillissement des applications qui ne supportent plus les nouvelles versions des bibliothèques…

Typiquement les jeux qui utilisent de vieilles versions de Direct3D ou DirectDraw… Ici, chaque application pourra s’exécuter dans l’environnement de son époque en ayant dans son répertoire une copie du DirectX correspondant…

A voir…

La configuration DOIT être centralisée, car il n’y a qu’une seule configuration, un seul PC. Il faudra donc 1 menu de config avec des interface graphiques pour tout.

Notamment afin d’éviter les conflits de raccourcis claviers, très chiants sous Linux…

Pour ce qui est des systèmes d’interface graphique, il faudra collaborer avec l’équipe de KDE / compiz-fusion… A voir…

La base des registres de Microsoft ne devrait pas être centralisée. Chaque clé de registre d’un programme devrait être dans un fichier genre .reg contenu dans le dossier de celui-ci.

Un équivalent de gestion du registre est à l’étude pour Phoenix, car il faudra forcément gérer cette plaie.

Drivers :

Support des pilotes des 2 systèmes nativement, avec en priorité le support des pilotes graphiques Windows.

Les pilotes Linux sont très faciles à créer, du fait de la limpidité des standards. Tant que l’on a les spécifications du matériel, tout fonctionne bien.

Les pilotes windows sont très chiants à créer, et il faut payer cher pour avoir les normes. Mais ils sont incontournables, surtout au niveau graphique.

Le fait est que Linux ne tourne correctement que sur du matériel standard. Il faudra donc remédier à cela.

Le prise en charge devra être effectuée sur les micro-noyaux parallèles à cause de l’évolution des normes.

Le support du plug and play, très mal géré sous linux, sera essentiel ici. Support du stockage de masse, des baladeurs mp3, et des téléphones portables.

Inclusion de drivers propriétaires obligatoire donc. C’est un frein pour certains linuxiens, mais pas pour nous.
Exécution sécurisée :

Contre les viri, il faudrait un système permettant d’identifier nativement un virus de manière heuristique.

Linux n’a pas le défaut des viri car les dépôts des packages sont bien protégés. Mais aller chercher des paquets ailleurs devient dangereux.

L’exécution d’un exécutable devra donc conduire à son analyse, et une sorte d’UAC devra prévenir l’utilisateur en cas de réalisation de certaines opérations dangereuses (pas de fenêtre ouverte, écriture dans le système, etc.), le tout conduisant à un % de probabilité de virus et à un avertissement.

Le tout étant de ne plus jamais avoir à utiliser d’anti-virus, de les rendre obsolètes, à moins qu’un type s’amuse à exécuter un virus en super-admin.

Gestion du réseau :

Celle de Linux sera conservée, bien meilleure. Il faudra faire quelques modules pour la compatibilité windows, mais rien de bien méchant.

DirectX et émulation :

La prise en charge des jeux vidéo est une nécessité aujourd’hui.

C’est chiant à dire, mais Windows ne reste n°1 du marché qu’à cause de 60Mo de DLL.

Il sera donc essentiel ici de prendre en charge directX, le support de toutes les versions jusqu’à la 11 devra être prévu sans devoir tout réécrire (en réutilisant les DLL de Microsoft).

De même, l’émulation des consoles devra être une priorité, des vieilles consoles jusqu’à la PS2 et XBOX.

C’est là que les micro-noyaux vont aider, notamment avec le support du noyau Windows.

Il faudra s’arranger aussi pour articuler les applications graphiques comme KDE/Compiz et les jeux vidéos sans avoir de conflits (style désactiver l’un quand on lance l’autre…), système à l’étude, idées bienvenues.

Chiffrement :

A l’heure où nous entrons dans les rêves d’Orwell avec des lois votées de plus en plus liberticides, il apparaît comme nécessité de créer des système sécurisés nativement.

à la clé

– Support du chiffrement de dossier

– Support du chiffrement de disques durs

– Support de plusieurs types de chiffrements via des modules

– Support des chiffrement multiples (selon la clé que vous entrez au départ, seuls certains fichiers seront visibles ou pas, permettant de cacher une partie de son disque dur, en cas par exemple de confiscation du PC par les autorités)

– Possibilité d’effacement d’un fichier par réécriture successive afin de le détruire complètement (les flics peuvent remonter jusqu’à 32 fois chaque clusters)

Les problèmes juridiques :
Nous avons décidé de nous passer des problèmes de licence. En effet, il existe des brevets sur le double-clique, sur le clique droit, sur la barre de progression…

Il est évident qu’un système libre compatible DirectX fera hurler Microsoft.

Nous avons décidé d’ignorer ce problème, estimant que les brevets étaient un inutile frein à l’innovation. Nous verrons en temps voulu…

Où ça en est :

Au début.

Pour l’instant, ce projet reste un ensemble d’idées.

Seules quelques milliers de lignes de codes ont été écrites, les prémices du noyau.

Cela représente bien peu de choses, mais il est indispensable de savoir où nous voulons aller.

Donc n’hésitez pas à balancer ce qui passe par la tête, tant que ça reste constructif.

Je répète que ces idées devront concerner le bas-niveau, pour l’interface graphique et toutes ces fioritures, on en est pas encore là.

———————————- FIN —————————————

Advocacy : Variation autour du sempiternel troll Windows vs Linux … from a user point of view

Les années aidant, mon jugement n’a de cesse d’évoluer sur la sempiternelle question qui n’en est plus une pour moi depuis bien longtemps : Windows ou Linux ? A lire les commentaires de certains, on constate que la mort de Windows va prendre un peu plus de temps que prévu, tant les utilisateurs d’ordinateurs sont désinformés, déformés, incités à consommer plus … sans pour autant chercher à « comprendre », souvent par manque d’intérêt ou feignantise. Il y a de nombreux arguments à rétorquer à ce genre de tirades (sur ZDNET au sujet du succès de la migration réussie de l’Assemblée Nationale vers Linux)

#17 - par POBSTAR - le 12/07/2008 sur Hum !!! Affaire d'État Raison d'État. Aucune transparence dans ce Canard, tout compte fait. Les députés n'ont pas le choix avec ce couteau sous la gorge et je vois mal dans les circonstances quelqu'un s'objecter. La France Leader de l'UE VS Le Reste du Monde. Quelle Coiffe de Coq encore une fois. En tout cas, ce n'est pas avec ça que les utilisateurs Monsieur et Madame tout le monde vont se sentir en confiance pour Linux. Étant donné que cet OS est valable uniquement pour des tâches dédiers de Bureau sans grand développement. Oui, je sais les Fanas Linuxisiens vont s'en donner à coeur joie en pub pour Aveugler et Gonfler le Ballon avec cette histoire de Patriotisme National à la DonQuichotte
1°- L’ignorance : ça fait dire des bétises dont on se mord souvent les doigts après une brève analyse de la situation, cependant, pour certains, l’ignorance et la peur sont tels qu’ils n’oseront jamais franchir le pas… souvent non par manque de confiance en Linux mais par peur d’avoir à reconstruire tout ce qui l’a été TRES laborieusement sous Windows (tâches qui auraient sûrement pu être accomplies avec plus d’aisance sur Linux … mais allez lui faire comprendre ça avec son point référent qui est Windows … sur lequel il faire faire 7 clics pour configurer les propriétés de sa connexion internet !). La réponse : contre l’ignorance, il n’y a pas grand chose d’autre à faire que de laisser le temps faire son oeuvre en comptant sur le fait que les générations futures seront plus instruites que les précédentes; Avant d’utiliser les logiciels libres encore faut il savoir qu’ils existent. Et dans les faits, peu d’internautes savent se servir d’un moteur de recherche.
Les peurs induites par l’ignorances peuvent revêtir de facettes multiples dont l’une des plus ridicules est véhiculée par des entreprises dont le business model dépend de la vente de licences d’utilisations. Ainsi il n’est pas non plus rare de tomber sur des posts qui fustigent Linux en le taxant d’un dangereux jouet de marxistes destiné à anéantir l’industrie logicielle… ne riez pas, il y a vraiment des gens qui pensent ceci !

2°- Les formats de fichiers usuellement utilisés : ils sont de moins en moins un problème, de nombreux éditeurs ont compris que l’interopérabilité n’était pas une option pour les professionnels, cette notion fait donc son apparition pour les particuliers qui importent chez eux formats, logiciels et méthodes de travail. Pour la bureautique traditionnelle, tout les équivalents libres existent et font beaucoup de choses mieux que leurs cousins non libres.

3°- Les jeux : derrière un « toutes les applications ne fonctionnent pas sur Linux », il faut souvent comprendre « World of Warcraft marche pas sous Linux »… quelques jeux sont portés sous Linux, et il existe surtout le moyen de continuer à jouer via des émulateurs. Cet argument est rarement mis en avant car peu de détracteurs de Linux osent avouer sur les forums aux discussions animées qu’ils passent 8h par jour sur un jeux. Ces derniers mettront plutôt en avant un mesquin « je suis obligé pour mon travail ». Dans les faits, peux d’emplois en France dépendent de l’utilisation de Windows, cependant à les écouter, c’est à croire que le plus grand pourvoyeur mondial d’emploi est Microsoft. Ce n’est évidemment pas le cas, mais là encore il faut lire entre les lignes quand un utilisateur vous explique ses principaux freins.

4°- Le manque de temps : cet argument est l’un des rares que l’on peut considérer comme sérieux uniquement s’il est mis en relation avec l’expérience d’un utilisateur. En clair, plus un utilisateur Windows est avancé dans l’utilisation de Windows, plus le temps d’apprentissage pour retrouver les mêmes conforts sous Linux sera important. Là encore un préjugé tombe puisqu’un utilisateur qui ne fait que consulter des pages web, lire ses mails et créer des document MsWord ou MsExcell est tout a fait capable de faire son apprentissage Linux en quelques minutes;

5°- Un certain snobisme mal placé qui tendrait à faire penser à un utilisateur que s’il ne paye pas son système d’exploitation, c’est que ce dernier est forcément moins bien que celui qui est payant… en clair il est plus communément admis qu’un Windows Vista avec plein de widgets, c’est forcément plus classe qu’un e17.

6°- Le support francophone : des très nombreuses documentations existent, elles sont également le fruit d’un travail collaboratif et communautaire. Elle sont souvent de très grande qualité. Ce qui choc souvent un novice sous Linux, c’est la différence qualitative des documentations entre monde libre et monde propriétaire; La documentation est vraiment une partie du process de la création d’un logiciel libre, il est très important car c’est souvent là que s’expriment des communautés de non développeurs.

7°- En toute dernière position, nous avons l’interface graphique .. en dernière position puisque si un utilisateur Windows vous dit qu’il est perdu sur Gnome ou XFCE, c’est en principe l’histoire de quelques minutes d’apprentissage et pas plus (sinon c’est l’obstacle numéro 1 son problème).

A contrario, il existe heureusement des raisons pour lesquelles un utilisateur Windows sera attiré par Linux, mais parfois (souvent) à son insu.

1°- Linux is sexy : faites une démonstration de Compiz à un utilisateur Windows, comparez le à l’interface Aero de Vista… Après un bon quart d’heure de « ooohhhh » et de « aaahhh », vous devriez le convaincre sans peine de faire joujou avec le cube 3d pour passer d’un desktop à l’autre. Passé le cap de l’ignorance, le tape à l’oeil, ça fait toujours son effet.

2°- La sécurité des données : de nombreux drames viraux ont eu raison des données de beaucoup d’utilisateurs. Réinstaller son système sans cesse est aussi très chronophage. L’absence de phénomènes viraux gênant sous Linux est l’un des arguments chocs de ce système d’exploitation.

3°- Des professionnels pour lesquels l’accès aux code source n’est pas une option pour conserver la maîtrise d’une application sensible.

4° Pour certaines utilisations bien précises, Windows n’a pas d’équivalents de certaines applications ou de certains pilotes sous Linux. C’est le cas pour certaines fonctionnalités wifi avancées, pour le code (le compilateur GNU a encore de beaux jours devant lui), ….
Les joujoux qui peuvent vous faire passer au libre sont nombreux. En matière de sécurité, audit et analyse Fonrensic, l’utilisation d’un Linux est une évidence.

5°- Les « Monsieur Jourdain » de GNU Linux : mêmes les plus réfractaires à Linux l’utilisent, le plus souvent sans le savoir, de manière transparente, Linux est au coeur de vos communications téléphonique (soit dans le téléphone soit dans les terminaux qui acheminent votre appel). Vous l’utilisez plusieurs fois par jour, sans a aucun moment vous poser des questions sur la fiabilité de cet OS. Un OS qui se fait oublier, c’est bon signe, ça veut dire qu’il fonctionne le plus souvent 🙂

6°- La curiosité naturelle de personnes plus versée dans l’internet ou l’informatique en général que d’autres

7°- La gratuité des nombreuses applications : ne plus passer son temps à rechercher des cracks sur des sites de warez russes sur lesquels on a plus de chances de récolter worms et trojans que cracks et serials valides … ça n’a pas de prix. Même plus besoin de se rendre sur un site web pour télécharger une application, un gestionnaire d’applications packagées s’en occupe pour vous ! Le gain de temps est considérable dans le cadre d’une utilisation quotidienne.

Python : un langage informatique pas fait pour les républicains

Peut être connaissez vous le sénateur Shelley, qui est ce qu’on peut appeler les plus grand crétin de la  « blogosphère ». Si vous ne connaissez pas cet homme rare, je vous invite à vous rendre sur son blog et lire ses posts sur linux, ubuntu, les homosexuels, l’avortement … et maintenant Python, un langage de programmation libre utilisé entre autres par la NASA (pure Python et Plone), la CIA (Plone), CBS (Zope), Google (pure Python & Django), eBay (Plone), Nokia (Plone)… la liste est bien trop longue.

Notre ami Shelley, toujours aussi benêt y soutient des thèses « informatiquement négationistes » dans la pure tradition de son blog qui recelle de choses tellement droles que j’avoue y retourner régulierement.

Offrez vous une nouvelle barre de rire : Python : you are the weakest link

Dedibox v2 et XL : des cartes réseau bien foireuses qui perdent le réseau

C’est le premier point vraiment négatif actuellement sur les dedibox … impossible de faire un transfert de fichier un peu lourd avec un scp sans que ça plante carrément le réseau … génial quand on fait des sauvegardes, perte de réseau en plein backup donc données altérées.

cat /var/log/syslog | grep eth0

kernel: NETDEV WATCHDOG: eth0: transmit timed out
kernel: eth0: Transmit timeout, status 00000005 00000000

… et c’est comme ca tous les jours… si vous avez comme moi 9 dedibox à gérer, il y a de quoi être excédé pour moins.

Le responsable à première vue est la carte sis qui équipe les dedibox qui ne sont à la base pas vraiment réputées pour leur fiabilité. Mais en grattant un peu dans le syslog, on s’apperçois que que l’outil de monitoring de la Dedibox, le Dedibox Monitoring Agent (DMA) a peut être un rapport de cause à effet avec ces plantages exaspérants .

Quelles solutions ?

  • Compiler son propre kernel en attendant un officiel qui vienne corriger le problème
  • Faire un script qui check le reseau toutes les n minutes et qui le restart ifconfig eth0 down puis ifconfig eth0 up au cas ou on a une réponse négative du probe.
  • passer sur BSD 🙂

Voilà c’est pas super joyeux pour l’instant mais l’offre des V2 et des XL est très récente et innovante … c’est le revers de la médaille.

Comment convertir du OGG ou du OGM en format AVI ?

M’étant trouvé à vouloir faire un petit montage vidéo sous Linux, je suis rapidement tombé sur avidemux et plein d’autres outils graphiques très conviviaux pour faire mes montages. Oui mais manque de bol, mes source vidéo se trouvaient dans un beau contenaire tout propre : le ogg. Avidemux comme son nom l’indique tolère en entrée de l’avi mais pas de ogg. Il m’a donc fallu passer par la case conversion. Je me suis alors rappelé que Mplayer disposait de petits outils en ligne de commande pour encoder les vidéos d’un format à l’autre, après une brève recherche : mencoder 🙂

Voici donc comment cette petite commande m’a bien rendu service :

Hardy Heron : découverte de la dernière version alpha d’Ubuntu

Bluetouff desktop ubuntuEt hop passage de Gutsy à la dernière version alpha d’Ubuntu, la Hardy Heron alpha 6. Oui je sais, ces noms d’oiseaux sont débiles, mais puisque c’est la tradition on va s’y plier, de toutes façons cet OS a de sérieux arguments autrement plus importants que ses noms de codes. Si vous ne connaissez pas encore Ubuntu, voici ce qu’il faut en savoir au niveau des versions et du support :

Ubuntu , comme OpenBSD sort tous les 6 mois. Ubuntu offre une version LTS de son OS : (Long Term Support) ce qui permet aux professionnels d’envisager des déploiements sachant que la version LTS sera supportée par Ubuntu et surtout maintenue (correctifs de sécurité, petites améliorations … vous ne serez pas en reste). La Hardy Heron : version 8.04 LTS prévue pour avril 2008 sera maintenue par Ubuntu jusqu’en avirl 2013 pour sa version server et jusqu’en avril 2010 pour sa version Desktop. Dans ces conditions, vous comprenez donc aisément que les choix faits par la Gendarmerie Nationale ou par l’Assemblée Nationale sont loins d’être dénués de sens même si chez Mandriva on peste de ne pas avoir opté pour un Linux plus franchouillard)

Attention, cette opération n’est pas recommandée si vous débutez sur Linux, il vaut mieux dans ce cas patienter jusqu’à la version finale. De mon côté j’ai pour habitude de ne pas utiliser le partitionnement automatique suggéré par l’installation standard d’Ubuntu et d’isoler mes partitions /home et /etc afin de ne pas perdre mes données et surtout mes précieux fichiers de configuration en cas de drame. Voici donc comment je m’y suis pris :

J’édite le sourcelist afin de lui expliquer quelles sont mes intention : ici taper dans les nouveaux répository de la Hardy :

$ gedit /etc/apt/sourcelist
Je fais un petit ctrl+f sur le mot gutsy (la version courante) et je décide de remplacer toutes ses occurrences par « hardy »

Je sauvegarde et je lance ensuite un petit aptitude update … tout simplement

J’ouvre l’outil graphique de mise à jour qui m’indique qu’une nouvelle version est disponible et que je peux lancer mon dstupgrade … grosses mise à jour, plus d’un giga de paquets téléchargés, l’opération prend au total chez moi 40 minutes mais cette opération peut varier en fonction de votre débit bien évidemment.

Opération réussie sans dommages collatéraux. Je dois bien avouer que j’étais un peu circonspect. Mais bon comme on approche de la version finale qui est prévue pour le mois d’Avril 2008, j’ai tablé sur le fait qu’elle était quasi parfaitement stabilisée. Bingo, je n’y perds vraiment pas au change à quelques petites choses un peu frustrantes mais contournables. Voici le bilan actuel :

  • un système de fichier bien plus réactif, un gnome qui semble doppé
    un nouveau kernel, le 2.6.24-12
  • Apparition de PulseAudio pour le demon de son
  • Intégration de nouvelles applications comme Brasero pour graver des CD et DVD, du célèbre client bittorent Transmission, un nouveau calendrier intégrant le world clock applet, un très bel outil graphique de visualisation des performances, …
  • Un firefox 3 beta 4 … super mais c’est un peu ce qui m’a le plus embêté, l’addon webdevelopper n’ayant pas encore été porté et la procédure d’upgrade m’ayant cassé Iceape j’ai du lancé un petit apt-get autoremove afin de pouvoir installer seamonkey dans de bonnes conditions. Et comme seamonkey fonctionne à la perfection et supporte mes addons cheris (y’en a plein pâr là : https://addons.mozilla.org/en-US/seamonkey/browse/type:1/cat:all?show=50 donc … pas de problème. Seule petite ombre au tableau mais qui personnellement ne me dérange pas outre mesure : l’installation du dictionnaire français me revoit une « unexpected error » ..; ce genre de message à la microsoft un peu débile qui vous dit que l’erreur est « inattendue » … vous croyez une expected error serait vraiment une erreur vous ?

Voilà ce que l’apt-get autoremove a viré chez moi afin de permettre l’installation de Seamonkey

g++-4.1 gnome-bin gnome-libs-data libart2 libblas3gf libfaad2-0 libgfortran2
libgnome32 libgnomesupport0 libgnomeui32 libgnorba27 libgnorbagtk0
libmp4v2-0 liborbit0 libstdc++6-4.1-dev libsuperlu3 libungif4g tmw-data

Concernant firefox3 beta4 c’est une assez bonne surprise, relativement stable pour une béta, bien plus rapide que son grand frêre, il ne lui manque vraiment que la compatibilité de certains addons qui ne tardezront pas de se mettre à la page, on peut donc être confiant.

Vous pouvez découvrir toutes les nouveautés de la Hardy Heron ici : http://www.ubuntu.com/testing/hardy/alpha6

En ce qui me concerne, la Hardy Heron est bonne pour le service, je suis très heureux d’avoir réalisé cette mise à jour, il y a un gain évident en performances. Une petite frayeur au premier reboot : le demon de son ne fonctionnait plus (il a lui aussi subit un lifting pendant l’upgrade… une petite mise à jour, l’installation du package linux-386 et un reboot plus tard tout était revenu dans l’ordre. Ca commence donc a sentir très bon pour cette nouvelle édition d’Ubuntu qui en configuration desktop mérite son succès… simple convivial, performant et doté de plus en plus de fonctionnalités qui commencent à) faire de l’ombre à OSX auquel on le compare souvent.

Une impression de performances, une stabilité quiest déjà là, un desktop 3D assez stabilisé avec une nouvelle version de Xorg … cependant, contrairement à la kubuntu 8.04 qui accueillera KDE4 on ne notera pas de révolution sur cette version.

Rien ne vous empêche d’installer kde depuis les repository d’ubuntu, ça fonctionne très bien.

Google Android vs SDK Apple … deux stratégies, deux mondes.

Android sur un iPhone pour bientôt ?Apple, qui a récemment retardé la sortie de son Software Developpement Kit qui devrait permettre aux développeurs de proposer de nouvelles applications tierces « officielles », entendrait selon certaines choses vues sur des blogs « répondre » au projet Google Android.

A en lire certains, comme celui-ci, j’ai cru déceler une énorme incompréhension, des terribles imprécisions ainsi qu’une méconnaissance des problématiques et de la tendance forte du marché de la téléphonie mobile.

Pré-requis

  • Apple = monde propriétaire ;
  • Android = open source.

Pour faire simple, on va commencer par le SDK de Apple : ce bundle d’outils de développements va se limiter à un seul appareil, l’iPhone. Pour Apple, c’est un avantage, ça permet d’avoir les spécifications précises de tous les composants utilisés. Pour les développeurs et les utilisateurs finaux, en fait on a pas le choix, il faut posséder un iPhone et rien d’autre. Note importante : le core de l’OS reste lui fermé, Apple n’ouvre pas ses repository pour qu’un développeur puisse soumettre une modification sur le core de l’OS, d’ailleurs, modifier le code source du core est même illégal, vous devenez un vilain pirate.

Première conclusion : si je veux installer un firmware d’iPhone pour profiter de toutes les supers applications tiercesdans un autre terminal … je ne peux pas. En revanche si je veux installer un Linux sur mon iPhone … ça je peux ! Niveau universalité, Android prend une longueur d’avance.

Passons maintenant au projet Google Android : on nous avait longtemps annoncé la venue prochaine sur le marché d’un gPhone … on en aura pas un mais mais des centaines, de plusieurs marques différentes, le boulot de Goolgle n’étant pas de fabriquer des téléphones, la compagnie américain a opté pour une stratégie à la Microsoft : « on va faire le bidule qui fait tourner ton machin, là… », et comme contrairement à Microsoft notre modèle est plutôt gratuit, on va utiliser du Linux déjà très présent dans la téléphonie (Sony Erickson, Motorolla … même Nokia s’y met …), tout mettre en open source. Le business modèle de Android est juste de founir une interface logicielle qui permet aux utilisateur d’accéder dans les meilleures conditions possibles à des services Google, gratuits ou payant. Ici le software n’est là que pour vendre du service.

Non content de fournir un système d’exploitation pour téléphones, Google a évidemment pensé aux développeurs : accès au code source et grands concours de développement d’applications pour Android, en mettant sur la table 10 millions de dollars de récompenses aux développeurs qui auront réalisés les meilleurs projets.

Oui, Apple pourrait très bien mettre la même somme sur la table, mais ce n’est pas trop la mentalité de la maison.

Les objectifs et les approches de Google et Apple sont donc très différentes, bien évidemment, Apple vend aussi de la musique en ligne et aimerait à faire payer certains services … iLife ? Mais iLife et les services .mac, face à Google aujourd’hui, c’est peanuts.

Pour ce qui est de la sympathie des développeurs pour l’iPhone, oui il y en a, mais seul Google est capable de fournir à des constructeurs de téléphones mobiles un système interopérable, et surtout, avec ses sources…

Là où je ne peux pas être d’accord, c’est quand je lis ce genre de phrase :

« Google Android est aujourd’hui au mobile ce que Linux est à l’ordinateur … un outil fabuleux mais réservé à une niche »

Google Android attaque la téléphonie : aujourd’hui quand vous décrochez un téléphone mobile ou GSM, vous avez 95% de chances de tomber sur du Linux à la première tonalité sans le savoir; C’est une monumentale erreur de considérer Linux comme un p’tit nouveau,un outsider, sur un marché où il règne déjà en maître incontestable et incontesté.

« Le kit de développement pour l’iPhone viendra, dans moins de 10 jours, sérieusement affecter le potentiel de croissance d’Android »

Même si tous les développeurs Linux se mettaient à coder pour l’iPhone à la sortie d’un SDK tout pas libre pour faire des softs qui ne fonctionnent que sur un téléphone à 600 euros, il leur faudrait 2 ans minimum avant d’arriver à la profusion d’applications déjà disponibles sous Linux. Erreur numéro 2 donc, Android ne part pas de rien, il part d’un truc qui fonctionne bien avec déjà énormément d’applications portées ou portables. En clair vous avez plus de chance de voir l’année prochaine un téléphone mobile capable de faire tourner OpenOffice qu’un iPhone avec MsOffice.

Pour le potentiel de croissance d’Android, il sera, par nature au minimum 5 fois plus soutenu que celui de l’iPhone à horizon 1 an, c’est mathématique.

Sortie de KDE4 : a la découverte de l’environnement de bureau le plus riche et convivial du moment

kde4KDE est incontestablement l’un des environnement de bureau les plus évolués au monde. Résultants d’années de travail acharné de très nombreux contributeurs, la version 4 de KDE est sortie il y a à peine 48h et déchaîne les passions. Si vous ne connaissez pas du tout Linux, ou très peu, sachez que ce système d’exploitation vous permet de choisir l’environnement graphique qui va constituer votre desktop. Cette interface graphique est particulièrement importante lorsque l’on se retrouve face à son écran car elle conditionne votre productivité.

KDE a toujours eu la réputation d’être le plus riche et le mieux intégré, j’entends par là que les applications semblent interagir naturellement dans un environnement très homogène et que les nombreuses petites applications qui le compose offrent une interactivité et un confort satisfaisant, ce même pour les plus difficiles d’entre nous.

Philosophiquement, KDE est … comment dire .. terreux … oui terreux mais pas trop quand même hein. KDE s’appuie sur QT qui n’est pas la panacée de l’open source, Trolltech, l’entreprise qui le développe le distribue sous une double licence… Le sujet étant éminemment trollogène, je vais m’arrêter là. Dans ces conditions, de nombreux développeurs lui préfèrent GTK et là … il ne s’agit pas que de philosophie puisque GTK a aussi de sérieux arguments.

Le changement le plus notable de cette version est à mon sens le remplacement de Arts contre lequel j’ai très souvent pesté sous Debian comme sous OpenBSD par Phonon. Okular est l’autre belle innovation, qui permet de prévisualiser les documents de manière fort sexy. Voici une petite liste de ce qui a disparu et de ce qui est apparu dans KDE a l’occasion de cette nouvelle version.

Je vous laisse maintenant découvrir avec les vidéos qui suivent le nouveau KDE4 qui laisse l’Aero de Windows Vista quelques années lumières loin derrière. Encore une fois félicitations pour le fantastique travail de la communauté KDE que je me ferai un plaisir d’aller saluer au Solutions Linux édition 2008 à la fin du mois 😉

[wp_youtube]i4HS1v0a9Xs[/wp_youtube]

KDE un porte avion ? Regardez ce qu’il donne sur un EEEPC Asus à 250 euros

[wp_youtube]Wedw701Gy8s[/wp_youtube]

Wifi et Linux : ces fabricants qui sont pas foutus d’indiquer des informations de bases sur leurs produits

WG311TChoisir une carte wifi a toujours été un véritable cauchemar pour moi. J’ai écumé de nombreuses fois les boutiques de la rue Montgallet à la recherche de la perle rare… un chipset compatible linux et supportant le monitor mode correctement. Comme j’ai la chance d’en avoir essayé énormément, j’ai pu me faire une idée assez précise sur la question :

  • Oublier complètement d’acheter ce type de carte dans une boutique
  • Ecumer les forums, les sites qui recensent les modèles compatibles
  • Se méfiier de ce qui se dit sur les forums et les blogs: une carte compatible à un instant T1 ne le sera plus à un instant T2 puisque le constructeur aura changé le chipset sans prendre la peine de le signaler de quelque manière que ce soit
  • Regarder les plages de MacAdress qui indiquent la période et la version exacte de la carte
  • Commander en ligne
  • Commander de préférence dans des boutiques spécialisées ou via Ebay

En dehors des chipsets Ralink, Prism et Atheros il n’existe pas grand chose … c’est bien de le savoir mais voilà, ça ne suffit pas car c’est pas en vous pointant dans un magasin en demandant une carte à chipset x ou y que vous arriverez facilement à la trouver, les vendeurs ne pourront que très difficilement vous renseigner, à moins de tomber sur un « pratiquant », j’entends par là une personne assez versée dans la cryptographie et calée en wifi pour vous aiguiller sur la bonne carte. Je ne saurais trop vous recommander d’acheter votre carte wifi en ligne après vous être assuré de la version du modèle pour être certain qu’il s’agisse bien du chip que vous convoitez.

Ma dernière carte en date est une WG311T de Netgear … j’ai déjà lu pas mal de choses dessus et quand je suis tombé sur cette carte à moins de 20 euros chez Amazon, je me suis dit qu’après tout ça valait le coup de risquer un achat sans avoir la garantie de ne pas tomber sur une v3

Ce matin, je recois une V1 H4 … hum je n’avais pas prévu cette éventualité (je ne sais pas à quoi correspond ce h4) et encore moins de voir un WG311v3 sur le circuit imprimé : la v3 est équipée d’un chipset Marvell, autant dire que pour moi elle est carrément inutilisable, hors de question d’installer un truc aussi pourri (bien qu’utile) que NDISwrapper. Pire, quand je regarde les photos sur le net des cartes wg311t à chip Atheros; elles n’ont vraiment pas la même tête que celle que j’ai reçu :\

A deux doigt d’aller crier ma haine sur les forums de Netgear en traitant le constructeurs de pas mal de noms d’oiseaux, je me dis que maintenant qu’elle est ouverte, je vais quand même l’installer sur ma machine pour m’assurer que je me suis planté …

Oh bonheur ! La carte est aussitot détectée et un ifconfig laisse apparaître une interface wifi0 et surtout une interface ath0 : c’est bien une Atheros ! Un patch sur le driver et un load de modules kernels plus tard, aireplay fonctionne à fonds les ballons. Je dois même avouer avoir été complètement bluffé par la patate de ce chipset et surtout de l’efficacité de Aircrack-ptw. Une fois HostAP installé on nage en plein bonheur, multissid, authentification renforcée à coup de leap … une vraie claque !

Oui mais voilà, les fabricants : Netgear, Dlink, Lynksys (…) sont quand même une sacrée bande de sacrés escrocs pas capables d’indiquer clairement sur leur boite la nature du chipset de la carte et encore moins de changer le nom de la carte quand ils en changent le chipset (combien de fois je me suis retrouvé avec un chipset Realtek ou TexasInstrument à la place d’un Prism, d’un Atheros ou d’un Ralink !). Quand ces crétins comprendront-ils que l’utilisation de leur produit se fait de manière différente en fonction de l’os que l’on utilise et de ce à quoi on la pré-destine : essayez de vous monter un point d’accès sérieux avec un chipset Marvell sous Gnu Linux et vous comprendrez vite de quoi je parle. La moindre des choses est de respecter ses utilisateurs en donnant des informations basiques mais cruciales pour les gens qui achètent des cartes… je n’évoque même pas le problèmes des specs matérielles que les constructeurs se gardent bien de donner à la communauté pour que cette dernière se charge du portage des pilotes. Heureusement que les développeurs d’OpenBSD ne les attendent pas et qu’ils sont là pour nous offrir des drivers de très grande qualité, souvent portés par la suite sur Linux.

Plus ça va et plus j’ai envie d’adopter la même attitude avec des gens qui n’utilisent pas du Linux/Unix … de les envoyer chier dés qu’ils me posent une question, après tout s’ils ne font pas d’effort, pourquoi j’en ferais ?

Une PME doit elle opter pour un abonnement internet professionnel ou 2 connexions grand public ?

Bonding Si vous gérez le réseau d’une PME, ou si vos connaissances n’excèdent pas le strict stade de la bureautique et que vous ne vous êtes même pas posé la question, ce post peut vous intéresser. Je m’interroge régulièrement depuis plus de trois ans maintenant, qu’y a t’il de plus fiable : une connexion professionnelle chez un opérateur compétent (comme Nerim ou Orange Pro) ? Ou bien deux connexions grand public sans garantie de fonctionnement ? J’ai personnellement opté pour le second choix. Je dispose d’une connexion Free dégroupée et d’une connexion Noos 30meg. J’ai en outre la chance d’habiter à moins de 1000m de mon DSLAM, ce qui fait de ma connexion Free une connexion plus performante et plus fiable.

Voici les avantages de ce choix :

  • En choisissant une connexion câble en plus d’une connexion DSL, on diminue les risques liées à la techno elle même : si le Noeud de Raccordement Abonnés (NRA) se prend un Airbus, une connexion câble fonctionne toujours car elle ne passe pas pas les paires de cuivre du téléphone et donc pas non plus par le NRA.
  • On bénéficie de deux adresses IP externes (IPV4) et si on est chez Free on bénéficie depuis peux de l’IPV6 permettant d’assigner des IP propres sur chaque bécanes… la classe.
  • Au lieu d’avoir une ligne spécialisée onéreuse avec peu de débit on en a 2 avec des débits confortables.
  • Et dernier argument … on peut faire copuler ces deux connexions !

Euh … montre moi ton gros tuyaux

Partant du constat simple que n’importe quel geek ferait aux périodes de noel, quand la pression du travail se fait moindre et qu’il faut beaucoup geeker pour supporter Tino Rossi à la TV :

24+30 = 54mb en download et 1+1 = 2MB d’upload… pas besoin d’être une brute en math jusque là.

Oui sauf que quand je suis sur une connexion, je ne suis pas sur l’autre donc c’est soit 24 soit 30 … ah moins que … à moins qu’en s’amusant un peu avec ces paquets magiques, je ne les fasse rentrer dans la banquise (une vieille bécane sous mélénusque réhabilitée pour l’occasion).

« Un seul pour les gouverner tous » : Melenusque r0x0r <3 #[email protected]!#[email protected]!#[email protected]

On rentre un peu plus dans le vif du sujet : comment agréger 2 connexions pour bénéficier d’un gros tuyaux au lieu de 2 petits et qu’en cas de défaillance d’une des deux connexions, mon réseau soit assez « intelligent » pour continuer à assurer le service avec une seule de ces deux connexions. Cette pratique (non BDSM) se nomme le bonding, c’est super bien documenté de tous les côtés. Je vais donc vous épargner un fastidieux tutoriel sur ce blog mais si ça vous intéresse je vous pose ma configuration sur un wiki ou quelque chose de plus approprié que ce blog.Cette petite bidouille a pour vocation de rendre transparent un soucis de connexion sur un réseau local et d’en améliorer les performances brutes. Je pense que de nombreuses PME devraient se pencher sur cette solution avant d’investir des sommes considérables dans une ligne spécialisée … donc voilà 2 connexions qui copulent en faisant du bonding non BDSM.Seule contrepartie en dehors des deux heures de bidouilles et de saines lectures nécessaires, si vous avez une connexion Free, il va soit falloir abandonner l’idée de l’IPV6 si la connexion de l’autre FAI ne le supporte pas ou bien il vous faudra router le trafic IPV4 et IPV6 chacun de leur cotés (ce qui n’est pas forcement ce que l’on souhaite).

Vous ne pourrez pas passer a côté de cet excellent tuto pour Debian sur Developpez.com