Le paradoxe temporel selon Microsoft

23 novembre 2010

Il y a quelques jours, l’univers vidéo-ludique a été marqué par la sortie d’un accessoire novateur : le Kinect (A ne pas confondre avec Skynet – l’intelligence artificielle responsable de la destruction de l’humanité dans l’univers « Terminator« ). Kinect est une sorte de caméra intelligente, capable de capturer les mouvements du joueur pour les restituer dans le jeu. A travers cet outil ludique, Microsoft espère bien récupérer la part de marché « famille » que la firme avait quelque peu délaissée (n’en déplaise au moustachu à salopette rouge).

Pour cela, Microsoft a fait les choses en grand : sortie du Kinect juste avant les fêtes de fin d’année, publicité à l’échelle mondiale, refonte de l’interface de la Xbox 360 et aussi un pack d’abonnement Xbox LIVE spécial Famille. Le Pack Xbox LIVE Famille Gold vous offre quatre abonnements Gold de 12 mois pour un prix inférieur à deux abonnements. Outre l’avantage financier, l’abonnement propose des fonctionnalités supplémentaires fortes intéressantes pour la famille : argent de poche (les parents peuvent offrir des points Microsoft à leurs bambins),  rapport d’activités (idéal pour surveiller l’utilisation de la console par les enfants)…

Justement à ce propos, je tenais à vous offrir un petit visuel de mes activités vidéo-ludiques du 12 au 15 novembre.

J’attire particulièrement votre attention sur le 14 novembre. Faisons un petit décompte :

  • Mass Effect 2 : 23h59
  • Mass Effect : 2h44
  • Kung Fu Panda : 0h37
  • Dragon Age – Origins : 0h02

Soit 25h22 !!! Eh oui, chez Microsoft, ils sont parvenus à prolonger la durée d’une journée. On nous avait pourtant prévenu qu’il y aurait un avant et un après Kinect.

Trêve de plaisanterie, vous l’aurez compris : il s’agit d’un vilain bogue. Une anomalie qui s’est répétée de jours en jours, puisque je n’ai pas joué un instant à Mass Effect 2 durant la période du 12 au 15 novembre.

P.S. : Il semblerait que Microsoft se penche actuellement sur le problème, car je ne parviens plus à accéder aux rapports.

Edit du 13 janvier 2011 : Microsoft a à priori réussi à corriger le paradoxe temporel en question. Mise à part mon rapport de Novembre qui est encore erroné, les suivants semblent correctes.

08. Une fenêtre virtualisée sur le monde

15 novembre 2010

La Couture Assistée par Ordinateur via à un logiciel écrit pour Windows, possible sur Ubuntu ? Après une veine tentative avec Wine, qui ne pouvait guère fonctionner puisque l’USB n’est pas encore opérationnel (merci à mes lecteurs de m’avoir signalé ce point lors de mon article précédent), j’allais maintenant me tourner vers la mise en place d’une machine virtuelle. Il existe une vaste gamme de  ces logiciels dits de virtualisation.

Une machine virtuelle… Virtualisation, c’est quoi ce charabia ?

Le principe est en fait très simple. Celui-ci consiste à faire fonctionner plusieurs systèmes d’exploitation sur un même ordinateur sans formater et partitionner le disque dur (donc pas de lourdes manipulations, pas de risques de pertes de données, etc.). Il existe plusieurs méthodes de virtualisation, pour Ach’P mon choix s’est porté sur la mise en place de machines virtuelles via un logiciel spécifique à savoir Virtualbox d‘Oracle (anciennement Sun Microsystems).

Après quelques recherches et comparaisons entre les différents logiciels disponibles dans le domaine, Virtualbox me semblait être la solution la plus adaptée à mon cas, regroupant facilité d’utilisation et performance. Sur Ubuntu, Virtualbox est proposé sous deux versions, une version libre (appelée OSE sous licence GPL) et une version propriétaire (appelée PUEL sous licence propriétaire). Pour faire simple, la version OSE offre moins de fonctionnalités que la version PUEL, notamment concernant la gestion de l’USB.

Dans mon cas précis une bonne gestion de l’USB étant obligatoire, je me suis donc tourné vers la version PUEL.

Et aprés ?

Voilà, j’ai installé Virtualbox… mais j’en fais quoi maintenant ? On démarre le programme. Un clic sur « nouvelle » et il n’y a plus qu’à suivre l’assistant qui s’avère simple et intuitif.

Nom : Windows XP
Système d’exploitation : Microsoft Windows
Version : Windows XP

A noter que le système d’exploitation et la version sont normalement préselectionnés rien qu’en écrivant le nom. Pratique, non ?

Mémoire vive allouée (RAM) : 192 Mo

Il ne reste plus qu’à créer un « nouveau disque dur », en réalité il s’agit de réserver de l’espace sur le disque dur physique qui servira au nouveau système d’exploitation en l’occurence Windows XP. Il existe pour cela deux options, soit la création d’une image à taille variable ou d’une image à taille fixe. J’ai donc choisi une image à taille variable, ainsi ce Windows™ virtualisé n’occupera sur mon disque dur que la place qui lui est nécessaire et rien de plus.

Il n’y a plus qu’à cliquer sur démarrer. Au premier démarrage de la machine virtuelle, un assistant demande la localisation du cd d’installation du système d’exploitation (Windows XP). Il suffit alors simplement de lui indiquer le chemin du lecteur cd (ou du fichier image) et l’installation peut débuter.

Un petit complément bien utile

A l’usage, on s’apercoit assez vite des limites de la virtualisation (capture de la souris nécessitant une combinaison de touches, redimensionnement de la fenêtre non géré par Windows). Mais les développeurs de Virtualbox, conscient de la nécessité de rendre leur logiciel intuitif, ont trouvé la parade à ses petits problèmes : le programme Virtualbox Guest Additions (Virtualbox Additions Invité en français).

Pour l’installer rien de plus facile, il suffit de démarrer le Windows virtualisé. Une fois Windows démarré, il suffit alors d’utiliser la combinaison suivante : touche Ctrl + D. Le programme démarre automatiquement (sauf si le démarrage automatique sur le CD est désactivé). Il suffit de suivre l’installation pas à pas. Celle-ci s’achève avec un redémarrage de Windows. Résultat de l’opération, la capture de la souris se fait de manière transparente basculant d’elle-même de l’environnement Linux à l’environnement Windows. De plus si l’on redimensionne la fenêtre sous Linux, le bureau Windows s’adapte aux nouvelles dimensions.

Nous allons maintenant pouvoir installer Futura Software sur ce Windows virtualisé…

07. Windows Is Not Essential ?

28 juillet 2009

Me revoilà pour la suite de l’aventure… Comme précisé dans mon précédent article, Ach’P fonctionnait maintenant sous un environnement Ubuntu 8.10 entièrement francisé et mise à jour. De plus, j’étais parvenu à régler le souci de la non reconnaissance du Wifi. J’allais désormais m’attarder sur un point bien précis, à savoir faire de la couture assistée par le duo Ach’P et Ubuntu.

Pour ceux qui auraient loupé un épisode, Ach’P est l’ordinateur portable de ma chérie grâce auquel elle réalise entre autres de bien jolies broderies (pour les curieux, voici son blog). Pour se faire elle utilisait sous Windows XP un logiciel spécifique, Futura Software. Celui-ci transmettait les données nécessaires à la broderie vers la machine à coudre (Futura CE-200 Quantum) via le port USB. La recherche d’un logiciel équivalent sous Ubuntu n’ayant rien donné, je m’étais tourné vers deux solutions possibles : un passage par Wine ou par une machine virtuelle.

De prime abord, mon attention se porta sur la solution la moins gourmande en ressources, à savoir Wine. Wine est un programme à part entière qui permet l’exécution d’applications prévues pour Windows (16 ou 32 bits actuellement) sous un environnement Linux (donc sur Ubuntu). Wine est développé par une communauté sans rapport avec Microsoft. Wine est notamment utilisé par les Linuxiens adeptes des jeux vidéos via « Play On Linux » (la majorité des jeux vidéos étant développé sous Windows).

L’installation de Wine se réalisa aisément en utilisant l’interface « Ajouter ou Supprimer un programme ». Une simple recherche, quelques clics de souris et le tour était joué. Néanmoins avant d’entamer l’installation de Futura Software, ma curiosité me conduisit vers le panneau de configuration de Wine. Et là… L’ensemble des menus était complètement illisible.

Surpris mais pas vaincu, j’entrepris alors une petite recherche sur le web pour tenter d’élucider le mystère de ce charabia. Celle-ci m’amena vers un défaut de polices d’écriture, à savoir les fameuses polices d’écriture de Microsoft. La parfaite exécution de Wine nécessitant ces polices propriétaires, j’entrepris donc avec une certaine réticence l’installation du paquet ttf-mscorefonts. Clic, clic, clic… Voilà c’est installé.

Et… ce fut le drame. Le résultat était strictement le même. Je repartais au point de départ à la recherche d’une solution. Mon attention se porta alors vers une autre possibilité, mon souci semblait pouvoir se régler très rapidement grâce à un simple réglage au niveau de l’affichage du lissage des polices (Système >> Préférences de l’apparence >> Polices >> Lissage souspixel (LCD)).

Note complémentaire : Ce réglage permet aussi de régler un problème similaire (menus illisibles) dans Open Office.

Wine était désormais opérationnel, il était temps de passer à l’installation de Futura Software. L’installation du logiciel sous Windows via Wine fut très simple. Une fois le cd inséré, une fenêtre me proposa de démarrer le programme automatiquement. Ayant validé la proposition, le programme d’installation s’exécuta et je n’eus plus qu’à suivre les instructions à l’écran. L’installation s’acheva alors sans aucun message d’erreur.

Il ne restait plus qu’à tester. Ayant branché par USB la machine à Ach’P, d’un double clic sur le raccourci le programme démarra… pour finalement m’afficher un message d’erreur. La machine ne serait pas connectée. Après réflexion, j’en ai déduis que le périphérique n’était pas reconnu par le système. Après un peu test sur un autre poste informatique encore sous Windows, il est alors apparu que lors de l’installation de Futura Software le logiciel installe aussi de façon automatique le pilote de la machine. Cette étape est néanmoins ignorée par Wine, les pilotes du système sont en effet gérés par le système lui-même et non par Wine. Pour que la machine soit reconnue, l’installation du pilote sous Linux est donc nécessaire. Problème, Singer ne met à disposition aucun pilote pour Linux. J’ai bien pensé à Ndiswrapper (logiciel permettant d’utiliser des pilotes Windows sous Linux), mais celui-ci est en réalité destiné aux pilotes de cartes réseau wifi.

A ce stade, il était avéré qu’Ach’P ne pouvait guère utiliser Wine pour faire de la couture. J’allais donc me porter vers une autre solution. Toutefois encore aujourd’hui, quelques interrogations me restent en tête. Est-il possible d’utiliser pleinement Wine sans installer les polices propriétaires de Microsoft (en les substituant par les polices Liberation de Redhat par exemple) ? Je ne suis pas un anti-Microsoft (ou un anti-logiciel propriétaire), mais j’aime user de solution libre lorsqu’elles sont à disposition.

La mort d’Hadopi

5 juillet 2009

A compté du 15 juin, la nouvelle loi Création et Internet (aussi appelée loi Hadopi) est entrée en vigueur. Une loi qui fit grand bruit avant même son application. Bien que promulguée le 12 mai dernier par l’assemblée nationale, la loi avait fait l’objet d’un recours auprès du Conseil constitutionnel. Le Conseil examina alors le texte et, le 10 juin, y apporta de nombreuses modifications. Mais quelle est la teneur réelle de ce texte ? Pourquoi une polémique s’est-elle construite autour de celui-ci ?

Les origines

La loi Droit d’Auteur et Droits Voisins dans la Société de l’Information (DADVSI), adoptée le 30 juin 2006, prévoyait dans sa version initiale la mise en place d’une « riposte graduée ». Le volet du dispositif prévu prévoyait que le téléchargement réalisé à des fins personnelles ainsi que la communication au public opérée à des fins non commerciales échappaient aux sanctions prévues en cas de contrefaçon pour être considérés comme de simples contraventions. Une solution « douce » qui fut rejetée par le Conseil constitutionnel au nom du principe d’égalité devant la loi pénale.

Toutefois face à l’inefficacité des autres solutions proposées par cette loi et de la difficulté de la mise en place des sanctions (Tout acte de contrefaçon numérique – qui est une atteinte à un droit de propriété – est considéré comme un délit (art. L. 335-2 à L. 335-4 du code de la propriété intellectuelle), passible au maximum d’une peine de 3 ans de prison et de 300 000 euros d’amendes), une mission d’étude fut confié à Denis Olivennes (alors patron de la FNAC) par la ministre de la Culture et de la Communication (Christine Albanel) pour proposer un solution adaptée à la réalité.

Le rapport de Denis Olivennes

Selon le rapport, la méthodologie nécessaire pour parvenir à contrer le piratage via internet doit s’articuler sur deux points principaux :

  1. désinciter les internautes à télécharger des fichiers illégalement,
  2. augmenter l’attractivité des offres légales de téléchargement.

Afin de répondre à ses deux points, le rapport établit une liste de suggestions en vue de diminuer le piratage, par exemple :

  • diminuer les délais entre la sortie d’un film en salle et la distribution en DVD ou en vidéo à la demande,
  • supprimer les dispositifs de protection (DRM) n’offrant pas la possibilité de disposer du fichier quelque soit le matériel utilisé,
  • généraliser la TVA réduite sur l’ensemble des produits culturels avec une répercussion intégrale sur le prix public,
  • regrouper les ayants droits en un agence unique chargée de la lutte globale contre le piratage,
  • généraliser les techniques de filtrage des contenus pirates,
  • mettre en place un politique ciblée de poursuites ou un mécanisme d’avertissement et de sanctions…

La loi HADOPI décryptée

La loi HADOPI s’articule principalement autour de la création d’une autorité administrative indépendante H.A.D.O.P.I. (Haute Autorité pour la Diffusion des OEuvres et la Protection des droits sur Internet) autorité publique indépendante chargée de la surveillance des droits d’auteur sur Internet. Elle remplace l’Autorité de Régulation des Mesures Techniques (créée par la loi DADVSI en 2006). Cet organisme devient l’intermédiaire privilégié entre les ayant-droits (AFPA…), chargés de fournir les adresses IP des abonnés suspectés d’avoir manqué à l’obligation de surveillance (il faut comprendre « suspecter de télécharger illégalement ») et le fournisseur d’accès à Internet, chargé d’identifier les abonnés via leur IP.

Les missions d’HADOPI sont :

  • d’encourager le développement de l’offre légale par l’intermédiaire notamment d’une labelisation HADOPI (« Ici on télécharge légalement, lol » NDR) pour les sites web de téléchargement licite et la mise en place d’un site de référencement,
  • d’observer l’utilisation licite et illicite des oeuvres protégées sur Internet.

Par ailleurs, HADOPI peut être contactée par les ayant-droits afin de faire respecter leurs droits. C’est dans ce cadre que s’applique la fameuse « réponse graduée ». La procédure peut se résumer ainsi :

  1. l’envoi par mail à l’abonné incriminé d’un premier rappel à la loi,
  2. l’envoi d’un second rappel par courriel ou lettre recommandée en cas de récidive moins de 6 mois après le premier avertissement,
  3. la coupure de la ligne en dernier recours (avec obligation pour l’abonné de continuer à payer son abonnement le temps de la coupure).

Dans un premier temps, la coupure pouvait être ordonnée par la Haute Autorité pour la Diffusion des Œuvres et la Protection des droits sur Internet sans même l’intervention de la Justice. Toutefois cette méthode a été invalidée par le Conseil constitutionnel. Désormais seul un juge peut ordonner la coupure sous certaines conditions (voir plus bas).

Comment le Conseil constitutionnel a tué Hadopi…

Le Conseil constitutionnel entra en scène à la fin du mois de mai. En France, le Conseil constitutionnel est le gardien de la Constitution, la norme suprême, supérieure aux lois et aux traités, même européens. La Constitution est une loi adoptée dans des conditions très particulières qui rendent sa modification extrêmement difficile et qui fixe les grands principes de la République (la Constitution inclut ainsi la Déclaration des droits de l’Homme et du citoyen de 1789, pose le principe de l’égalité sans distinction d’origine, de race ou de religion, etc.) et de son fonctionnement (c’est la Constitution qui établit le drapeau, l’hymne national, ainsi que les pouvoirs du président de la République, du Gouvernement, du Parlement, etc…).

Quand une loi est adoptée, elle peut (c’est facultatif, sauf trois exceptions : les lois soumises à référendum, les lois organiques et les règlements des assemblées parlementaires) être déférée au Conseil constitutionnel qui jugera de leur conformité à la Constitution. La décision de déférer une loi au Conseil constitutionnel peut être prise par le président de la République, le président du Sénat, le Président de l’assemblée nationale, ou un groupe de soixante députés ou soixante sénateurs (pas de panachage entre les deux assemblées). Cette décision, appelée recours, doit idéalement être motivée, c’est-à-dire indiquer en quoi cette loi violerait la Constitution.

En étudiant la loi HADOPI, le Conseil rejeta certains griefs exposés (stipulant que concernant ces points, la loi n’allait pas à l’encontre de la Constitution) et entreprit des modifications sur la loi afin de rendre d’autres points conformes.

Avec la loi HADOPI, les bases de données établies par des sociétés privés dans le cadre de la surveillance des réseaux deviendront nominatives, puisque l’identité de l’abonné peut être obtenue facilement auprès du FAI. Le Conseil n’interdit pas la méthode, il rappelle seulement que la Commission Nationale Informatique et Liberté (la CNIL) a pour vocation de surveiller les traitements informatiques de données nominatives, et qu’il lui appartiendra de s’assurer que les modalités de ce traitement sont proportionnées au but poursuivi. En clair, cela signifie que toute poursuite fondée sur ces relevés sera nulle tant que la CNIL n’aura pas donné son feu vert quant au fonctionnement de ce fichier. La CNIL est aussi invitée à veiller à ce que ces données ne servent que dans le cadre des procédures judiciaires liées au piratage supposé et ne soient pas conservées à d’autres fins, genre une liste noire des pirates.

A l’état initial, la loi permettait aux ayant-droits d’une œuvre piratée d’obtenir du FAI qu’il puisse suspendre l’accès internet du pirate supposé. Désormais, HADOPI ne peut plus statuer sur cette suspension. La suspension ne peut être ordonnée que par l’autorité judiciaire, ce qui est une garantie. Mais le Conseil est même allé plus loin, en soufflant à l’oreille du juge le mode d’emploi (il appartiendra à la juridiction saisie de ne prononcer, dans le respect de cette liberté [la liberté d’expression, voir plus bas], que les mesures strictement nécessaires à la préservation des droits en cause). Bref, le juge devra se contenter d’ordonner le strict minimum pour mettre fin à cette atteinte au droit d’auteur sans porter atteinte de manière disproportionnée à la liberté d’expression, qui devient la marraine, comme on va le voir, de l’accès à internet. Autant dire que le seul abonnement qui pourra être suspendu est celui qui ne sert qu’à pirater à l’exclusion de tout blogging, twitting, facebooking, netsurfing…

Durant les débats aux assemblées, les apologistes de la loi n’avaient de répéter qu’il n’y a pas de droit à l’abonnement à Internet et qu’Internet n’est pas un droit fondamental, justifiant ainsi la possibilité de suspension de ligne. Poliment, le Conseil rétorqua à ce propos :

Considérant qu’aux termes de l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789 :  » La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi  » ; qu’en l’état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions, ce droit implique la liberté d’accéder à ces services.

Internet ne devient pas une liberté fondamentale, mais le voici intimement lié à la liberté d’expression, ce qui le met sur un beau piédestal. Lors d’un jugement en vue d’une coupure de ligne, le juge devra statuer en connaissance de cause. Le Conseil rappelle aussi que « la liberté d’expression et de communication est d’autant plus précieuse que son exercice est une condition de la démocratie et l’une des garanties du respect des autres droits et libertés » ; et « que les atteintes portées à l’exercice de cette liberté doivent être nécessaires, adaptées et proportionnées à l’objectif poursuivi ».

A ce stade, la loi HADOPI était agonisante puisque sa colonne vertébrale (à savoir le concept de « riposte graduée ») est brisée. En effet au vue des conditions nécessaires, la coupure d’Internet ne sera pas mise en place (ou uniquement dans de très rares cas). Car personnellement, je n’ai jamais vu quelqu’un n’utilisait sa connexion Internet que pour télécharger illégalement… Et vous ?

Le Conseil porta finalement le coup de grâce. La loi HADOPI met en cause la responsabilité de l’abonné par la simple constatation du piratage, ce qui suffit à mettre en place le processus de coupure. C’est à l’abonné de démontrer que le piratage n’était pas de son fait mais dû à la fraude d’un tiers (l’installation du logiciel mouchard interdit de facto à l’abonné d’invoquer la fraude d’un tiers), des preuves impossibles à regrouper pour l’abonné. Cette méthode aboutit à faire de l’abonné mis en cause un coupable jusqu’à ce qu’il prouve son innocence. Ceci est conforme au code pénal… nord coréen, mais pas dans le code français. Le droit français prévoit même totalement l’inverse, quiconque est présumé innocent jusqu’à preuve du contraire.

Le Conseil constitutionnel tire d’ailleurs les conclusions de son annulation et de l’absence de jugeotte du parlement en donnant un mode d’emploi qui ne manque pas d’ironie. HADOPI existera bel et bien mais sera cantonnée à un travail d’avertissement sans frais (les mises en garde par courrier existent toujours, tout comme l’obligation de surveillance et de protection de sa ligne, mais elles ne peuvent aboutir à des sanctions prononcées par HADOPI), de filtrage et de préparation des dossiers pour l’autorité judiciaire, dans le but, et c’est là qu’on voit que le Conseil constitutionnel a le sens de l’humour, de limiter le nombre d’infractions dont l’autorité judiciaire sera saisie afin de ne pas saturer les tribunaux.

Une nouvelle loi, un nouvel échec, mais pourquoi ?

La loi HADOPI est en application depuis la mi-juin. Toutefois, celle-ci ne devrait pas changer grand chose aux habitudes des internautes (hormis l’obligation de sécuriser son réseau afin de se prémunir des avertissements d’HADOPI). Il convient donc de reconnaitre l’échec de ce texte. Et surtout de se poser la question du pourquoi.

Selon moi, la cause première de cet échec est la volonté d’établir une loi basée sur la répression. Depuis de nombreuses années les grandes majors se plaignent de la chute constante de leur chiffre d’affaires. Et depuis des années pour elles, le téléchargement illicite est le coupable désigné de cette baisse. Les études pour le prouver ce sont accumulées, tout comme les études pour prouver l’inverse. Ne faudrait-il pas se poser simplement la bonne question à savoir : Pourquoi le téléchargement illicite a-t-il un tel succès ? Sans rentrer dans un argumentation poussée, je pense que le téléchargement illicite sur internet a pu se développer parce qu’à une période il y avait une attente du public pour un consommation nouvelle et que les grands majors ont ignorés celle-ci pour d’autres projets (HD-DVD et BluerayDisc par exemple). Le public souhaitait (et souhaite encore) une alternative financièrement plus attractive que le commerce classique. Voilà ce sur quoi la loi aurait dû se construire, le renforcement au téléchargement légal et non sur la traque soutenue des pirates. Bien sûr une telle politique demanderait une effort conséquent sur les prix (pouvant même aller jusqu’à aligner leurs prix sur ceux des sites pirates) pour les grands majors. Un effort que les grands majors ne sont pas prêtes de faire à l’heure actuelle, préférant faire marcher la machine judiciaire dans des procès au-delà du réel (lisez ceci). Une guerre économique qui a encore de beaux jours devant elle…

Mais là n’est pas le seul point noir d’HADOPI. Selon la loi, les opérateurs de téléphonie ont l’obligation de maintenir l’accès aux services d’urgence. La mise en place des suspension d’accès à Internet nécessitera donc un temps d’adaptation pour les FAI, afin de séparer la téléphonie de l’offre Internet pour les offres triple play (Internet, Téléphone et Télévision). La possibilité d’astreindre à l’abonné l’installation par lui-même d’un logiciel pour suspendre l’accès Internet fut même proposé afin de minimiser le coût de mise en œuvre pour les FAI.

Par ailleurs la procédure d’identification de l’abonné pirate par l’intermédiaire de son identifiant IP est aussi critiquable. En effet l’IP n’est pas une plaque d’immatriculation que l’abonné porte obligatoirement sur lui a chaque visite sur la toile. Certains outils permettent de dissimuler son adresse IP de manière complètement légale, dans le jargon informatique on parle de proxy. Le principe est en effet relativement simple, au lieu de naviguer avec sa propre adresse IP, on passe par un proxy (un autre ordinateur) afin d’utiliser la sienne. Une méthode qui est de plus employée dans les nouveaux logiciels de téléchargement afin d' »anonymer » les transferts.

Des pirates hors d’atteintes

Voilà HADOPI est morte et les pirates vont pouvoir agir en toute inpunité…

Que nenni, la justice n’a pas attendue HADOPI pour se mettre en marche et rappeler à la loi les brebis égarées dans la prairie des téléchargements illégaux. Pour preuve, ZataZ (journal informatique spécialisé) nous révélait le 4 juin dernier qu’un important portail privé d’échange Peer-to-Peer (SnowTigers) avait été contraint par la justice à la fermeture 24 heures auparavant (soit 12 jours avant l’entrée en vigueur de la loi HADOPI). SnowTigers avaient des serveurs basés aux Pays-bas et au Canada. Créé en novembre 2005, SnowTigers était classé comme étant le 1969ème site le plus visité du web d’après la société Netcraft. Fruit d’une enquête de deux ans, 21 serveurs furent saisies par les autorités et 10 personnes, dont l’administrateur du site, furent arrêtées. Mais l’affaire ne devrait pas en rester, puisqu’avec la saisie des serveurs l’ensemble des utilisateurs du site est susceptible d’être dans la ligne de mire des gendarmes. En effet sur les serveurs comme Snowtigers, Itoma, HDFrench et autres, la règle d’or est le partage et l’utilisateur ne jouant pas le jeu est très vite éjecter du site. Cela veut aussi dire que toutes les activités de chaque utilisateur sont archivées surveillées de très près par un tracker dans le but de tenir veiller au bon respect de la règle. Toutes ces données stockées sur les serveurs sont désormais dans les mains des autorités qui seront en faire bon usage. Selon certains les utilisateurs de portails torrents ne risquaient rien. Ces sites ne garderaient aucun logs, aucune trace des transactions, aucune trace des « dons ». La réalité est toute autre, chacun de ces sites établit des bases de données bien fournies de leurs utilisateurs (adresse IP, fichiers téléchargés, fichiers partagés…).

Moralité : Nul n’est intouchable.

Pour finir sur une pointe d’humour…

Voici l’alinéa de l’article L. 335-3 de la loi HADOPI :

« Est également un délit de contrefaçon toute captation totale ou partielle d’une œuvre cinématographique ou audiovisuelle en salle de spectacle cinématographique. »

Je vous invite donc à éteindre votre cerveau et à fermer les yeux lors de vos prochaines séances au cinéma, ceci bien sûr afin de respecter la loi.

06. Wifi or not Wifi…

17 juin 2009

Ach’P disposait maintenant d’un tout nouveau système (Ubuntu 8.10) en français (presque intégralement) et une palette logicielle de base importante. Mais il était aussi très seul, ne disposant plus d’accès à Internet. En effet, l’antenne Wifi n’était pas reconnue par le système (aucun pilote n’étant installé par défaut pour celle-ci), du coup pas de liaison avec le routeur LiveBOX.

Il me fallait remédier à cela. Je ne pouvais pas laisser ainsi Ach’P, la solitude risquait de le rendre morose (et surtout mon amour avait besoin d’un accès à Internet pour tenir à jour son blog).

Paradoxalement pour pouvoir rétablir la connexion Wifi d’Ach’P, il me fallait avoir un accès Internet. La solution pour y parvenir est en fait des plus simples et ne nécessite qu’un simple câble Ethernet (RJ45). Une fois celui-ci connecté entre Ach’P et la LiveBOX, la liaison était établie. Tout heureux, Ach’P m’invita à télécharger les 200 mises à jour logicielles et système à disposition.

Note technique : Un transfert filaire (Ethernet : 100 Mbit/s) est environ 2 à 4 fois plus rapide qu’un transfert sans fil (Wifi : 54 Mbit/s théoriques, 25 Mbit/s réels).

Les mises à jour effectuées (téléchargement et installation), Ach’P me signala que mon système n’était pas entièrement francisé et qu’il allait y remédier (en téléchargeant les traductions). Ceci fait, Ach’P avait un système à jour et en français mais toujours pas de connexion Wifi active.

Néanmoins avant de rétablir l’antenne Wifi d’Ach’P, j’eusse une idée pour avoir un peu plus d’espace (l’espace environnant la LiveBOX n’étant pas agencé pour y adjoindre un ordinateur même portable). J’avais en ma possession une clé USB Wifi (BeWAN Wi-Fi USB54) que je n’utilisais guère mais qui était (pour l’avoir testé via le LiveCD) 100% compatible avec Ubuntu. En connectant simplement celle-ci, Ach’P me signala avoir détecté deux réseaux sans fil LiveBOX.

Disposant des identifiants et codes de la LiveBOX de ma chérie, j’avais toutes les informations nécessaire pour me connecter. Après un clic sur la LiveBOX concernée, une fenêtre s’afficha m’invitant à saisir la clef de cryptage du réseau.

Kézako, c’est quoi ça ?

Dans un réseau sans fil, les données transitent par voie aérienne. Le cryptage de ces données est donc essentiel pour garantir que seule la personne destinataire puisse lire les données. Ne pas utiliser de cryptage dans un réseau Wifi, c’est comme poster un courrier confidentiel sans fermer l’enveloppe. Même si normalement ça ne se fait pas, rien ne vous garantie que le facteur ne lise pas votre courrier.

L’autre fonction essentielle du cryptage est aussi de s’assurer que seul les personnes autorisées puissent utiliser de la ligne Internet. Afin de se connecter au routeur (dans mon cas la LiveBOX), la clé de cryptage est nécessaire. Par ailleurs depuis l’entrée en vigueur de la loi HADOPI, il est devenu obligatoire de protéger sa ligne afin de ne pas être sanctionner (voir mon article sur le sujet).

Et ensuite…

Parcourant la documentation Orange, je finis par retrouver la clé de cryptage WPA. J’entrai donc celle-ci après avoir sélectionner le mode de cryptage (WPA) et activer le mode associatif de la LiveBOX. Néanmoins Ach’P ne parvenait pas à se connecter. Je tenta alors en choisissant un autre mode de cryptage. J’avais, ultérieurement chez mon meilleur ami, découvert que sur certains modèles de LiveBOX le cryptage n’étais pas en WPA (comme écrit dans les notices) mais en WPE 128bits.

Note technique : Un cryptage WPA est préférable à un cryptage WPE (64 ou 128). Il ne faut que quelques minutes à un pirate pour casser une protection WEP et obtenir la clé. Le cryptage WPA est de son coté bien plus fiable à partir du moment où la clé est complexe (non disponible dans un dictionnaire et résistante au brute-forçage). WPA ou WPE… Choisissez WPA !

Ach’P était maintenant connecté à la LiveBOX par l’intermédiaire de ma clé usb Wifi BeWAN et un cryptage WPE 128bits. Et pour ma part, j’étais installé bien plus confortablement qu’à coté de la LiveBOX. Je pouvais donc m’atteler à la résolution de ce problème d’antenne intégrée.

J’avais alors à l’esprit que cela allait me prendre quelques heures et que j’allais faire fumer la ligne de commande. Que nenni, Ubuntu avait déjà tout prévu. Le système avait pleinement identifié l’antenne Wifi. Cependant comme le seul pilote pour l’utiliser n’était pas libre mais propriétaire (voir mon article sur le sujet), celui-ci ne fut pas installé. Toutefois sous Ubuntu, un gestionnaire regroupe tous les pilotes propriétaires disponible pour Ach’P et installable en un simple clic. En quelques minutes, j’avais installé le driver pour le Wifi (Broadcom …) ainsi que le pilote de la carte graphique (Nvidia …) d’Ach’P.

Après un redémarrage nécessaire (pour achever l’installation du pilote de la carte graphique) et la déconnexion de la clé usb Wifi, Ach’P disposait d’un environnement utilisant pleinement sa carte graphique et surtout d’un antenne active. Il ne me restait plus qu’à me reconnecter à la LiveBOX en entrant la clé de cryptage (et en passant la LiveBOX en mode associatif). Voilà, Ach’P pouvait désormais parcourir la toile en toute simplicité.

Mais ce n’était là qu’une péripétie de notre aventure. La route est encore longue et pleine de découvertes…

Je ne facebooque plus et vous ?

14 Mai 2009

Ceux qui me connaissent personnellement auront pu le constater, je ne suis plus du tout actif sur le « méga génial ultra moderne réseau social » Facebook. Mais pourquoi ? Manque de temps ? d’envie ? Non rien de tout cela… Depuis mon inscription, je n’avais pas été des plus actifs (pas publication de photo et très peu d’information me concernant). Chose dont je me suis félicité à la lecture des conditions d’utilisation du site.

Les conditions d’utilisation ?

Les conditions d’utilisation (appelé « Déclaration des droits et responsabilités » sur Facebook) sont un contrat entre les utilisateurs et le site (une sorte de CLUF). L’utilisation du site ou l’accès à celui-ci indique l’acceptation de ce contrat. Le contenu de ce contrat varie d’un site à l’autre. Mais intéressons-nous de plus près au contenu du contrat de Facebook…

Votre vie, leur propriété…

Commençons la lecture du contrat…

Le respect de votre vie privée nous tient à cœur…

C’est plutôt, un bon point ça ! Continuons…

Pour le contenu protégé par les droits de propriété intellectuelle, comme les photos ou vidéos (« propriété intellectuelle »), vous nous donnez spécifiquement la permission suivante, conformément à vos paramètres de confidentialité et paramètres d’applications : vous nous accordez une licence non-exclusive, transférable, sous-licenciable, sans redevance et mondiale pour l’utilisation des contenus de propriété intellectuelle que vous publiez sur Facebook ou en relation à Facebook (« licence de propriété intellectuelle »). Cette licence de propriété intellectuelle se termine lorsque vous supprimez vos contenus de propriété intellectuelle ou votre compte (sauf si votre compte est partagé avec d’autres personnes qui ne l’ont pas supprimé).

Hein, minute… On cède donc l’ensemble de ses droits lors qu’on publie une photo ou une vidéo sur Facebook. Vous ne vous êtes jamais demandé comment Facebook fonctionne financièrement. Les publicités ne fleurissent pas sur ses pages comme c’est le cas sur une bonne partie des sites web. L’argent vient donc d’ailleurs… Effectivement, elle vient de nos photos et vidéos (et aussi des informations nous concernant qu’ils doivent vendre à très bon prix à des régies publicitaires ou des entreprises de marketing). Ils peuvent récupérer la photo de votre dernier né pour la vendre aux publicitaires d’une marque de couches. Il peuvent aussi revendre les photos que vous avez réalisées au cours de vos voyages au bout du monde à une agence de voyage ou que sais-je encore… Cela fait partie des clauses que vous avez lues et acceptées.

« Je n’ai qu’à supprimer mes photos et vidéos pour être tranquille alors… » Lorsque vous supprimez votre contenu de propriété intellectuelle, ce contenu est supprimé d’une manière similaire au vidage de corbeille sur un ordinateur. Cependant, vous comprenez que les contenus supprimés peuvent persister dans des copies de sauvegarde pendant un certain temps (mais qu’ils ne sont pas disponibles).

C’est quoi un certain laps de temps ? Une semaine ? Un mois ? Un an ? Une éternité ?? Donc on peut rien effacer définitivement ? Elles leur servent à quoi ces sauvegardes ? Autant de questions auquel on aimerait avoir des réponses concrètes. En l’état, nous ne savons pas la teneur de ces sauvegardes et l’utilisation pouvant être faite de celle-ci. Et en cas de suppression définitive du compte, qu’advient-t-il de ces sauvegardes ?

Facebook donne le sentiment que nos vies ne nous appartiennent plus. Nous ne maitrisons plus rien. Nous ne sommes plus que des produits qu’ils peuvent vendre aux mieux offrants.

De plus :

Le 4 février 2009 dernier, Facebook modifia les conditions d’utilisation de ses services. Des modifications essentielles puissent qu’elles leur octroyaient alors des droits intemporels sur le contenu publié par les utilisateurs. Deux semaines plus tard et la grogne grandissant au sein des utilisateurs, ils firent finalement marche arrière… pour le moment.

Facebook et la sécurité

Continuons notre lecture…

Nous faisons tout notre possible pour faire de Facebook un service sûr, mais ne pouvons pas garantir la sécurité absolue.

On peut donc traduire cela en : « Nous ne sommes pas responsables des pertes de données, vols de données ou autres dommages éventuels. Vous utilisez Facebook à vos risques et périls. »

Pour ce faire, nous avons besoin de votre aide, ce qui inclut les obligations suivantes : […] Vous ne téléchargerez pas de virus ou autres codes malveillants.

A noter que l’utilisateur lambda télécharge rarement (on pourrait presque dire jamais) volontairement des virus et des codes malveillants. La discrétion est même un des fondamentaux pour assurer leurPour ceux qui l’ignorent, il existe des virus spécifiques à Facebook (Koobface et ses cousins…).

Mais les virus ne sont pas la seule menace qui pèse sur votre profil numérique. Il y a les faux profils de Facebook (des personnes se font passées pour vos amis afin de connaitre le contenu de votre profil ou pire diffuser leurs dernières créations virales), les fausses applications comme la célèbre « The Error Check System » (un véritable problème en soi) et même les faux Facebook (des fausses pages de connexions qui ressemblent à s’y méprendre à la véritable page de connexion de Facebook, avec pour but de récupérer les identifiants et les mots de passe des utilisateurs qui se connectent via ces pages).

Les (fausses) applications de Facebook

La richesse des applications (pour la plupart divertissantes) complémentaires à Facebook participe pour beaucoup au succès de Facebook. Mais cette richesse est aussi une de ses plus grande faiblesse sécuritaire. Ces applications ne font pas partie intégrante de Facebook. Elles ne sont d’ailleurs pour la plupart pas développées par les programmeurs de Facebook mais par de tierces personnes. Ces personnes sont en charge de l’application et elles sont seules responsables de celle-ci. Elles doivent juste se conformer à certaines règles établies par Facebook, notamment permettre à Facebook d’avoir un droit de regard sur l’application.

« Tout va bien alors… Facebook contrôle tout… »

Bien sûr chez Facebook, ils carburent tous à l’essence divine pour être omniscient… Non sérieusement, la vérification de l’ensemble des applications est une tâche impossible à réaliser tant la croissance de celles-ci est impressionnante. De nouvelles applications apparaissent quasiment tout les jours. Les développeurs de Facebook ne peuvent donc que vérifier de manière ponctuelle les applications.

Profitant de cela, certaines applications sont développées avec un mépris total des principes édités par Facebook et la seule mission de recueillir le maximum d’informations sur leurs victimes par l’intermédiaire de leurs profils. Parmi les plus célèbres « fausses » applications, on peut citer : The Error Check System.

Pour que les utilisateurs de Facebook autorisent l’application, celle-ci les prévient qu’un problème sur le profil empêche les autres personnes de votre celui-ci correctement (ce qui est évidemment faux). L’application se propose alors de corriger cette erreur. En autorisant celle-ci, l’internaute installe l’application qui va uniquement collecter des informations personnelles sur la victime.

En conclusion…

C’est donc dans un souci de liberté, de sécurité et parce que Facebook et ses compléments manquent de transparence sur bien des points que je ne facebooque plus. Et vous ? Soyez vigilant lorsque vous vous inscrivez sur un site et encore plus lorsqu’il s’agit de réseaux sociaux (Facebook, Myspace, Twitter, LinkedIn, Ulike, Copains d’avant, etc.).

Pensez à lire les conditions d’utilisation et réfléchissez bien aux données que vous offrez aux sites.

A voir aussi : http://www.facebook-danger.fr/

05. Ach’P aime (presque) Ubuntu

12 Mai 2009

Après avoir déshabillé Ach’P, il me restait plus qu’à l’habiller de sa nouvelle tenue de soirée : Ubuntu. Mais avant cela, voilà un résumé des spécifications techniques d’Ach’P :

  • Constructeur : Hewlett-Packard
  • Modèle : HP Pavilion
  • Série : zv5463EA
  • Processeur : Athlon AMD 64 XP-M 3000+ à 1,6 GHz
  • Quantité de mémoire vive / Emplacement libre : 512 Mo DDR SDRAM / Non
  • Processeur graphique : nVidia GeForce 4 440 Go 64Mo
  • Disque dur : 80 Go
  • Lecteur DVD+RW
  • Écran : TFT 15.4″
  • Résolution d’écran : 1280×800
  • Wifi : 802.11 b/g

Passons à l’installation d’Ubuntu 8.10 AMD64. La procédure est la même que lors du test en live (voir article précédent) à l’exception de l’option à valider (installer Ubuntu). Lors de l’installation, les étapes sont les suivantes :

  • Confirmation de la langue (Français)
  • Emplacement géographique (Paris, France)
  • Disposition du clavier (France / France – Alternative)
  • Préparation de l’espace disque

J’utilisai alors la gestion manuelle afin de définir précisemment l’attribution des partitions. Je pouvais ainsi attribuer des points de montage précis aux différentes partitions (Point de montage / >> Partition SYSTEM – Point de montage /home >> Partition HOME – Point de montage Swap >> Partition SWAP).

  • Gestionnaire d’importation (Etape inutile dans mon cas présent)
  • Identité de l’utilisateur (nom, nom d’utilisateur et mot de passe)
  • Résumé globale (indique toutes les modifications notament vis à vis de l’attribution des partitions et de leur formatage éventuel)

L’installation se poursuit alors automatiquement. Vingt minutes plus tard, Ach’P redémerra de lui-même. Ubuntu était installé et je n’avais plus qu’à ouvrir une session.

Une fois sur le bureau, mon premier réflexe fut de vouloir mettre à jour le système. Mais sans succès, logique puisse qu’Ach’P n’était pas connecté à Internet. La liaison avec le routeur LiveBOX était inexistante. Et pour cause, Ach’P ne savait pas utiliser son antenne wifi (aucun pilote n’était installé par défaut pour celle-ci)…

zv5463EA

Liberté VS Propriété

11 Mai 2009

Qu’est-ce qu’un logiciel libre ?

Un logiciel libre offre à chacun les possibilités :

  • d’exécuter le programme pour tous les usages;
  • d’étudier le fonctionnement du programme (mise à disposition du code source);
  • de l’adapter à ses besoins (modification du code source);
  • de dupliquer le logiciel;
  • de redistribuer gratuitement ou non des copies du logiciel (y compris vos versions modifiées du programme afin d’en faire profiter tout le monde).

Attention : Un logiciel libre n’est pas forcément gratuit et inversement. Je peux revendre un logiciel libre (modifié par mes soins ou non), ce qui n’est pas évident dans le cadre d’un logiciel gratuit. La majorité des logiciels gratuits (appelés aussi freeware) sont en fait des logiciels propriétaires puisqu’ils n’autorisent pas la revente (ou seulement dans un cadre bien précis).

Avantages du libre :

L’accès aux sources permet à tout à chacun de modifier le logiciel mais aussi d’analyser le fonctionnement du logiciel et son codage. Ainsi les anomalies de fonctionnement et failles de sécurité (souvent inhérentes à un défaut de programmation) peuvent être découvertes par une personne et presque immédiatement (si elle en a les compétences) corrigées par celle-ci et d’en informer les autres utilisateurs.

La majorité des logiciels libres utilisent pour leur fichier des formats standards ouverts, ce qui permet une meilleure inter-polarité entre les logiciels. Ainsi en cas d’évolution (ou de disparation) du logiciel, le successeur dispose de toutes les spécifications pour intégrer le format et garantir ainsi l’accès aux documents archivés.

Les logiciels libres sont structurés autour de communautés de développeurs mais aussi d’utilisateurs lambda. Ces communautés permettent de trouver aisément un support technique (manuel et astuce en ligne, forum…) mais aussi de participer à l’évolution du logiciel (signaler les bogues, proposer des améliorations…).

Défauts du libre :

Le code source est disponible pour tous, y compris aux personnes malveillantes. Cette personne découvrant une faille de sécurité à l’intérieur du code pourrait très bien l’utiliser pour en tirer profit (prise de contrôle à distance, virus…). Enfin jusqu’à ce qu’une autre personne, bien veillante elle, retrouve cette faille et corrige le code (ce qui arrive bien plus vite qu’avec les logiciels propriétaires).

Qu’est-ce qu’un logiciel propriétaire ?

A contrario, les logiciels propriétaires (appelés aussi privateurs) ne sont pas libres. L’utilisation de ces logiciels requiert l’acceptation d’un contrat (le fameux CLUF) qui limite l’usage du logiciel.

La plupart du temps, ces interdictions portent sur :

  • l’usage du logiciel (utilisation restreinte à un certain nombre de poste et/ou dans un cadre bien précis);
  • l’étude du fonctionnement du logiciel (code source non disponible et rétro-ingénierie interdite);
  • la modification du logiciel (code source non disponible);
  • la copie du logiciel;
  • la redistribution du logiciel (les conditions de vente ou de transfert de logiciel clairement définies).

Avantages du propriétaire :

La sécurité par l’obscurantisme (non divulgation du code source)permet sommairement de se protéger des manipulations de personnes malveillantes (elles sont alors obligées de recourir à la rétro-ingénierie pour trouver les failles).

Défauts du propriétaire :

Le code source n’étant pas disponible pour les logiciels propriétaires, aucune modification par un tiers du logiciel n’est possible. En cas de découvertes de bogues ou de failles sécuritaires, vous et moi ne pouvons qu’en informer le propriétaire du logiciel (l’éditeur). Lui et lui seul décide de prendre en compte la remarque et de corriger le problème (ou pas). Il existe ainsi de nombreux logiciels qui, parce qu’ils ne sont pas (ou plus) mises à jour par leurs propriétaires, sont devenus dangereux (failles de sécurité non corrigées).

La majorité (pour ne pas dire tous) des logiciels propriétaires utilisent des formats de fichier qui leurs sont propres (formats fermés). A l’exception de l’éditeur, nul ne connait les spécifications du format. Il devient alors essentiel de disposer du logiciel dans lequel le fichier a été enregistré pour pouvoir l’ouvrir (certains logiciels libres peuvent ouvrir des formats propriétaires mais sans garantir un rendu à l’identique du fichier).

Le CLUF sous la loupe

5 Mai 2009

Acheter un logiciel, ça signifie quoi exactement ?

Lorsque l’on se procure un logiciel, on n’achète pas le logiciel. On n’achète en fait que le droit de l’installer sur un ordinateur et de pouvoir l’utiliser.

Le logiciel reste la propriété de l’éditeur. Seul l’éditeur dispose du code-source du logiciel, le fondement même du logiciel.

A cet effet les éditeurs ont mis en place le Contrat de Licence Utilisateur Final (aussi appelé licence de logiciel propriétaire), réglementant ce que l’on peut (et surtout ne peut pas) faire avec leur logiciel.

Mais qu’est-ce que tu me racontes là ?

« Je n’ai jamais rien signé moi ! »
« Oh que si, mais tu n’y as peut-être pas prêté attention. »

Il existe deux méthodes d’acceptation de ce contrat couramment utilisé par les éditeurs et souvent considérés comme de la vente forcée :

  1. Les « shrink-wrap licences » : Un encart sur l’emballage du logiciel précise que l’acceptation du contrat se fait lorsque l’on ôte le cellophane ou un sceau autocollant. On accepte alors le contrat dans la boite (que l’on n’a donc pas encore eu l’opportunité de lire).
  2. Les »click-through licences » : L’autre méthode consiste à afficher au moment de l’installation le CLUF avec l’obligation d’accepter le contrat afin de continuer l’installation.

Ainsi dans les deux cas, on ne peut lire le contrat qu’une fois le logiciel acheté. On voit là un problème évident. Admettons que suite à l’achat d’un logiciel et à la lecture du contrat lié à celui-ci, on décide de ne pas accepter le contrat. Quel est la procédure à suivre ? Par exemple, le cas s’est posé pour l’OS Windows de Microsoft. Si quelques revendeurs ont procédé à des remboursements de leur propre chef, la société Microsoft n’a jamais accepté de reprendre un produit dont l’acheteur aurait refusé le contrat de licence.

Qu’y a-t-il dans le CLUF ?

Le contrat vise avant tout à protéger la propriété intellectuelle du détenteur. Cela correspond la plupart du temps, à interdire la rétro-ingénierie (technique permettant de retrouver le code-source à partir du logiciel), à interdire la copie, à limiter l’utilisation du logiciel à un nombre de machine.

« Rien de bien méchant alors… »

D’autres clauses peuvent être ajoutées au contrat comme par exemple une clause spécifiant que l’on donne le droit au propriétaire du logiciel d’enregistrer des informations (sans que l’on puisse vérifier le contenu des données transmises).

On doit donc rester vigilant à chaque installation de nouveaux logiciels (certains logiciels malveillants téléchargeables sur internet affichaient très clairement dans leurs CLUF que leurs installations engendraient l’apparition de fenêtres publicitaires intempestives).

Ouais, c’est bien beau tout ça mais j’ai mieux à faire que de lire le CLUF à chaque installation !

J’en suis venu à la même réflexion. Ainsi, je me suis peu à peu éloigner des logiciels propriétaires au profit des logiciels libres.

—-

A voir aussi :
Le CLUF de Microsoft appliqué aux livres

04. Mise à nu d’Ach’P

5 Mai 2009

Attention : Certaines manipulations présentées sur cet article nécessitent certaines connaissances informatiques. Une erreur de manipulation lors de celles-ci peut altérer les performances de votre ordinateur, endommager le système et/ou effacer des données personnelles. Je ne saurai être tenu pour responsable de quelques manières que ce soit des pertes ou dommages. Vous êtes le seul maître à bord et en cas de doute sur la procédure à suivre n’hésitez pas à me poser vos questions. Je ferai tout mon possible pour y répondre.

Avant de formater Ach’P, il me fallait :

  • Récupérer les données présentes sur le disque, à savoir les documents de ma chérie ainsi que ses favoris internet.
  • Télécharger (ce téléchargement est 100% légal) l’iso d’Ubuntu dans sa dernière version puis le graver.

Le transfert sur mon disque dur externe réalisé et la gravure réussie de la version AMD64 8.10 d’Ubuntu, on pouvait alors passer aux choses sérieuses.

A ce stade, une question restait toutefois en suspens. Ach’P allait-il supporté le changement de système vers Ubuntu ? Pour remédier à cela, Ubuntu dispose d’un plus indéniable (par rapport à Windows) puisque le cd d’installation (version Desktop) permet de tester le nouveau système sans qu’aucune modification ne soit apportée sur l’ordinateur (LiveCD). Ayant mis le cd d’Ubuntu dans le lecteur, je demandais à Ach’P de redémarrer. Le démarrage automatique sur le cd se fit sans problème (donc pas besoin de faire de modification dans le BIOS). Après avoir choisi la langue du système, je validais l’option « Essayer Ubuntu sans rien changer sur votre ordinateur ». Quelques minutes, le bureau apparut. Un tour d’horizon rapide me confirma la viabilité du système sur Ach’P. Je pouvais donc passer à l’étape suivante, le partitionnement (et donc formatage) du disque dur.

Ach’P dispose d’un disque dur de 80Go. De ce fait, je décidais donc de partitionner celui-ci en quatre. L’avantage de cette méthode résiste dans la possibilité ainsi de séparer les données « Système », des données « Personnelles ». Ainsi en cas de nouvelle installation du système, il n’y a nul besoin de sauvegarder les données « Personnelles » puisqu’elles sont sur une partition indépendante (il faut juste veiller à ne surtout pas formater cette partition par la suite).

Astuce : Afin de faciliter cette étape, j’utilise des CD bootables intégrant de nombreux outils d’administration et de maintenance, avec une préférence pour Ultimate Boot CD (gratuit) ou encore GParted Live (Utilitaire de partitionnement).

Ne disposant pas de points de comparaison (puisque j’installais Ubuntu pour la première fois), je fis le choix de partitionner le disque dur ainsi :

  • 1 partition System de 35Go au format Ext3 pour y installer le système d’exploitation et les applications.
  • 1 partition Home de 35Go au format Ext3 pour les fichiers personnels.
  • 1 partition Ghost de 8Go au format Fat32 Hidden (partition cachée) pour générer des images des partitions.
  • 1 partition Swap de 2Go pour aider Linux au cours des opérations d’échanges (pour simplifier c’est un complément à la mémoire RAM).

Note : Avec le recul, une partition System de 15Go aurait amplement suffi pour installer Ubuntu et les applications.

A ce stade le disque dur, scindé en 4 disques virtuels, était vierge et parer pour l’installation d’Ubuntu…