Agrarian Skies 2: une nouvelle façon de jouer à Minecraft

Ces derniers jours, j’ai commencé à explorer une nouvelle variante de Minecraft: le pack de mods Agrarian Skies 2. L’idée est de partir d’à peu près rien: sur une plateforme de 3×3, un coffre avec un peu de terre, des pousses d’arbres, des pommes, de la poudre d’os, des silex et un livre. Le joueur est orienté dans la reconstruction du monde par diverses quêtes expliquées dans le livre. Sous la plateforme: du vide, alors il ne faut pas tomber.

Tout d’abord, il faut planter l’arbre et le couper pour obtenir du bois, des pousses et des pommes. Mais le taux de production de pousses est ridiculement bas. Il faut, pour gérer cela, créer un petit crochet formé de quatre bâtons de bois. Le crochet permet d’obtenir plus de pousses, de pommes mais aussi de petits vers de soie. Il faut ensuite utilsier un de ces vers pour infester les feuilles d’un nouvel arbre. Lorsque les feuilles sont infestées, les détruire avec le crochet produit des fils. Il faut par contre savoir que les feuilles infestées ne peuvent plus produire de pommes et de pousses, si bien qu’il faut idéalement agrandir la petite plateforme (avec du bois par exemple) pour faire pousser un second arbre. Un premier arbre permet d’obtenir des pommes et des pousses, le second est infesté pour les fils.

Avec les fils, on peut produire de la laine pour enfin construire un lit. Parce que ce monde est vide et stérile, pas moyen d’obtenir de la pierre, alors pas de four, pas de charbon, donc pas de torches! Aucune quête ne pousse à créer le lit; il faut se rappeler qu’on peut obtenir la laine avec les fils!

Les fils permettent aussi de confectionner un espèce de tamis (appelé sieve en anglais, je ne connais pas la traduction exacte). Le tamis permet de traiter la terre pour en obtenir des pierres miniatures et des graines. Chaque bloc de terre produit entre 2 et 5 pierres miniatures, et il faut combiner quatre de ces petits cailloux pour construire UNE seule pierre! Il en faudra au moins six pour obtenir un four à partir de slabs.

Les fils permettent aussi de confectionner une canne à pêche, mais à quoi bon puisqu’on n’a pas d’eau? On va voir ça plus tard. On peut aussi les utiliser pour créer un arc, mais à quoi puisque sans plume, on n’aura pas de flèches. Il existe par chance, avec Tinker’s Construct, un moyen de créer des flèches à partir de fils et de silex, à moins que ce soit bogué ou que ça ait changé, bien évidemment.

Comment obtenir plus de terre? Eh bien il faut construire des barrils de bois et y mettre des éléments compostables tels que des pousses, des pommes, du blé, etc. Il faut huit pousses pour remplir un seul barril. Vous devinez la suite? Il faudra passer un temps fou à planter et couper un arbre. La poudre d’os va certes aider à faire pousser l’arbre, mais elle va s’épuiser tôt ou tard, pareil pour les pommes. Pour remplir le barril de compost, il faut soit huit pousses, soit 32 fils. Il peut également accueillir du poisson, des patates, du blé, etc. Mais sans eau, on ne pourra qu’y aller avec les pousses ou les fils. Couper l’arbre donne souvent deux pousses seulement de sorte qu’il faudra couper l’arbre huit fois pour obtenir UN seul bloc de terre! C’est ridiculement long. Y aller avec les fils n’est guère plus efficace: il faudra attendre près de quinze minutes pour que l’arbre soit totalement infesté, et cela va fournir à peine plus de 32 fils; il faudra pratiquement un arbre infesté par bloc de terre!

Que faire avec les pierres outre construire le four? Les briser avec un marteau pour obtenir de la gravelle! La gravelle peut être brisée avec le marteau pour obtenir du sable, qui à son tour peut être brisé en poussière. Placer un bloc de poussière dans un barril plein d’eau donne un bloc d’argile. Comment obtenir l’eau? Eh bien il faut attendre la pluie ou utiliser un appareil pour la créer. Il faut penser à remplir au moins deux barrils d’eau et en garder un couvert au sec pour le compost.

Que faire avec le bloc d’argile? Eh bien on le casse pour obtenir quatre boules d’argile, et on prend trois de ces boules pour fabriquer un sceau. Ce sceau-là, il faut le faire cuire, d’où l’usage du four. Le four permet aussi de fabriquer du charbon de bois, très utile pour avoir ses premières torches. Avec le sceau et deux barrils remplis d’eau, on peut fabriquer une source d’eau infinie.

Le sable et la gravelle peuvent être passés dans le tamis. Cela permet d’obtenir des fragments de minéraux qu’il faut alors combiner pour produire de la gravelle de minéraux. Ainsi, combiner le tamis, le marteau et le four permet d’avoir accès aux ressources minérales telles que le fer, le cuivre, l’or, le quartz, le lapis, les émeraudes, etc.

Il faut passer un temps fou à produire des pierres, jusqu’à pouvoir fabriquer une petite structure où on va pouvoir installer un bloc d’eau et un bloc de lave. La mécanique permettant la génération de pierres est un principe de base de Minecraft vanille. Ah, comment obtenir la lave? Eh bien, en combinant argile et poudre d’os, on obtient de la porcelaine qu’on peut assembler en chaudron. Il faut faire cuire la porcelaine, puis placer le chaudron au-dessus d’une torche. Ensuite, on met quatre roches dans le chaudron et on attend, très longtemps; cela finit par fondre et fournir UN sceau de lave. Il est à noter que le sceau en argile peut transporter de l’eau sans problème, mais si on le remplit de lave, il est détruit après utilisation. Combiner la lave et l’eau de labonne façon donne de la roche. Le faire incorrectement donne de l’obsidienne qu’on ne peut pas détruire avec les moyens actuels. Il faut au moins un diamant pour modifier une pioche Tinker’s Construct afin de la rendre capable de miner l’obsidienne, ou bien trois diamants pour créer une pioche vanille capable de miner ce matériau!

Que faire pour se nourrir outre manger des pommes? Eh bien on peut pêcher pour obtenir du poisson, à partir du moment où on a la source d’eau infinie. On peut aussi semer des patates, de la laitue, etc. Mais il faut de la terre pour semer et chaque bloc de terre demande de pêcher plusieurs poissons ou couper l’arbre de maintes fois! Il faut utiliser des tuteurs (crops) pour semer en raison de la terre infertile.

Les plantes, comme les arbres, poussent lentement; on dirait même que c’est plus long dans ce monde stérile que dans le jeu de base! La poudre d’os va s’épuiser; on ne peut pas compter là-dessus indéfiniment. Tôt ou tard, il me faudra créer une salle noire dans laquelle naîtront des monstres, mais c’est une opération périlleuse étant donné mes défenses actuelles. Non seulement mon personnage n’a-t-il aucune armure, mais en raison de ma déficience visuelle, je me trouve désanvantagé dans tout combat; je risque de me faire tuer avant même d’avoir localisé mon ennemi! Si le confinement à monstres n’est pas adéquat, d’effroyables créatures vont s’échapper et me faire du mal. Il faut aussi savoir que certaines créatures possèdent le pouvoir de téléporter le joueur; je pourrais me faire ainsi projeter hors de la plateforme sur laquelle je me trouve et me retrouver dans le vide. Par chance, on peut encore repousser l’inévitable moment où il faudra traiter avec ces monstres grâce à un petit arrosoir obtenu en réussissant la quête consistant à créer des tuteurs. L’arrosoir fonctionne moins bien que la poudre d’os, mais il aide assez pour que ce soit envisageable de se passer de la poudre!

J’ai entendu dire qu’il est possible de jeter de la redstone dans un chaudron de lave pour obtenir du netherrack. Il y aurait ensuite moyen d’avoir le sable des damnés, la blaze et la pierre lumineuse. Ainsi, en utilisant le barril, le tamis et le marteau de la bonne façon, on peut accéder à toutes les ressources du jeu. Mais il faut beaucoup de temps.

Le concept est intéressant. Cela semblait me permettre d’approfondir ma connaissance de la mécanique de base et de certains mods et d’explorer des nouveaux mods tels que Botania et Blood Magic sans avoir à passer des jours à recommencer sur une nouvelle map et perdre des heures à me promener dans des cavernes dans lesquelles des monstres peuvent jaillir à tout moment et me tuer avant que je ne les voie. Mais parti comme c’est là, amasser assez de ressources pour commencer à m’amuser va demander autant sinon plus de temps que miner! Il existe des appareils, provenant du mod Progressive Automation, qui vont peut-être m’aider sans nécessiter des matériaux plus avancés comme la redstone, le plastique et beaucoup de métal, mais ces appareils sont capricieux et potentiellement bogués.

En particulier, le Stone Miner couplé avec le Cobblegen Upgrade nécessite une pioche, une pelle et du charbon. Il permet de produire des pierres sans avoir à briser manuellement une pierre et la voir, une fois sur deux, se faire détruire par la lave. Mais la pioche est utilisée pour chaque pierre produite, à moins de prendre un outil du mod Tinker’s Construct plutôt que l’outil vanille. Mais la création d’une pioche Tinker’s Construct est boguée, ne fonctionnant pas du tout! Il est certes possible de créer les parties de la pioche (tige, lien et tête), mais l’assemblage échoue, pour une raison qui m’échappe. Toute recherche sur Internet est vaine et futile; il semble que je sois le seul à éprouver ce problème, ou bien les gens trichent pour obtenir des outils!

Il existe un autre appareil pour semer et récolter les arbres. Mais il faut lui fournir une hache, du charbon et l’arbre doit se trouver à une position bien précise, non documentée. Direwolf20 a cherché longtemps avant de pouvoir deviner comment utiliser cette machine. Idéalement, je sauterais par-dessus cette absurdité pour aller directement vers un couple Planter/Harvester de MFR, mais cela nécessite du plastique, du Invar, d’autres métaux et probablement des redstones.

Idéalement, il faudrait pouvoir automatiser le tamis et le marteau, puis construire un système générant des ressources en liant les machines entre elles. Il faut par contre des ressources que je n’ai pas simplement pour créer les conduits de liaison. Par exemple, il faut du métal pour obtenir les conduits de Thermal Expansion. Il faut de la redstone pour les conduits d’Extra Utilities, et des perles ou des blocs de redstones pour les noeuds de transfert nécessaires pour communiquer avec les conduits!

Ainsi, ce pack de mods est en train de devenir encore plus frustrant et me gaspiller plus de temps encore que recommencer sur une map classique, avec par exemple le pack FTB Infinity!

Le son Dolby Digital, quelque chose de plutôt instable sous Linux

Mon HTPC m’en aura décidément fait voir de toutes les couleurs. C’est avec le son S/PDIF que j’ai eu le plus de trouble, probablement parce que la prise en charge de ce dernier n’est pas aussi bien testée que le son analogique couramment utilisé. J’ai encore une fois cru que la mort de mon système était arrivée.

Tout a commencé quand j’ai mis à jour de Ubuntu 12.04 vers 14.04. Déjà cela a posé des difficultés, car le gestionnaire de mises à jour ne proposait pas Ubuntu 14.04. Il m’aurait fallu, selon ce dernier, installer 12.10, 13.04, 13.10 puis enfin 14.04! Ces mises à jour successives promettaient de prendre un temps interminable. Ce serait probablement moins long de tout formater, installer 14.04 à partir de rien et puis passer un après-midi à copier/coller des identifiants de disques pour reconstruire les points de montage, reconfigurer des logiciels et déboguer. Cela ne me plaisait pas du tout.

Par chance, j’ai trouvé un moyen de faire la mise à jour en ligne de commande. Mais ce n’était pas nécessaire. Selon cette procédure, démarrer update-manger avec l’option -d aurait pu suffire. Malgré tout, la mise à jour se passa bien et ne nécessita pas plus d’intervention manuelle que d’habitude. Ce fut juste affreusement long; cette machine aurait grandement besoin d’un SSD, mais mon plan d’action pour lui en installer un serait long et tortueux. Je voudrais en effet remplacer la configuration à double SSD du Drake par un seul disque plus gros (au moins 256Go), pour la simplifier, puis mettre l’un des SSD de 120Go dans mon HTPC. L’autre SSD, je ne sais pas encore ce que je ferais avec.

Malheureusement, la machine souffrit de plusieurs problèmes après l’opération. D’abord, elle était devenue plus lente. Je me rendis compte par la suite que chaque opération prenait plusieurs secondes, un peu comme sous Windows XP après trois ou quatre ans.  La machine semblait manquer de mémoire, mais je ne pouvais pas la monter à plus de 4Go à cause de la maudite carte mère. Il allait falloir, pour aller au-delà de 4Go, changer la carte mère, le processeur et tant qu’à faire le boîtier pour aller vers un format MicroATX plus petit; ça n’en finirait JAMAIS!

Ensuite, la lecture de fichiers MKV sous XBMC posait des problèmes avec le son: les voix étaient devenues pratiquement inaudibles. La première fois que c’est arrivé, avec Monde Infernal, j’ai cru que c’était le film qui était enregistré ainsi; les gens suivaient avec les sous-titres. Mais un deuxième film, Insomnie, souffrit des mêmes symptômes. Je ne pouvais pas croire qu’il y avait de plus en plus de films qu’il fallait suivre avec les sous-titres. Si c’est ainsi, je devrai, pensai-je, cesser d’écouter la télévision: une autre limite de plus à cause de ma déficience visuelle, cette fois purement artificielle, parce qu’aucun réalisateur n’est obligé de monter des films ainsi! À noter que c’étaient des films achetés sous forme de DVD et traités par MakeMKV, donc pas la peine de supposer que c’était à cause d’une source douteuse de matériel piraté puisque ce n’était pas le cas!

Cela fonctionnait très bien avec les fichiers AVI et les fichiers MKV fonctionnaient sous VLC. Alors il y avait un problème avec XBMC. La première étape me semblait d’obtenir la version la plus récente, 13.1, de XBMC. Pour cela, samedi passé, je suis allé sur le site de XBMC pour découvrir que je devais taper ceci sur le terminal:

sudo apt-get install python-software-properties pkg-config
sudo apt-get install software-properties-common
sudo add-apt-repository ppa:team-xbmc/ppa
sudo apt-get update
sudo apt-get install xbmc

Malheureusement, la commande add-apt-repository ne fonctionnait pas, m’indiquant après plusieurs secondes que le dépôt PPA était absent et de vérifier le nom du dépôt. J’ai vérifié plusieurs fois en vain.

J’ai longtemps cherché pour une solution ou une alternative à XBMC: en vain. Il semblait bel et bien falloir convertir tous ces fichiers MKV en AVI, mais qui me dit que dans quelques mois, si je réussissais à mettre XBMC à jour, je n’aurais pas à migrer toute ma base de données vers un autre format, comme OGM, WebM ou MP4? Ça n’en finirait jamais!

C’est hier (19 juin) que j’ai trouvé quelque chose: modifier les fichiers de configuration de APT manuellement pour réactiver la source de paquets XBMC qui a été retirée pendant la mise à jour. J’ai vérifié que APT allait tenter d’obtenir XBMC depuis un dépôt pour Ubuntu 14.04. Puis j’ai tenté une mise à jour avec sudo apt-get update et sudo apt-get dist-upgrade. Tout a bien fonctionné! En temps normal, cette modification manuelle ne devrait pas être nécessaire. Un ami et quelques personnes sur le forum d’Ubuntu ont pu avec succès ajouter le dépôt de XBMC si bien que c’est sans doute un problème local à ma configuration qui n’aurait de solution que la réinstallation complète, à moins de trouver plus tard, par hasard, une solution.

XBMC mis à jour, les problèmes ne s’arrêtèrent pas là. En effet, hier soir, quand j’ai voulu me reprendre pour écouter Insomnie, eh bien j’avais le son, avec les voix, mais plus le 5.1. XBMC s’obstinait à décoder le flux AC-3 5.1 en stéréo et renvoyait ça par S/PDIF à mon ampli. Encore une fois, j’ai dû chercher, chercher, chercher, pendant presque trois heures! Ça a été très frustrant et j’ai bien cru qu’il n’y aurait rien à faire cette fois, pour arranger ça.

XBMC passe à présent par PulseAudio pour produire du son, mais PulseAudio a encore quelques difficultés avec le passage des données AC-3 directement vers la sortie S/PDIF ou, encore pire, HDMI. Dans mon cas, c’était du S/PDIF au moins, mais même avec ça… D’abord, j’ai trouvé cette page qui indiquait d’utiliser Pavucontrol pour activer le passage du AC-3 et du DTS au niveau de PulseAudio. Un redémarrage de XBMC plus tard, je n’avais toujours pas le son 5.1.

Mais pourquoi, nom de Dieu, cela fonctionnait-il parfaitement sous MPlayer et VLC? Eh bien ces deux-là étaient configurés pour envoyer le son directement vers ALSA. J’y avais veillé voilà des mois! Alors peut-on envoyer depuis XBMC directement via ALSA? Oui, ai-je découvert, mais il faut encore passer une foutue option en ligne de commande. Ainsi, comme avec Emacs, je ne pourrais plus démarrer XBMC directement depuis le Bureau; il allait falloir passer par le terminal à chaque fois. Je m’attendais à ce que ce bogue persiste pour plusieurs versions de Ubuntu, donc plusieurs mois, voire un an, alors cela ne me plaisait pas du tout.

Je fis un test avec Totem qui, je sais, utilise PulseAudio. Lui aussi me sortait du son stéréo plutôt que passer le AC-3 directement. J’ai revu plusieurs fois les paramètres sous Pavucontrol. J’ai essayé de configurer XBMC en 2 canaux plutôt que 5.1. Je me suis assuré que sous Totem, la sortie directe AC-3 était activée. RIEN, non absolument RIEN, n’y changeait quoi que ce soit.

Pour me faire fulminer encore davantage, eh bien une réponse à mon post sur le forum d’Ubuntu me suggérait que Linux n’est peut-être pas le meilleur choix pour moi! J’ai bien failli répondre avec un message de désespoir profond qui aurait donné de très mauvaises idées sur moi, mais je me suis ravisé et adouci le ton. Qu’y a-t-il comme alternatives si cette boîte à merde ne convient pas? Tout jeter et acheter un Mac? Tout formater et essayer avec Windows? Juste obtenir le Mac ou la licence de Windows vont me prendre une semaine après quoi je devrai me taper des problèmes de pilotes, de mises à jour qui n’en finiront plus, des caractères minuscules accentués par l’écran 1080p (une TV 4K, pensai-je, on va oublier ça!), beaucoup de transfert de fichiers, et peut-être rien de mieux au bout. En plus je devrai, dans le cas du Mac, avoir deux ou trois disques durs externes qui vont traîner sur mon meuble de cinéma-maison; ça va être laid et je vais inévitablement finir par en faire tomber un par terre. Ça n’a pas de bon sens! Et que dire de la sortie audio du Mac? Faudra que mon père ou quelqu’un d’autre bidouille un fil pour que le minijack puisse envoyer du S/PDIF à l’entrée coax de mon ampli ou que je change mon ampli pour un modèle avec entrée HDMI étant donné que bien entendu, le Mac n’a aucune sortie S/PDIF optique ou coaxiale!

Oui le lecteur blu-ray va régler le problème pour les films, si je cherche à plus finir pour en avoir un avec sortie HDMI mais aussi S/PDIF (puisque mon satané ampli de malheur n’a pas d’entrée HDMI!), mais que vais-je faire pour la musique? Changer ma TV pour un modèle « intelligent » capable de fouiller sur mon réseau pour aller piger des fichiers musicaux sur mon ordinateur dans le bureau? Et si je n’ai pas le goût de payer 1500$ pour une nouvelle TV tandis que l’actuelle me contente très bien, et en plus faire venir chez moi plein de gens qui voudront acheter la vieille TV mise sur Kijiji et la négocier 200$ plus bas, voire davantage?

À bout de nerfs, j’ai fini par faire le test en forçant XBMC à utiliser ALSA directement. Eh bien dès que j’ai démarré le film, de l’affreuse distorsion a commencé à sortir de mes haut-parleurs. Mais ça fonctionne sous VLC et MPlayer!!!! Pas avec XBMC. Il allait ENCORE falloir configurer PulseAudio en mode stéréo analogique de sorte que je n’aurais plus la possibilité d’utiliser YouTube, GrooveShark ou toute autre application Flash. Ça a été bien utile, GrooveShark, pour mettre de la musique la dernière fois que j’ai invité mon frère et ma sœur à souper. Je ne veux pas reperdre cette fonctionnalité! En plus il se pouvait que la configuration de PulseAudio ne suffise pas; j’allais peut-être devoir désinstaller PulseAudio, de sorte que je ne pourrais même plus faire fonctionner YouTube ou GrooveShark en configurant temporairement le son. PulseAudio est aussi une pierre angulaire d’Ubuntu. Le désinstaller va probablement supprimer beaucoup d’autres logiciels et probablement le méta-paquet ubuntu-desktop, ce qui va gêner toute mise à jour future. Vais-je me souvenir, dans deux ans, que je dois réinstaller ubuntu-desktop avant de migrer vers Ubuntu 16.04? Pas sûr! Que va-t-il se passer si j’omets cette étape? Je m’attends à une catastrophe apocalyptique, à l’échelle de la machine ça va de soit bien entendu! C’était vraiment décourageant, ce retour en arrière.

J’ai songé à la possibilité d’utiliser la liaison S/PDIF pour la musique et une connexion analogique pour l’audio 5.1 dans le cas des films. Malheureusement, je ne suis même pas certain de pouvoir retrouver les trois câbles minijack vers RCA que j’avais achetés pour ça. L’un d’eux est maintenant à l’avant de l’ampli pour permettre de brancher facilement un source audio comme un laptop ou un lecteur MP3. J’aurais bien aimé l’avoir, ce fil-là, quand mon frère a voulu me faire entendre quelques extraits de musique, mais il avait été temporairement réquisitionné pour mon setup de musique. Il en reste peut-être un deuxième derrière le meuble, branché pour qu’un signal analogique de secours se rende de l’ordinateur au système de sons. Le troisième, je ne sais pas où il est! En plus, comme XBMC sert à la fois pour les films et la musique et passe par PulseAudio, je serais obligé de reconfigurer PulseAudio avec Pavucontrol à chaque fois que je voudrais passer entre films et musique. La configuration est pénible, car Pavucontrol ne fonctionne pas très bien avec juste le clavier et les caractères sont encore et toujours un peu trop petits, décidément une véritable gangrène depuis les écrans LCD!!!

Certaines recherches m’ont mené à l’existence d’une bibliothèque A52 qui semble nécessaire pour effectuer le passage AC-3. J’ai alors tenté un sudo apt-cache search a52 et suis tombé sur le paquet libasound2-plugins-extra. Oh, pensai-je, j’avais lu quelque chose au sujet d’instructions pour compiler un plug-in A52 pour ALSA qui était susceptible d’aider PulseAudio pour le AC-3, mais ça semblait pour une vieille version d’Ubuntu. Peut-être le plug-in se trouvait-il dans ce paquet? Je l’ai installé après quoi j’ai redémarré Totem: en vain.

J’ai tenté de revérifier, encore, les paramètres dans Pavucontrol. Eh oui, le AC-3 est toujours coché. Alors pourquoi? Avant de rendre les armes et commencer à planifier plus en détails une solution alternative parce que là j’étais vraiment tanné de me battre avec cette machine qui pose des difficultés depuis son achat en 2009, j’ai tenté un dernier coup avec XBMC. Il y a eu une distorsion de la mort, puis ensuite, comme par miracle, XBMC est retombé sur ses pattes et a commencé à envoyer des données AC-3 à mon ampli! J’ai éteint XBMC et réessayé: ok. Ce matin, j’ai fait un redémarrage complet du système et XBMC fonctionnait toujours avec le AC-3!

Pour les problèmes de performance, j’ai découvert deux coupables: le serveur de Minecraft que je veux garder encore un peu, et Unity+Compiz. J’ai remplacé Unity par LXDE et j’ai eu une bien meilleure performance. J’ai eu quelques difficultés avec la taille des caractères et les touches de raccourci, mais ça semble pas trop mal maintenant.

Problème de pilote pour Fast Track Pro de M-Audio sous Windows 8.1

Hier après-midi, j’ai tenté d’enregistrer des échantillons en provenance de mes deux synthétiseurs en utilisant une interface audio USB Fast Track Pro de M-Audio. L’opération, qui aurait dû être simple, s’est vite transformée en casse-tête. D’abord la connexion physique causa ses propres difficultés. L’interface audio est pourvue de plusieurs connecteurs et boutons qui sont impossible à identifier sans déchiffrer ce qui est écrit en minuscules à côté. À l’avant du boîtier, c’est déjà un peu pénible. En arrière, c’est encore pire. Je n’ai pour le moment trouvé aucune bonne solution à cela, outre mémoriser l’emplacement exact de chaque connecteur et chaque bouton.

Le branchement effectué, j’ai démarré Ableton Live et tenté de là d’établir la liaison audio. Pour ce faire, j’ai configuré le logiciel pour qu’il utilise ASIO, testé que la sortie fonctionnait, puis j’ai configuré une piste audio pour qu’elle prenne une entrée externe en provenance de l’interface audio. J’ai vérifié maintes fois que l’entrée était l’interface audio et le son de la piste était dirigé vers la sortie principale, j’ai activé le monitoring et malgré ça, eh bien aucun son ne sortait de là.

Pour vérifier la connexion physique, j’ai trouvé un réglage très utile sur l’interface audio: un potentiomètre A/B permettant de régler le taux de signal en provenance des entrées renvoyé directement vers les sorties. Cela m’a permis de confirmer que le son passait bien à travers l’interface audio, à un volume audible. Les diodes sur l’interface s’allumaient également.

J’ai alors tenté d’éteindre Live et tester directement avec le Mélangeur de Windows. Pour cela, j’ai activé l’onglet indiquant les périphériques d’enregistrement et observé qu’aucune activité n’avait lieu du côté de l’interface audio. L’interface produisait des données que Windows semblait bêtement ignorer. J’ai essayé longtemps de chercher un moyen de configurer le système pour résoudre cette difficulté. Tout semblait OK. Tout portait à croire que l’interface était défectueuse, mais pourtant, dans ce cas, pourquoi les données passaient-elles correctement dedans?

J’ai testé sous Linux: même phénomène. Je savais par contre que le pilote de cette interface sous Linux n’était pas parfait. Certains ont eu des difficultés avec les entrées audio et j’ai eu des problèmes au début avec les sorties. Alors le test n’était pas entièrement fiable.

Il va falloir rétrograder à Windows 7 pour tester, me répéta une voix intérieure jusqu’à me mettre les nerfs à vif. Une autre voix me disait qu’avec un Mac, j’aurais pu réussir à effectuer un test qui aurait clairement identifié Windows ou l’interface audio. Mais je n’ai pas de Mac, bon sang. J’ai alors pensé que si j’avais conservé mon installation de Mac OS X sur mon ordinateur, ça aurait vraiment pu servir, cette fois. Bon, va-t-il falloir me retaper la configuration d’un Hackintosh pour vérifier mon interface audio? Pendant quelques minutes, j’ai cru que c’était cela qui s’en venait. Je n’avais pas la patience d’attendre des mois que quelqu’un ait le temps de tester cette interface sur une machine Windows 7 ou sur un Mac. Si je n’avais pas trouvé de solution, j’aurais fini par commettre un acte impulsif comme réinstaller Mac OS X (possiblement en formatant tout le second SSD) ou serais allé me chercher un Mac flambant neuf dont j’aurais bien regretté l’achat, après. J’aurais pesté contre la machine à cause des caractères trop petits et me serais senti obligé de la faire fonctionner parfaitement, ce qui m’aurait mis en maudit pendant des fins de semaine entières!

D’abord, j’ai testé sur mon ultrabook. À ma grande consternation, le son se rendait dans la machine et jouait par les haut-parleurs internes! Mais pourquoi? Les deux machines exécutent toutes deux Windows 8.1! Mais l’ultrabook n’avait pas le pilote de M-Audio, seulement celui de Windows. J’ai songé simplement désinstaller le pilote de M-Audio, mais je me doutais que j’allais perdre la prise en charge de ASIO qui va aider pour la latence sous Ableton Live. Alors, on en revient bel et bien à choisir entre rétrograder vers Windows 7 ou migrer mon installation vers un environnement Mac OS X, sur un Hackintosh ou un véritable Mac. Outre les problèmes d’achat (en cas de vrai Mac) ou de configuration (en cas de Hackintosh), le transfert de licence d’Ableton Live allait lui aussi poser des difficultés. J’ai en effet activé le logiciel sur deux machines: une sur mon installation Windows de ma machine principale, une sur mon ultrabook.  Je n’ai pas trouvé de moyen de désactiver Live sur une machine afin de pouvoir transférer l’autorisation sur une nouvelle.

Par chance, j’ai trouvé comment faire mieux! Le gros problème est que le pilote pour la Fast Track Pro, apparemment obsolète, ne se trouve plus directement sur le site de M-Audio. Le site principal de la compagnie redirige sur celui de Avid qui ne contient que des pilotes pour des nouveaux produits. J’ai donc dû faire une recherche sur Google et sélectionner le résultat dont le site ressemblait le plus à un de M-Audio. L’autre fois, j’avais pogné la 6.0.7 trouvé sur m-audio.fr. Hier, j’ai eu la 6.1.12 mais pour Fast Track pas Pro. Cela ne fonctionnait pas du tout: l’interface était prise en charge par le pilote de base de Windows, l’enregistrement fonctionnait, mais je n’avais plus le ASIO. Ensuite, j’ai eu la 6.1.10 pour Fast Track Pro et ça fonctionne ENFIN! Cela m’a permis d’échantillonner et de bénéficier de ASIO sous Ableton Live!

Ainsi, tout est bien qui finit bien. Le démon d’Apple qui m’a tenté de nouveau a été conjuré une fois de plus, renvoyé dans son plan natal où son maître va pouvoir le houspiller à souhait pour son échec; j’espère qu’il n’y ira pas de main morte!

Le problème des adresses IP dynamiques

Depuis plus d’un an, j’héberge sur une de mes machines un serveur Minecraft qui permet à mon ami et moi d’accéder à une map en tout temps. Pour parvenir à le faire, j’ai configuré mon routeur pour rediriger le port utilisé par le serveur de Minecraft vers la machine de mon réseau sur laquelle il s’exécute. Malheureusement, cela ne suffit pas à rendre la map accessible, car l’adresse IP permettant d’atteindre le serveur est dynamique.

Pour éviter de laborieux échanges de données, j’ai utilisé un compte DynDNS pour associer le nom de domaine ericbuist.dyndns.org à mon adresse IP dynamique. Mon routeur, exécutant DD-WRT, pouvait communiquer correctement avec DynDNS afin d’effectuer la mise à jour. Seule contrainte: je devais me rappeler, au moins une fois par mois, d’établir une connexion manuelle au site de DynDNS afin de garder mon compte actif.

Malheureusement, les choses n’en sont pas restées là. Durant la semaine du 9 avril 2014, j’ai appris que le service gratuit de Dyn serait terminé et qu’il me fallait soit passer au service payant, soit trouver un autre fournisseur de DNS dynamique. J’ai tenté longtemps de trouver une moyen pour réutiliser mon nom de domaine ericbuist.com existant plutôt que m’enregistrer auprès d’encore un nouveau fournisseur. Malheureusement, cela s’est avéré totalement impossible. HostPapa permet certes d’ajouter des sous-domaines, mais il faut indiquer l’adresse IP statique dans le cPanel. Pour qu’un script puisse mettre à jour dynamiquement, il doit utiliser l’API de cPanel et s’y authentifier, ce qui implique de mettre mon mot de passe HostPapa en clair dans du code ou un fichier de configuration! Ce solution PHP a été appliquée, apparemment avec succès, mais je trouvais ça un peu moche.

Cheap-DomainRegistration, le registrar avec qui j’ai mon domaine ericbuist.com, n’offre aucune option allant dans ce sens, aucun moyen de configurer les zones DNS de façon détaillée. On peut définir des sous-domaines, mais cela se limite à rediriger le trafic web vers une URL.

Alors voici comment j’ai résolu ce problème imprévu. D’abord, je me suis créé un compte sur freedns.afraid.org. Cela m’a permis d’obtenir ericbuist.twilightparadox.com. J’ai reconfiguré mon routeur pour appliquer le DDNS sur ce nouveau compte. Il m’a fallu fournir mon nom d’utilisateur et mot de passe FreeDNS, puis comme « hostname », une chaîne de la forme ericbuist.twilightparadox.com,<hash> où <hash> est le code numérique de l’URL de mise à jour fournie par FreeDNS.

Toutefois, non désireux d’en rester là, j’ai accédé au cPanel de mon compte HostPapa. Sous la section Domaines, j’ai accédé à l’Éditeur avancé de zone DNS. De là, j’ai créé une entrée de type CNAME permettant de lier le sous-domaine eldorado.ericbuist.com à mon sous-domaine dynamique. Ainsi, si je trouve une meilleure solution plus tard impliquant moins de couches, je pourrai reconfigurer mes enregistrements DNS pour l’appliquer de façon transparente.

Voici quelques solutions à plus long terme que je pourrais être appelé à explorer ou mettre en place.

  • Obtenir une adresse IP fixe auprès de mon fournisseur d’accès Internet. Cela risque de me forcer, si je reste avec Vidéotron, à passer au plan commercial, ce qui va gonfler ma facture inutilement. Il existe probablement des fournisseurs offrant ce genre de service à moindre prix, mais possiblement avec une moins bonne stabilité de connexion.
  • Déplacer mon enregistrement de ericbuist.com de Cheap-DomainRegistration vers un fournisseur de domaine dynamique tel que Dyn. Je ne suis pas certain de bénéficier de suffisamment de contrôle pour pouvoir diriger les requêtes à ericbuist.com chez HostPapa et seulement redéfinir un sous-domaine du côté du fournisseur dynamique. En cas d’échec, je risque de perdre mon domaine ericbuist.com dont je suis propriétaire depuis 2004. Pour amorcer un transfert de nom de domaines, il faut obtenir un numéro d’autorisation chez le registrar existant, et parfois l’option pour obtenir un tel numéro est inexistante. C’est alors un cas de difficiles négociations avec le registrar. Je serais vraiment déçu et choqué de devoir enregistrer ericbuist2.com et utiliser cela pour mon site web en lieu et place ericbuist.com!
  • Héberger mon serveur de Minecraft sur une machine disposant d’une adresse IP fixe. Je pourrais tenter ma chance avec Amazon EC2 ou CreeperHost, mais cela va me coûter des centaines de dollars par année et la machine virtuelle que j’obtiendrai sera sans doute moins puissante que la machine sur laquelle le serveur actuel s’exécute.
  • Si vraiment plus rien ne fonctionne, je pourrais me concocter un script obtenant mon adresse IP et la plaçant dans un fichier accessible par une URL public, en le téléchargeant sur mon espace web ou sur Dropbox. Ensuite mon ami pourrait consulter ce fichier et obtenir la nouvelle adresse. Un raffinement possible serait qu’un script le fasse et aille modifier le fichier hosts pour associer un nom à l’adresse dynamique, mais ça devient plutôt complexe pour une affreuse patch qui n’a pas lieu d’être.

Groovy? Pas sûr…

Hier, je me suis dit que ça vaudrait la peine d’essayer d’utiliser le langage de programmation Groovy pour un projet chez Nuance. J’estime que cela va me permettre de générer et manipuler du XML plus facilement et m’éviter de répétitives constructions. Plutôt qu’écrire du code pour effectuer la même opération sur chaque item d’une liste, classifier des items selon certains critères afin de pouvoir appliquer un traitement spécifique à chaque classe d’items, ouvrir des fichiers, etc., je pourrai me concentrer davantage sur la logique du programme et éviter de perdre plein de temps à écrire de la poutine répétitive et déboguer. Eh bien pour le moment, c’est exactement tout le contraire! Voici pourquoi.

  • Cette journée a mal commencé avec un problème de connexion de mon écran. Mon laptop de Nuance est relié chez moi à mon écran par un adaptateur mini-HDMI vers HDMI, un fil HDMI qui va dans un commutateur HDMI, puis un fil HDMI vers DVI qui va dans l’écran. Eh bien je n’avais plus d’image. Pourtant, mon ordinateur personnel, lui aussi raccordé au commutateur et allumé pour des raisons qui importent peu ici, affichait le bureau d’Ubuntu. C’est arrivé à quelques reprises et j’ai dû débrancher et rebrancher le câble mini-HDMI. Eh bien en vain cette fois. Cela a fini par fonctionner en essayant avec un autre adaptateur mini-HDMI! Je ne sais pas encore si c’est vraiment l’adaptateur, car mon Raspberry Pi a aussi, hier soir, refusé d’afficher en HDMI. C’est donc peut-être le foutu commutateur si bien qu’il faudrait idéalement que je remplace mon écran par un doté de plusieurs entrées HDMI. Mais les écrans d’ordinateur ont pour la plupart une seule entrée DVI ou HDMI.
  • L’installation de mon environnement Groovy a posé des difficultés. Je n’ai eu aucun mal à installer Groovy lui-même, à mettre en place le plugin Groovy pour Eclipse, mais après, les problèmes ont commencé. Je me suis vite rendu compte qu’il valait mieux créer un nouveau projet distinct dans Eclipse pour cette nouvelle tâche, pas seulement pour éviter d’introduire des difficultés dans les builds à cause de Groovy mais aussi par souci de séparation correcte du code. Sans cela, Eclipse indiquait que le compilateur Groovy du projet, dicté par le fichier POM de Maven, ne correspondait pas au compilateur utilisé par défaut dans Eclipse. Il fallait alors modifier les propriétés du build, dans Eclipse, et il n’y avait pas de synchronisation avec le fichier POM de Maven, donc modifier le fichier POM risquait de nécessiter de refaire le paramétrage du build, et toute personne désireuse de consulter mon code dans Eclipse aurait elle aussi à paramétrer le build.
  • Trouver comment configurer mon fichier POM pour que Maven puisse gérer mon satané projet Groovy n’a pas été une mince affaire. Le plugin GMaven qui semblait devoir faire ce travail est discontinué, sans aucune alternative convainquante pour le remplacer! Le seul candidat est un plugin Groovy-Eclipse-Compiler qui me semble un joli hack utilisant le compilateur d’Eclipse en arrière-plan pour compiler du Groovy! Mais bon, c’est tout ce qu’on a alors on essaie. Eh bien il me fallut copier/coller plusieurs blocs de code dans mon fichier POM et ça ne fonctionnait même pas pour les raisons suivantes!
  • Eclipse s’est d’abord plaint qu’il y avait deux installations de Groovy dans le classpath. J’ai dû exclure celle en provenance d’un projet dépendant; c’était la 1.8 et je voulais partir avec la 2.0. Après, eh bien encore cette erreur de correspondance du compilateur: mon projet voulait Groovy 2.1, Eclipse avait la 2.0! Il m’a fallu utiliser une version antérieure de Groovy-Eclipse-Compiler, et trouver le bon numéro de version a demandé des recherches à plus finir.
  • Après tous ces efforts, eh bien Eclipse est devenu affreusement lent et gelait à tout bout de champ. Cela a fini par des erreurs à propos de mémoire insuffisante puis un plantage. Par chance, le comportement était plus normal après le redémarrage d’Eclipse.
  • Ensuite, le développement a véritablement commencé. D’abord, le plugin Groovy d’Eclipse souffre de problèmes lorsque vient le temps de proposer des noms de classes, méthodes et propriétés. Parfois, il trouve un nom, parfois pas, et c’est très arbitraire. Par exemple, j’avais une variable de type String (chaîne de caractères), et Groovy avait l’information à propos du type (à noter que ce n’est pas toujours le cas vu la nature dynamique de Groovy). Eh bien Eclipse localisait la méthode toLowerCase() mais pas toUpperCase()! La complétion de noms de classes fonctionnait parfois, mais elle n’ajoutait pas toujours l’importation nécessaire si bien qu’après coup, j’avais des erreurs indiquant que la classe récemment référencée n’était pas trouvable, devais sélectionner sa référence et appuyer sur CTRL-SHIFT-M pour ajouter l’importation. Ça fonctionnait parfois, parfois pas, il fallait alors appuyer plusieurs fois!
  • D’autres difficultés surgirent en raison de ma connaissance embryonnaire du langage Groovy. Par exemple, je me suis emmêlé les pinceux avec la notation pour construire un tableau associatif. Il ne faut pas utiliser [a:b, c:d]; ça ne va pas fonctionner, le compilateur va se plaindre de l’absence des variables b et d. Il faut plutôt utiliser [a: »b », c: »d »] ou encore [« a »: »b », « c »: »d »]. Mais pourtant, GroovySH va bêtement afficher [a:b, c:d] si on lui demande de montrer le tableau! Déclarer une variable de type List<?> ne fonctionnait pas: il fallait que j’utilise simplement List; en Java, cela déclenche un avertissement comme quoi c’est un type brut. Mais si je déclarais List[] ou List<?>[], eh bien j’avais un avertissement à propos du type brut! Il faut utiliser des listes au lieu des tableaux ou bien ne pas déclarer de type du tout. Mais je trouve ça plus clair de donner le type, surtout pour les arguments d’une fonction!
  • J’ai été bien choqué quand j’ai voulu créer une classe avec des champs et y générer des accesseurs, car la fonction d’Eclipse pour le faire n’était pas disponible en Groovy. Je me suis alors rappelé qu’il existe des annotations pour indiquer à Groovy de générer ces accesseurs automatiquement. Eh bien je n’arrivais pas à retrouver ces annotations dans la documentation et des recherches sur Internet me donnèrent à des indices pour bâtir une transformation d’AST personnalisée permettant de le faire!!! Bon sang! Par chance, il suffisait de déclarer mes champs sans modificateur d’accès pour que Groovy ait l’intelligence de les traiter comme des propriétés et alors définir les accesseurs.
  • Outre les problèmes syntaxiques, il y a aussi eu des difficultés d’API. Jusqu’à ce que je trouve la documentation du GDK, indiquant quelles méthodes Groovy ajoute à Java, je n’arrivais pas à savoir facilement comment appliquer une transformation sur tous les items d’une liste (collect peut le faire), s’il était possible d’ouvrir un fichier texte en UTF-8 avec un seul appel de méthode plutôt que construire le FileInputStream, puis le InputStreamReader, et enfin le BufferedReader, etc..
  • J’ai aussi eu des difficultés avec le débogueur qui s’est remis à se plaindre chaque fois que je définissais un point d’arrêt conditionnel. J’avais beau vérifier et revérifier l’expression de la condition, tout était OK. Pourtant, j’avais cette maudite erreur. J’ai encore été obligé de modifier le code temporairement après quoi le point d’arrêt fonctionnait, mais Eclipse n’arrivait pas à trouver le code source de la classe, dans un projet importé par dépendance Maven qui était pourtant dans mon espace de travail Eclipse! Il m’a fallu indiquer l’emplacement explicitement puis j’ai enfin pu déboguer le code. C’est possible que ce soit ça qui ait brisé les points d’arrêt conditionnels.
  • J’ai eu des erreurs d’exécution à la pelle! Le code compilait, semblait beau, mais à l’exécution, j’avais des problèmes à propos de méthodes ou de propriétés inexistantes. Cette fois-ci, ce n’était pas Groovy, ni Maven, ni Eclipse mais bien mon code; il fallait corriger les petites erreurs. Certaines erreurs ont été difficiles à corriger, surtout celles qui ont surgi quand je me suis mis à utiliser le MarkupBuilder de façon un peu exotique pour construire mon XML de façon dynamique. Oh là là! La documentation de Groovy n’explique pas très bien comment fonctionne le builder; c’est un fichier en progression. Mais pourquoi placer une page sur un site web pour simplement écrire, pendant deux ans, work in progress ou coming soon? Je ne me souviens plus exactement d’où j’ai eu les indices pour comprendre ce qui se passe, peut-être dans le chapitre sur les DSL de Groovy in Action. Le problème ici était que mon fichier XML n’était pas statique: je devais générer un élément <task> pour chaque tâche de mon application et y injecter des attributs au besoin, pas toujours tous les attributs! Par chance, la chose a été possible et peut être étendue pratiquement à l’infini.

En bref, quelle galère! On se demandera si tout ceci a valu le coup. Je me le demande moi aussi. Je pense que l’apprentissage de Groovy aura une utilité si bien que je prévois continuer cette exploration. Je ne saurais pour le moment mesurer la contribution exacte de Groovy, Eclipse et Maven dans cette expérience plutôt déplaisante.

Il faut garder à l’esprit que j’ai eu beaucoup de difficultés avec Eclipse, incluant des problèmes avec la complétion de noms de classes et de méthodes, les points d’arrêt conditionnels qui boguent parfois mais au moins pas de plantages, pas sous Windows en tout cas. Sous Linux, j’en ai déjà eu à plus finir. Pourtant, les alternatives à Eclipse sont plutôt limitées: NetBeans qui ne gère même pas bien le fichier POM de notre projet chez Nuance, IntelliJ dont la version gratuite est bridée (on ne sait JAMAIS quand on tombera sur un blocage demandant la version payante!!!) et puis les éditeurs de texte comme Notepad++, Emacs, Vi, etc. Ces éditeurs sont excellents, je ne peux que l’avouer, mais ils ne suffisent pas à la tâche pour gérer un gros projet Java ou Groovy avec plusieurs classes.

La vengeance des pingouins!

Hier à ma fête, j’ai eu plusieurs cadeaux de mon frère et sa blonde exploitant la thématique des pingouins, le symbole du système d’exploitation Linux. Eh bien faut croire que les pingouins n’ont pas beaucoup aimé (moi j’ai bien aimé, pourtant!), car ils se sont vengés hier soir et aujourd’hui. Voici comment, une vraie histoire d’horreur.

  • XBMC, mon lecteur multimédia sur mon HTPC Linux, a planté deux fois hier soir. Ça gelait et plus aucun contrôle ne répondait. Il fallait alors que je bascule sur la console texte et que je tue XBMC de façon brutale. En plus, la saisie de mon mot de passe trop complexe est devenu problématique, demandant entre trois et quatre essais chaque fois! J’ai fini par en mettre un plus simple, vraiment tanné de me faire embêter par ça!
  • Mon serveur de Minecraft, sous Linux, a eu des ratés parce que je pensais l’avoir mis à jour à FTB Unleashed 1.1.7 tandis qu’il exécutait toujours 1.1.3. Le client, désynchronisé, se plaignait, n’arrivant plus à établir la connexion vers le fabuleux univers de Taowa. Remettre la version recommandée ne produisait aucun effet, car il faut croire que le lanceur FTB conservait des parties de la nouvelle version plutôt que tout réinstaller.
  • FTB Launcher, le client me donnant accès à Taowa, il a fini par m’afficher un bel écran vide et plus rien ne fonctionnait. La touche ALT-F4, devenue pratiquement inopérante à présent, ne faisait plus rien encore une fois. Cliquer sur le X non plus, il fallait vraiment tuer le processus de force, encore. Ensuite, j’ai été obligé de tout réinstaller, en exécutant le lanceur dans un autre répertoire, et après, eh bien j’avais un écran noir à chaque démarrage de Minecraft. Ainsi, Ubuntu ne permet PLUS d’exécuter Minecraft, probablement encore une mise à jour qui a brisé le pipeline graphique. Ils ont brisé le pipeline pour la Intel HD4000, rendant le jeu saccadé pratiquement plus jouable, et voilà que c’est fait pour NVIDIA aussi. Faudra que j’endure ou tente ma chance avec une carte ATI, mais je n’ai rien à faire de plusieurs cartes graphiques PCI Express remisées pour incompatibilité arbitraire.
  • Une tentative d’installation de Linux Mint 16 édition Cinnamon en lieu et place de Ubuntu qui pose de plus en plus de difficultés aussi absurdes qu’imprévues a été une véritable catastrophe: pointeur de souris vraiment trop petit, options d’accessibilité pour agrandir les caractères ayant à peine un effet, l’interface graphique a gelé sans raison, me forçant à tout redémarrer, puis un plantage du programme d’installation au moment de marquer la partition principale de Mint pour formatage! Bref, ça ne fonctionne pas du tout! Le seul point positif est qu’aucune perte de données ou de configuration n’est à déplorer suite à ce court et désagréable essai, car le système n’a infligé aucun dommage à mes partitions.

On dirait bel et bien que Linux, désormais, est confiné aux machines virtuelles, aux serveurs sans écran (capacités graphiques instables) et aux appareils mobiles (genre Android). Il est possible que seules certaines cartes graphiques soient parfaitement prises en charge et que leur marque varie dans le temps.  Par contre, un problème de pilote graphique peut certes expliquer XBMC instable, Minecraft ne fonctionnant plus et le plantage de l’interface de Mint, mais pas la défaillance du programme d’installation de Mint.

Pour la défaillance de l’installeur de Mint, peut-être est-ce l’EFI, peut-être est-ce le SSD, peut-être est-ce le Ivy Bridge, peut-être n’est-ce rien de tout ça. Je ne sais pas et étant donné que l’interface de Mint m’a vraiment déplu, ça ne sert à rien de le savoir.

Les interfaces graphiques régressent, en plus. On assiste à une perte progressive de contrôle: plus moyen de changer la taille du pointeur de la souris (Ubuntu, Mint), plus moyen de grossir les caractères (Mac OS X, peut-être Mint), plus moyen de configurer les couleurs et la transparence (Windows 7+, probablement Mac OS X, peut-être même Ubuntu et Mint!).

Plutôt que travailler sur la personnalisation, eh bien les éditeurs de systèmes d’exploitation préfèrent rajouter davantage d’applications de base qui ne font rien et qui doivent, une par une, être substituées par des logiciels tiers. À quoi bon améliorer Paint si personne de sérieux ne s’en sert, le remplaçant par Paint.net, Gimp ou, « mieux » encore, par Photoshop? À quoi bon améliorer Wordpad si les gens le remplacent par Notepad++, Word ou, mieux encore, LibreOffice? Pourquoi améliorer Internet Explorer si personne ne s’en sert, le troquant pour Chrome ou Firefox?

L’utilisateur de Mac fera la même chose, troquant Mail pour l’interface web de GMail, plus flexible et plus portable. Il délaissera iMovie pour s’en aller vers Final Cut. Il abandonnera vite Garage Band pour le remplacer par Audacity ou un logiciel audio professionnel comme Pro Tools de Avid ou Live de Ableton. Puis un jour, il voudra essayer le dernier jeu et délaissera Mac OS X complètement pour balancer un Windows sur son beau MacBook flambant neuf. C’est triste!

L’utilisateur Linux, de son côté, remplacera progressivement les applications de GNOME ou de Unity par d’autres: Totem sera abandonné au profit de MPlayer, VLC ou XBMC, GEdit pour Vi ou Emacs, Banshee pour Audacious ou autre chose, etc. Au moins avec Ubuntu, on peut obtenir toutes ces alternatives depuis le gestionnaire de paquets: pas besoin de visiter des dizaines et des dizaines de sites (quoique Ninite peut beaucoup aider sous Windows!) et surtout, pas besoin de débourser un centime pour ces alternatives.

Mais il n’en demeure pas moins qu’à cause de l’intégration de tous ces petits jouets, le cœur même du système, ses fondements, sa flexibilité, en souffrent, parce que les éditeurs se concentrent sur la mauvaise cible.

Windows 8: pas la grande révolution mais pas si mal

Je suis toujours curieux quand une nouvelle version de Windows voit le jour et je finis toujours par l’essayer, d’une façon ou d’une autre. Mais depuis Windows Vista, je suis plus hésitant, car ce système m’a forcé à rétrograder vers Windows XP, ce qui est une lourde et inutile perte de temps.

J’ai lu et entendu plusieurs choses au sujet de Windows 8 et j’ai voulu me faire ma propre idée. J’en ai eu la possibilité, car pour 30$, je pouvais en obtenir une copie étant donné que je m’étais procuré Windows 7 durant l’été 2012, en achetant mon nouvel ordinateur. Je l’ai donc téléchargé et gravé sur un DVD en prévision d’une installation sur ma machine.

Longue hésitation

Dimanche, 11 novembre 2012, avant la messe, j’avais dans l’esprit me taper l’installation de Windows~8 le jour même! Avant d’entreprendre cette périlleuse opération, je voulais par contre effectuer une sauvegarde de ma partition actuelle de Windows 7 en utilisant CloneZilla. Malheureusement, les choses ne sont pas bien
passées. D’abord, CloneZilla a refusé de démarrer en UEFI, et ne démarrait pas en BIOS non plus. C’était encore le procédé de création de la clé USB qui avait échoué. J’avais utilisé Tuxboot qui est dérivé de UnetBootIn. Décidément, cet outil ne fonctionne VRAIMENT pas bien! J’ai donc dû redémarrer la machine sous Ubuntu (par chance c’est très rapide à faire!) et graver l’ISO sur… un DVD. Choqué, je n’ai
même pris le temps de regarder de quel disque il s’agissait si bien que j’ai gaspillé un DVD pour un ISO de 150Mo! Par chance, le disque créé a démarré, pas en UEFI, mais a démarré malgré tout!

J’ai alors pu entamer la sauvegarde. Mais ça a été super long, au moins trois fois plus long que le temps estimé. Résultat: il fut temps de partir pour la messe et l’opération n’était pas encore terminée. Cela me mit en maudit, car je savais que ça aurait dû être moins long que ça. La cause de la lenteur pouvait être multiple: disque dur trop
vieux, convertisseur SATA vers USB problématique, port USB avant de la tour pas assez performant. À l’idée que ça fonctionne mieux si je branche le disque en arrière, j’ai pogné les nerfs et me suis dit que j’aurais été aussi bien avec un laptop. Je me suis presque juré d’aller le chercher le jour même si la machine avait le malheur de redémarrer ou faire la cochonne avec le bloc d’alimentation, me le faisant sauter, pendant que j’étais à la messe.

J’ai réfléchi en allant là-bas et me suis dit que je pouvais bien attendre pour cette mise à jour vers Windows 8. De la façon que j’étais parti, j’allais continuer jusqu’à virer fou à faire des installations et des mises à jour chaque fin de semaine! Il faut prendre
un break et apprécier les fonctionnalités que j’ai, là, en ce moment!

Par chance, au retour de l’église, je ne sentis pas d’odeur de brûlé
et la machine était toujours en marche. Elle avait terminé la copie et
la vérification. Encouragé, j’ai fait une sauvegarde de ma partition
Mac aussi. Pendant le déroulement de l’opération, j’ai passé
l’aspirateur. Puis j’ai pu démarrer mon système sous Mac OS X avec
succès.

Samedi, 17 novembre 2012,  j’ai lu 10 raisons de ne pas installer Windows 8 qui a réduit pas mal mes envies de l’essayer. Ça a l’air d’une patente qui va encore me faire pogner les nerfs. Il semblait nécessaire de constamment commuter entre le nouvel environnement Metro et l’ancien Bureau.

Découverte par obligation

C’est seulement samedi, 27 avril 2013, que j’ai été exposé à Windows 8.  La veille, on a reçu chez Nuance des ultrabooks pour tester notre application d’assistant personnel pour PC. Ce sont des Dell XPS13, super minces et légers, avec deux micros et une web cam intégrés. Comme mon laptop se faisait vieux, les gens de mon équipe étaient d’accord pour me dédier un des huit ultrabooks. Petit hic: c’est une bêbite Windows 8!

Bon, Windows 8, c’est moins pire que je pensais! D’abord, les coins actifs ne sont pas si actifs que ça. Ils ne font pas tout disparaître le contenu de l’écran comme sous GNOME 3, seulement popper de quoi en haut, en bas ou sur le côté droit. Le passage entre Metro et le Bureau, qui est un peu tannant, se fait au moins très rapidement. Sur un écran non tactile, Metro ne sert à rien. Ma patch #1 pour le problème de taille des caractères fonctionne, celle pour le pointeur de la souris aussi. Le contraste des items sélectionnés dans les menus est mieux, de base, que sous Windows 7: pas besoin d’une aptch pour ça.  L’accès au menu latéral, appelé Charm, m’a causé problème au début, mais cet après-midi, j’ai découvert LA parade: Windows-C, ça active le menu sans niaiser avec la souris. Windows-D bascule de Metro vers le Bureau, et Windows bascule du bureau vers Metro. On a donc moyen de naviguer efficacement entre
les deux.

Windows 8, bof, pas si génial que ça. Ça reste un Windows 7, avec des
ajouts qu’on finit pour la plupart par contourner. Et ceux qui sont
habitués au bon vieux menu Démarrer souffrent avec ça. Mais bon, jusqu’à date, je pourrais travailler avec.

J’ai travaillé avec Windows 8 sur l’ultrabook pendant des mois, et ça s’est assez bien passé. Je n’ai eu aucun blocage majeur. Sur mon PC personnel par contre, j’éprouvais beaucoup de difficultés aussi bien avec Ubuntu et Mac OS X: des incompatibilités ou des régressions arbitraires sous Ubuntu, la nécessité croissante d’ajouter une carte graphique parce que l’affichage 3D au début correct était rendu saccadé après une mise à jour logicielle, des caractères minuscules impossibles à agrandir sous Mac OS X, de quoi me rendre cinglé. Un jour, je me suis décidé à reconstruire le système plus simple, sans Mac OS X. Tant qu’à faire, j’en profiterais pour migrer vers Windows 8.

Installation sur le Drake

Cela a eu lieu dimanche, 7 juillet 2013. J’avais de plus en plus de difficultés avec Ubuntu. Ça me donnait des écrans noirs deux démarrages sur trois et parfois, quand je réussissais enfin à amorcer ça, plus rien ne fonctionnait; il fallait sans raison valable parfois utiliser la souris pour démarrer une application tandis qu’habituellement, ça fonctionnait avec le clavier. Puis Minecraft roulait encore
saccadé après tout ça. On dirait bien qu’Ubuntu ne gère plus
correctement la puce graphique et aucune solution en vue.

Je pensais revenir au setup VirtualBox, parce que ça ne me tentait pas de rétrograder le CPU pour avoir une Intel HD3000 au lieu de la HD4000 (peut-être mieux de problème avec le pilote, peut-être même pas!), recompiler le noyau pour essayer de patcher moi-même le problème dont tout le monde se foutait, installer une carte graphique qui n’apporterait rien de plus que peut-être faire fonctionner ça jusqu’au prochain
bogue qui allait briser ça aussi, etc. Si je me débarrassais de Mac OS X, qui ne fonctionnait pas à mon goût de toute façon, le setup VirtualBox pourrait à la limite faire l’affaire. Il restait le bogue de la roulette de la souris qui cesse parfois de fonctionner dans VirtualBox. S’il n’est pas réglé, faudra peut-être me résoudre à désactiver la roulette complètement et utiliser les flèches du clavier pour le défilement.

Mais je savais qu’un jour, j’allais tenter ma shot avec Windows 8, tôt ou tard, alors j’aurais à tout recommencer l’installation de VirtualBox. Alors j’ai décidé de me taper Windows 8 à ce moment. Mais je n’eus pas à le regretter. Comme j’ai expérimenté sur l’ultrabook de Nuance, ça fonctionne comme Windows 7. Il n’y a pas d’instabilité ou de lenteur accrue du genre de ce à quoi on a eu droit avec Windows Vista.

Les nouveautés de Windows 8 sont indubitablement insignifiantes pour un affichage non tactile. Je suis content de ne pas avoir payé 150$ pour ça. D’abord, le système voulait que j’utilise une adresse de messagerie comme compte Windows. Ok, on
essaie avec mon adresse GMail. Niaon! Ça prend une adresse Microsoft, donc encore un nouveau mot de passe à créer. Mais par chance, il est possible de se brancher avec un compte local, ce que j’ai fait. Le compte Microsoft devint par contre une nécessité par la suite, pour accéder au Windows Store, le meilleur moyen moyen de passer à Windows 8.1.

L’accès aux applications People et Mail exige un compte Microsoft aussi. Par chance, le compte créé, il est possible de relier des comptes GMail, Outlook, Exchange, etc. Contrairement à ce que j’ai cru initialement, l’utilisateur n’est pas contraint d’utiliser un compte Outlook et migrer tous ses contacts et courriers électroniques!

Ensuite, je voulais changer la photo de mon avatar; le système m’offrait l’accès à SkyDrive mais pas Dropbox pour aller chercher la photo. J’ai été obligé de chercher longtemps sur mon système de fichiers pour la trouver et la recherche intégrée n’amenait même pas la photo dans l’application pour configurer l’avatar.

Par chance, mes outils favoris du moment fonctionnent. Minecraft, pas de problème. Je l’ai démarré  et j’ai créé mon premier ordinateur dans le jeu.

La mise à l’échelle qui pose des problèmes

Ableton Live 9 s’est installé et a démarré. Au démarrage, RIEN, NADA, NIET! Avant de tout abandonner, j’ai par chance eu la bonne idée d’essayer la 8. Ça a fonctionné et la 9 démarrait après ça! La 9 est sans doute un upgrade qui dépend de la 8. FIOU! J’avais lu que ça fonctionnait à part quelques glitches mineurs alors j’aurais été bien surpris et choqué que ça ne démarre même pas! Par contre, quand j’ai installé Live 9 sur Hellora, mon nouvel ultrabook, fin 2013, je n’ai eu besoin que de la 9.1, pas de bogue comme sur le Drake.

Lundi, 29 juillet 2013, j’en suis arrivé à la conclusion qu’Ableton Live, c’était limite inutilisable. J’ai découvert peu après les premières utilisations que le logiciel devenait fou dès que je déplaçais un contrôle ou un clip avec la souris.  Quand je cliquais sur un élément, le pointeur sautait ailleurs dans l’écran, ce qui occasionnait un réglage incorrect ou le déplacement du clip à un endroit où je ne le voyais plus. Il m’a fallu beaucoup de temps pour découvrir que c’était à cause de l’ajustement effectué pour agrandir la taille des caractères. Il y aura de plus en plus de logiciels perturbés par cela et c’est très dérangeant. Après Live, il y a eu VideoStudio de Corel, le programme de désinstallation de Avast et j’ai même lu des histoires d’horreur au sujet de Google Chrome, dans un environnement à écran tactile! Si de plus en plus de logiciels sont programmés pour être incompatibles avec la mise à l’échelle, je me retrouverai exactement comme sous Mac OS X, avec l’impossibilité d’agrandir les caractères, et serai contraint de cesser d’utiliser l’ordinateur à moins de trouver une personne pour m’aider à chaque fois! Ce serait tout simplement terrible, inacceptable. Par chance, on n’en est pas encore là.

Rendu là, j’étais obligé de me brancher sur un autre compte utilisateur pour utiliser Live avec des paramètres d’affichage différents et le pointeur de la souris, même configuré au plus grand, était trop petit avec ces paramètres. Il fallait idéalement
un contrôleur pour piloter TOUT le logiciel, mais ce que je connaissais coûtaient trop cher (APC40, Push, par exemple) ou ne contrôlaient qu’une infime partie du produit (application Android ou padKontrol de Korg par exemple) à moins de faire
BEAUCOUP de tweaking, ou ne faisaient rien du tout (clavier MIDI sans port
USB) à moins de rétrograder à Windows XP pour faire fonctionner le USB->MIDI. Au désespoir, j’ai envisagé revendre ma licence de Live et me procurer un ou plusieurs synthétiseurs matériels. La famille Volca de Korg serait très intéressante, mais je ne disposais pas de l’infrastructure nécessaire pour en tirer parti, à savoir du filage, beaucoup de filage, un mixeur pour pouvoir entendre les trois appareils, une carte son externe pour échantillonner le résultat, un logiciel de montage audio pour faire des arrangements plus avancés, etc.

C’est plus tard que j’ai découvert une parade consistant à désactiver la mise à l’échelle. Il me fallut recourir à une passe de base de registre, parce que les options de compatibilité sont inhibées pour les programmes 64 bits. Mais la chose faite, mon logiciel fonctionnait #1, comme sous Windows 7! Ce problème de mise à l’échelle a mérité son propre article.

FRAPS: un autre deuil à faire

Mon logiciel de capture vidéo, FRAPS, m’a lâché le 5 octobre 2013. Il s’est mis à planter sans cesse et j’ai fini par trouver des posts de forums indiquant qu’il était incompatible avec Windows 8. J’en ai testé plusieurs qui n’ont pas fonctionné du tout, puis j’ai trouvé BandiCam, qui va relativement bien. J’aime mieux FRAPS, car les fichiers produits par défaut fonctionnent mieux avec VideoStudio de Corel, mais BandiCam peut aussi faire le travail, à condition de le configurer correctement ou être prêt à passer tous les fichiers générés dans un convertisseur pour normaliser le format. Le problème de capture vidéo a lui aussi fait l’objet d’un article séparé.

Windows 8 menace Ubuntu

Le système de Microsoft fait peser une menace perpétuelle sur mon favori numérique Linux, et ce pour de multiples raisons. D’abord, Ubuntu souffre de plusieurs instabilités et comportements erratiques qui finissent par me taper sur le système à la longue. Quand il faut plusieurs démarrages pour amorcer la machine (réglé deuis l’achat d’une carte graphique NVIDIA, au moins), quand Chrome demande un mot de passe tandis qu’il ne le fait pas sous Windows et même Mac OS X, quand le système décide d’une version à l’autre de cesser de prendre en charge, pour deux ou trois versions successives, mon iPod, mon téléphone ou ma tablette, quand le retour de veille plante la machine et oblige à redémarrer au complet, on a envie de tout balancer ça et revenir à Windows! Windows 8, pour sa part, ne souffre pas de tous ces plantages, mais je m’ennuie de la ligne de commande Bash, de LaTeX et de Unison.

Windows 8 a aussi appliqué des mesures actives qui peuvent dissuader un néophyte d’installer Linux! D’abord, le mode de démarrage rapide met le disque dur dans un état transitoire incompatible avec le module NTFS-3G de Linux. Désactiver ce mode est une nécessité à moins de tout formater en FAT32 les partitions de données, ce qui est à mon avis inacceptable sur un disque de plus d’un terra-octet! Ce problème de démarrage rapide a fait l’objet d’un autre article.

Après la mise à jour vers Windows 8.1, j’ai aussi éprouvé des difficultés avec un filigrane m’indiquant que SecureBoot n’était pas activé.  SecureBoot restreint l’amorçage à seulement des exécutables EFI signés, ce qui va inévitablement rendre difficile l’installation de toute distribution de Linux. Ayant assez de problèmes comme ça avec Ubuntu, j’ai opté pour la simplicité en faisant sauter ce filigrane; il y a un article sur le sujet aussi!

Le passage à Windows 8.1

J’ai mis trois machines à niveau vers cette version gratuite de Windows, pour trois raisons différentes. Sur mon Drake, je l’ai fait parce que je considérais cela comme un Service Pack et me disais que la mise à jour serait sans impact majeur. Mais elle modifie énormément l’infrastructure du système, ce qui perturbe l’installation des pilotes et de certains logiciels comme les anti-virus. La mise à jour sur mon Drake s’est à peu près bien passée, si ce n’est la nécessité de réinstaller Avast. Plus tard, je découvris que Avast n’est même plus nécessaire, car Windows Defender intégré à Windows 8.1 inclut d’ores et déjà un anti-virus!

J’ai mis à niveau mon ultrabook chez Nuance, car les gens du support technique m’ont dit que cela allait corriger un bogue empêchant l’installation des mises à jour automatiques sur une machine reliée à un domaine. Cette mise à niveau a posé beaucoup de problèmes: nécessité de réinstaller le client VPN, difficultés à réinstaller l’anti-virus corporatif Symantec et quelques problèmes avec Outlook qui se sont heureusement résorbés. Cette mise à jour difficile a mérité son petit article.

Enfin, j’ai mis à niveau mon ultrabook tout récent, qui venait à ma grande consternation avec Windows 8. Je ne veux pas avoir Windows 8 sur une machine, Windows 8.1 sur une autre, Windows 7 sur une autre, et tout le temps chercher sans cesse où se trouvent les éléments! Déjà que je suis coincé avec Windows 7 sur mon nouveau laptop de travail, chez Nuance, c’est assez comme ça! La mise à jour sur Hellora s’est assez bien passée, mais elle a perturbé un module d’émulation surround que j’ai dû désactiver.

À quoi bon Windows 8.1? Eh bien juste pour la possibilité de choisir le Bureau plutôt que Metro au démarrage, cela vaut la peine! Windows Defender de Windows 8.1 inclut un anti-virus, ce qui évite d’avoir à en installer un séparément. La recherche a aussi été simplifiée. Plutôt qu’avoir des catégories (applications, fichiers, paramètres), elle liste tous les éléments trouvés.

Conclusion

Est-ce que tout cela aura valu la peine? Plus ou moins. Mais sur un écran tactile, comme celui de mon ultrabook, Windows 8 est intéressant, permettant une utilisation semblable à celle d’Android avec la possibilité de basculer vers le Bureau à tout moment pour une tâche sans aucun support du côté de Metro. Le passage à Windows 8 m’aura permis, pendant plusieurs mois, d’utiliser un superbe ultrabook chez Nuance qui était mille fois mieux que mon ancien laptop de 2009. J’ai eu le nouveau laptop seulement en novembre, alors ça m’a bien aidé cet ultrabook avec Windows 8! Enfin, toutes les machines vendues depuis 2013 viennent avec Windows 8 alors autant s’y faire plutôt que se taper la réinstallation de Windows 7.

Hellora la guérisseuse

Tout récemment, je me suis acheté un superbe ultrabook IdeaPad Yoga 13 de marque Lenovo.Pour des raisons que nous allons voir plus loin, j’ai baptisé cette machine Hellora, un personnage imaginaire de ma conception. Je prévois écrire un article qui traitera davantage des aspects et problèmes techniques de la machine. Ici je vais me concentrer sur les raisons de mon achat, ce que je vais pouvoir en faire et l’origine du nom que j’ai donné à l’ordinateur.

Pourquoi Hellora?

Chaque machine que je possède se voit attribuée d’un nom de ma création. Je m’interdis formellement de modifier ce nom par la suite. C’est une coutume que j’ai depuis des années. Le nom est parfois arbitraire mais résulte souvent d’une combinaison de raisonnements qu’il m’est difficile, parfois impossible, à communiquer entièrement.

Hellora est un personnage fictif dans mes mondes imaginaires. Aussi appelée Eiluj par les anciens des cavernes du nord, elle règne sur Mirebo en déesse souveraine. Mirebo est un monde stérile dominé par des lacs de lave, à proximité interdimensionnelle de Taowa, mon univers Minecraft. Les peuples du nord vénèrent Hellora à un tel point qu’ils ont risqué leur vie pour enchâsser un temple à son effigie dans un lac de lave! À noter que mon personnage dans Minecraft n’a pas encore trouvé le temple, seulement l’accès à Mirebo par un livre de liaison.

Certains disent que la déesse possède un pouvoir de séduction tel que toute personne qui tombe sous son charme acquiert des pouvoirs surnaturels: régénération, transformation temporaire en être d’énergie, télépathie, etc. On dit que c’est grâce à ces pouvoirs que les bâtisseurs du temple ont acquis la résistance au feu nécessaire pour la construction. Malheureusement, les pouvoirs vont et viennent au gré des caprices et humeurs d’Hellora, qui décide parfois de laisser en plan ses pauvres fidèles, se retirant dans un lieu connu d’elle seule. Plusieurs sont morts dans la lave, ayant brusquement perdu leur résistance au feu!

Le tactile de la tablette ou la versatilité d’un PC? Faut-il VRAIMENT choisir, ça fait trop mal!

J’ai à maintes reprises eu des difficultés avec ma tablette Android TF101 d’Asus, car je tentais de m’en servir pour écrire à l’aide d’un clavier externe Bluetooth. Les logiciels installés ne satisfaisaient pas tout à fait la demande et souvent, il me fallait traiter les documents tapés sur la tablette pour les utiliser sur l’ordinateur. Par exemple, je ne pouvais pas taper certaines touches avec le clavier, en particulier \, à moins de sacrifier les accents!

J’avais aussi de plus en plus de problèmes de performance: des applications nécessitant plusieurs secondes pour démarrer et plantant sans raison valable, un ralentissement marqué pendant l’installation de mises à jour et la navigation sur Internet qui fonctionnait parfois, parfois pas. La lecture de vidéos YouTube fonctionnait parfois tandis que d’autres, elle stoppait pendant plusieurs secondes, repartait une seconde ou deux, puis bloquait encore. Sur PC, tout était OK!

Une autre fois, je voulais télécharger des vidéos depuis YouTube et les écouter en chemin vers la Mauricie. Cela me fut impossible sans utiliser un ordinateur PC pour ensuite copier du stock sur la tablette. J’ai passé tellement de temps à chercher une solution que je n’ai pas pu télécharger toutes les vidéos!

Plusieurs opérations sur Android exigent une application qui n’est pas gratuite. Par exemple, pour faire du traitement de texte, il faut débourser au moins 30$ tandis que sur PC, on a LibreOffice. Juste trouver un éditeur de texte gratuit a été difficile. Je voulais aussi disposer de logiciels de synthétiseurs, mais tout ce que j’obtins, ce furent de pâles copies des produits sur PC ou des logiciels contrôlant très partiellement des applications PC qu’il fallait en plus payer.

Plus je me heurtais à des difficultés du genre, plus j’avais l’impression qu’il me fallait un laptop et non une tablette. Mais le laptop possède une grosse limitation: le maudit pavé tactile. L’écran est souvent trop petit pour que je puisse utiliser une souris efficacement et c’est pire encore avec le pavé qu’une vraie souris!

Mais il existait une solution: laptop avec écran tactile. Je suis allé avec un ultrabook tant qu’à faire, car la machine serait plus légère.

Pourquoi le Yoga 13 de Lenovo?

Ma première idée était d’y aller avec un XPS12 de Dell. L’écran de cet appareil peut se retourner de façon à le transformer en tablette. Étant employé de Nuance, je pensais disposer de rabais sur les systèmes Dell. Malheureusement, quand j’ai cherché les coordonnées pour accéder au programme, je n’ai rien trouvé à part des informations pour les employés aux États-Unis. Mais je suis tombé sur une analyse d’un employé qui n’aimait pas du tout les Dell fournis par la compagnie: système audio mauvais, le clavier qui ne fonctionne pas très bien, le pavé tactile qui n’est pas génial, etc. Je ne peux citer cette analyse, car elle réside sur le site interne de la compagnie.

Son coup de coeur, le ThinkPad X1 Carbon de Lenovo, m’a séduit aussi. Il était super beau, ce laptop, tout en fibre de carbone, avec un clavier à l’apparence robuste et agréable à utiliser. J’eus tôt fait de trouver un modèle équipé d’un écran tactile, ce qui me ravit au plus haut point.

Mais le X1 est plutôt coûteux et la plupart des modèles viennent avec 4Go de mémoire plutôt que 8Go. Je souhaitais installer Live 9.1 d’Ableton sur la machine, si bien que 8Go, ce serait mieux. Mettre à niveau la mémoire est certes possible, mais cela demande de démonter la machine, ce qui n’est pas super plaisant quand on vient de l’acheter et on ne sait pas trop comment s’y prendre sans la casser!

Au fil de mes recherches, j’ai découvert l’IdeaPad Yoga 13 de la même compagnie, qui semblait plus adapté à mes besoins. La machine, transformable en tablette, me permettrait de lire et regarder des vidéos YouTube mais aussi d’écrire, naviguer sur Internet et (tenter de) faire de la musique.

C’est en fin de compte pour le Yoga 13 que j’ai opté. Trouver un modèle avec 8Go de mémoire a demandé un peu de recherche, mais je l’ai eu et en suis bien content.

Que vais-je faire avec cette machine?

Ce laptop ne va pas remplacer mon ordinateur de table, le Drake, mais plutôt le complémenter. Je prévois m’en servir pour écrire dehors cet été. Ce sera une machine très utile quand j’irai chez mes parents ou en Mauricie, pour écrire, lire un peu ou même jouer à Minecraft quand il y a du wi-fi bien entendu. À condition de la brancher à des écouteurs ou à un système de sons, je pourrai même faire un peu de musique avec ça!

La machine peut aussi accomplir pas mal tout ce que ma tablette Android fait, en mieux. Je peux y installer des jeux qui mettent l’écran tactile à profit. Je peux écouter des vidéos sur YouTube ou des films copiés sur l’ordinateur. Je pourrai m’en servir pour écouter de la musique pendant un long voyage.

Cette année, j’aurai la chance d’assister à la conférence NRC organisée par Nuance. Le laptop de la compagnie, trop gros et trop lourd, je prévois le laisser au Canada et emporter plutôt ma jolie petite bête de Lenovo!

La machine peut également servir à me dépanner pour des cas où A.R.D.-NAS, mon HTPC, ne fait pas le travail. Plutôt qu’installer Windows sur mon HTPC, qui exécute Ubuntu depuis le début, je pourrai tout simplement brancher l’ultrabook dans un port HDMI de ma TV et la sortie audio dans le système de sons pour faire jouer un fichier lisible seulement sous Windows, utiliser un site comme tout.tv ne fonctionnant pas bien sous Ubuntu, etc. Si jamais le transfert de disques blu-ray devenait un calvaire à rendre fou lors de chaque tentative, je pourrais migrer mon lecteur blu-ray dans un boîtier externe et le brancher à mon ultrabook, pour pouvoir lire le contenu avec un logiciel sous Windows.

Donc Hellora va protéger mon HTPC d’un formatage complet destiné à une migration vers Windows.  Ce formatage mettrait à risque mes données, dont la taille a trop augmenté pour permettre une sauvegarde complète (il faudra télécharger le contenu manquant de nouveau et transférer ce que je peux depuis les DVD et blu-ray!). Bon éventuellement, il me faudrait me doter d’un système capable d’accueillir beaucoup de disques durs et dédoubler le stockage (RAID) pour une sécurité accrue, mais ça peut se faire plus tard.

Hellora a eu un effet positif important: me guérir de la Macintite. Cet ultrabook possède quelque chose qu’aucun MacBook ne détient: l’écran tactile. Apple n’a pas visé juste: si elle avait mis sur le marché un MacBook Touch, j’aurais été séduit et aurais peut-être acheté ça malgré toute la misère noire.

Nouvel échec avec le Bureau à distance

Ce matin, avant de commencer ma journée de travail chez moi, j’ai voulu donner une nouvelle chance au bureau à distance. Si cela fonctionne, ai-je pensé, je pourrais enfin cesser de transporter mon laptop du bureau à chez moi et vice versa. Le laptop pourrait rester au bureau et je pourrais y accéder en passant par le VPN et en utilisant le bureau à distance.

Pour effectuer mon test, j’ai branché le laptop comme d’habitude: écran, réseau (très important!), alimentation électrique. Puis j’ai allumé mon ordinateur de table personnel, sous Ubuntu. De là, j’ai démarré l’application de bureau à distance offerte puis l’ai configurée pour se connecter à mon laptop. Par chance, la connexion par nom d’hôte fonctionna: MT-EBUIST2 permit d’atteindre la machine, sans avoir à transcrire une adresse IP comme j’ai eu à le faire ô combien de fois auparavant. Malheureusement, il y a eu un gros problème: ALT-TAB ne basculait pas entre les fenêtres de l’environnement Windows, se contentant de sortir de la fenêtre du bureau à distance. CTRL-ALT-flèches faisait de même, basculant de bureau sous Ubuntu. La touche Windows, plutôt qu’activer le menu Démarrer de Windows, faisait surgir le tableau de bord de Unity. C’est avec une profonde exaspération et un sentiment de déjà vu des plus choquants que je constatai qu’ENCORE, il fallait TOUT faire à la souris. On dirait que parce qu’Apple prône ce mode d’utilisation, toutes les autres plateformes vont suivre. C’est choquant et c’est une menace pour moi, parce que la maudite souris, ce n’est pas efficace du tout! Peut-être que ce sera l’écran tactile qui renversera la tendance, à voir.

J’ai tenté ma chance sous Windows. Avec le client bureau à distance de Windows 8.1, j’ai eu plus de succès. ALT-TAB et la touche Windows fonctionnaient correctement. MAIS les touches CTRL-ALT-flèches ne faisaient RIEN: aucun moyen de basculer entre les bureaux virtuels créés par VirtuaWin, à moins peut-être de changer les touches de VirtuaWin et avoir des touches différentes sur mon laptop de Nuance, sur ma machine personnelle et sous Linux; ça n’en finit plus! Non désireux de faire ainsi, je suis revenu au setup habituel, branchant écran et clavier sur le laptop.

Comme pour me punir d’avoir tenté cette expérience, la machine refusa de communiquer avec l’écran. Il me fallut débrancher et rebrancher plusieurs fois l’adaptateur mini-HDMI dans le laptop et le câble HDMI dans l’adaptateur. L’adaptateur mini HDMI est une trouvaille faite sur DealExtreme, alors ça se pouvait bien qu’il soit en cause. Mais ça a fini par fonctionner et la connexion est demeurée stable au courant de la journée. Bon, au pire j’aurais été choqué un peu et aurais branché ça en VGA, comme avec le vieux laptop! C’était loin d’être aussi problématique que le jour où le disque dur du laptop a pété pendant que j’étais chez moi.

Aero: une plaie pour certains déficients visuels sous Windows 7

L’une des choses qui m’a le plus choqué quand j’ai essayé Windows Vista voilà quelques années a sans doute été le faible contraste entre les éléments sélectionnés dans un menu et ceux non sélectionnés. Cela rendait pratiquement impossible la navigation dans les menus avec le clavier. À tout moment, je perdais de vue quel élément était en surbrillance et devais soit recommencer la navigation depuis le début, soit utiliser le souris pour cliquer sur l’élément à activer. Combiné à d’autres problèmes, cela a fini par me forcer à supprimer Windows Vista.

Eh bien, ce problème est revenu me hanter lorsque je suis passé à Windows 7. J’y ai perdu un nombre incalculable d’heures de frustrantes recherches sur Google sans trouver de réelle solution. La cause de ce problème est le nouveau gestionnaire de fenêtres Aero qui utilise un moteur de thèmes totalement différent de celui de Windows XP et, malheureusement, très difficile à personnaliser! Les couleurs, les caractères, les éléments graphiques, sont tous fixes et les modifier demande énormément d’efforts et d’ingénierie inverse.  Eh oui, il n’y a aucune documentation officielle au sujet du format de thèmes. Pire encore, les thèmes sont signés de telle sorte qu’en principe, seul Microsoft peut en fournir de nouveaux!

Par chance, les choses se sont enfin améliorées sous Windows 8. Il est tentant de s’arrêter là et se dire qu’il suffit de mettre à jour vers Windows 8. C’est facile à dire pour une machine personnelle sur laquelle on a un contrôle total, mais il en va tout autrement dans une entreprise où tous les ordinateurs exécutent la même version de Windows!

Alors voici les solutions que j’ai trouvées à cet épineux problème. Vous verrez, il n’y en a aucune de parfaite!

  1. Désactiver Aero en changeant l’affichage pour un des thèmes classiques. C’est bien entendu la solution la plus simple, mais c’est aussi la plus désagréable. Sans Aero, on n’a plus l’aperçu des fenêtres et la touche ALT-TAB se contente d’afficher de minuscules icônes plutôt que les aperçus des applications. Pire encore, on fait un saut de dix ans en arrière avec une apparence générale qui date non pas de Windows XP mais bien de Windows 2000! C’est choquant en soit et ce l’est mille fois plus quand on sait qu’on en est restreint à ça parce qu’on ne voit pas comme tous les autres.
  2. Installer un logiciel qui va dessiner par-dessus les bordures et menus de Windows pour leur donner un nouveau look. Le plus connu d’entre eux est sans nul doute WindowsBlind.  Ce logiciel permet certes de personnaliser un grand nombre d’aspects de l’affichage des fenêtres, menus, icônes, etc. Les coûts en performance qu’il impose sont sans doute minimes sur les machines modernes. En contrepartie, il n’est pas gratuit. Je pourrais certes me le procurer pour usage personnel, mais cela ne réglerait que le cas de ma machine chez moi qui, de toute façon, ne souffre plus de ce mal depuis que je l’ai mise à jour vers Windows 8. Une requête d’achat de WindowsBlind serait difficile à justifier auprès de mes employeurs quand il existe une solution simpliste consistant à désactiver Aero!
  3. La solution de la machine virtuelle, bien que radicale, est toujours une option. Je pourrais installer, sous VirtualBox, une distribution quelconque de Linux. Une copie d’Ubuntu dans un environnement VirtualBox m’affranchirait d’autres problèmes irritants comme les fichiers verrouillés par des applications récalcitrantes, mais elle imposerait un surcroît de travail pour la configuration et la maintenance d’un second environnement.
  4. Le thème Accessible Aero résoud presque parfaitement le problème! Malheureusement, l’appliquer est un véritable rituel de magie noire qui réussit parfois, parfois pas! En effet, depuis le Service Pack 1 de Windows 7, chaque application du thème a posé de nouveaux problèmes. Pire encore, si je passe vers le thème régulier, il arrive que je ne peux plus revenir vers le thème modifié!

Dans cet article, je vais décrire ce que je sais de ce thème, comment je l’ai appliqué et quoi faire quand cela échoue.

UXPatcher

D’abord, le thème ne fonctionne pas par défaut, car il ne répond pas aux spécifications de Microsoft. Pour le rendre compatible, il faut patcher certaines bibliothèques DLL du système d’exploitation pour le laisser passer. Cela demande d’obtenir les privilèges d’administrateur et, comme toute patch qui se respecte, ce n’est en principe pas sans risque pour l’intégrité du système.

Bon alors supposons que vous êtes administrateur. Alors installez UXTheme MultiPatcher. Celui fourni avec Accessible Aero s’est mis à moins bien fonctionner depuis le Service Pack 1. J’ai eu plus de chance avec un autre. Gardez une copie de l’exécutable; il va parfois falloir le réinstaller! Chaque installation et désinstallation demande un redémarrage du système, alors il va vous falloir vous armer de patience si vous ne possédez pas un SSD.

La patch installée, on peut passer à l’étape suivante.

Installation de Accessible Aero

Cette étape est très simple. Il suffit de télécharger Accessible Aero et de suivre les instructions données. Cela consiste simplement à copier deux fichiers à des emplacements précis.  Encore une fois, les droits d’administrateur sont nécessaires pour écrire dans ces répertoires.

La copie effectuée, il suffit en théorie de modifier le thème courant. Si tout va bien, Accessible Aero va apparaître dans la liste des thèmes et l’activer va donner un meilleur contraste entre les éléments de l’interface. Sinon, eh bien passez à la section suivante.

Que faire en cas de problèmes

Eh bien, il y en a eu des problèmes, et j’estime qu’il y en aura encore! Voici la liste de ceux que je connais.

  1. Si le thème Accessible Aero n’apparaît pas dans la liste des thèmes offerts, il faut vérifier encore et s’il est bien absent, eh bien il se peut que les fichiers aient été copiés au mauvais endroit. Jusqu’à présent, les choses ne sont pas allées plus loin dans cette direction. J’ai toujours réussi à voir le thème dans la liste.
  2. Si l’activation du thème semble désactiver Aero, passant au mode classique, c’est qu’il y a un problème avec UXTheme Patcher. Il semble que certaines mises à jour de Windows inhibent la patch. Il faut alors désinstaller et réinstaller UXTheme Patcher, puis prier pour que ça fonctionne à nouveau!
  3. Parfois, l’activation du thème fait en sorte que tous les caractères dans le menu Démarrer et l’Explorateur deviennent minuscules. Cela semble un bogue dans le thème en relation avec la mise à l’échelle. J’ai réussi à le contourner en désactivant la mise à l’échelle (Clique droit sur le Bureau, Personnalisation, Affichage, Standard à 100%). J’ai ensuite passé au thème Aero officiel, tenté en vain de réactiver Accessible Aero, été obligé de réinstaller UXTheme Patcher, activé Accessible Aero avec succès puis remis la mise à l’échelle à 150%. Croyez-moi, ça ne rend pas de bonne humeur faire ça au début d’une journée de travail! Mais au moins ça a fonctionné, alors ça a partiellement compensé pour la peine.
  4. Parfois, il peut arriver qu’on ait envie ou besoin de repasser au thème Aero usuel, pour faire des captures d’écran que l’on veut fidèles au look original de Windows ou pour impressionner un ami en lui montrant la différence entre les deux thèmes. Évitez cela, ça n’en vaut vraiment pas le coup, car il arrive plus souvent qu’autre chose qu’il sera impossible de revenir à Accessible Aero. Lorsque cela se produit, il faut encore réinstaller UXTheme Patcher!

Bon, c’est tout, en espérant que je ne découvrirai pas de nouvelles failles et que surtout ça serve à quelques autres.