Il y a maintenant plusieurs années, un reportage nommé «Prêt à jeter – Obsolescence programmée» a été diffusé sur la chaîne Arte. Si vous ne l’avez pas vu, je ne peux que vous conseiller d’y consacrer une heure, c’est vraiment très intéressant :
Ce reportage présente le concept d’obsolescence programmée, le mécanisme qui consiste à créer des produits qui vont volontairement avoir une durée de vie réduite, dans le but de pousser à la consommation.
Et il est bon de rappeler que cette pratique a été rendue illégale en France en 2015.
Les exemples du reportage
Le premier exemple présenté est celui d’un utilisateur dont l’imprimante s’arrête soudainement de fonctionner. Après quelques recherches, il s’avère qu’elle contient une puce qui compte le nombre de pages imprimées, et qui fait qu’au bout d’un certain nombre d’impressions l’imprimante arrête de fonctionner.
À chaque boutique où il s’adresse, on lui dit que ça lui coûtera moins cher d’acheter une nouvelle imprimante que de faire réparer l’ancienne. Mais il ne veut pas, son imprimante fonctionne très bien.
Il finit par trouver un petit programme qui remet à zéro la puce de comptage. Et l’imprimante se remet alors à fonctionner comme avant.
Le second exemple fourni est plus inquiétant. Pendant 15 ans, plusieurs fabricants d’ampoules électriques de la planète − regroupés en un consortium secret − se sont mis d’accord pour limiter la durée de vie de leurs produits. Alors que les ampoules fabriquées dans les années 30 duraient plusieurs milliers d’heures (le reportage commence même avec l’exemple d’une ampoule qui éclaire une caserne de pompiers depuis un siècle sans discontinuer), toutes les ampoules produites ont alors eu la même durée de vie : 1000 heures.
Le but évident était de pousser à la consommation. Si les ampoules durent moins longtemps, on en vend plus.
Plusieurs autres exemples sont donnés. Il y en a un avec lequel j’ai du mal à être complètement en phase, l’obsolescence par le design. En l’occurrence, l’exemple pris est celui des constructeurs automobiles américains qui se sont mis à modifier tous les ans les carrosseries de leurs véhicules, pour générer un effet de mode et pousser là encore à la consommation.
Je ne suis pas vraiment d’accord, car les voitures produites ne cessaient pas de fonctionner. Chaque nouveau restylage d’une voiture n’est pas plus une obsolescence du produit que la concurrence normale des véhicules proposés par les autres constructeurs. Et d’ailleurs, cela n’empêche pas le marché des voitures d’occasion d’être aujourd’hui bien plus dynamique que celui des voitures neuves (en 2016, les ventes de voitures d’occasion ont été deux fois et demie supérieures à celles des véhicules neufs, cf. article) − même si les modèles évoluent à une vitesse bien plus rapide qu’il y a quelques dizaines d’années encore.
L’obsolescence informatique
En informatique, on associe habituellement l’obsolescence avec le matériel. Non seulement à l’image des imprimantes, comme dans le premier exemple cité ; mais aussi à cause de composants qui perdent de leur efficacité au fil du temps (batteries qui ne tiennent plus la charge après quelques mois, mémoires flash qui ne peuvent plus être effacées avec un certain nombre d’inscriptions, condensateurs ou transistors de mauvaise qualité qui grillent plus vite que la normale, etc.). Sans oublier que les évolutions des normes techniques font qu’il devient impossible d’utiliser certains matériels au bout d’un certain temps : même si vous êtes toujours satisfait des fonctionnalités de votre IBM PC de 1981, vous allez avoir du mal à trouver des disquettes…
Pourtant, c’est par le logiciel que l’obsolescence est la plus rapide. Mais là encore, il faut dégager plusieurs choses.
L’obsolescence provoquée par de nouvelles versions de logiciels, qui apportent de nouvelles fonctionnalités, est pour moi plus ou moins équivalente à celle des voitures restylées. Rien n’oblige qui que ce soit à changer d’ordinateur si les fonctionnalités qu’il propose restent suffisantes ; sauf que si cette logique fonctionne très bien en autarcie, elle devient caduque lorsqu’elle est confrontée à la vraie vie − une station NeXT ou Sun de 1988 pourra être connectée à Internet (l’ethernet en RJ45 n’est toujours pas obsolète), et vous pourrez envoyer des emails textuels, mais vous allez avoir du mal à lire les emails HTML envoyés par vos correspondants… Mais on ne peut pas en vouloir aux éditeurs de logiciels pour nous sortir de nouvelles fonctionnalités au fil du temps ; pour reprendre l’exemple précédent, la plupart des gens sont contents d’avoir des fonctions de mise-en-page pour envoyer des emails.
Il y a l’obsolescence provoquée par des développements réalisés en dépit du bon sens. Le pire, c’est lorsque cela devient une norme. Vous vous souvenez du bug de l’an 2000 ? On peut se dire que dans les années 70, l’économie de 2 octets sur chaque date était quelque chose d’important, mais le problème avait été identifié depuis les années 50… Je me souviens avoir lu que certaines normes de développement américaines (aussi bien dans de grosses entreprises qu’au sein de l’administration) imposaient l’utilisation de seulement 2 caractères jusqu’au début des années 90. Et les logiciels développés ainsi se sont retrouvés complètement inutilisables, soit parce qu’ils utilisaient d’une manière ou d’une autre la date courante, soit simplement parce qu’ils devaient pouvoir enregistrer des dates sur des siècles différents (vous imaginez un logiciel de généalogie codant ses années sur 2 chiffres ?).
Il y a aussi l’obsolescence du matériel, causée par le logiciel. L’exemple le plus flagrant est la mise à jour des systèmes qui le nécessitent ; mais de nos jours, tous les systèmes informatiques doivent être mis à jour − qu’il s’agisse d’ordinateurs, de téléphones portables, de consoles de jeux ou même de caméras vidéo, principalement pour des raisons de sécurité. À partir du moment où un système est connecté à un réseau (souvenez-vous, l’un des buts de l’IPv6 était de pouvoir connecter tous les devices de la planète à Internet), il est vulnérable aux attaques ; et par définition, on ne connaît pas la nature des futures méthodes de piratage. Le problème, c’est que les mises-à-jour en question nécessitent souvent plus de mémoire et/ou de puissance de calcul, raison pour laquelle les appareils un peu anciens (sujet dont la définition est très mouvante) ne sont pas supportés. Et on peut ajouter que certains matériels et périphériques ne sont plus supportés simplement parce que les mainteneurs ne peuvent plus se les procurer (ou qu’ils ne peuvent pas tout supporter par manque de temps).
Car si de nos jours on peut faire tourner Linux sur un ordinateur gros comme une prise ethernet (comme le Lantronix XPort Pro Lx6 par exemple), dont les caractéristiques techniques sont celles d’un PC haut-de-gamme de 1990, vous n’avez aucune chance de réussir à faire tourner un système d’exploitation récent sur un matériel de cette époque-là.
Les téléphones portables sont évidemment un élément particulièrement sensible. Non seulement ils sont vendus en masse depuis longtemps (plus de 10 ans si on considère que les smartphones ont explosé avec l’iPhone, plus de 20 ans si on part des Nokia Communicator), mais ce sont des appareils majoritairement connectés. Pourtant, ce sont des appareils dont les mises-à-jour sont notoirement courtes dans le temps (3 à 5 ans sous iOS, beaucoup moins sous Android, inexistantes sur d’autres systèmes), qui peuvent rapidement les rendre vulnérables à des failles de sécurité graves. Et même sans aller jusque-là, essayer de surfer sur Wikipedia avec un smartphone vieux de seulement 5 ou 6 ans peut se révéler frustrant lorsqu’on utilise un navigateur qui n’a jamais été mis à jour (ce qui est vraiment dommage, car cette seule capacité pourrait être un formidable outil de partage de connaissance − après tout, des appareils ont bien été inventés pour ce seul usage).
Et pour nous, ça veut dire quoi ?
Tout ça c’est bien beau, mais en quoi ça nous concerne ? Eh bien suivant votre métier et le produit sur lequel vous travaillez, cela peut conduire à plusieurs pistes de réflexion.
Pour commencer, il faut utiliser son intelligence − ou à défaut se renseigner et faire appel à celle des autres − pour éviter des problèmes comme celui du bug de l’an 2000. L’important est d’essayer d’identifier les points sur lesquels il sera extrêmement coûteux de faire des modifications sur un logiciel.
Utiliser des entiers 32 bits comme index en base de données, en se disant qu’on pourra passer sur 64 bits le jour où on en aura besoin, pourquoi pas. Mettre sur le marché des appareils bogués sans possibilité de mise-à-jour, c’est idiot.
Il est très délicat de trouver l’équilibre entre innovation et support de l’ancien. Et continuer à adresser du matériel ancien implique des coûts (matériels, humains ou simplement en délais avant mise sur le marché) qu’il faut mettre en face du potentiel business que cela peut représenter.
Un site web responsive (pour que son contenu soit visible sur mobile avec une bonne ergonomie), c’est bien. Avec une version AMP (pour être chargé très rapidement sur les mobiles récents) c’est mieux. Avec une version dégradée pour les vieux navigateurs mobiles (et aussi sur desktop, tant qu’à faire), c’est encore mieux. Pensez-y !
(À ce sujet, je vous invite à relire l’article que j’avais écrit sur le Minitel, notamment lorsque je parlais des services Internet qui étaient aussi accessibles via ces terminaux simplistes)
On peut légitimement se dire qu’il vaut mieux se concentrer sur les plates-formes les plus récentes, ou tout au moins celles qui semblent les plus représentées. Mais il y a parfois des opportunités cachées là où on ne le pense pas, comme dans l’exemple des app stores dédiés aux “feature phones” et qui pourraient être de vraies «mines d’or».
De l’autre côté, on peut aussi voir les choses dans l’autre sens, et faire attention à ne pas employer des technologies qui présentent un risque d’obsolescence rapide. Heureusement, nous avons désormais des normes matérielles et logicielles qui rendent ce risque bien moins important que par le passé (merci les connecteurs d’extension qui changeaient à chaque génération de Macintosh dans les années 80/90), mais il reste toujours des gens pour inventer et/ou utiliser des formats de fichiers exotiques. Enfin, quand une entreprise arrête le développement d’un logiciel (ou qu’elle ferme elle-même ses portes), elle peut en libérer le code − ou au minimum en faire un abandonware légal.
Bonjour,
Obsolescence ou fossilisation, telle est la question.
Il est vrai que notre société mercantile a tendance à nous forcer la main.
Tandis que nos traditions l’ont également.
Pour le sujet que je connais, l’informatique, le problème n’a jamais été celui du logiciel propriétaire ou libre, mais celui du format à traiter; enfin Thierry Stœhr m’en a convaincu.
Microsoft est, étonnamment, le plus respectueux de la norme SQL (bon, celle-ci s’obtient contre monnaie sonnante et trébuchante) que les précurseurs IBM avec DB2 ou Oracle; Postgres, par contre, s’en approche de plus en plus.
Adobe ont ouvert très tôt les formats PDF, PostScript, SVG et d’autres encore; même si sur le premier ils gardent un certain diktat, il est possible de les exploiter.
Je pourrais encore gloser longtemps, sur les Unix propriétaires débordé par Windows, sur Smalltalk, un langage formidable mais segmenté par des sociétés concurrentes, qui s’est fait ratatiné par Java, rendu très vite public grâce à Sun; la liste est longue.
En tout cas, merci de recommencer à partager vos avis et opinions.