Archive | W3C RSS feed for this section

Work won’t love you back

10 Mar

Abstract of what is on my mind: work is transactional by nature, excellent connections with coworkers are precious (I am fortunate to have many). Now, the companies that consider their work force “family” puzzle me. This is not exactly the case where I work (or is it?), BUT we are in a setting that is pretty conducive to it, AND after 27 years, this is going to change –in less than a year. SO I really wonder what that change will do to the current equilibrium (I’m pretty sure it’s going to put it to the test).


This stemmed from my browsing The Twitters yesterday. I read Kevin‘s tweet (screenshot and link underneath). He wrote “work won’t love you back.” And as much as I’ve loved the people I’ve worked with, it’s always turned to be correct.

He was quoting another Twitter thread (screenshot and link underneath) where I read “it’s so emotionally damaging when companies self-style their workers as “family”. you can have deep emotional connections with your coworkers, if you’re lucky, but don’t forget that work relationships are fundamentally transactional. i hope your family is not.

Tweet by Kevin pointing out that work won’t love you back
The tweets that Kevin quoted, referring to work as family but also as being a transaction

I don’t consider my workplace to be like family and we aren’t self-styled as such either. But, work is very central in my life: every other week I spend most of my waking time at work (the other week, I am solo parent of a teenager).

Firstly, I am fortunate to have very deep emotional connections with many of my coworkers, a few of which I even regard as father figures, many of which are true models for me, most of which I respect tremendously. Secondly, we have very little turnover. I’ve worked there for over 22 years and many current colleagues were already in the team when I joined. And we welcome newcomers, not as siblings, but with similar care and attention to their success. As though we have a stake in it –and we do, yes. Thirdly, we get together (we used to, pre-COVID at least) every now and then and those occasions are always enjoyable and looked forward to by most. Yes, like any other workplaces, there are difficult people who get along with fewer people or are not interested in making any connections at all. That’s my description of our unusual work environment. In fact, I remember how I described it to my mum a few years into it: like summer camp where you make new great friends and do exciting stuff, but all year-round.

Now, our administrative setup allows us to do our work without a whole lot of competition, without too many frustrations, because we are employed by four different institutions that legally “host” our consortium, and in most of our cases, the people who employ us are not those we take work orders from. I think that makes a world of a difference.


Change is coming. The Hosts arrangement, in place from the start in 1994, has enough drawbacks that for a few years now we have been exploring how to become our own legal entity. This is set to happen on January 1, 2022. When it does, the consortium will have its own bank account, legal and fiduciary obligations, and traditional management powers that we currently do not fully have.

The dynamics are bound to change. While today I (and many others in the team) are moved by the sheer impact our work has on society (HTML –heard of it? CSS, Web accessibility, Internationalization, etc. We are the little known consortium that makes the Web work, for everyone) and the Hosts that employ us provide the best abstraction to shield us from the reality of the transactional nature of work, this is going to hit us in the face like the train crashing Dr. Woodward’s truck in the movie Super 8!

There is a lot on our plates and most of us overwork because it’s really worth it! I remind myself on occasion that work won’t love me back but once we are truly as valuable as our ability to make the company money, I wonder how the care will fare.

Pranking

29 Jan

This week was a good week. I engineered a prank at work that brought much fun and entertainment, and made that week even better. A prank in 3 acts.

Act 1

We use Zoom for our meetings and when I noticed, just as I was leaving at the end of a meeting, that a colleague of mine wasn’t at his desk, I thought I just had missed an opportunity to take a screenshot of his room without him, and later use it as my own background image and see his face as he realized!

So I went back, found his room still empty and quickly took a screenshot. I was in the process of making my window bigger to take a better screenshot when he showed up. Uh oh! “Oh, you were waiting for me to return?,” he asked. I couldn’t quickly enough come up with a good excuse for the probably guilty look on my face, so I just fessed up. Good laugh was had. And see you next time, wink wink!

The next thing I did was to quickly edit out his name from the bottom left part of the screenshot. I saved the photo somewhere I could open it on my iPhone and used the “healing” tool of Snapseed (my favourite —and free— image edition software on smartphone), which basically redraws an area of your choice using its surrounding. Then I adjusted a bit the sharpness and reduced the noise to get the best out of that pretty small screenshot.

Then I tested it as my own Zoom virtual background 👌and gave him a preview.

A glimpse of the result

Act 2

I wrote to everyone-but-him in the team who usually attends our weekly all-hands meeting (which was the next day) and shared my “work” and the context, offering them to join me in escalating the prank, since I had been made.

And it turned out so so much better this way.

Response was high. But then, who isn’t in for a bit of harmless fun? Especially when it’s so easy to set up.

Someone had suggested some particular timing: our colleague usually gets to speak early in the meeting and that was going to be our cue to all switch to our virtual background of his soon-worldwide-office.

Act 3

The meeting started as usual and people, who were a bit more numerous than habitual, kept a very straight face. Our colleague was called to speak and most of the tiles in the gallery instantly changed!

Escalated prank

Everyone yielded to the smiles that had been suppressed and for a few moments none of us heard him. We were too focused on awaiting his reaction. And yet, he continued to talk, unaware, for a few seconds until wrapping up. At the exact moment he briefly paused, hesitated, apparently lost track of his thought and then finished his word, we knew he was finally looking at his screen and he was confused.

Mischief managed!

He was not expecting that, to our delight! Hearing his heartfelt laugh was such a reward. Another bonus was seeing a number of colleagues who usually don’t start their video in meetings. I enjoyed immensely seeing a whole room of smiling people.

My other website behind the curtain

1 Jun

I’ve been editing the W3C website for a few decades now (gasp!) and in leading its redesign from the 2008 design, I am learning an astounding amount of new things about it! Here are some of the things I know about it.

Spotlight on the W3C website

In the 21 years I’ve been with the W3C, I remember only 3 different designs, the current one dates from a decade ago. Redesigning our website is crucial to improve the overall experience of those who depends on our Web standards work.

The website is managed by W3C itself and has been up for three decades. It currently contains over 2 million web pages. They’re static HTML or built in Perl, PHP, come from WordPress or are custom built using Symfony.

Tech stack summary

  • Debian Linux
  • Apache is used for serving the static content
  • MySQL for database storage
  • Varnish HTTP Cache is used for full-page caching
  • HAProxy is used for load balancing
  • There are over 3,700 Apache .htaccess files with different rewrite rules

Hosting & content

In a large-scale hosting setup, there are around 100 servers running Linux Debian on OpenStack, of which 20 to 30 servers are related to the primary website.

Web content is stored mostly in CVS and databases via CMS tools (WordPress, Symfony), and secondarily in GitLab and GitHub.

Most content is managed as static HTML edited locally (e.g. emacs, vi, BlueGriffon) and committed into CVS repositories using CVS clients, the terminal or HTTP PUT or WebDAV. Or, content is generated dynamically using Symfony or statically via makefiles, XML and XSLT.

25 instances of WordPress power the W3C Blog (over 950 posts) and W3C News (over 4,200 items), but also our Talks, working groups blogs, a test site, and W3C Community and Business Groups.

The W3C Homepage

The current homepage of the W3C website is a mix of HTML snippets which usually appears elsewhere on the W3C site, generated via XML, XSLT, PHP and other tools:

  • The News items are read from WordPress
    • The “homepage news” category determines what to show on the W3C homepage; we typically show up to 9 entries
    • The “top story” category determines which news item is expanded on the W3C homepage; we prefer to feature one, but have at times shown two or more
  • The right-hand side shows the last three posts from the W3C Blog
  • W3C Member Testimonials rotate from a database
  • The Events and Talks are shown from a Symfony app and WordPress respectively
  • The search bar links to an external DuckDuckGo search (that we chose for its good reputation for data privacy)
  • The rest is static

Markup errors in any of the source files will likely “break” the homepage. On average, I break the homepage 10% of the time!

Version annotée de l’article “Lutte fratricide dans les coulisses du web” par Guillaume Sire sur Ina Global

12 Dec

Je vous propose aujourd’hui une version annotée de l’article de Guillaume Sire pour Ina Global “Lutte fratricide dans les coulisses du web”. C’est mon boulot de communiquer sur ce que fait le W3C et dans le cas de cet article, on nous a refusé d’accéder au texte en avance pour proposer des corrections si nécessaire.

Vous trouverez mes réponses et commentaires sous forme de monologue avec mes initiales en préfixe, dans des éléments blockquote.

J’ai précédemment écrit sur le blog du W3C, de manière officielle, neutre et dépassionnée, quant à toutes les inquiétudes dont on nous a fait part à propos d’EME.


 

Lutte fratricide dans les coulisses du web
Qui connaît le W3C ? Cet organe, qui décide ce qui peut être fait ou non sur le web, comment, et dans quelle mesure, traverse une crise sans précédent.

CM : Ah bon ? on traverse une crise ? J’ai cru que la crise était passée suite à la publication d’EME en tant que recommendation.

La raison ? L’implémentation des DRM au sein des standards du web, bien loin de l’esprit des pionniers d’Internet.
CM : Par où commencer ? …
Le concept d’implémentation de DRM au sein des standards du web est faux.
Quant à invoquer l’esprit des pionniers d’Internet, j’ai juste envie de rappeler que Tim Berners-Lee, inventeur du Web, est le directeur du W3C (entre autres) et qu’il se bat pour le bien de sa création avec ferveur.

Sommaire

Et si, demain, vous ne pouviez plus cliquer sur tel ou tel lien hypertexte sans payer ? Le web ne ressemblerait plus alors à une toile, mais à une juxtaposition de jardins murés… Fiction ? Pas forcément. Cette question est l’une de celles qui se posent
CM : Hmm, et où se pose-t-elle donc ?
après la décision du W3C (World Wide Web Consortium), organe méconnu mais essentiel de la gouvernance du web, d’intégrer des DRM (Digital Right Management, ou système de gestion des droits numériques) dans les standards du web, malgré l’opposition de l’Electronic Frontier Foundation (EFF), l’une des institutions les plus représentatives de l’esprit des pionniers d’Internet. Décryptage d’une controverse, en apparence technique, dont l’issue concernera tous les utilisateurs du web sans exception.

Le W3C, une instance de standardisation peu connue des internautes

Le W3C a été créé en 1994 par le fondateur du web, Tim Berners-Lee, dans le but de standardiser les protocoles permettant de rendre compatibles les infrastructures et logiciels d’Internet, en instituant des modalités de production et de circulation du contenu qui fonctionnerait sur tous les ordinateurs quelle que soit leur configuration. Y furent notamment standardisés les protocoles HTTP pour transférer, URL pour localiser et HTML pour décrire les données. Ces trois protocoles sont à la base du world wide web, c’est-à-dire de l’usage de l’infrastructure Internet consistant à publier et à consulter des documents depuis un logiciel appelé « navigateur » (Firefox, Internet Explorer, Safari, Chrome, Opera).
CM : Vingt sur vingt. Zéro faute.
Pour la suite, je ne vais relever que ce qui est incorrect.
La vocation du W3C est de servir d’arène aux discussions concernant les modifications à apporter à ces protocoles,
CM : Oui.
et, une fois qu’une modification a été actée, de faire son possible pour que les acteurs concernés agissent en conséquence.
CM : Non, pas vraiment. Les acteurs concernés sont à la table de la standardisation parce qu’ils sont concernés. De ce fait, ils agissent en conséquence.
C’est donc un organe essentiel dans la gouvernance du web à l’échelle mondiale, pourtant peu connu des utilisateurs.
N’importe quelle personne morale peut devenir membre du W3C, pour un montant variant selon son statut et sa taille (jusqu’à 59 000 euros par an pour une grosse entreprise en France), et participer ainsi aux négociations en y faisant valoir ses intérêts.
Le processus de standardisation du W3C est décrit dans le « W3C Process document », qui est en quelque sorte, comme l’a écrit Andrew Russel, la « Constitution » du consortium. Toute discussion concernant un protocole commence par la formation d’un groupe auquel participent les représentants des organisations membres du W3C pourvu que celles-ci en aient formulé la demande, des employés du W3C ainsi que certains experts invités étant donné leurs compétences sur le sujet. Chaque groupe édicte sa propre charte, comportant la description du sujet, une durée envisagée (variant entre six mois et deux ans), les objectifs et les règles de la discussion.
CM : C’est un détail, mais “six mois” n’est pas réaliste, aussi, aucun groupe n’est lancé pour une telle durée. Par contre, on étend volontiers des groupes existants pour six mois afin leur permettre de finaliser leur travail.
Chaque modification significative des protocoles existants doit franchir cinq étapes : First Working Draft (FWD), Working Draft (WD), Candidate Recommendation (CR), Proposed Recommendation (PR) et Recommendation (REC). Chacune de ces étapes correspond à un degré de maturité spécifique dans le sens où, petit à petit, la modification doit faire l’objet d’un consensus de plus en plus fort et avoir prouvé son efficacité en subissant des tests techniques de plus en plus exigeants. À chaque étape, si le Comité consultatif — composé d’un représentant pour chacun des membres du W3C (ils étaient 463 en septembre 2017) — juge que les conditions ne sont pas réunies, le texte est renvoyé à l’étape en cours, ou bien à l’étape précédente. Seule la dernière étape, REC, a valeur de norme officiellement reconnue par le W3C. (C’est l’accession par l’EME à cette étape qui a provoqué le départ de l’EFF.)
 Certains auteurs n’hésitent pas à qualifier l’inventeur du web de « dictateur »  
CM : Je note que je n’ai aucune idée de qui sont ces auteurs, de quoi ils sont auteurs, ni même d’où ils qualifient l’inventeur du Web de dictateur.
Le processus du W3C confère un pouvoir considérable au directeur du W3C, qui n’est autre que Tim Berners-Lee, puisque celui-ci peut prendre en dernière instance des décisions qui ne vont pas dans le sens de l’avis exprimé par le Comité consultatif ou bien trancher alors qu’il reste des objections formelles n’ayant pas été résolues. Pour cette raison, certains auteurs comme Jeremy Malcolm n’hésitent pas à qualifier l’inventeur du web de « dictateur ».
CM : Qui est cet auteur qu’on nous présente en expert sans le présenter ? Quels sont ses références et qualifications ?
Il ne fait pas partie de groupes de travail au W3C (*), ni n’est un représentant du Comité consultatif.
(*) Il est cependant participant d’un des W3C Community Groups, groupes ouverts au public permettant entre autres d’incuber des technologies et spécifications pour les porter officiellement à l’attention de tous via un groupe de travail.
Si le Comité consultatif n’est pas d’accord avec la décision prise par le directeur, il existe tout de même une procédure d’appel. Si au moins 5 % des membres du Comité se prononcent en faveur de l’appel, cela déclenche un vote de toutes les organisations membres du W3C visant à accepter ou rejeter la décision du directeur. Avant 2017, cette procédure n’avait jamais été invoquée.

Revenir au sommaire

Les défis du W3C

 Les différentes parties prenantes du W3C n’ont pas toutes les mêmes intérêts et ne défendent pas toutes les mêmes valeurs  Une des difficultés majeures du W3C tient au fait que les différentes parties prenantes n’ont pas toutes les mêmes intérêts et ne défendent pas toutes les mêmes valeurs. Le fossé est en effet considérable entre des producteurs de contenus désirant générer du chiffre d’affaires en faisant payer les internautes, et donc en contrôlant les modalités d’accès à leurs contenus, et les partisans d’une liberté totale de circulation des contenus et d’une neutralité absolue des contenants. Le Comité consultatif du W3C, son directeur Tim Berners-Lee et son P-dg Jeff Jaffe doivent donc arbitrer entre les positions et les réclamations des uns et des autres.
Qui plus est, le web doit faire face à la concurrence des autres usages d’Internet, notamment les applications pour smartphones. Ces dernières (exception faite des applications « navigateur ») utilisent l’infrastructure Internet mais n’ont pas recours aux protocoles du W3C. La navigation hypertexte n’étant pas possible pour passer horizontalement de l’une à l’autre, elles fonctionnent comme des « jardins murés » et permettent aux éditeurs de mieux contrôler les modalités d’accès à leurs contenus. Il n’est pas rare d’entendre dire que le web, trop permissif, a vocation à être remplacé par ce type d’application et qu’il n’aura par conséquent été qu’une page de l’histoire d’Internet. Cette perspective, qui a son importance nous le verrons dans l’histoire de l’EME, a été nourrie par le magazine Wired dont le très écouté rédacteur en chef Chris Anderson n’a pas hésité à déclarer en 2010 : « Le web est mort, longue vie à Internet ! »

Revenir au sommaire

Encrypted Media Extensions : chronologie d’une controverse

En février 2012, Google, Microsoft et Netflix proposèrent d’intégrer au standard HTML, dont la version HTML5 était alors en train d’être discutée, une API (Application Programming Interface) nommée « Encrypted Media Extensions » (EME). Le but de celle-ci était de permettre aux développeurs d’ouvrir un canal de communication entre une page web et les logiciels de DRM. Concrètement, des lecteurs pourraient être intégrés aux pages web pour lire les vidéos sans module d’extension spécifique (contrairement à Flash) et grâce auxquels il serait possible d’obliger l’ordinateur de l’internaute à obtenir une clé depuis un serveur dédié avant chaque lecture du fichier, et ainsi d’autoriser le visionnage de la vidéo aux seuls individus ayant acquis ce droit. Sur un service comme Youtube, il deviendrait possible de protéger les vidéos sans module spécifique (grâce à la commande « Clear Key ») mais aussi de faire interagir différents modules de décryptage comme Widewine (supporté par le navigateur Chrome, de Google) et PlayReady (supporté par Internet Explorer 11, de Microsoft).
Les acteurs attachés à la libre circulation et à la transparence s’opposèrent immédiatement à l’EME, c’est-à-dire qu’ils ne voulaient même pas que la discussion soit ouverte au sein du W3C. L’Electronic Frontier Foundation (EFF) et la Free Software Foundation (FSF) lancèrent une pétition avec pour objectif d’atteindre les 50 000 signataires avant le 3 mai 2013. Une lettre ouverte fut également signée en avril 2013 par 27 organisations et adressée à Tim Berners‑Lee pour « implorer le comité du World Wide Web ainsi que ses organisations participantes de rejeter la proposition EME ». Tout en comparant la spécification à des « menottes numériques », la lettre prévenait le directeur du W3C que le fait de l’intégrer à l’agenda du HTML5 « constituerait une abdication de ses responsabilités face aux objectifs essentiels du W3C et des utilisateurs du web ».
Mais malgré cette lettre et les 27 500 signatures reçues par la pétition, le 9 mai 2013, Tim Berners-Lee accepta de publier l’EME sous forme de FPWD et de l’inscrire sur la charte du HTML5. Ce faisant, il rappela qu’un FPWD n’était pas une REC, et que le fait de discuter de l’EME ne signifiait en rien que le W3C permettrait qu’il accède au statut de norme officielle. Il expliqua dans une lettre datée du 9 octobre 2013 qu’il était lui-même opposé à certaines formes de DRM. Et il réitéra sa volonté de faire en sorte que le web soit « ouvert » et « universel ».
De nombreuses personnes, au premier rang desquelles Cory Doctorow, membre de l’EFF représentant l’organisation au W3C, accusèrent Tim Berners-Lee de faire le jeu des producteurs de contenus, et notamment des producteurs de cinéma d’Hollywood rassemblés au sein de la Motion Picture Association of America (MPAA) qui, aussitôt assurée que l’EME serait bien discuté au sein du W3C, décida de devenir membre de manière à pouvoir participer à la discussion.
CM : Ce que cet article ne dit pas c’est que l’EFF aussi a rejoint le W3C à ce moment-là et pour la même raison. Et c’est bien.
Selon Doctorow, Tim Berners-Lee « semblait avoir cru au mensonge selon lequel les producteurs d’Hollywood allaient abandonner le web et s’intéresser à d’autres médias (AOL ?) dans le cas où ils n’obtiendraient pas que l’Internet ouvert soit reprogrammé pour correspondre à leurs projets de maximisation profits ».
CM : Spéculation.
 
Les concepteurs de navigateurs ont tous accepté de re-paramétrer leurs logiciels. Certains comme Google (Chrome) et Microsoft (Internet Explorer) l’ont fait dès le stade FPWD. Pour Mozilla (Firefox), en revanche, ce fut moins immédiat, notamment parce que la fondation était plus proche de l’EFF que des partisans de l’EME. Et s’ils re-paramétrèrent malgré tout en mai 2014, ce fut à contrecœur et parce qu’ils ne voulaient pas empêcher leurs usagers d’avoir accès aux contenus protégés de Netflix, Amazon Video et Hulu.
En mars 2017, l’Unesco a rejoint officiellement les rangs des opposants à l’EME (passé au stade CR le 5 juillet 2016) lorsque le sous-directeur général pour la communication et l’information, Frank La Rue, a adressé une lettre publique à Tim Berners-Lee destinée à lui faire savoir qu’une des valeurs fondamentales de l’Unesco était « la libre circulation des idées et de l’information » et à le prévenir que l’EME « pourrait avoir un impact sur les navigateurs au point de rendre impossible l’exercice des utilisateurs de leur droit légal d’une utilisation équitable des vidéos sous copyright ».
CM : Lettre ouverte à laquelle non seulement le W3C a répondu, mais qu’il a clarifiée et corrigée.
À peine un an plus tard, en juillet 2017, on annonça que l’EME était sur le point de devenir une REC. C’est alors que l’EFF, par l’intermédiaire de son représentant au W3C Cory Doctorow, lança la procédure d’appel en réunissant 5 % des signatures des membres et en exhortant tous les autres à « sauver le web ». Cette procédure n’avait encore jamais été invoquée en vingt‑trois ans d’histoire du W3C. Seulement 185 des 463 membres du W3C s’exprimèrent lors du vote, et finalement, malgré la pression de l’EFF, l’EME obtint 58,4 % de voix « pour » (108 ont voté oui, 57 non et 20 blanc)  et passa au stade REC le 18 septembre 2017. Cela provoqua le départ de l’EFF du W3C, Cory Doctorow considérant que le W3C s’était trahi lui-même en publiant une norme « faite pour contrôler l’usager au lieu de lui donner du pouvoir ».
Concrètement, la normalisation de l’EME ne changera pas grand-chose
CM : Pas grand-chose, non.
Juste l’accessibilité aux personnes handicapées, l’intéropérabilité, la sécurité. Des broutilles, quoi.
Sans EME, c’est retour aux plug-ins inaccessibles, exposés à des failles de sécurité, et dont la plupart ne fonctionne que sur certaines plate-formes.
Je vous invite à lire la liste des avantages qu’apporte EME, ainsi que le document d’information accompagnant le communiqué de presse, relatant tous les éléments essentiels autour d’EME.
Par contre, vous n’y trouverez rien de dramatique ou de sensationnel.
puisque tous les principaux navigateurs étaient déjà re-paramétrés et que de nombreux services vidéo l’utilisent depuis 2014. Mais elle a quand même deux implications majeures pour le web et son avenir.

Revenir au sommaire

Demain, le contrôle des pages ?

La première de ces implications a trait au contrôle. Puisqu’il est désormais possible de contrôler par DRM la circulation des vidéos sur le web,
CM : Notez bien que “sur le web” est le mot-clé, ici et représente la nouveauté. Ce qui se faisait via plug-in se fait désormais sur le Web.
Je vais vous laisser relire cette phrase.
Ne tombez dans le piège tendu par l’auteur qui sous-entend que le contrôle passe aux mains des producteurs de films. Ils ont le même contrôle, ni plus ni moins.
Ce qui change est la plate-forme. En déplaçant toutes les interactions dans les navigateurs Web, elles sont protégées des failles de sécurité des plug-ins.
à la grande joie des producteurs de films, certains producteurs d’autres types de contenus ne voient pas pourquoi eux non plus ne disposeraient pas d’une telle technologie.
Les bruits de couloir sourdent dans les coulisses du W3C : à présent qu’on est débarrassé de l’EFF, pourquoi ne pas proposer de normaliser un module de gestion des DRM au sein du HTML5 permettant de protéger les livres numérisés ?
CM : Ah mais, ça commence à bien faire avec les sous-entendus, les exagérations et les demi-vérités !
Comme l’a souligné Silvère Mercier dans un excellent article sur la question, on trouve la trace d’un tel projet dès décembre 2013 dans les listes de discussion du W3C. Et le projet est d’autant plus actuel qu’en février 2017 le W3C et l’International Digital Publishing Forum (IDPF), au sein duquel a été développé la norme EPUB, ont fusionné
CM : Non, ce n’est pas un project actuel. Le groupe de travail a mis “DRM” dans la section “hors cadre” de sa charte de travail.
et qu’il sera possible à partir de 2018 pour les membres du W3C de participer à un groupe appelé « Publishing business ».
CM : À vrai dire, ce groupe existe depuis le printemps 2017.
De nombreux liens hypertextes ne seront plus des passages gratuits mais des passerelles payantes  C’est sans doute le sujet brûlant de ces prochaines années. Car s’il est possible demain de contrôler la circulation de formats texte, il sera également possible de verrouiller des pages web et nous pourrons dire adieu alors à la navigation fluide. Il sera extrêmement aisé de protéger des pages ou même des éléments d’une page web, de sorte que de nombreux liens hypertextes ne seront plus des passages gratuits mais des passerelles payantes.
CM : Je trouve le paragraphe ci-dessus bien sensationnel alors qu’aujourd’hui et depuis des années de telles passerelles payantes existent sur le Web. Le Web a vocation à contenir tout autant de contenus gratuits, que de contenus payants.
Le web sera truffé de palissades exigeant que soit montrée patte blanche pour être franchies, et sa topographie ressemblera moins dans ce cas à une « toile mondiale » qu’à une juxtaposition de « jardins murés ». Adieu plaines du Larzac, bonjour clos de Champagne !

Revenir au sommaire

La sécurité, autre problème majeur

Aux États-Unis, personne, dans aucun cas, n’a le droit de contourner un DRM. Il est en outre interdit d’essayer de regarder ce qui se passe à l’intérieur ou même d’évoquer avec quelqu’un la possibilité de contourner un DRM (un courriel dans lequel vous évoqueriez un tel contournement peut normalement être retenu contre vous en cas de procès). Ces interdictions proviennent de la section 1201 du Digital Millenium Copyright Act. Ainsi, l’EME crée un espace auquel on n’a pas le droit d’accéder et à propos de l’accès duquel il est interdit de discuter. Cela pose un problème en termes de sécurité, puisque même les chercheurs et les producteurs d’antivirus n’ont pas le droit d’accéder à cet espace.
C’est pourquoi l’EFF avait proposé en janvier 2016, au sein du W3C, que fût mis en place d’un accord formel impliquant que les ayants droit des vidéos protégées par l’EME s’engageraient à ne pas poursuivre en justice les personnes qui auraient procédé à des tests dans la mesure où ils auraient ensuite publié les anomalies identifiées. Malgré la signature de 198 chercheurs en informatique favorables à cette proposition et le soutien de l’Open Source Initiative (OSI), la proposition de l’EFF a été refusée par les parties prenantes de la discussion concernant l’EME au W3C. C’est également une des raisons qui a motivé le départ de l’EFF, Cory Doctorow pointant du doigt dans son communiqué le refus de la part des parties prenantes d’accepter un tel compromis et accusant la direction du W3C, en particulier Jeff Jaffe, de s’en être rendu complice.
CM : Tout ce que je peux dire publiquement à ce sujet c’est que plusieurs versions d’un accord formel ont été étudiées, que ça a pris de longs mois en toute bonne foi –et que Jeff Jaffe a œuvré en ce sens–, que toutes ne provenaient pas que de l’EFF et que cette dernière a tout autant rejeté les versions non satisfaisantes que les autres membres du W3C.

Revenir au sommaire

La standardisation du code HTML se fera-t-elle demain ailleurs qu’au W3C ?

Ce qui peut être fait ou non sur le web, et comment, dans quelles mesures, selon quelles modalités… tout cela est décidé depuis le début des années 1990 au W3C. Autrement dit, c’est là-bas que le répertoire d’action est négocié, et que sont discutées les valeurs qui président à ces actions. En théorie, tout le monde est invité autour de la table et la normalisation se fait par consensus.
CM : En pratique aussi, tout le monde est invité. La section “wide review” du processus du W3C prévoit de faire savoir publiquement les avancées et d’inviter tout retour.
Cependant, pour la première fois de son histoire, le W3C a été le théâtre d’un affrontement qui est allé jusqu’à une procédure d’appel qui n’avait encore jamais été nécessaire, et a débouché sur le départ d’une des institutions les plus représentatives sans doute de l’esprit des pionniers d’Internet : l’Electronic Frontier Foundation.
Que se passera-t-il à l’avenir, si les acteurs qui défendent la libre circulation des contenus et la neutralité des contenants ne participent plus aux discussions du W3C ? Le web sans doute deviendra moins permissif et peut-être aussi plus « légal » mais plus cher également, moins universel, plus inégalitaire peut-être, et moins fluide de toute façon, moins horizontal.

Il n’est pas impossible toutefois que d’autres protocoles voient le jour, dans d’autres arènes, écrits cette fois par les défenseurs de la libre circulation et de la neutralité du réseau. On peut très bien imaginer que des arènes de normalisation se mettent en place en marge du W3C, comme ce fut déjà le cas du Web Hypertext Application Technology Working Group (Whatwg) créé en 2005 à l’époque où Tim Berners-Lee ne jurait que par le XHTML et le web sémantique alors que certains développeurs voulaient détrôner l’hégémonie de Flash en matière d’interactivité et créer pour cela le HTML5. D’ailleurs, le fondateur du Whatwg, Ian Hickson, dès le premier jour où il en a été question, s’est opposé de manière virulente à l’EME. Il ne serait pas étonnant par conséquent qu’il accueille l’EFF à bras ouverts au Whatwg.

CM : Le WHATWG travaille sur une toute petite partie des technologies Web.

Le W3C c’est 235 spécifications en développement actif, dont 200 visent le statut de Recommandation. C’est 36 groupes de travail en parallèle et 13 groupes d’intérêt qui s’occupent de tous les aspects du Web. Tous ces groupes suivent un modèle de revue et vérification transverse afin d’assurer une prise en charge en matière d’accessibilité pour les handicapés, de sécurité et d’internationalisation.

 

Crédit :

Illustration : Ina – Yann Bastard

Revenir au sommaire

%d bloggers like this: