7473 volumes de 700 pages chacun : rencontrez Print Wikipedia

https://blog.wikimedia.org/2015/06/19/meet-print-wikipedia/
Auteur original : Michael Mandiberg le 22 juin 2015 (CC-BY 3.0)
Traducteurs : Seb35
Licence : CC-BY 3.0

Une interview de Michael Mandiberg, l’artiste derrière Print Wikipedia. Vous pouvez aussi visualiser la vidéo ci-dessus sur YouTube et Vimeo. Vidéo par Victor Grigas, sous licence libre CC BY-SA 3.0

Après six ans de travail, une résidence dans les Rocheuses canadiennes, un débuggage interminable et plus qu’un peu d’aide de la part d’amis, j’ai fait Print Wikipedia (en français « Imprimer Wikipédia ») : une nouvelle œuvre artistique dans laquelle un logiciel spécifique transforme l’entièreté de la Wikipédia en langue anglaise en 7473 volumes et les téléverse sur un service d’impression à la demande. Je suis fier de lancer ce projet dans une exposition solo, From Aaaaa! to ZZZap!, à la Denny Gallery dans le Lower East Side de New York City, visitable à partir de maintenant jusqu’au 2 juillet.

L’exposition de deux semaines à la Denny Gallery est structurée autour du processus de téléversement de Print Wikipedia sur Lulu.com et la vision d’une sélection de volumes du projet. Le processus de téléversement prendra entre onze et quatorze jours, commençant à ! et terminant à ℧. Durant ce temps, le processus de téléversement sera ouvert à tous sans interruption – au moins pendant le premier week-end, puisque la gallerie restera ouverte toute la nuit en signe de reconnaissance de l’ordinateur qui travaille, lui, sans s’arrêter. Il y aura aussi deux canaux pour voir ce processus : une projection de Lulu.com dans un navigateur web automatisé par le logiciel et un écran d’ordinateur avec les mises à jour en ligne de commande entre le code et le site. Si vous ne pouvez pas visiter vous-même la gallerie, vous pouvez suivre le processus sur Twitter ; nous posterons sur le compte Twitter @PrintWikipedia à chaque fois qu’un volume est fini.

Les volumes à l’unité et l’entièreté de Print Wikipedia, du sommaire de Wikipédia et de l’annexe des contributeurs Wikipédia seront disponibles à la vente. Chacun des volumes sera disponible sur Lulu.com lorsqu’ils seront téléversés et donc, à la fin du téléversement/de l’exposition, tous les volumes seront disponibles à l’achat à l’unité. Chacun des 7 473 volumes est constitué de 700 pages, soit un total de 5 244 111 pages. Le sommaire de Wikipédia comprend 64 372 pages en 91 volumes. L’annexe des contributeurs Wikipédia contient les 7 488 091 contributeurs à la Wikipédia en langue anglaise (presque 7,5 millions).

Il est important de noter que je n’ai pas imprimé tous les livres pour cette exposition, et que je n’ai personnellement pas l’intention de le faire – à moins que quelqu’un paie 500 000 $ pour fabriquer le tout. Il y a 106 volumes à l’exposition, ce qui permet vraiment de visualiser l’étendue de l’œuvre. Il n’est pas nécessaire de tous les imprimer : nos imaginations peuvent compléter ce qu’il manque.

Wikipédia a été imprimé. Photo par Victor Grigas, sous licence libre CC BY-SA 3.0.

Les livres sont des microcosmes du monde. Intervenir dans une encyclopédie est comme intervenir dans l’ordonnancement des systèmes du monde. Si les livres sont une version réduite de l’univers, ceci est la grande version que nous autres humains ayons jamais vue. Pour le meilleur ou pour le pire, c’est un reflet de nous-mêmes et de nos sociétés, avec 7473 volumes sur la vie, l’univers et le reste. Une entrée sur un film ou un album de musique surviendra toutes les quelques pages et l’entrée sur l’humanisme sera située dans un volume qui commence avec « Hulk (Aqua Teen Hunger Force) » et termine avec « Humanitarianism in Africa », et les noms des batailles remplira les 28 volumes dont les entrées commencent par « BAT ». Ce sont des big data (en français « mégadonnées ») qui sont suffisamment petites pour qu’on puisse les comprendre, mais suffisamment grandes pour qu’aucun humain ne puisse les connaître toutes. C’est suffisamment petit pour que je puisse les traiter sur un ordinateur de bureau, mais suffisamment grand pour que chaque lot de calcul, tel que dépaqueter la base de données dans une base MySQL, prenne jusqu’à deux semaines pour se terminer et que le cycle de fabrication complet prenne plus d’un mois. Que nous devenions de plus en plus dépendants de l’information est ce que la relative accessibilité de son immensité signifie.

Print Wikipedia est à la fois une vision utilitariste de la plus grande accumulation de la connaissance humaine et un signe poétique en direction de la futilité de l’échelle des big data. Construite sur ce qui est vraisemblablement la plus grande approximation jamais faite, c’est aussi une œuvre d’une véritable poésie qui attire l’attention sur l’impressionnante taille du contenu encyclopédique et l’impossibilité de rendre Wikipédia en un objet matériel de forme fixée : une fois qu’un volume est imprimé, il est déjà obsolète.

Ma pratique en tant qu’artiste est de se concentrer sur les interventions en ligne, en travaillant à l’intérieur de systèmes techniques ou logiques et d’en faire sortir leurs intérieurs. De méditations déjà fonctionnelles j’en fais de la poésie qui provoque un examen de l’art dans un espace de non-art et une considération plus profonde de l’Internet comme d’un outil pour re-définir radicallement les systèmes de communication. Par exemple, j’ai vendu toutes mes possessions en ligne au travers d’une performance d’un an et du site de commerce en ligne Shop Mandiberg (2001), et ai fait des copies conformes de copies sur AfterSherrieLevine.com (2001) accompagnées de certificats d’authenticité signables par l’utilisateur lui-même. J’ai fait les premières œuvres permettant d’utiliser les plug-ins du navigateur comme plateforme de création d’œuvres : The Real Costs (2007), un plug-in de navigateur qui insère l’empreinte carbone sur les sites de voyages en avion, ainsi que Oil Standard (2006), un plug-in de navigateur qui convertit tous les prix d’une page web dans leur valeur équivalente en barils de pétrole.

Mandiberg (gauche) avec son assistant Jonathan Kiritharan. Photo par Tilman Bayer, sous licence libre CC BY-SA 3.0.

J’ai commencé à contribuer sur Wikipédia deux ans avant de commencer ce projet en 2009, bien que ça ne soit pas mon seul engagement avec Wikipédia. Je suis professeur sur les médias numériques à la City University de New York et j’enseigne avec Wikipédia dans mes cours. J’ai écrit sur ce processus, mes enseignements ont été couvert sur le Blog Wikipédia, et un de mes devoirs aux étudiants fut inclus dans une série d’Études de cas sur l’enseignement avec Wikipédia, série rassemblée par la Wikimedia Foundation, une fonction maintenant assurée par la Wiki Education Foundation. Je suis co-fondateur de Art+Feminism, une campagne destinée à accroître le nombre de contributrices sur Wikipédia et à améliorer les articles du site sur les femmes et l’art.

Wikipédia compte pour moi car c’est un répertoire de la connaissance humaine produite de façon collaborative, réalisé au travers de travail non-aliénant et conservée comme un bien commun numérique. La plupart des gens agissent de bonne foie et, de façon incroyable, ceux qui ne le font pas n’arrivent pas à faire échouer l’ensemble.

Annexe des contributeurs Wikipédia, volume 1. Photo par Victor Grigas, sous licence libre CC BY-SA 3.0.

Ce n’était pas une démarche solitaire. J’eus la joie de travailler avec plusieurs programmeurs et designers, dont Denis Lunev, Jonathan Kiritharan, Kenny Lozowski, Patrick Davison et Colin Elliot. J’ai aussi été soutenu par un formidable groupe de personnes à Lulu.com qui ont soutenu, au delà des espérances, ce projet fou et assez lourd.

Si vous êtes à New York, j’espère que vous pourrez venir voir l’exposition. L’exposition restera ouverte 24 heures par jour à partir de 18 h le dimanche 21 juin. Nous accueillerons spécialement les Wikipédiens de New York City le dimanche 21 juin à 13 h. Pour ceux d’entre vous qui sont plus éloignés, vous pouvez suivre le processus de téléversement sur PrintWikipedia.com et sur Twitter.

Michael Mandiberg, artiste, Associate Professor, City University de New York

Victoire en Italie : la cour juge que Wikipédia est « un service basé sur la liberté des utilisateurs »

https://blog.wikimedia.org/2014/07/22/victory-in-italy-based-on-freedom-of-users/
Auteur original : Michelle Paulson le 22 juillet 2014 (CC-BY 3.0)
Traducteurs : Seb35
Licence : CC-BY 3.0

La semaine dernière, la communauté Wikimedia a obtenu une victoire retentissante devant la justice italienne. Depuis plus de quatre ans, la Wikimedia Foundation et Wikimedia Italia[1] sont impliquées dans une poursuite initiée par le politicien italien Antonio Angelucci et son fils Giampaolo. Les Angeluccis demandaient 20 000 000 € à la Wikimedia Foundation pour des phrases supposées diffamantes sur deux pages de la Wikipédia en italien.

Le tribunal civil romain a rendu son jugement [en italien] le 9 juillet 2014 à la Wikimedia Foundation, annulant la poursuite et déclarant que la Fondation n’est pas légalement responsable du contenu que les utilisateurs ajoutent librement sur les projets Wikimedia. La victoire, cependant, va plus loin que ce cas précis. Le jugement est la première considération complète de la position de Wikimedia en Italie,[2] et le jugement lui-même contribue à rendre plus robuste les protections de la liberté d’expression sur Internet selon la loi italienne.

Les Angeluccis argumentaient que les pages Wikipédia pour Antonio Angelucci et pour le journal en langue italienne Il Riformista contenaient des énoncés faux qui porteraient atteinte à leurs réputations selon leurs dires. En général, la Directive sur le commerce électronique de l’Union européenne limite la reponsabilité des hébergeurs pour les contenus que les utilisateurs apportent eux-mêmes ; toutefois, les Angeluccis affirmaient que les activités de la Wikimedia Foundation s’apparentaient plus à un fournisseur de contenu et qu’aucune exception de responsabilité accordée par la Directive ne s’appliquerait, ou au moins que Wikipédia devrait être considéré comme un « journal en ligne » et qu’ainsi la Fondation serait responsable en vertu des standards plus stricts qui s’appliquent à la presse italienne.

La cour italienne a rejeté l’argument, disant que bien que la Directive ne s’applique pas directement à la Wikimedia Foundation en tant qu’organisation non basée dans l’UE, les principes de base de la Directive s’appliquent. Conformément à de tels principes, Wikimedia doit être reconnue comme un hébergeur et non un fournisseur de contenu, et ainsi qu’elle ne peut être responsable du contenu apporté par les utilisateurs que si elle reçoit une note explicite relative à une information illicite par l’organisation compétente et qu’elle ne la retire pas.

La cour a considéré que Wikipédia « offre un service qui est basé sur la liberté des utilisateurs d’esquisser les différentes pages de l’encyclopédia ; c’est cette liberté qui empêche toute [obligation de garantir l’absence de contenu offensant de ses sites] et qui trouve sa balance dans la possibilité de quiconque de modifier les contenus et de demander leur retrait ». La cour est arrivée à la conclusion que la Fondation était très claire dans ses avertissements sur son rôle neutre dans la création et la maintenance du contenu, notant de plus que quiconque, y compris les Angeluccis eux-mêmes, pouvaient avoir modifié les articles en question.

Les discussions vives et même les désaccords sur le contenu sont une composante résultante naturelle de la création de la plus grande encyclopédie libre du monde. Toutefois, la grande majorité de ces débats éditoriaux peuvent être et sont résolus chaque jour au moyen de processus établis et exécutés par la communauté Wikimedia. Nous encourageons fortement tous ceux qui ont de tels soucis sur les projets Wikimedia à se renseigner sur ces procédures de la communauté plutôt que de recourir au litige.

Les tentatives d’imposer la responsabilité aux plates-formes d’hébergement neutres – nos forums publiques modernes – menacent profondément leurs existences et menacent en même temps l’innovation et la liberté d’expression. Lorsqu’il y a besoin, la Wikimedia Foundation n’hésitera pas à défendre la plus grande collection de savoir humain contre ceux qui défient les libertés d’expression, de création et de libre partage de la communauté Wikimedia.[3]

Michelle Paulson, Conseil légal

Geoff Brigham, Conseil général

La Wikimedia Foundation aimerait exprimer sa profonde gratitude aux avocats incroyablement talentueux de Hogan Lovells qui ont représenté la Fondation dans cette affaire, en particulier Marco Berliri, Marta Staccioli et Massimiliano Masnada. Remerciements particuliers aussi à Joseph Jung (stagiaire du département juridique) qui a aidé à faire ce billet de blog.

Note : Bien que cette décision représente un progrès important vers la protection des hébergeurs comme la Wikimedia Foundation, il est également important de rappeler que tout individu est légalement responsable de ses actions tant en ligne que hors ligne. Pour votre propre protection, vous devriez rester précautionneux et éviter d’apporter du contenu sur les projets Wikimedia qui pourraient engager votre responsabilité civile ou pénale selon les lois des États-Unis et de tout pays qui pourrait revendiquer sa juridiction contre vous. Pour plus d’informations, veuillez consulter les conditions d’utilisation et les politiques juridiques.

Références

  1. Bien que la cour ait retiré son jugement contre la Wikimedia Foundation, ça n’est pas encore terminé pour Wikimedia Italia. Nous espérons que le jugement sera retiré prochainement.
  2. Dans un compte-rendu spécial, une cour italienne avait auparavant déclaré que Wikimedia était plutôt un hébergeur qui n’était pas responsable du contenu apporté par les utilisateurs. Un compte-rendu de cette victoire précédente peut être trouvé sur : https://blog.wikimedia.org/2013/06/26/wikimedia-foundation-legal-victory-italy/.
  3. La Wikimedia Foundation s’est défendue avec succès contre des poursuites similaires de part le passé. Vous pourrez en savoir plus sur quelques-unes de ces précédentes victoires ici : https://blog.wikimedia.org/2013/06/26/wikimedia-foundation-legal-victory-italy/, https://blog.wikimedia.org/2013/12/02/legal-victory-german-court-wikimedia-foundation/ et https://blog.wikimedia.org/2012/12/04/two-german-courts-rule-in-favor-of-free-knowledge-movement/.

S’opposer à la surveillance de masse sur l’internet

https://blog.wikimedia.org/2014/05/09/opposing-mass-surveillance-on-the-internet/
Auteur original : Yana Welinder le 9 mai 2014 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Caméras de surveillance, Quevaal, CC BY-SA 3.0.

Caméras de surveillance, Quevaal, CC BY-SA 3.0.


Nous sommes heureux d’annoncer que la Wikimedia Foundation a signé les Principes Nécessaires et Proportionnés (Necessary and Proportionate Principles) sur l’application des droits de l’Homme à la surveillance.

Le respect de la vie privée sur Internet est étroitement lié à notre mission de distribuer la connaissance libre.[1] Nous nous efforçons de fournir aux utilisateurs une plate-forme qui leur permette d’exercer leur droit à la liberté d’expression dans le monde entier pour partager et étudier des contenus éducatifs. Il y a des circonstances où les contributeurs ont besoin de rester anonymes lorsqu’ils travaillent sur les projets Wikimedia. À cette fin, les projets permettent aux gens de contribuer sous pseudonyme, sans fournir d’informations personnelles ou même sans créer de compte. Nous voulons que les membres de la communauté se sentent à l’aise pour travailler sur les projets. Et nous nous opposons fermement à une surveillance de masse par tout gouvernement ou organisation.

Bien que les conversations récentes sur la surveillance sur internet aient été encouragées par les révélations d’un programme américain, PRISM, un rapport du Rapporteur Spécial des Nations Unis sur la Liberté d’Opinion et d’Expression exprime clairement que la surveillance par les gouvernements est mondiale, omniprésente et généralement non-contrôlée. Les Principes Nécessaires et Proportionnés ont pour objectif de fournir un cadre aux lois liées aux droits de l’Homme, de façon à répondre aux technologies modernes de surveillance.[2] Ils demandent aux gouvernements de respecter les lois internationales et les droits de l’Homme en se conformant avec des principes de base tels que :

  • Proportionnalité : La surveillance des communications est hautement intrusive et compromet les droits de vie privée et de liberté d’expression. Ceci doit être soigneusement pris en considération par rapport aux bénéfices qu’elle cherche à résoudre.
  • Notification à l’utilisateur : Les personnes doivent savoir s’ils sont sujets à surveillance et ils doivent avoir assez de temps et d’informations pour faire appel à la décision.
  • Transparence : Les pays doivent être transparents sur l’étendue de la surveillance et les techniques employées.
  • Intégrité des communications et des systèmes : Les gouvernements ne doivent pas contraindre les fournisseurs d’accès ou les vendeurs de matériel ou de logiciels à construire des mécanismes de surveillance dans leurs systèmes.

Le projet de Principes Nécessaires et Proportionnés fut mené par plusieurs groupes dont l’Electronic Frontier Foundation, Access et Privacy International. Les principes ont été développés au travers d’une consultation avec des groupes de la société civile et des experts internationaux en lois de surveillance des communications, en politique et en technologie. Jusqu’à présent, les Principes ont été soutenus par plus de 400 organisations et par de nombreuses personnes. Les signataires comprennent Wikimedia Mexico et plusieurs Wikimédiens. Aujourd’hui, nous sommes fiers d’y joindre nos efforts.

Yana Welinder
Conseillère juridique, Wikimedia Fondation[3]
Comme discuté auparavant, la Fondation croit que la surveillance du gouvernement peut compromettre nos valeurs de liberté d’expression et d’accès à l’information.
Pour plus d’informations sur le but des Principes, voir ici.
Remerciements spéciaux à Roshni Patel, interne sur la vie privée à la WMF, pour son travail sur ce billet de blog.

Rentrer sur la scène : comment nous sommes entrés dans la Bulle de Bruxelles

https://blog.wikimedia.org/2014/03/20/taking-the-stage-how-we-entered-the-brussels-bubble/
Auteur original : Dimitar Parvanov le 20 mars 2014 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Rencontre Big Fat à Bruxelles en avril 2013. Première rencontre du groupe de travail Politique-UE.

Rencontre Big Fat à Bruxelles en avril 2013. Première rencontre du groupe de travail Politique-UE.

Le printemps revient à nouveau et nous lançons un appel à tous les gens intéressés pour une rencontre stratégique à Bruxelles ! Rejoingnez-nous pour construire notre stratégie et pour séduire les cœurs et les esprits des législateurs européens dans notre sens ! Les Wikimédiens accompagnés de tous les gens enthousiastes pour la Connaissance Libre sont invités à contribuer pour se représenter ce que seront les prochaines étapes en Europe. Une connaissance préalable du Wiki-univers ou du tortueux système du lobbying ne sont pas nécessaires – des diversités de points de vue produisent de meilleurs résultats !

Regrouper les activistes

Lors de la toute première Rencontre Big Fat à Bruxelles (Big Fat Brussels Meeting en anglais) nous avons discuté de l’inadéquation du cadre actuel du droit d’auteur et nous sommes focalisés sur la définition de quelques décisions d’organisation. En conséquence, un référent de contact à Bruxelles fut décidé pour surveiller l’Union européenne, fournir du renseignement politique, servir de point d’entrée sur les questions européennes au sein du Wiki-univers et pour bâtir un réseau avec les autres organisations actives localement.

Pour établir notre focus thématique, nous avons cartographié les problématiques pertinentes (remerciements à Anna Lena Schiller) et diffusé un questionnaire dans la communauté. L’étape finale fut d’écrire – en tant que groupe de chapters Wikimedia européens – une déclaration d’intention qui fut ensuite approuvée par les conseils d’administration respectifs. Cela fut fait à Londres dans les locaux de Wikimedia UK et sera peut-être considéré un jour comme le document fondateur du Groupe Européen de Sensibilisation à la Connaissance Libre. L’ensemble du processus peut être considéré comme une démarche pour définir nos buts et pour définir ceux qui aideront à l’atteindre.

Activer le groupe

Le Groupe Européen de Sensibilisation à la Connaissance Libre surveille et analyse des sujets excitants comme la neutralité du net et la protection des données par rapport à leurs effets possibles sur les projets Wikimedia. On nous demande aussi de prendre position à quelques occasions : nous avons esquissé des modèles de réponses pour la consultation sur le droit d’auteur de la Commission européenne, demandé une étude sur les « bénéfices économiques du domaine public et des licences libres dans l’économie européenne » et nous essayons de sauver (+ici) la directive sur la gestion collective des droits dans une tentative de dernière minute.

Rencontre Big Fat à Bruxelles, deuxième édition

Pour conserver l’inertie, nous prévoyons une deuxième rencontre les 24 et 25 avril à Bruxelles. Conjointement avec l’UNESCO nous organisons un événement sur le patrimoine culturel et la numérisation de masse pour honorer la Journée mondiale du Livre et du Droit d’auteur. Il y aura des conférenciers de la British Library, de la Commission européenne et de la Fédération européenne des éditeurs.

Scientia potentia est (la connaissance est pouvoir)

Le fait que la sagesse et la connaissance puissent se traduire en influence est très visible dans le domaine de la sensibilisation. Aux conditions d’être régulièrement bien informé sur le climat politique en cours et de démontrer une profonde connaissance de nos problématiques fondamentales, nous pourrions un jour avoir la chance de pousser des changements législatifs dans le système. Nous regardons positivement le fait que nous avons plein d’informations et d’expertises utiles au sein du Wiki-univers, nous avons juste besoin de nous mettre en réseau de façon efficace. Notre but reste de donner à notre mouvement un groupe actif qui promeut le concept de Connaissance Libre dans la législation et la politique. Tout le monde est invité à participer !

Dimitar Dimitrov est Wikimédien à Bruxelles depuis juillet 2013. Dans les billets de blog associés, il discute de ses expériences à propos de l’Union européenne.

Notes de droit d’auteur : « Big Fat Brussels Meeting April 2013 3 » par Lilli Iliev (WMDE), sous CC-BY-SA 3.0 Unported, depuis Wikimedia Commons

OAuth est maintenant disponible sur les wikis Wikimedia

https://blog.wikimedia.org/2013/11/22/oauth-on-wikimedia-wikis/
Auteur original : Dan Garry le 22 novembre 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Ces derniers mois, les ingénieurs de l’équipe Noyau MediaWiki de la Wikimedia Foundation ont développé Extension:OAuth. Une version préliminaire de cette extension est maintenant activée sur tous les wikis Wikimedia.

OAuth permet aux utilisateurs d’autoriser des applications tierces à effectuer des actions en leur nom sans avoir à fournir à l’application le mot de passe de leur compte Wikimedia. OAuth permet également à l’utilisateur de révoquer l’accès d’une application à n’importe quel moment, ajoutant un niveau supplémentaire de sécurité pour les utilisateurs. En utilisant OAuth, les applications tierces peuvent rationaliser leurs interactions sans plus nécessiter de diriger les personnes vers le wiki pour réaliser des actions telles que créer des comptes ou bloquer des utilisateurs. Par exemple, sur la Wikipédia en anglais, Snuggle, l’outil de création de comptes et le système de demande de déblocage ont commencé à travailler sur l’implémentation de OAuth pour permettre aux utilisateurs d’utiliser leurs outils de façon plus fluide.

Cette boîte de dialogue se présente à vous quand une application vous demande de l’autoriser à accéder à votre compte.


La liste des actions que les applications tierces peuvent être autorisées à faire est importante, et des actions supplémentaires peuvent être ajoutées s’il y a une demande. Nous espérons que OAuth permettra aux développeurs d’applications tierces de les rendre encore meilleures pour aider les Wikimédiens dans leur travail, et nous sommes enthousiastes de voir quelles applications seront créées.

Si vous avez besoin d’aide ou avez des questions, n’hésitez pas à visiter Help:OAuth sur MediaWiki.org. Si votre question ne trouve pas de réponse sur cette page, vous pouvez demander sur la page de discussion et un membre de l’équipe OAuth y répondra. Pour les détails techniques sur le protocole OAuth, visitez http://oauth.net.

Dan Garry
Responsable Produit associé pour l’équipe Plate-forme, Wikimedia Foundation

La police de caractères Autonym pour les noms de langues

https://blog.wikimedia.org/2013/10/28/the-autonym-font-for-language-names/
Auteur original : Runa Bhattacharjee le 28 octobre 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Quand un article de Wikipédia est disponible dans plusieurs langues, une liste de ces langues se trouve dans la colonne sur le côté de la page. Les noms des langues dans la liste sont écrits avec le système d’écriture que la langue utilise (connu également sous le nom d’autonyme de la langue).

Cela signifie aussi que toutes les polices de caractères appropriées sont nécessaires pour afficher correctement les autonymes. Par exemple, un article comme celui sur le Prix Nobel est disponible dans plus de 125 langues et il requiert environ 35 polices de caractères différentes pour afficher correctement les noms de toutes les langues dans la colonne sur le côté.

Autonymes de langues

Autonymes de langues

Initialement, cela était géré par les polices de caractères installées sur le dispositif du lecteur. Si une police de caractères n’était pas présente, l’utilisateur pouvait voir des rectangles (souvent désignés par tofu) au lieu du nom de la langue. Pour contourner ce problème, non seulement pour la liste des langues mais aussi pour les autres sections dans la zone de contenu, le sélecteur de langue universel (ULS) a d’abord fourni un ensemble de polices web qui furent chargées avec la page.

Bien que cela permettait qu’il y ait plus de noms de langues qui soient affichés correctement, la présence de tant de polices de caractères augmentait énormément le poids des pages, qui étaient alors chargées beaucoup plus lentement qu’avant pour les utilisateurs. De façon à améliorer la rapidité pour les clients, les polices web ne furent plus utilisées pour les liens inter-langues dans la colonne sur le côté.

Retirer les polices de caractères web des liens inter-langues était une solution facile et immédiate, mais cela nous faisait également revenir à l’environnement multilingue sous-optimal que nous essayions initialement de résoudre. Les articles pouvaient être parfaitement affichés grâce aux polices web, mais si un lien n’était pas affiché dans la liste des langues, de nombreux utilisateurs ne pouvaient pas découvrir qu’il y avait une version de l’article dans leur langue.

Les autonymes ne sont pas seulement nécessaires pour les liens inter-langues. Ils sont aussi nécessaires pour la fenêtre de recherche de langue et de sélection du sélecteur de langue universel, qui permet aux utilisateurs de trouver leur langue s’ils sont sur un wiki affichant le contenu dans un système d’écriture dont ils ne sont pas familier.

Police de caractères manquante ou “tofu”

Police de caractères manquante ou “tofu”

Comme solution, les ingénieurs linguistiques ont créé une police de caractères partielle qui ne contient que les caractères requis pour afficher les noms des langues supportées dans MediaWiki. Elle a été nommée police de caractères Autonym et ne sera utilisée que quand les autonymes sont affichés sur la page. Avec une taille de seulement un peu plus de 50 Kio, elle fournit les caractères pour presque 95% des 400+ langues supportées. La liste des problèmes restants montre qu’il y a des problèmes de rendu et de glyphes manquants pour quelques langues. S’il manque des glyphes dans votre langue et que vous connaissez une police de caractères sous licence libre qui pourrait combler ce manque, vous pouvez nous le faire savoir de façon à ce qu’on l’ajoute.

La police de caractères Autonym répond à un cas d’utilisation très spécifique. Il y a eu des demandes pour explorer la possibilité d’étendre l’utilisation de cette police à des listes de langues similaires, comme celle trouvée sur Wikimedia Commons. Au sein de MediaWiki, la police de caractères peut être facilement utilisée grâce à la classe CSS nommée autonym.

La police de caractères Autonym a été publiée pour une utilisation libre sous la licence SIL Open Font, version 1.1.

Runa Bhattacharjee, coordinateur communication et qualité, équipe linguistique, Wikimedia Foundation

Le futur de HTTPS sur les projets Wikimedia

https://blog.wikimedia.org/2013/08/01/future-https-wikimedia-projects/
Auteur original : Ryan Lane le 1er août 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

La Wikimedia Foundation est très attachée à protéger la vie privée de ses lecteurs et contributeurs. Les fuites récentes relatives au programme XKeyscore de la NSA ont encouragé les membres de notre communauté à proposer par défaut l’utilisation de HTTPS pour les projets Wikimedia. Par une concomitance heureuse, ce projet est déjà en cours ; il est inscrit dans la feuille de route officielle de cette année et est prévu officieusement depuis que le HTTPS natif est activé.

Notre architecture actuelle ne peut pas permettre le HTTPS par défaut, mais nous faisons des changements incrémentaux pour rendre cela possible. Depuis qu’il apparaît que nous sommes spécifiquement ciblés par XKeyscore, nous accélérons ces efforts. Voici notre feuille de route interne actuelle :

  • Rediriger les utilisateurs enregistrés sur HTTPS et conserver les utilisateurs enregistrés sur HTTPS. Il est prévu de déployer ce changement le 21 août à 16:00 UTC.
  • Consolider l’infrastructure HTTPS : déplacer les terminaisons SSL directement sur les caches varnish front-end et consolider le cluster de cache front-end comme nécessaire par raport à la charge grandissante.
  • Investir dans l’effort d’ingénierie pour répartir plus proprement la charge SSL sur les différents caches front-end. Dans notre architecture actuelle, nous utilisons une répartition de charge basée sur un hachage de la source pour permettre une reprise de la session SSL. Nous changerons pour une terminaison SSL qui permette un cache SSL distribué ou nous l’ajouterons à notre solution actuelle. Ce faisant, ça nous permettra de changer pour une répartition de charge de type round-robin pondéré, ce qui résultera en un cache SSL plus efficace.
  • En commençant avec les plus petits projets, faire une activation douce et lente du HTTPS pour les utilisateurs par défaut, puis augmenter graduellement cette activation douce vers les plus grands projets. Par activation douce, nous entendons changer les liens rel=canonical dans la section d’en-tête de nos pages pour pointer vers la version HTTPS des pages, plutôt que vers les versions HTTP. Cela fera que les moteurs de recherche retourneront les résultats HTTPS plutôt que les résultats HTTP.
  • Envisager d’activer la confidentialité persistante parfaite (Perfect forward secrecy). Activer la confidentialité persistante parfaite est uniquement utile si nous éliminons aussi la menace d’analyse du traffic HTTPS, ce qui peut être utilisé pour détecter l’activité de navigation d’un utilisateur, même quand il utilise HTTPS.
  • Envisager une activation forte de HTTPS. Par activation forte, nous entendons rediriger obligatoirement les utilisateurs depuis les pages HTTP vers les versions HTTPS de ces pages. Un certain nombre de pays, la Chine étant l’exemple le plus important, bloque complètement l’accès HTTPS aux projets Wikimedia ; en faisant cela, une activation forte de HTTPS bloquera probablement totalement l’accès à nos projets à un grand nombre d’utilisateurs. À cause de cela, nous avons le sentiment que cette action fera probablement plus de mal que de bien, mais nous continuons à évaluer nos choix pour l’instant.
  • Envisager l’activation de la Sécurité Stricte de Transport HTTP (HTTP Strict Transport Security, HSTS) pour protéger contre les attaques de l’homme au milieu de type « retrait du SSL » (SSL-stripping). Implémenter HSTS pourrait aussi faire que nos projets soient inaccessibles pour un grand nombre d’utilisateurs puisqu’il force le navigateur à utiliser HTTPS. Si un pays bloque le HTTPS, alors tout utilisateur du pays qui reçoit un en-tête HSTS sera effectivement bloqué de nos projets.

Actuellement nous n’avons pas de dates associées aux changements autres que pour la redirection des utilisateurs enregistrés vers HTTPS, mais nous fixerons des dates en interne et mettrons à jour ce billet à ce moment. [NdT: j’essaierai de suivre les mises à jour dans la mesure du possible.]

D’ici à ce que HTTPS soit activé par défaut, nous exhortons les utilisateurs soucieux de leur vie privée à utiliser HTTPS Everywhere (« HTTPS partout ») ou Tor [1].

Ryan Lane
Ingénieur Opérations, Wikimedia Foundation

[1]: Il y a des restrictions sur Tor ; voir l’information de Wikipédia à ce propos.

IBM Research fait don à la Wikimedia Foundation du prix Feigenbaum de l’AAAI décerné à Watson

https://blog.wikimedia.org/2013/07/16/ibm-research-watson-aaai-prize-wikimedia-foundation/
Auteur original : Matthew Roth le 16 juillet 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Avatar de Watson

Avatar de Watson

L’association pour l’avancement de l’intelligence artificielle (AAAI) a choisi l’équipe de Watson d’IBM Research comme lauréat du Prix Feigenbaum. Watson est reconnu comme étant un des plus impressionants résultats de la recherche en intelligence artificielle de ces dernières années, connu pour avoir gagné le jeu télévisé Jeopardy! en février 2011 contre les anciens grands champions Brad Rutter et Ken Jennings. Watson travaille maintenant dans des domaines tels que la santé, la finance ou la vente.

En signe de reconnaissance du rôle que Wikipédia a joué dans le succès de Watson lors du challenge Jeopardy!, l’équipe d’IBM a demandé à l’AAAI de faire don à la Wikimedia Foundation de la récompense d’un montant de 10 000 $ accompagnant le prix Feigenbaum. IBM Research a dit que leur motivation à offrir le prix était de reconnaître et de soutenir le travail de la Wikimedia Foundation et en particulier de Wikidata, qui a pour objectif de donner à tout le monde — tant humains que machines — un accès facile à l’ensemble des connaissances.

« Watson intègre un changement de paradigme en intelligence artificielle en appliquant une nouvelle architecture permettant d’aggréger les données et l’information provenant de différentes sources, dont le texte complet de Wikipédia » a affirmé Chris Welty d’IBM Research.

Le texte et le contenu structuré de Wikipédia a été analysé en utilisant des méthodes de traitement des langues naturelles. En plus de cela, les éléments structurés de Wikipédia — les liens, infoboxes, catégories — ont été extraits et ajoutés à la grande base de connaissance sur laquelle Watson s’est appuyé lors du jeu Jeopardy!

Nous remercions IBM pour leur sympathique considération et nous réjouissons de voir quels nouveaux exploits l’équipe de Watson accomplira ensuite.

Matthew Roth
Responsable des communications globales à la Wikimedia Foundation

  • Notes de droit d’auteur : ceci est le logo d’une organisation, produit ou événement et est protégé par le copyright. L’utilisation de ce logo pour certaines identifications ou commentaires critiques peut être justifié au nom d’une utilisation juste (« fair use ») dans la loi relative au copyright aux États-Unis.

Les nouveaux modèles Lua rendent les pages de votre wiki plus rapides et plus flexibles

https://blog.wikimedia.org/2013/03/11/lua-templates-faster-more-flexible-pages/
Auteur original : Sumana Harihareswara le 11 mars 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

À partir du mercredi 13 mars, vous pourrez faire des pages wiki bien plus commodes, quelque soit votre langue : nous ajoutons Lua comme language de modèles. Cela simplifiera la création et la modification des infoboxes, des tableaux et autres modèles MediaWiki pratiques. Nous avons déjà commencé à déployer Scribunto (l’extension MediaWiki qui permet cela) ; elle est déjà sur plusieurs sites, dont la Wikipédia en anglais.

Vous pourrez l’utiliser avec profit pour effectuer des tâches plus complexes pour lesquelles les modèles sont trop complexes ou trop lents — les exemples classiques sont les calculs numériques, les manipulations et le parsing de chaînes de caractères, ainsi que les arbres de décision. Même si vous n’écrivez pas de modèles, vous serez heureux de voir que les pages se chargeront plus rapidement et avec des possibilités de présentation de l’information plus intéressantes.

Contexte

Le texte du modèle de mesure de la longueur d’une chaîne de caractères sur la Wikipédia en anglais, simplifié.

Le texte du modèle de mesure de la longueur d’une chaîne de caractères sur la Wikipédia en anglais, simplifié.

Les développeurs MediaWiki ont introduit les modèles et les fonctions parseur il y a plusieurs années pour permettre aux utilisateurs de MediaWiki de répliquer du contenu et pour construire des outils utilisant une logique basique. Au fur et à mesure, nous avons vu le wikitexte se transformer en un language de programmation limité. Les modèles complexes ont engendré des problèmes de performance et de limitations, et il est difficile pour les utilisateurs d’écrire et de comprendre les modèles. Ainsi, le projet de scripts Lua ambitionne de donner aux utilisateurs de MediaWiki un language de script propre qui sera plus performant et plus efficace que la logique ad-hoc des fonctions parseur. L’exemple de l’utilisation de Lua dans World of Warcraft est prometteuse ; même des novices sans expérience de programmation ont été capable de faire des changements importants dans leur environnement graphique en apprenant rapidement un peu de Lua.

Lua sur votre wiki

Le 13 mars, vous pourrez utiliser Lua sur votre wiki (il n’est pas encore activé). Le code Lua peut être intégré dans les modèles wiki en utilisant la fonction parseur {{#invoke:}} fournie par l’extension Scribunto de MediaWiki. Le code source Lua est enregistré dans des pages appelées modules (par exemple Module:Bananas). Ces modules individuels sont ensuite invoqués sur les pages de modèles. L’exemple Modèle:Lua hello world utilise le code {{#invoke:Bananas|hello}} pour afficher le texte « Hello, world! ». Aussi, si vous commencez à regarder l’édition dans l’espace de noms Module, c’est ce que vous aurez.

Débuter

Le modèle strlen converti en Lua.

Le modèle strlen converti en Lua.

Regardez les instructions basiques « hello, world! », puis jetez un œil à la courte présentation de Brad Jorsch pour un exemple simple sur la conversion d’un modèle en wikitexte à un module Lua. Après cela, essayez le tutorial de Tim Starling.

Pour vous aider à visualiser et à tester un modèle converti, essayez Special:TemplateSandbox sur votre wiki. Avec cela, vous pourrez visualiser une page en utilisant des versions de test de modèles et de modules, vous permettant d’essayer facilement avant de publier réellement le code.

Comment commencer ? Si vous utilisez pywikipedia, essayez la fonction parsercountfunction.py de Bináris, qui vous aidera à trouver les modèles wikitexte qui sont parsé lentement et qu’il est donc souhaitable de convertir en Lua. Essayez aussi de répondre aux requêtes de conversion sur la Wikipédia en anglais, éventuellement en utilisant le script Greasemonkey de Anomie pour vous aider à voir les gains en performance. Sur la Wikipédia en anglais, quelques-uns des modèles ont déjà été convertis — n’hésitez pas à les réutiliser sur votre wiki.

Le portail Lua sur mediawiki.org contient plus d’informations ; vous pouvez en ajouter là-bas. Et savourez vos modèles plus rapides et plus flexibles !

Sumana Harihareswara, Community Manager pour la technique

Rapport du Sommet open source des langues du printemps 2013

https://blog.wikimedia.org/2013/02/20/report-from-the-spring-2013-open-source-language-summit/
Auteur original : Runa Bhattacharjee le 20 février 2013 (CC-BY-SA 3.0)
Traducteurs : Seb35
Licence : CC-BY-SA 3.0

Fortuna i forti aiuta, e i timidi rifiutaproverbe italien

La Wikimedia Foundation et Red Hat ont conjointement organisé le second Sommet open source des langues les 12 et 13 février 2013. Le sommet s’est tenu au centre d’ingénieurie Red Hat à Pune en Inde. Comme pour le précédent sommet, cette session de travail en face-à-face était centrée autour des fonctionnalités d’internationalisation (i18n) et de localisation (l10n), du support des fontes, des outils pour les méthodes d’entrée, de la recherche avec les langues, des méthodes de test d’i18n et des standards. Les sessions étaient des sprints de travail, chacun avec un focus spécial sur un domaine clé. Les participants étaient des contributeurs centraux de la Wikimedia Foundation, de Red Hat (y compris des membres de SIG Fedora), de KDE, du FUEL, de Google et de C-DAC. Ce qui suit est un résumé de ce qui s’est passé pendant ces deux jours.

Pendant ce sommet, les équipes de différentes organisations se sont rencontrées pour discuter des défis liés aux langues, et ont travaillé ensemble sur des fonctionnalités et outils pour les relever.

Pendant ce sommet, les équipes de différentes organisations se sont rencontrées pour discuter des défis liés aux langues, et ont travaillé ensemble sur des fonctionnalités et outils pour les relever.

Méthodes d’entrée

Parag Nemade et Santhosh Thottingal ont travaillé sur la création de nouvelles méthodes d’entrée pour jQuery.IME. 60 méthodes d’entrée, couvrant des langues comme l’assamais, l’espéranto, le russe, le grec ou l’hébreu ont été introduites, portant le total à 144. De plus, des IMEs de la bibliothèque m17n manquants dans la bibliothèque jQuery.IME ont été identifiés.

Outils de traduction, translatewiki.net et sprint FUEL

Siebrand Mazeland et Niklas Laxström, avec Ankit Patel, Rajesh Ranjan et les mainteneurs des langues de Red Hat ont travaillé pour identifier plus d’outils qui pourraient être utiles comme aides à la traduction dans un système de traduction. Le projet FUEL a pour but de standardiser les traductions pour les termes fréquemment utilisés, le style de traduction et la méthodologie de vérification. Jusqu’à maintenant, il s’était principalement focalisé sur les langues de l’Inde. Le projet FUEL peut maintenant être traduit dans translatewiki.net. Pau Giner a présenté de nouveaux designs pour l’éditeur de traductions et l’utilisation de terminologie, à distance depuis l’Espagne.

État de la couverture linguistique

Pour mieux évaluer les besoins afin de permettre le support pour des langues, un tableau détaillant les besoins et la disponibilité de fonctionnalités basiques et étendues est dessiné. Avec 285 langues actuellement supportées par Wikimedia et plus de 100 dans Fedora, ce document sera indispensable pour combler les manques et porter les fonctionnalités entre projets et plate-formes. Des domaines clé d’évaluation comprennent les méthodes d’entrée, les fontes, les aides à la traduction comme les glossaires et les vérificateurs orthographiques, les méthodes de test et de validation, etc. Une version préliminaire a été créée par Alolita Sharma, Runa Bhattacharjee et Amir E. Aharoni.

Fontes, fontes web

Une initiative pour documenter les aspects techniques des fontes pour les langues parlées en Inde a débuté pendant le somment des langues. Pour chacun des scripts, une fonte de référence sera choisie et chaque fonte sera expliquée en détail pour intersecter la spécification de fontes Open Type à la manière d’un standard. Cela a pour but de se comporter comme un document de référence pour les typographes travaillant sur des fontes des langues d’Inde. Une version préliminaire et le sommaire de ce document a été préparé pendant le deuxième jour du sommet des langues, principalement par Santhosh Thottingal et Pravin Satpute.

Outils de test de l’internationalisation

Trouver des méthodes appropriées pour tester les composants et contenus internationalisés était le principal focus de ce sprint, avec le Groupe de Test de la Localisation Fedora (FLTG) et l’équipe Technologie Linguistique de Wikimedia partageant les détails de leurs méthodes de test. Le FLTG conduit des Jours de Test avant les versions beta avec une matrice de tests ciblant des composants spécifiques centraux, et Wikimedia utilise des tests unitaires pour tester fréquemment les fonctionnalités développées. Le FLTG a exposé ses plans d’intégrer la méthode de comparaison des copies d’écran pour tester des interfaces localisées. Cette méthode sera utile également pour Wikimedia. Étendre la méthode pour les applications web et les besoins linguistiques de Wikimedia (par exemple les scripts de droite à gauche) ont été identifiés comme points de collaboration.

Plus de nouvelles du sommet des langues peuvent être trouvées dans les tweets, les notes de session et le rapport complet.

Runa Bhattacharjee, Communication et coordinateur qualité, Technologie linguistique