Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

EFF Presses Federal Circuit To Make Patent Case Filings Public

Federal court records belong to everyone. But one federal court in Texas lets patent litigants treat courts like their own private tribunals, effectively shutting out the public.

When EFF tried to intervene and push for greater access to a patent dispute earlier this year, the U.S. District Court for the Eastern District of Texas rejected our effort.  EFF appealed and last week filed our opening brief with the U.S. Court of Appeals for the Federal Circuit.

EFF is not the only one concerned by the district court’s decision. Several organizations filed friend-of-the-court briefs in support of our appeal. Below, we explain the stakes of this case and why others are concerned about the implications of the district court’s secrecy.  

Courts too often let patent litigants shut out the public

Secrecy in patent litigation is an enduring problem, and EFF has repeatedly pushed for greater transparency by intervening in patent lawsuits to vindicate the public’s right to access judicial records.

But sometimes, courts don’t let us—and instead decide to prioritize corporations’ confidentiality interests over the public’s right to access records filed on the record in the public’s courts.

That’s exactly what happened in Entropic Communications, LLC. v. Charter Commuications, Inc. Entropic, a semiconductor provider, sued Charter, one of the nation’s largest media companies, for allegedly infringing six Entropic patents for cable modem technology. Charter argued that it had a license defense because the patents cover technology required to comply with the industry-leading cable data transmission standard, Data Over Cable Service Interface Specification (DOCSIS). Its argument raises a core patent law question: when is a patent “essential” to a technical standard, and thus encumbered by licensing commitments?

Many of the documents explaining the parties’ positions on this important issue are either completely sealed or heavily redacted, making it difficult for the public to understand their arguments. Worse, the parties themselves decided which documents to prevent the public from viewing.

District court rejects EFF’s effort to make case more transparent

The kind of collusive secrecy in this case is illegal—courts are required to scrutinize every line that a party seeks to redact, to ensure that nothing is kept secret unless it satisfies a rigorous balancing test. Under that test, proponents of secrecy need to articulate a specific reason to seal the document sufficient to outweigh the strong presumption that all filings will be public. The court didn’t do any of that here. Instead, it allowed the parties to seal all documents they deemed “confidential” under a protective order, which applies to documents produced in discovery.

That’s wrong: protective orders do not control whether court filings may be sealed. But unfortunately, the district court’s misuse of these protective orders is extremely common in patent cases in the Eastern District of Texas. In fact, the protective order in this case closely mirrors the “model protective order” created by the court for use in patent cases, which also allows parties to seal court filings free from judicial scrutiny or even the need to explain why they did so.

Those concerns prompted EFF in March to ask the court to allow it to intervene and challenge the sealing practices. The court ruled in May that EFF could not intervene in the case, leaving no one to advocate for the public’s right of access. It further ruled that the sealing practices were legal because local rules and the protective order authorized the parties to broadly make these records secret. The end result? Excessive secrecy that wrongfully precludes public scrutiny over patent cases and decisions in this district.

The district court’s errors in this case creates a bad precedent that undermines a cornerstone of the American justice system: judicial transparency. Without transparency, the public cannot ensure that its courts are acting fairly, eroding public trust in the judiciary.

EFF’s opening brief explains the district court’s errors

EFF disagreed with the district court’s ruling, and last week filed its opening brief challenging the decision. As we explained in our opening brief:

The public has presumptive rights under the common law and First Amendment to access summary judgment briefs and related materials filed by Charter and Entropic. Rather than protect public access, the district court permitted the parties to file vast swaths of material under seal, some of which remains completely secret or is so heavily redacted that EFF cannot understand legal arguments and evidence used in denying Charter’s license defense.

Moreover, the court’s ruling that EFF could not even seek to unseal the documents in the first place sets a dangerous precedent. If the decision is upheld, many court dockets, including those with significant historic and newsworthy materials, could become permanently sealed merely because the public did not try to intervene and unseal records while the case was open.

EFF’s brief argued that:

The district court ignored controlling law and held EFF to an arbitrary timeliness standard that the Fifth Circuit has explicitly rejected—including previously reversing the district court here. Neither controlling law nor the record support the district court’s conclusion that Charter and Entropic would be prejudiced by EFF’s intervention. Troublingly, the district court’s reasoning for denying EFF’s intervention could inhibit the public from coming forward to challenge secrecy in all closed cases.

A successful appeal will open this case to the public and help everyone better understand patent disputes that are filed in the Eastern District of Texas. EFF looks forward to vindicating the public’s right to access records on appeal.

Court transparency advocates file briefs supporting EFF’s appeal

The district court’s ruling raised concerns among the broader transparency community, as multiple organizations filed friend-of-court briefs in support of EFF’s appeal.

The Reporters Committee for Freedom of the Press and 19 media organizations, including the New York Times and ProPublica, filed a brief arguing that the district court’s decision to reject EFF’s intervention could jeopardize access to court records in long-closed cases that have previously led to disclosures showing Purdue Pharmaceutical’s efforts to boost sales of OxyContin and misleading physicians about the drug’s addiction risks. The brief details several other high-profile instances in which sealed court records led to criminal convictions or revealed efforts to cover up the sale of defective products.

“To protect just the sort of journalism described above, the overwhelming weight of authority holds that the press and public may intervene to unseal judicial records months, years, or even decades later—including, as here, where the parties might have hoped a case was over,” the brief argues. “The district court’s contrary ruling was error.”

A group of legal scholars from Stanford Law and the University of California, Berkeley, School of Law filed a brief arguing that the district court inappropriately allowed the parties to decide how to conceal many of the facts in this case via the protective order. The brief, relying on empirical research the scholars undertook to review millions of court dockets, argues that the district court’s secrecy here is part of a larger problem of lax oversight by judges, who too often defer to litigants’ desire to make as much secret as possible.

“Instead of upholding the public’s presumptive right of access to those materials, the court again deferred to the parties’ self-interested desire for secrecy,” the brief argues. “That abdication of judicial duty, both in entering the protective order and in sealing judicial records, not only reflects a stubborn refusal to abide by the rulings of the Fifth Circuit; it represents a stunning disregard for the public’s interest in maintaining an open and transparent court system.”

A third brief filed by Public Citizen and Public Justice underscored the importance of allowing the public to push for greater transparency in sealed court cases. Both organizations actively intervene in court cases to unseal records as part of their broader advocacy to protect the public. Their brief argues that allowing EFF to intervene in the case furthers the public’s longstanding ability to understand and oversee the judicial system. The brief argues:

The public’s right of access to courts is central to the America legal system. Widespread sealing of court records cuts against a storied history of presumptive openness to court proceedings rooted in common law and the First Amendment. It also inhibits transparency in the judicial process, limiting the public’s ability to engage with and trust courts’ decision making.

EFF is grateful for the support these organizations and individuals provided, and we look forward to vindicating the public’s rights of access in this case.

To Fight Surveillance Pricing, We Need Privacy First

Par : Tori Noble
5 août 2024 à 17:29

Digital surveillance is ubiquitous. Corporate snoops collect information about everything we do, everywhere we go, and everyone we communicate with. Then they compile it, store it, and use it against us.  

Increasingly, companies exploit this information to set individualized prices based on personal characteristics and behavior. This “surveillance pricing” allows retailers to charge two people different prices for the exact same product, based on information that the law should protect, such as your internet browsing history, physical location, and credit history. Fortunately, the Federal Trade Commission (FTC) is stepping up with a new investigation of this dangerous practice.  

What Is Surveillance Pricing? 

Surveillance pricing analyzes massive troves of your personal information to predict the price you would be willing to pay for an itemand charge you accordingly. Retailers can charge a higher price when it thinks you can afford to spend more—on payday, for example. Or when you need something the most, such as in an emergency.  

For example, in 2019, investigative journalists revealed that prices on the Target app increased depending on a user’s location. The app collected the user’s geolocation information. The company charged significantly higher prices when a user was in a Target parking lot than it did when a user was somewhere else. These price increases were reportedly based on the assumption that a user who has already traveled to the store is committed to buying the product, and is therefore willing to pay more, whereas other shoppers may need a greater incentive to travel to the store and purchase the product. 

Similarly, Staples used users’ location information to charge higher online prices to customers with fewer options nearby. The website did this by offering lower prices to customers located within approximately 20 miles of a brick-and-mortar OfficeMax or Office Depot store.   

Surveillance Pricing Hurts Us All 

The American privacy deficit makes surveillance pricing possible. Unlike many other countries, the U.S. lacks a comprehensive privacy law. As a result, companies can often surveil us with impunity. Unregulated data brokerages buy and sell the enormous amounts of information generated every time you swipe a credit card, browse the internet, visit the doctor, drive your car, or simply move through the world while in possession of a mobile phone. And it is difficult to shield yourself from prying eyes.  

Corporate surveillance yields comprehensive—but often inaccurate and unappealable—personal profiles. Surveillance pricing uses these profiles to set prices for everything from homes to groceries.  

This is fundamentally unfair. You have a human right to privacy (even though U.S. lawmakers haven’t updated privacy laws in decades). You shouldn’t be spied on, period. And constant surveillance pricing compromises your ability to freely use the internet without fear of adverse economic consequences.  

Worse, surveillance pricing will often have disparate impacts on people of color and those living in poverty, who have historically suffered greater price increases when companies adopted AI-powered pricing tools. For example, an algorithmic pricing model used by the Princeton Review—a test prep company—allegedly charged higher prices to Asian American customers than to customers of other racial backgrounds. Likewise, ridesharing apps—such as Uber and Lyft—have charged higher fares to residents of neighborhoods with more residents of color and residents living below the poverty line. 

Further, surveillance pricing tools are notoriously opaque. Lack of transparency into pricing decisions makes it difficult for customers and regulators to assess harms and seek redress for these problems.  

Surveillance pricing—a form of “price gouging,” according to U.S. Sen. Sherrod Brown—may also suppress market competition.  It incentivizes the continuous, fine-grained extraction of your data, because it offers big companies a competitive advantage—and the ability to charge higher prices—by collecting more personal information than their competitors. This fosters a race to the bottom that rewards companies that win by violating our privacy rights. And it puts smaller competitors at a disadvantage when they don’t have reams of intimate data about their potential customers. 

Consumers know that surveillance pricing is unfair, but our legal rights to resist it are exceedingly limited. Some websites simply ignore browsers’ requests not to be tracked. Others have even charged higher prices to consumers who use digital privacy tools to prevent tracking. For example, they increase regular prices, and then offer discounts only to customers who allow the companies to collect their data. This kind of pay-for-privacy scheme undermines your personal choices, and disproportionately harms people who can’t afford to pay for their basic rights. 

Putting a Stop to Surveillance Pricing 

This is a critical time to resist surveillance pricing: most vendors have not adopted it yet. Correcting course is still possible, and it’s vital for our right to privacy.  

Good news: the FTC recently announced that it is investigating surveillance pricing practices. Specifically, the FTC ordered eight companies to provide information about surveillance pricing tools they make available to others. The FTC sent these orders to Mastercard, Revionics, Bloomreach, JPMorgan Chase, Task Software, PROS, Accenture, and McKinsey & Co. 

These eight firms play a key role in the collection, analysis, and weaponization of your private information: they are the “middlemen” that provide surveillance pricing tools to other companies. In particular, the FTC instructed the companies to submit reports detailing technical specifics of tools, the types and sources of consumer information they use, which companies are currently using them, and how they impact consumer prices. 

As FTC Chair Lina Khan explained: 

Firms that harvest Americans’ personal data can put people’s privacy at risk. Now firms could be exploiting this vast trove of personal information to charge people higher prices...Americans deserve to know whether businesses are using detailed consumer data to deploy surveillance pricing. 

These FTC investigations are an important step towards public understanding of opaque business pricing practices that may be harming consumers. Increased transparency into new pricing models will facilitate efforts to curb this unfair pricing practice and could be the prelude to a rulemaking or enforcement action to halt the practice altogether. 

We can mitigate surveillance pricing’s myriad harms by preventing surveillance. How? By doing privacy first.  

Comprehensive privacy legislation would prevent companies from accumulating massive amounts of our information in the first place. Companies cannot charge prices based on our personal information if they don’t have it.  

Economic research shows that opt-in privacy regulations—such as the GDPR—mitigate the negative effects of surveillance pricing and make us all better off. When all businesses, big and small, must respect customers’ privacy, surveillance will no longer create a competitive advantage for the biggest online platforms.  

That’s in addition to the myriad other benefits of strong privacy protections, which would help combat financial fraud, support local and national news outlets, protect reproductive rights, mitigate foreign government surveillance on apps like TikTok, and improve competition in the tech sector. 

Most importantly, strong legal protections for your privacy would guard against the emergence of new, increasingly harmful ways of weaponizing your data against you. Without a strong, comprehensive federal privacy law, “surveillance pricing” may give way to a never-ending parade of ways to use the most intimate facts about your life against you.

24 ans de libcurl

Curl est un outil en ligne de commande destiné à récupérer le contenu d’une ressource accessible par un réseau informatique et gérant de nombreux protocoles.

Curl est un outil essentiel pour de nombreux usages, pris en charge par une gamme très large de systèmes d’exploitation, d’architectures matérielles, de l’objet connecté à l’embarqué spatial en passant par l’informatique classique ou les consoles de jeux. Il évolue rapidement et fréquemment, voir par exemple l’arrivée prochaine de HTTP3 pour curl dans Debian unstable (avec le backend gnutls). Son domaine d’utilisation pourrait encore s’étendre avec l’apparition de wcurl dans Debian et bientôt dans le monde entier ?

Il y a 24 ans, une division du code entre une interface ligne de commande et une bibliothèque a été faite.

(Cette dépêche est principalement basée sur l’annonce anglophone par Daniel Stenberg, auteur principal de curl et libcurl ; dépêche rédigée sur un téléphone embarquant curl 7.80, pas vraiment la dernière version…).

La première version de libcurl, baptisée 7.1, date du 7 août 2000. La version de curl précédente, la 6.5.2, pas encore séparée entre une interface ligne de commande et une bibliothèque. Il s’agit de l’écart le plus long entre deux versions de curl. La création de la bibliothèque a été très largement réalisée par Daniel Stenberg seul.

Il décrit son choix de division ainsi : c'était juste une intuition et une conjecture. Je ne savais pas. Je n’avais pas fait de recherches sur cela ou autre chose. Je me suis juste lancé en me disant qu’on verrait plus tard si j’avais raison ou tort.

Le nom de la bibliothèque a été choisi faute d’une meilleure idée. L’API a été définie comme étant bas niveau (on peut toujours ajouter une API de plus haut niveau par-dessus), en observant ioctl(), fcntl() et les fonctions du genre. Le code est en C, langage de prédilection de l’auteur principal.

L’API a bien vieilli : 17 fonctions encore présentes proviennent de la 7.1 ; elle est passée de 17 000 lignes à 171 000 ; elle a survécu aux révolutions HTTP/2 (transferts multiples multiplexés) et HTTP/3 (passer de TCP à UDP).

L’usage a aussi bien progressé depuis l’entrée dans PHP 4.0.2 comme premier binding (ici rendre utilisable en langage PHP), moins d’un mois après la publication de la bibliothèque.

En 2002 a été ajoutée une API multi pour gérer des transferts parallèles concurrents de façon illimitée dans un même thread.

Puis en 2006 vient en surplus le multi_action avec des mécanismes orientés événements, avec une boucle événementielle (comme epoll).

Les premiers changements douloureux sur l’interface binaire (ABI) ont entraîné une volonté de stabilité, de ne jamais casser volontairement cette interface, et ce depuis 2006.

libcurl possède des bindings vers au moins 65 langages de programmation, fonctionne sur au moins 103 systèmes d’exploitation et 28 architectures de processeur, est présent dans les bibliothèques standard de langages de programmation (Python, Java, Rust ou .Net). Son ancien concurrent principal libwww n’est plus développé. Bref 18 ans de stabilité d’API et d’ABI.

L’utilisation de libcurl continue de croître (de plus en plus d’objets connectés notamment). Et curl de manière générale supporte rapidement les nouveaux protocoles et leurs évolutions. À noter que l’auteur principal ne mentionne pas dans ses projections ce qui me semble le plus gros risque pour Curl/libcurl, la difficulté d’avoir une personne prête à lui succéder si quand cela s’avérera nécessaire.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Courts Should Have Jurisdiction over Foreign Companies Collecting Data on Local Residents, EFF Tells Appeals Court

Par : Tori Noble
16 juillet 2024 à 18:56

This post was written by EFF legal intern Danya Hajjaji. 

Corporations should not be able to collect data from a state’s residents while evading the jurisdiction of that state’s courts, EFF and the UC Berkeley Center for Consumer Law and Economic Justice explained in a friend-of-the-court brief to the Ninth Circuit Court of Appeals. 

The case, Briskin v. Shopify, stems from a California resident’s privacy claims against Shopify, Inc. and its subsidiaries, out-of-state companies that process payments for third party ecommerce companies (collectively “Shopify”). The plaintiff alleged that Shopify secretly collected data on the plaintiff and other California consumers while purchasing apparel from an online California-based retailer. Shopify also allegedly tracked the users’ browsing activities across all ecommerce sites that used Shopify’s services. Shopify allegedly compiled that information into comprehensive user profiles, complete with financial “risk scores” that companies could use to block users’ future purchases.  

The Ninth Circuit initially dismissed the lawsuit for lack of personal jurisdiction and ruled that Shopify, an out-of-state defendant, did not have enough contacts with California to be fairly sued in California. 

Personal jurisdiction is designed to protect defendants' due process rights by ensuring that they cannot be hailed into court in jurisdictions that they have little connection to. In the internet context, the Ninth Circuit has previously held that operating a website, plus evidence that the defendant did “something more” to target a jurisdiction, is sufficient for personal jurisdiction.  

The Ninth Circuit originally dismissed Briskin on the grounds that the plaintiff failed to show the defendant did “something more.” It held that violating all users’ privacy was not enough; Shopify would have needed to do something to target Californians in particular.  

The Ninth Circuit granted rehearing en banc, and requested additional briefing on the personal jurisdiction rule that should govern online conduct. 

EFF and the Center for Consumer Law and Economic Justice argued that courts in California can fairly hold out-of-state corporations accountable for privacy violations that involve collecting vast amounts of personal data directly from consumers inside California and using that data to build profiles based in part on their location. To obtain personal data from California consumers, corporations must usually form additional contacts with California as well—including signing contracts within the state and creating California-specific data policies. In our view, Shopify is subject to personal jurisdiction in California because Shopify’s allegedly extensive data collection operations targeted Californians. That it also allegedly collected information from users in other states should not prevent California plaintiffs from having their day in court in their home state.   

In helping the Ninth Circuit develop a sensible test for personal jurisdiction in data privacy cases, EFF hopes to empower plaintiffs to preserve their online privacy rights in their forum of choice without sacrificing existing jurisdictional protections for internet publishers.  

EFF has long worked to ensure that consumer data privacy laws balance rights to privacy and free expression. We hope the Ninth Circuit will adopt our guidelines in structuring a privacy-specific personal jurisdiction rule that is commonsense and constitutionally sound. 

Detroit Takes Important Step in Curbing the Harms of Face Recognition Technology

Par : Tori Noble
15 juillet 2024 à 20:54

In a first-of-its-kind agreement, the Detroit Police Department recently agreed to adopt strict limits on its officers’ use of face recognition technology as part of a settlement in a lawsuit brought by a victim of this faulty technology.  

Robert Williams, a Black resident of a Detroit suburb, filed suit against the Detroit Police Department after officers arrested him at his home in front of his wife, daughters, and neighbors for a crime he did not commit. After a shoplifting incident at a watch store, police used a blurry still taken from surveillance footage and ran it through face recognition technology—which incorrectly identified Williams as the perpetrator. 

Under the terms of the agreement, the Detroit Police can no longer substitute face recognition technology (FRT) for reliable policework. Simply put: Face recognition matches can no longer be the only evidence police use to justify an arrest. 

FRT creates an “imprint” from an image of a face, then compares that imprint to other imagesoften a law enforcement database made up of mugshots, driver’s license images, or even images scraped from the internet. The technology itself is fraught with issues, including that it is highly inaccurate for certain demographics, particularly Black men and women. The Detroit Police Department makes face recognition queries using DataWorks Plus software to the Statewide Network of Agency Photos, or (SNAP), a database operated by the Michigan State Police. According to data obtained by EFF through a public records request, roughly 580 local, state, and federal agencies and their sub-divisions have desktop access to SNAP.  

Among other achievements, the settlement agreement’s new rules bar arrests based solely on face recognition results, or the results of the ensuing photo lineup—a common police procedure in which a witness is asked to identify the perpetrator from a “lineup” of images—conducted immediately after FRT identifies a suspect. This dangerous simplification has meant that on partial matches—combined with other unreliable evidence, such as eyewitness identifications—police have ended up arresting people who clearly could not have committed the crime. Such was the case with Robert Williams, who had been out of the state on the day the crime occurred. Because face recognition finds people who look similar to the suspect, putting that person directly into a police lineup will likely result in the witness picking the person who looks most like the suspect they saw—all but ensuring the person falsely accused by technology will receive the bulk of the suspicion.  

Under Detroit’s new rules, if police use face recognition technology at all during any investigation, they must record detailed information about their use of the technology, such as photo quality and the number of photos of the same suspect not identified by FRT. If charges are ever filed as a result of the investigation, prosecutors and defense attorneys will have access to the information about any uses of FRT in the case.  

The Detroit Police Department’s new face recognition rules are among the strictest restrictions adopted anywhere in the country—short of the full bans on the technology passed by San Francisco, Boston, and at least 15 other municipalities. Detroit’s new regulations are an important step in the right direction, but only a full ban on government use of face recognition can fully protect against this technology’s many dangers. FRT jeopardizes every person’s right to protest government misconduct free from retribution and reprisals for exercising their right to free speech. Giving police the ability to fly a drone over a protest and identify every protester undermines every person’s right to freely associate with dissenting groups or criticize government officials without fear of retaliation from those in power. 

Moreover, FRT undermines racial justice and threatens civil rights. Study after study after study has found that these tools cannot reliably identify people of color.  According to Detroit’s own data, roughly 97 percent of queries in 2023 involved Black suspects; when asked during a public meeting in 2020, then-police Chief James Craig estimated the technology would misidentify people 96 percent of the time. 

Williams was one of the first victims of this technology—but he was by no means the last. In Detroit alone, police wrongfully arrested at least two other people based on erroneous face recognition matches: Porcha Woodruff, a pregnant Black woman, and Michael Oliver, a Black man who lost his job due to his arrest.  

Many other innocent people have been arrested elsewhere, and in some cases, have served jail time as a result. The consequences can be life-altering; one man was sexually assaulted while incarcerated due a FRT misidentification. Police and the government have proven time and time again they cannot be trusted to use this technology responsibly. Although many departments already acknowledge that FRT results alone cannot justify an arrest, that is cold comfort to people like Williams, who are still being harmed despite the reassurances police give the public.  

It is time to take FRT out of law enforcement’s hands altogether. 

Convention de Partenariat

Par : Crobert
14 juillet 2024 à 22:41

Bonjour,

Nous avons été approchés par les Rencontres Amicales Francophones du Logiciel Libre. La prochaine édition sera du 6 au 12 octobre 2025 et c’est un événement en mode hybride avec des points de présence dans chaque pays représenté. Nous serions le point de présence pour le Canada/Québec. Nous aurions besoin d’un amphithéâtre. J’ai pensé que nous pourrions approcher UQAM, ETS ou UdeM.

Nous avons reçu une convention de partenariat qu’on peut bonifier. CONVENTION DE PARTENARIAT .

Est-ce qu’il y a des questions sur la Convention ?

7 messages - 3 participant(e)s

Lire le sujet en entier

S.M.A.R.T. badblocks badblocks2

S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) est un système de surveillance intégré aux disques durs modernes et aux disques SSD. Il évalue en continu le bien-être du périphérique tout en anticipant les éventuels dysfonctionnements. Il utilise une réserve de secteurs de rechange pour réparer quand il détecte un secteur en anomalie.
Le programme Linux badblocks teste les blocs d’un média par écriture+relecture+comparaison. À l’origine il servait à mettre les blocs mauvais en liste noire dans le file-system.

Est-il utile de nos jours de vérifier ses médias ?
Comment se situe S.M.A.R.T. par rapport à l’outil badblocks ?
Comment vérifier un média en tenant compte de sa surveillance par S.M.A.R.T. ?

C'est ce que nous allons voir dans la suite de la dépêche.

smart-drive

Sommaire

Préambule

Quelle précaution prendre vis-à-vis du risque de mauvaise qualité du stockage, quand je viens d’acheter un média (disque SSD, disque rotatif, clé USB, carte SD) ou un appareil sous Linux équipé d’un espace de stockage dont j’ignore la technologie ?
Sans être parano, je me dis qu’avant d’envoyer des données précieuses sur l’espace de stockage, c’est le moment de faire certaines vérifications. Mais quelles vérifications ? Qu’est-il possible de faire ?

Sur un média connectable, tout est possible.
Sur un appareil neuf sans système ni données, tout est possible en utilisant une distrib Live.
Sur les autres, ça dépend, il y en a où on n’a même pas un accès root pour lancer une vérification « dure » ou « molle » (Android, routeur…).

En écrivant cet article, je me suis rendu compte que je ne me suis jusqu’ici jamais posé de questions sur l’opportunité de vérifier les espaces de stockage de mes téléphones, PC portables, routeurs, box… bref tous les appareils vendus prêts à être utilisés. Pourtant, que sais-je de la vérification faite par celui qui a installé le système ? Rien, et j’utilise, sans penser que l’espace de stockage de l’appareil n’est ni plus ni moins robuste que celui du PC Linux que j’ai installé dernièrement, mais que j’ai vérifié consciencieusement.

S.M.A.R.T.

S.M.A.R.T. est un système de surveillance intégré aux disques durs modernes et aux disques SSD. Il évalue en continu le bien-être du périphérique tout en anticipant les éventuels dysfonctionnements. Il surveille un maximum de paramètres (température, temps de fonctionnement, vitesse de rotation pour les disques magnétiques, nombre de démarrages et d’arrêts…) et dépend de l’expérience du fabricant. La réparation de secteurs utilise une réserve de secteurs et le mapping entre secteurs logiques et secteurs physiques.

On pourrait se dire que, de nos jours, les supports sont fiables et testés par les intégrateurs. D’autres considèrent que la technologie S.M.A.R.T. suffit… et c’est bien commode de ne plus se soucier de la fiabilité des supports de stockage. Mais à la première galère due à un média défaillant, tu évolueras dans ta confiance.

Sais-tu seulement sur lesquels de tes médias S.M.A.R.T. est installé et actif ?
Si tu utilises un RaspberryPi, ton média système est… une carte SD. Elle n’a pas S.M.A.R.T.. Idem pour l’extension de mémoire que tu as ajoutée à ton téléphone.

Je t’invite à lire la page Wikipedia sur S.M.A.R.T. et son paragraphe « Standard, implémentation et limitations ». Que fait et que ne fait pas le S.M.A.R.T. qui fonctionne sur le disque du PC qui te permet de lire cet article ? Difficile de savoir. Comment est-il configuré ? Fais un sondage autour de toi à ce sujet et tu seras pris pour un parano.

Sur ton PC, sais-tu qu’il y a une option S.M.A.R.T. dans le BIOS (ou UEFI) ? Sais-tu qu’il y a un service smartd dans ton Linux ? As-tu compris aussi qu’avec du RAID il n’est pas toujours opportun d’activer S.M.A.R.T. ? Les communications entre S.M.A.R.T. RAID et l’O.S. peuvent se passer plus ou moins bien selon la qualité de ces éléments. Il te faut bien comprendre ce qu’il est possible de paramétrer et deviner comment ça marche derrière.

Si tu demandes une vérification à S.M.A.R.T. par smartctl, sais-tu ce qu’il fait ? Se contente-t-il de lire ou fait-il un test en écriture ?

Enfin, quand S.M.A.R.T. détecte qu’un secteur est devenu défectueux, il ne peut pas deviner quels bits sont défaillants, aussi il renseigne le secteur de secours avec ce qu’il peut, qui est l’état du secteur après défaillance. S.M.A.R.T. a ses limites, il répare comme il peut. S’il est configuré pour, il alerte quand il prévoit de la défaillance, mais sais-tu reconnaître ses alertes ? As-tu compris ce que tu dois faire en réponse aux alertes ?

Je t’invite à apercevoir la complexité de prise en main de S.M.A.R.T. en faisant quelques recherches sur ces listes de mots :

smartctl howto
smartctl configure self test
smartd howto

et tu verras que ce n’est pas simple à comprendre et à configurer.

Tu peux te dire naïvement que tout est bien configuré par défaut et que tes médias seront toujours impeccables. Sinon, il va falloir investir en temps et faire quelques essais. À toi de choisir.

S.M.A.R.T. est une belle avancée technologique, mais il est dangereux de lui attribuer des mérites indus.

BADBLOCKS

Le programme Linux badblocks a été créé en même temps que le paquetage e2fsprogs (mkfs.ext2, mkfs.ext3, mkfs.ext4, fsck.ext2…). À l’époque S.M.A.R.T. n’existait pas et il n’y avait pas de mapping entre les adresses logiques et physiques. C’est le file-system qui devait tout gérer quand il détectait un bloc défectueux, notamment la mise du bloc en liste noire. C’est pour cela que mke2fs et e2fsck lancent un badblocks « dur » quand on leur spécifie deux fois l’option -c. Cela dure trèèès longtemps car les paramètres par défaut ne sont plus bien optimisés.

Depuis l’arrivée de S.M.A.R.T., certains considèrent badblocks comme obsolète. Mais qui peut affirmer que TOUS les médias utilisés par TOUS les usages de Linux sont équipés de S.M.A.R.T. ?
Peut-être qu’au M.I.T. avec un réseau de classe A, on ne s’abaisse pas à utiliser une clé USB ou un RaspberryPi. Je me demande dans quel type de bulle vivent ceux qui pensent que S.M.A.R.T. est sur tous les médias de stockage.

Quand j’achète une clé USB, je lui passe badblocks dessus et s’il y a des mauvais blocs, je la rends et je me fais rembourser.
J’ai essayé d’interroger les fonctionnalités S.M.A.R.T. de diverses clés USB et je n’ai rien obtenu, comme si cette utilité n’y était pas installée :

# smartctl --scan-open
# smartctl -x /dev/sdc
# smartctl -i -d scsi -T verypermissive /dev/sdc

Mes recherches sur Internet n’ont abouti à rien qui me permette de voir une réponse de la part de clés USB. Peut-être que si j’achetais (cher) des clés USB de très haute qualité, j’y trouverais S.M.A.R.T. ?

Comme l’intervenant du message #25 de ce rapport de bug (en), je pense que badblocks est loin d’être obsolète.
J’ai envie d’imiter le message #20 juste au-dessus en disant : « Je dois demander --- ***pourquoi*** vous (et d’autres personnes) mettez de l’essence dans vos voitures en 2024 ? L’essence en tant que chose a commencé à devenir inutile pour les voitures vers 2011, lorsque la voiture électrique s’est répandue, et que les batteries sont devenues suffisamment énergétiques pour faire rouler des véhicules sur des centaines de km ».

Je t’invite aussi à une recherche sur la liste de mots « courbe en baignoire composants électroniques ». Le programme badblocks peut servir au déverminage. On sait en détail ce qu’il fait. Son résultat est clair, contrairement aux implémentations propriétaires de S.M.A.R.T..
Sans déverminage (rodage) on court le risque de subir trop tôt une réparation discrète incomplète : le secteur réparé sera physiquement bon mais son contenu sera corrompu. La conséquence peut être catastrophiquement discrète. Par exemple, un fichier LibreOffice est une archive zip (compressée), la corruption d’un seul bit y a des conséquences imprévisibles.

De mon côté, j’utilise badblocks pour tester les médias nouvellement acquis et pour effacer ceux bons à réformer. Ce programme permet aussi la chasse aux médias « fake-size », du genre carte SD de 1To qui accepte de recevoir 1To de fichiers, mais qui ne stocke en réalité que 8Go. On trouve de nos jours (juin 2024) des clés USB de 16To vendues au prix de 5 € ! L’application h2testw sous windows et son équivalent f3 sous linux sont spécialement conçus pour cette chasse. Le microprogramme de ces clés USB ou de ces disques a été détourné pour déclarer un espace de stockage falsifié. C’est de l’escroquerie.

BADBLOCKS2

Mon usage du badblocks du paquetage e2fsprogs-1.47.0 m’a amené à y caractériser un bug reproductible en novembre 2023. J’ai eu l’intention de remonter le bug aux équipes ad hoc de ma distribution (Mageia) mais je me suis d’abord mis à regarder le source.

J’y ai trouvé l’origine du bug, et j’ai trouvé d’autres bugs. En ajoutant des instructions de traçage et de simulation d’erreurs du média, j’ai mis en évidence encore d’autres bugs. De fil en aiguille, j’ai fini par retoucher profondément certains algorithmes, et j’ai appelé badblocks2 cette nouvelle version. J’y ai ajouté diverses options faciles à programmer et commodes à l’usage. J’ai copieusement testé.

Si tu veux essayer badblocks2 et/ou prendre connaissance de ma démarche, je livre tout sur mon site. Tu verras pourquoi je me suis rabattu sur la création d’une nouvelle version, plutôt que de faire remplacer l’ancienne (ce qui aurait profité à tous).
Tu peux te faire une idée des fonctionnalités ajoutées en consultant les *.8.txt .
Tu peux t’inspirer des tests décrits dans le fichier Alire.txt, tester diverses valeurs pour -c -t et voir l’effet sur la vitesse de traitement. Tu peux même jouer à arracher la clé en cours de test (Ctrl-C pour arrêter) !

J’espère que ce programme servira à d’autres que moi.

En pratique

Voici une suggestion d’actions à faire lors de l’acquisition d’un nouveau média (disque SSD, disque rotatif, clé USB, carte SD…). Les commandes doivent être lancées par l’opérateur root.
Avec cela, quand dans quelques années tu satureras le média, tu seras sûr que le dernier secteur utilisé aura été déverminé avant la mise en production.

ATTENTION : les usages de badblocks proposés sont destructifs pour les données présentes sur le média. Le mode non-destructif du badblocks actuel comporte des bugs (version e2fsprogs-1.47.0). Celui de badblocks2 a été corrigé.
ATTENTION : la liste des mauvais blocs renvoyée par le badblocks actuel est fausse (version e2fsprogs-1.47.0). Le nombre de mauvais blocs est correct. La liste renvoyée par badblocks2 est correcte.
ATTENTION : le paramètre device du média est supposé être /dev/sdc. Ne pas se tromper, au risque d’effacer un autre média en cours d’usage.

D’abord déterminer le block-size du noyau, c’est une bonne valeur à prendre comme block-size du file-system :

# blockdev --getbsz /dev/sdc

Dans ce qui suit, je suppose que la valeur 4096 a été renvoyée.

Ensuite déterminer si S.M.A.R.T. est sur le média :

# smartctl --scan-open
# smartctl -x /dev/sdc
# smartctl -i -d scsi -T verypermissive /dev/sdc

Si S.M.A.R.T. n’est pas sur le média

Passer badblocks2 pour voir s’il y a 0 ou peu de mauvais blocs :

# badblocks2 -b 4096 -c 32768 -wrrvvss -t r -t r -e 40 -o /tmp/sdc.bb /dev/sdc

L’option -e peut être supprimée ou modifiée selon la limite du nombre de mauvais blocs considérée acceptable ; les options -t peuvent être différentes selon la sévérité souhaitée (voir le man).

S’il y a trop de mauvais blocs, refuser d’utiliser le média (->garantie ?).

S’il y a 0 mauvais bloc on peut formater en toute tranquillité (partitionner éventuellement avant) :

# mkfs.ext? -b 4096 ... /dev/sdc

S’il y a quelques mauvais blocs, sans que la limite -e soit atteinte, on pourra formater en utilisant la liste sauvée de mauvais blocs :

# mkfs.ext? -b 4096 -l /tmp/sdc.bb ... /dev/sdc

Si l’on veut partitionner, il faudra recalculer la liste des mauvais blocs de chaque partition avant de formater (remplacer sdc par sdc1 dans les commandes badblocks2 et mkfs.ext? ci-dessus).

Si l’on veut formater en vfat exfat ou f2fs (clés USB en général), il n’est pas possible d’utiliser la liste des mauvais blocs détectés ; la seule solution est de refuser d’utiliser le média s’il y a des mauvais blocs (ou alors de restreindre l’usage à une zone saine… à localiser)

Si S.M.A.R.T. est sur le média

On peut vérifier son activation par smartctl :

# smartctl -i /dev/sdc

Ensuite, il faut interroger le média sur l’état et les capacités de son S.M.A.R.T. :

# smartctl -a /dev/sdc

Noter le nombre de réallocations faites et prévues :

# smartctl -a /dev/sdc | grep -i _sector

Puis faire une passe de déverminage, en écriture+lecture car on ne sait pas si l’écriture seule suffit ; ne pas utiliser l’option -p de badblocks ; les options -t peuvent être différentes selon la sévérité souhaitée (voir le man) :

# badblocks2 -b 4096 -c 32768 -wrvvss -t r -o /tmp/sdc.bb1 /dev/sdc

Faire une passe de vérification, il ne devrait plus y avoir de mauvais blocs :

# badblocks2 -b 4096 -c 32768 -wrvvss -t r -o /tmp/sdc.bb2 /dev/sdc

S’il y a encore des mauvais blocs, c’est soit que le déverminage n’est pas terminé, soit que le média et/ou son S.M.A.R.T. sont foireux (il ne détecte pas les mauvais secteurs vus par badblocks2 ou les secteurs de réserve sont mauvais ou… pire) ; relancer des passes une par une jusqu’à ce qu’il n’y ait plus de mauvais bloc détecté.

Re-interroger S.M.A.R.T. pour voir l’évolution des réallocations :

# smartctl -a /dev/sdc | grep -i _sector

Ensuite on peut formater (partitionner éventuellement avant) en considérant que le média a remappé tous ses mauvais secteurs et est donc impeccable pour l’utilisation :

# mkfs.ext? -b 4096 ... /dev/sdc

Par la suite, on pourra de temps en temps consulter l’état de santé du média en service :

# smartctl -H /dev/sda

Si on est courageux, on peut lancer de temps en temps un contrôle du média par son S.M.A.R.T.
Si on est encore plus courageux, on configurera smartd pour que ces vérifications soient automatiques et pour que les alertes soient envoyées par courriel.

Attention à la communication entre l’O.S., S.M.A.R.T. et RAID (niveau carte mère / niveau OS / contrôleurs bas de gamme), voir la page Wikipedia sur S.M.A.R.T..

Que l’esprit « aware » soit en toi, sur tes données et sur ton espace de stockage

Commentaires : voir le flux Atom ouvrir dans le navigateur

QSPTAG #311 — 28 juin 2024

Par : robinson
28 juin 2024 à 11:37

Les algorithmes punitifs de France Travail

À France Travail (ex-Pôle Emploi) comme à la CNAF, sous prétexte de « lutter contre la fraude » ou de pouvoir « individualiser » les dossiers, des algorithmes viennent noter, classer, et juger les bénéficiaires. Expérimentés chez France Travail depuis 2013, généralisés depuis 2018, ces algorithmes partent du principe que les allocataires sont malhonnêtes et abusent du système de l’assurance chômage, et leur attribuent un « score de suspicion » (le terme est utilisée par France Travail).

Mais l’agence a aussi imaginé d’utiliser des algorithmes pour remplacer la travail des conseiller·es et proposer des offres d’emplois — après tout, c’est déjà le cas pour Parcoursup et sur les applis de rencontre amoureuse… Loin de l’application d’un droit simple, on entre dans une politique de profilage et de tri des bénéficiaires. Scores « d’employabilité », « traitements des aspects motivationnels », « détection de signaux psychologiques » sont mobilisés pour détecter les « signes de perte de confiance » ou les « risques de dispersion ». Le calvaire social et intime qu’est le chômage devient un objet d’étude statistique affranchi de toute relation humaine, où les vies les plus fragiles sont normées, standardisées, formatées. Le même algorithmique qui diagnostiquera une « Dynamique de recherche faible » conseillera aussi l’employé·e de France Travail sur les actions à demander au bénéficiaire concerné… L’analyse détaillée est disponible sur notre site.

Lire l’article : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/

Mobilisation contre les partisans de la surveillance totale

Nous le disons depuis des années : les outils numériques de la surveillance, sur Internet et dans les pratiques policières, sont des outils dangereux par essence. Ils ont pourtant toujours été adoptés, légalisés et encouragés par des gouvernements qui se présentaient comme des ennemis des positions « extrêmes » et promettaient la main sur le cœur qu’ils surveillaient les habitant·es du pays pour leur bien.

Aujourd’hui, l’extrême droite est à la veille de prendre le pouvoir. La responsabilité de ses prédécesseurs est énorme : ils offrent à un parti champion du racisme, de l’inégalité entre les personnes, de la violence et de la restriction des droits politiques, une magnifique machinerie de surveillance et de répression. Pour ces raisons, nous appelons chacune et chacun à se mobiliser le 30 juin, le 7 juillet et après, contre celles et ceux qui ont bâti ce système technique totalitaire, et contre celles et ceux qui comptent bien l’utiliser contre la population du pays.

Lire notre prise de position : https://www.laquadrature.net/2024/06/28/legislatives-la-surveillance-sur-un-plateau-brun/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 71% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/
et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/

Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Divers

QSPTAG #310 — 21 juin 2024

Par : robinson
21 juin 2024 à 10:13

Bloquez la VSA dans votre commune !

Vous connaissez notre campagne contre la vidéosurveillance algorithmique (VSA). Le moment est venu de nous dresser tous et toutes contre ces dispositifs de surveillance totale. Pour l’heure, la VSA est toujours illégale, en dehors du périmètre expérimental tracé par la loi Jeux Olympiques. Mais de nombreuses communes sont déjà équipées, dans une opacité organisée, sans demander l’avis des habitant·es. Et les décrets préfectoraux récupérés par notre outil Attrap’Surveillance montrent chaque jour les abus. Alors, il faut donner de la voix. Il faut se faire entendre. Écrivez à votre maire !

Aux États-Unis, où les pratiques de VSA sont en avance sur les nôtres, de grandes villes ont déjà exprimé leur refus catégorique de les utiliser pour surveiller la population. En France, Montpellier a courageusement franchi le pas en 2022. Aujourd’hui, il est temps d’interpeller le plus grand nombre possible de communes, petites ou grandes, pour faire nombre et faire entendre que nous ne voulons pas laisser ce choix de société, totalitaire et déshumanisant, s’installer partout par inertie. La surveillance n’est pas une fatalité et nous pouvons l’arrêter.

N’hésitez pas : faites entendre votre voix et celle d’un très grand nombre d’habitant·es de ce pays. Nous avons préparé un modèle de lettre à envoyer à votre mairie, que vous pouvez personnaliser comme vous voulez. Vous trouverez aussi des flyers et des affiches très faciles à adapter à votre commune, pour faire passer le message dans les rues et tout autour de vous. Tout est rassemblé sur cette page. Aidez le pays à lutter contre la surveillance et l’enfermement sur lui-même. Nous n’avons aucune raison ni aucune envie de vivre dans une prison à ciel ouvert. La liberté est collective !

Lire l’article  : https://www.laquadrature.net/2024/06/18/faites-interdire-la-videosurveillance-algorithmique-dans-votre-ville/
Trouver les éléments d’action : https://www.laquadrature.net/pasdevsadansmaville/
La page de la campagne contre la VSA : https://www.laquadrature.net/vsa/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 70% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • Vendredi 5 juillet 2024 : Apéro public dans nos locaux, au 115 rue de Ménilmontant à Paris, de 19h à 23h, entrée libre.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

Vidéosurveillance algorithmiquee

Règlement CSAR

Divers

Proposition du ZenDis sur la souveraineté numérique et le droit des marchés publics en Allemagne

Le ZenDis (de) vient de publier des propositions sur la souveraineté numérique et le droit des marchés publics en Allemagne.

Le ZenDis (Zentrum Digitale Souveränität - Centre pour la Souveraineté Numérique) est une agence gouvernementale (SARL à capitaux publics) allemande, dont la création avait été annoncée dans une dépêche de 2021 et dont la mission est de « servir d’organe central et de coordination pour la promotion des logiciels libres (OSS) dans l’administration publique ».

Le document « Positionspapier: Digitale Souveränität im Vergaberecht»  met en avant l’importance de renforcer la souveraineté numérique des administrations publiques allemandes face à une situation géopolitique incertaine. Il souligne la volonté politique exprimée dans diverses stratégies et documents officiels depuis 2020, qui prônent l’adoption systématique de standards ouverts et de logiciels open source pour les projets informatiques publics afin de réduire les dépendances aux fournisseurs de technologies propriétaires.

L’utilisation de logiciels open source est présentée comme un levier essentiel pour atteindre cette souveraineté numérique. Les avantages comprennent la flexibilité de changer de fournisseur, la capacité d’adaptation des logiciels aux besoins spécifiques des administrations et une meilleure position de négociation avec les fournisseurs. Toutefois, malgré un cadre juridique favorable, l’open source reste peu utilisé dans la pratique des marchés publics.

Enfin, le texte appelle à utiliser la réforme en cours du droit des marchés publics (Vergabetransformationspaket) pour intégrer de manière plus étendue cette préférence pour l’open source, en s’inspirant d’exemples de législation comme celle de la Thuringe. Le texte met en avant des propositions d’amendements spécifiques au code des marchés publics allemand pour favoriser l’adoption de l’open source, renforcer la souveraineté numérique et réduire les dépendances technologiques au sein des administrations publiques allemandes.

Sommaire

Le document « Positionspapier: Digitale Souveränität im Vergaberecht » élaboré par le Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) met en avant la nécessité de renforcer la souveraineté numérique au sein des administrations publiques allemandes, en particulier par le biais de la réforme du droit des marchés publics.

Il comprend cinq parties.

1. Contexte et volonté politique

Le texte commence par souligner l’importance croissante de la souveraineté numérique face à une situation géopolitique incertaine, en particulier pour les administrations publiques. Depuis 2020, des initiatives ont été mises en place pour renforcer cette souveraineté, telles que les stratégies définies par l’IT-Planungsrat (pdf, de) et les engagements du gouvernement fédéral inscrits dans la stratégie numérique de 2022 (de). Ces documents insistent sur l’utilisation de standards ouverts et sur l’adoption systématique de logiciels open source dans les projets informatiques publics.

2. Open-Source: catalyseur de la souveraineté numérique

L’adoption de logiciels open source est considérée comme un levier crucial pour atteindre la souveraineté numérique. Les avantages de l’open source incluent la possibilité de changer de fournisseur sans contraintes, la capacité à adapter et à personnaliser les logiciels, ainsi qu’une meilleure position de négociation vis-à-vis des fournisseurs. Une étude de marché (de) réalisée en 2019 pour le ministère de l’Intérieur allemand souligne l’importance de réduire les dépendances aux fournisseurs de logiciels propriétaires.

3. Spécificités du droit des marchés publics dans l’acquisition de logiciels

Le document distingue deux types de prestations dans l’acquisition de logiciels : la fourniture du produit logiciel (licences) et les services associés. Les licences open source, étant exemptes de droits d’utilisation, échappent souvent aux obligations de mise en concurrence des marchés publics. Cependant, les services liés à ces logiciels doivent faire l’objet de procédures d’appel d’offres. La pratique actuelle, qui consiste à combiner la fourniture de logiciels et les services associés dans un même appel d’offres, doit évoluer pour favoriser l’open source.

4. Nécessité et conformité juridique d’une préférence pour le libre

Malgré un cadre juridique favorable, l’open source reste marginal dans les pratiques d’achat public. Le texte plaide pour une préférence explicite pour les logiciels open source dans le droit des marchés publics pour éviter les effets de verrouillage (lock-in) liés aux logiciels propriétaires. Il s’appuie sur l’article 97 du code des marchés publics allemand, qui permet des traitements différenciés justifiés par des objectifs légitimes, comme la souveraineté numérique.

5. Opportunités de réforme du droit des marchés publics

Le texte appelle à profiter de la réforme en cours du droit des marchés publics (Vergabetransformationspaket) pour inscrire de manière plus étendue la préférence pour les logiciels open source. Des exemples de la législation en Thuringe montrent comment cette approche peut être intégrée dans les textes de loi, en mettant l’accent sur l’interopérabilité et la durabilité.

Citons à présent les propositions:

C’est pourquoi la réforme actuelle du droit des marchés publics (doit absolument être mise à profit pour établir une priorité open source étendue et efficace. Ou plus encore : pour ancrer la priorité de la Souveraineté numérique.

Concernant le logiciel libre, le document reprend les propositions (de) issues d’une étude réalisée en 2022 par le professeur Andreas Wiebe pour le compte de l’Open Source Business Alliance (OSBA):

(1) Afin de garantir une large interopérabilité, les nouvelles applications et technologies doivent être dotées d’interfaces et de normes ouvertes et être utilisables par ce biais. Les nouvelles applications et technologies doivent, dans la mesure du possible, être compatibles en amont.

(2) L’utilisation de logiciels open source doit être privilégiée par rapport aux logiciels dont le code source n’est pas accessible au public et dont la licence limite l’utilisation, la distribution et la modification, ainsi que l’utilisation d’applications et de technologies qui sont durables tout au long de leur cycle de vie.

(3) Pour les nouveaux logiciels développés par l’administration publique ou spécialement pour elle, le code source doit être placé sous une licence de logiciel libre et open source appropriée et publié, pour autant qu’aucune tâche liée à la sécurité ne soit effectuée avec ces logiciels et que cela soit autorisé par le droit des licences.

Commentaire: les points 1 et 2 font écho à l’article 16 de la loi République Numérique en France, mais dans celle-ci il n’est question que d’ « encouragement » alors qu’ici il s’agit d’une obligation (point 1) ou d’une préférence (point 2). Le point 3 est aussi proche de ce qui est prévu en France concernant les logiciels vus comme des documents administratifs communicables.

Le document ajoute pour conclure:

Nous nous rallions à ce point de vue et à la proposition de formulation, mais nous nous prononçons explicitement en faveur d’un ancrage dans le code des marchés publics. En effet, comme le fait remarquer Wiebe, la loi sur la cyberadministration ne se réfère pas directement à l’attribution des marchés. En revanche, le décret sur les marchés publics permet de donner la priorité à l’open source ou à la souveraineté numérique. […]

Nous estimons qu’il est nécessaire, au regard des exigences de la description des prestations,

1. de rendre obligatoire la mention, dans le cahier des charges, des exigences qui renforcent la Souveraineté Numérique.

En ce qui concerne les conditions d’attribution, nous pensons qu’il est nécessaire,
1. d’établir l’effet du logiciel sur la Souveraineté Numérique comme critère autonome d’évaluation des offres,

2. de concrétiser l’évaluation de la rentabilité du logiciel,

• de manière à inclure les éventuels coûts induits par un éventuel effet de verrouillage,

• de sorte que l’impact économique sur d’autres acteurs de l’administration publique (réutilisation de logiciels) soit pris en compte.

En résumé

Le ZenDiS préconise des amendements spécifiques au code des marchés publics pour établir une préférence claire et opérationnelle en faveur des logiciels libres, afin de contribuer à la souveraineté numérique. Ce document présente des propositions concrètes pour adapter le cadre juridique afin de favoriser l’adoption de l’open source et de réduire les dépendances aux technologies propriétaires dans le secteur public.

Il nous semble indispensable de mener une réflexion similaire en France.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Appel "Campus du libre 2024 (Lyon)" - Le numérique libre dans l'enseignement et la recherche

La 7ème édition du Campus du Libre se déroulera le samedi du 23 novembre 2024 au campus de la Manufacture des Tabacs à l'Université Jean-Moulin Lyon3.

Le Campus du Libre est un événement inter-établissements rassemblant plusieurs établissements lyonnais (INSA-Lyon, Université Lyon 1, Université Lyon 2, Université Lyon 3) en partenariat avec les entreprises du Ploss-RA (association d'entreprises du numérique libre en Auvergne Rhône-Alpes) avec l'objectif de promouvoir le numérique libre et éthique dans l'enseignement et la recherche. Lors de cette journée, les visiteurs se retrouvent pour échanger autour de leurs expériences et leurs projets.

Le Campus Du Libre proposera

  • Un village des associations et entreprises
  • Des ateliers démonstratifs et pratiques
  • Des conférences
  • Des install-party et flash party
  • Des espaces de divertissements libristes (tournois de jeux vidéo libres, concerts, expo…)
  • Animation de réseautage

Si vous souhaitez faire des propositions pour nourrir cet événement, l'appel à contribution est en ligne pour vous accompagner : https://www.campus-du-libre.org/cfp.php

Merci d'envoyer vos propositions avant le 21 septembre à l'adresse de courriel : contact@campus-du-libre.org

L’événement est gratuit et ouvert à tous et toutes.

Comme les années précédentes en témoignent, ce sera aussi l’occasion pour les étudiants et étudiantes de se créer des relations dans le secteur et de trouver un stage ou une alternance.

Le campus du Libre s’adresse à toutes personnes voulant en apprendre plus sur l'univers du Libre. Et découvrir des alternatives, aux logiciels propriétaires et privateurs, qui puissent répondre aux besoins du quotidien.

L’équipe organisatrice vous prépare cette nouvelle édition avec impatience !

L'équipe du Campus du Libre vous remercie pour votre participation,
Au plaisir de vous lire,

Commentaires : voir le flux Atom ouvrir dans le navigateur

QSPTAG #309 — 7 juin 2024

Par : robinson
7 juin 2024 à 12:30

Pourquoi le blocage de TikTok est un précédent inquiétant

Lors des événements violents qui ont secoué la Kanaky-Nouvelle-Calédonie au mois de mai, le gouvernement avait décidé de bloquer sur ce territoire l’accès au réseau social TikTok, accusé d’être un moyen d’entretenir la révolte d’une partie de ses habitant·es. Pleinement conscients de la toxicité de ce réseau social comme de nombreux autres, nous avions pourtant attaqué la décision du gouvernement devant le Conseil d’État, en raison de son atteinte exceptionnelle au régime de l’État de droit et de la liberté d’expression, une première dans un pays démocratique de l’Union européenne.

Le Conseil d’État a rejeté notre demande, validant la légalité confuse invoquée par le gouvernement pour justifier son geste, flottant entre « état d’urgence » et « circonstances exceptionnelles », tout autant que la légèreté des preuves qu’il apportait pour appuyer ses affirmations sur le rôle joué par TikTok dans les émeutes. Depuis cette décision, l’état d’urgence a été levé et l’accès au réseau rétabli.

Mais la décision du Conseil d’État, que nous avions sollicité dans la cadre d’un recours en référé-liberté, portait sur l’urgence à maintenir ou à suspendre la décision du gouvernement. C’est ce caractère d’urgence qui a été refusé, mais la décision ne portait pas sur le fond de la légalité ou de l’illégalité de l’action du gouvernement, pourtant condamnée sur le principe par les plus hautes cours européennes (CEDH) ou les instances internationales (Nations Unies). C’est pourquoi nous avons décidé de déposer un nouveau recours devant le Conseil d’État, pour l’obliger à statuer a posteriori sur la légalité de la coupure arbitraire d’une partie d’Internet par un gouvernement. L’enjeu n’a évidemment rien à voir avec TikTok, mais concerne directement le droit des habitant·es de l’Union européenne à ne pas être privé·es à l’avenir de leurs moyens de communication, du jour au lendemain, par un gouvernement livré à ses plus bas instincts répressifs.

Lire l’article : https://www.laquadrature.net/2024/06/05/blocage-de-tiktok-en-nouvelle-caledonie-retour-sur-un-fiasco-democratique/

Analyse du règlement IA

Le règlement européen sur l’Intelligence artificielle (IA Act) a été adopté le 21 mai dernier. Au début des négociations autour de ce texte en 2021, les intentions annoncées pouvaient laisser espérer qu’il encadrerait ou interdirait l’usage des techniques d’IA les plus attentatoires aux droits individuels et collectifs, comme la reconnaissance faciale, ou les algorithmes de contrôle policier, administratif et de « notation sociale ». Mais l’insistance des États membres, la France en tête, a eu raison de ces bonnes intentions.

Cette approche de l’IA comme « marché » et comme moyen de croissance économique réduit délibérément les garde-fous censés encadrer l’usage de l’IA pour la surveillance des populations, en créant de nombreuses exceptions par lesquelles l’industrie et les gouvernements pourront justifier les pires usages policiers. Une analyse détaillée à lire sur notre site.

Lire l’analyse du règlement IA : https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/

Loi contre les ingérences étrangères

Dans le contexte géopolitique que l’on connaît, le gouvernement a décidé de soutenir, par l’intermédiaire du député Sacha Houlié (Renaissance), une proposition de loi pour « Prévenir les ingérences étrangères en France ». Parmi les diverses dispositions envisagées, dont un contrôle serré des financements associatifs venus de l’étranger, il s’agit d’autoriser les services de renseignement à utiliser pour de nouvelles finalités les fameuses « boîtes noires » légalisées en 2015 par la loi Renseignement.

Ces « sondes » surveillent les réseaux de télécommunication (Internet et téléphonie) à la recherche de signaux susceptibles d’attirer l’attention des service de renseignement. Le loi de 2015 imposait quelques limites fragiles à cette surveillance de masse, en le limitant à la lutte antiterroriste, avec des obligations d’évaluation et de contrôle, mais avec une définition trop tolérante de ce qui est considéré comme du terrorisme, pouvant englober l’activisme écologique par exemple. La nouvelle proposition de loi viendrait encore élargir ce cadre, avec des champs mal définis comme « l’indépendance nationale » ou « les intérêts majeurs de la politique étrangère ».

L’Observatoire des Libertés et du Numérique (OLN), un collectif d’association de défense des libertés dont La Quadrature fait partie, a rédigé un communiqué pour dénoncer le risque que cette surveillance accrue fait peser sur nos libertés collectives. Nous signons et publions ce communiqué sur notre site.

Lire le communiqué de l’OLN : https://www.laquadrature.net/2024/05/30/proposition-de-loi-ingerences-etrangeres-une-nouvelle-etape-dans-lescalade-securitaire/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 67% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 13 juin 2024 : Causerie mensuelle Technopolice Marseille. Rendez-vous à 19h au Manifesten, 59 Rue Adolphe Thiers
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

À voir

Blocage de TikTok

Recours

Délai

Décision

Déblocage

Conséquences

Vidéosurveillance algorithmique (VSA)

Loi SREN

Loi sur les ingérences étrangères

Trois projets récompensés durant OW2con'24 : Mercator, WIdaaS et Centreon

La conférence OW2con a récompensé trois projets de la communauté OW2 :

  • catégorie communauté (Community Award) : Mercator, pour la cartographie du système d’information
  • catégorie performance sur le marché (Market Award) : WIdaaS, pour la gestion d’identité et d’accès
  • catégorie technologie (Technology Award) : Centreon, pour la supervision

OW2con24 Awards

Mercator

Le prix OW2con'24 Best Project Community Award est remis à MERCATOR. Cette application web procure une cartographie du système d'information et suit les recommandations de l’ANSSI précisées dans son "Guide de la cartographie du système d'information". L’application permet une approche globale de la gestion des risques, autorisant une protection et une défense complètes ainsi qu’une résilience du système d'information. La cartographie du S.I. est un outil essentiel à sa maîtrise. Elle constitue une obligation pour les Opérateurs d'Importance Vitale (OIV) et les opérateurs de services essentiels (OSE).

WIdaaS

Le prix OW2con'24 Best Project Market Award revient à W'IdaaS (Worteks IDentity as a Service, l’identité comme service par Worteks), un logiciel de gestion d’identités et d’accès, en mode Cloud, accessible via des interfaces Web et piloté par des API REST. Ce programme s’appuie sur le projet OW2 FusionIAM, et gère l’authentification multi-facteurs (2FA/MFA). Ses fonctionnalités et son modèle économique correspondent aux attentes actuelles du marché des entreprises et des collectivités territoriales.

Centreon

Centreon est une plateforme de supervision ouverte, extensible et facile à intégrer, pour superviser de bout en bout des infrastructures d’entreprise. La solution est interopérable avec ITSM (information technology service management, voir ITIL), les outils d’observabilité, d’analyse de données, d’orchestration et d’automatisation.

Le mot d’OW2

(NdM: deux dépêches ont été proposées et fusionnées)

Cette année, l’association OW2 est ravie de récompenser trois logiciels open source pouvant aider les entreprises à protéger l’ensemble de leur patrimoine numérique et à conserver la maîtrise de leurs infrastructures en interne, en périphérie et dans le cloud. Centreon, W’IDaaS et Mercator méritent leur prix pour leur ouverture aux solutions tierces, leurs fonctionnalités, leur ergonomie et leur modèle économique,” déclare le CEO d'OW2 Pierre-Yves Gibello.

Les prix OW2con’24 Best Project Awards distinguent des réalisations exemplaires. Ils apportent aux membres d’OW2, aux chefs de projet et à leurs équipes une distinction communautaire et des opportunités de visibilité sur le marché.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Créatures ou IA : consultez, manipulez & annotez les images des bibliothèques, musées… grâce à IIIF

L’initiative IIIF, pour International Image Interoperability Framework, est née de la constatation que la diffusion d’images patrimoniales sur le web était « trop lente, trop coûteuse, trop décousue, trop complexe ». IIIF apporte une solution pérenne et élégante à ces difficultés en conciliant accessibilité, interopérabilité et sobriété. Il intéresse les GLAM (collections, bibliothèques, archives, musées, etc.) ainsi que les acteurs de l’enseignement et de la recherche.

Concrètement, IIIF créé un cadre technique commun grâce auquel les fournisseurs peuvent délivrer leurs contenus sur le web de manière standardisée, afin de les rendre consultables, manipulables et annotables par n’importe quelle application compatible.

International Image Interoperability Framework

Sommaire

Origine de IIIF

En 2010, constitution d’un groupe de réflexion et d’expérimentation sur l’interopérabilité des manuscrits médiévaux numérisés à l’initiative de l’université de Stanford. Ses travaux ont conduit à l’élaboration d’un modèle de données Shared Canvas basé sur le modèle d’annotation du W3C.

À la même époque, de grandes bibliothèques nationales et des universités ont travaillé à la définition d’un mécanisme d’échange des images pour aboutir en 2012 à la publication de la version 1 de l’API Image de l'International Image Interoperability Framework (IIIF).

Le Consortium IIIF a été créé en 2015 par onze institutions : la British Library, Artstor, Die Bayerische Staatsbibliothek, la Bibliothèque nationale de France, Nasjonalbiblioteket (Norvège), Wellcome Trust, et les universités d’Oxford, Stanford, Cornell, Princeton et Yale. Il compte actuellement 69 membres.

Qu’est-ce que IIIF ?

Un aspect spectaculaire de IIIF réside dans la visualisation fluide des images et le zoom profond, cf. Sagami River, Kyoto (1660?-1670?). Princeton University, mais IIIF ne se résume pas à ça, loin de là.

_Sagami River, Kyoto (1660?-1670?) affiché par le visualiseur libre UniversalViewer

IIIF désigne à la fois le cadre technique partagé d’un ensemble de protocoles ouverts et une communauté humaine qui les implémente, développe des logiciels et in fine expose des contenus audiovisuels interopérables.

Ce standard de fait est utilisé par de plus en plus d’institutions culturelles — collections, bibliothèques, musées, archives, etc. — et scientifiques — universités, labos, muséums, etc. Ses fonctionnalités s’étendent maintenant à l’audio et à la vidéo ; la prise en compte de la 3D est en cours.

Pour l’heure, IIIF est surtout utilisé pour la diffusion d’images numériques. Ce sont ainsi des centaines de millions d’images qui deviennent véritablement découvrables, consultables, comparables, manipulables, citables, annotables et mixables par n’importe quelle application compatible capable de se « brancher » sur les entrepôts des uns et des autres.

Sans téléchargement de fichiers images, ces ressources de « première main » sont immédiatement utilisables par les professionnels comme par les amateurs. Elles intéressent aussi les chercheurs, les enseignants et les élèves, et les médiateurs culturels, scientifiques et artistiques. IIIF facilite grandement la diffusion, la réutilisation et la valorisation de toutes ces ressources disséminées.

Principe général d’interopérabilité de IIIF : trois applications différentes sont branchées à trois entrepôts IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)
Principe général d’interopérabilité de IIIF : trois applications différentes sont branchées à trois entrepôts IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)

Visualisation d’un document

Photo de Bob Fitch, Martin Luther King Jr. & Joan Baez (1966), visualisée avec le logiciel libre Tify

Copie d’écran du logiciel libre Tify présentant une photographie de Martin Luther King et de Joan Baez (Bob Fitch, 1966). Ce document est fourni par un serveur IIIF opéré par l’université de Stanford.

Visualisation de plusieurs documents

La magie IIIF c’est la capacité de jongler avec les références des ressources, par exemple, pour les réunir dans des bibliothèques virtuelles ou encore pour servir de points d’entrée aux robots et autres IA afin d’analyser les documents.

Léonard Limosin est un peintre, émailleur, dessinateur et graveur français du XVIe siècle. Deux de ses œuvres sont présentées ci-après dans le visualiseur libre IIIF Mirador.

Vues d’œuvres de Léonard Limosin avec le logiciel libre Mirador

Sur cette page, vous pouvez explorer chaque image et zoomer, les comparer, lire leurs métadonnées, passer en plein écran ou agencer différemment les fenêtres. L’interface de Mirador vous permet aussi d’accéder à d’autres références en cliquant sur le bouton rond bleu puis en sélectionnant les documents préenregistrés.

Vous avez aussi la possibilité d’en ajouter d’autres via le bouton bleu Ajouter une ressource en bas à droite, ensuite en insérant l’URL d’un manifeste IIIF. En faisant une recherche sur Léonard Limosin vous trouverez différentes collections comportant certaines de ses œuvres. Certaines les exposent au standard IIIF. Dans ce cas, pour chaque notice il s’agit de récupérer le lien d’un manifeste IIIF (explicite ou associé au logo IIIF). Exemple, avec cette Crucifixion au Fitzwilliam Museum (Cambridge).

Le logiciel libre Omeka dispose de fonctionnalités IIIF et permet de créer des bibliothèques virtuelles de ressources IIIF.

Apports de IIIF

D’après IIIF en 5 minutes.

Pour les usagers

L’accès à des images de haute qualité ainsi qu’à leurs métadonnées, large choix de visualiseurs libres :

Ces outils, et d’autres encore, offrent une large palette d’interfaces riches et universelles pour :

Il existe de nombreux dispositifs pour utiliser ces ressources de « première main » et corpus dans un environnement éducatif et de recherche.

Pour les diffuseurs

  • bénéficier d’une manière standardisée, cohérente et efficace, de présenter et de partager leurs collections,
  • améliorer leur visibilité, l’accessibilité à leurs données et développer des espaces de collaboration et de recherche,
  • faciliter la gestion des ressources numériques en garantissant un accès homogène et pérenne,
  • promouvoir la participation des usagers en mobilisant des outils avancés pour l’exploration et l’utilisation des ressources,
  • proposer des projets de transcription, de crowdsourcing ou de sciences participatives en fournissant des documents annotables,
  • réduire et mutualiser les coûts en utilisant un standard ouvert, des services et des logiciels éprouvés.

Pour les développeurs

Il existe de nombreux logiciels et composants compatibles avec les API de IIIF, beaucoup sont libres. La page officielle Awesome IIIF recense les principaux ainsi qu’un grand nombre de ressources documentaires et de services.

IIIF est entièrement basé sur les standards et l’architecture du Web (principes REST et du Linked Data, Web Annotation Model du W3C, JSON-LD) ce qui facilite le partage et la réutilisation des données.

Le découplage entre la couche serveur et la couche cliente, la modularité des composants logiciels, la ré-utilisabilité des ressources offrent une grande souplesse et réduit la dépendance à un logiciel ou un prestataire.

La communauté des usagers et des développeurs est active.

Comment ça marche ?

Le manifeste est un élément essentiel de IIIF. C’est un document au format JSON-LD qui représente généralement un objet physique numérisé tel qu’un livre, une œuvre d’art, un numéro de journal, etc. Il peut également rassembler des éléments de provenances diverses. Il décrit l’ensemble du document, ses métadonnées, sa structure et référence les images et les médias qu’il embarque.

Les liens des manifestes IIIF sont plus ou moins faciles à trouver dans les notices des catalogues. Une méthode simple consiste à rechercher le logo IIIF ou à explorer les informations fournies par les visualiseurs. Le site officiel de IIIF alimente un annuaire non exhaustif des sites et, site par site, fournit généralement un mode d’emploi pour récupérer les manifestes.

Techniquement, IIIF comporte deux API principales, l’API Image et l’API Presentation qui fonctionnent de concert.

API Image

L’API Image fournit des informations basiques sur l’image ainsi que les pixels de l’image entière ou de zones à la demande.

Elle se présente avec les éléments suivants :

  • une URL d’accès aux informations techniques d’une image, abcd1234 est un exemple d’identifiant :
    http://www.example.org/image-service/abcd1234/info.json
  • une URL à construire à la carte pour récupérer et manipuler tout ou partie de l’image en précisant la zone, la taille, l’orientation, la qualité et le format de l’image à produire.

schéma de l’URL API Image

Voilà ce que ça donne en pratique avec l’image de test. Attention ! LinuxFR met en cache les images, si vous souhaitez effectuer les manipulations, copiez et modifiez les paramètres des url ci-après.

Le fichier info.jsonest le suivant :

  • https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/info.json

  • rendu homothétique de l’image entière avec une largeur de 300px

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/full/300,/0/default.jpg

    image entière rendue homothétique avec une largeur de 300px

  • détail de la même image

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/300,/0/default.jpg

    détail

  • rotation et transformations

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/45/default.jpg

    détail

    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/0/bitonal.jpg

    détail
    https://stacks.stanford.edu/image/iiif/ff139pd0160/K90113-43/1680,1100,1300,1300/150,/0/gray.jpg

    le rendu en niveaux de gris ne fonctionne pas avec ce serveur IIIF.

Pour en savoir plus consultez les spécifications de l’API Image (version 3.0 actuellement).

L’API Presentation

En complément à l’API Image, l’API Presentation fournit les propriétés d’un document IIIF : métadonnées, structures, annotations, etc.

Principales composantes d’un Manifeste IIIF

Principales composantes d’un Manifeste IIIF (source : Biblissima+ — Licence Ouverte / Open License 2.0)

Il existe de nombreux visualiseurs pour afficher ces documents et les informations associées. On distingue alors dans différentes zones le rôle de chacune des deux API principales.

API Image

Source : Biblissima+ — Licence Ouverte / Open License 2.0.

API Presentation

Source : Biblissima+ — Licence Ouverte / Open License 2.0.

À noter que le visualiseur optimise le trafic en ne demandant au serveur que la partie de l’image à afficher

Pour en savoir plus consultez les spécifications de l’API Presentation (version 3.0 actuellement).

Les autres API

Voir la page des spécifications, extensions, traductions et travaux en cours.

  • Authorization Flow (version 2.0) - décrit un système de contrôle d’accès.
  • Change Discovery (version 1.0) - fournit les informations nécessaires pour découvrir et utiliser les ressources IIIF.
  • Content Search (version 2.0) - définit le mécanisme d’interopérabilité permettant d’effectuer des recherches dans les annotations textuelles associées à un objet.
  • Content State (version 1.0) - permet de référencer tout ou partie d’un manifeste IIIF et de décrire des modalités d’accès.

Au-delà de l’image : l’audio, la vidéo et la 3D

Les références à des ressources audio et vidéo sont prises en compte dans la version 3.0 de l’API de présentation IIIF. À noter qu’il n’existe pas pour l’audio et pour la vidéo d’équivalents de l’API Image, en effet, cet aspect est pris en charge par les navigateurs. Exemple : audio et vidéo d’un morceau musical associés à la partition.

Il y a une forte demande pour la prise en compte de la 3D par IIIF. Un groupe de travail rassemble les institutions et les personnes intéressées. Il anime un dépôt Github qui rassemble les documents et expérimentations du groupe.

IIIF et IA

IIIF est de plus en plus utilisé par des dispositifs d’apprentissage et de reconnaissance automatique en raison de la facilité d’accès aux images entières ou à des zones, dans les définitions et qualités nécessaires. Il est aussi possible d’imaginer des IA qui génèrent automatiquement des manifestes annotés.

La société française Teklia s’est spécialisé dans ce domaine. Elle vient d'annoncer le passage sous licence libre de sa plateforme Arkindex.

Harvard Art Museums a créé AI Explorer qui mobilisent un certain nombre d’IA pour décortiquer des reproductions d’œuvres et des photographies.

Le Consortium IIIF a mis en place un groupe de travail et il existe une formation en ligne sur le sujet.

Commentaires : voir le flux Atom ouvrir dans le navigateur

QSPTAG #308 — 17 mai 2024

Par : robinson
17 mai 2024 à 11:13

Déjà une proposition de loi pour étendre la VSA dans les transports

C’est une logique que nous avions dénoncée comme un risque : la légalisation des « expérimentations » de vidéosurveillance algorithmique (VSA) dans le cadre des JO ouvrait la porte à une banalisation et à une extension de la VSA dans d’autres contextes. Cassandre avait raison, et l’extension de l’usage de la VSA, avant même son « évaluation », connaît déjà une nouvelle avancée.

Le Sénat a voté en février une proposition de loi que l’Assemblée nationale a commencé d’étudier en commission des lois ce mercredi 15 mai. Cette loi « relative au renforcement de la sûreté dans les transports » comporte un article 9 qui autoriserait l’utilisation de logiciels de VSA pour analyser a posteriori les images de vidéosurveillance prises dans les transports publics (SNCF et RATP en tête) dans le cadre d’enquêtes pénales. Les logiciels sont notamment capables d’isoler et de suivre une personne sur une grande quantité d’images et de reconstituer son trajet, sans que les agents aient besoin de visionner des heures d’enregistrements.

La stratégie est à la fois habile et grossière. On voit bien qu’elle avance à petits pas, autorisant un usage après l’autre, pour masquer la progression de la VSA en la disséminant dans une poussière de lois et de cas d’usages qui paraissent à chaque fois restreints. Mais il suffit d’un pas de recul pour voir que les prétentions à la sagesse et à la prudence, colportées par le terme « expérimentation » n’ont pas tenu très longtemps. Nous appelons évidemment les député·es à rejeter cet article qui veut légaliser des pratiques pour l’instant illégales dans la surveillance des transports en commun. Toutes les explications dans notre article.

Lire l’article : https://www.laquadrature.net/2024/05/14/vsa-lassemblee-discute-deja-son-extension-aux-transports/
Notre page de campagne contre la VSA : laquadrature.net/vsa

Recours contre le blocage de TikTok en Nouvelle-Calédonie

Dans un contexte de grande violence et de crise politique majeure en Nouvelle-Calédonie, le gouvernement a décidé de couper d’autorité l’accès à TikTok sur le territoire calédonien. Par-delà les questions de sécurité invoquées, cette censure arbitraire constitue un précédent très inquiétant, et une application directe des intentions de censure exprimées par Emmanuel Macron et le gouvernement lors des révoltes urbaines de l’été 2023. Nous avons déposé un référé-liberté (procédure d’urgence) devant le Conseil d’État pour contester cette mesure de censure. Plus de détails dans notre communiqué de presse.

Lire le communiqué : https://www.laquadrature.net/2024/05/17/la-quadrature-du-net-attaque-en-justice-le-blocage-de-tiktok-en-nouvelle-caledonie/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 65% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 18 mai 2024 : La Quadrature sera au Festival du livre et des cultures libres à l’espace autogéré des Tanneries, à Dijon. Plus d’infos ici.
  • 25 mai 2024 : Journées du logiciel libre à Lyon – Conférence « La vidéosurveillance algorithmique menace nos villes, contre-attaquons ! ». Plus d’infos sur la conférence et plus d’infos sur les JDLL.
  • 25 mai 2024 : La Quadrature participe à une table ronde organisée par le collectif Base Bleue dans le cadre de l’exposition « Les Yeux Olympiques ». Ce sera de 16h à 18h au Doc, 27 rue du Docteur Potain dans le 19e arrondissement de Paris.
  • 1er juin 2024 : Table ronde sur les réseaux sociaux dans l’environnement militant au festival Ma’Track à coté d’Angers. Plus d’informations ici.
  • 5 juin 2024 : Atelier-terrasse d’autodéfense numérique, LQDN convoquée Au Poste par David Dufresne.

La Quadrature dans les médias

Vidéosurveillance algorithmique (VSA)

Blocage de TikTok

Divers

QSPTAG #307 — 3 mai 2024

Par : robinson
3 mai 2024 à 10:55

Lancement de notre campagne contre la VSA

La loi JO de 2023 a légalisé des « expérimentations » de vidéosurveillance algorithmique (VSA) dans un cadre précis : des événements « festifs, sportifs ou culturels », sur une période donnée (jusqu’en mars 2025), et pour surveiller seulement huit critères parmi lesquels les départs de feu, les franchissements de ligne ou les mouvements de foule par exemple. Mais on le sait depuis longtemps grâce à notre campagne Technopolice, la VSA est déjà présente et utilisée dans des dizaines de communes sans aucun cadre légal. La SNCF expérimente par exemple depuis plusieurs mois un dispositif appelé Prevent PCP et qui dépasse largement le cadre délimité par la loi JO.

C’est pourquoi nous lançons cette semaine une grande campagne contre la VSA légale et illégale, en profitant de l’intérêt suscité par les JO, pour dénoncer l’hypocrisie consistant à légaliser petit à petit, et à banaliser par le fait, un système de surveillance qui sert à la fois des intérêts électoraux, industriels et policiers au mépris complet des droits fondamentaux et sans aucun débat démocratique.

Première action de cette campagne : une plainte devant la CNIL contre le dispositif Prevent PCPC de la SNCF. Pour en savoir plus sur la campagne, lisez notre communiqué de lancement ! Et retrouvez sur notre page de campagne les éléments de communication et de sensibilisation que nous avons préparés. Ils seront complétés au fil de la campagne.

Lire le communiqué de lancement de la campagne : https://www.laquadrature.net/2024/05/02/contre-lempire-de-la-videosurveillance-algorithmique-la-quadrature-du-net-contre-attaque/
Le site de campagne : hhttps://www.laquadrature.net/vsa/

Hadopi : la CJUE renonce à protéger l’anonymat en ligne

C’est une affaire qui commence en 2019. Dans le cadre de nos actions contre Hadopi, nous avions soulevé devant le Conseil d’État le problème de l’absence de contrôle préalable à la collecte des adresses IP et de l’identité civile des internautes, et la question de la licéité de cette collecte au regard du droit de l’UE. Après un circuit complet, du Conseil d’État au Conseil constitutionnel et retour, le Conseil d’État avait décidé de transmettre le problème sous forme d’une « question préjudicielle » à la Cour de justice de l’Union européenne (CJUE). Celle-ci a rendu une décision très décevante ce mardi 30 avril. À rebours de sa décision de 2020, la CJUE autorise toujours la collecte massive de l’identité civile des internautes, et admet désormais que l’association de celle-ci avec l’adresse IP et une communication peut se faire pour n’importe quel motif. Elle semble valider de guerre lasse la pratique illicite des États européens depuis des années. Tous les détails de cette décision et de ses conséquences dans notre article de réaction.

Lire notre réaction : https://www.laquadrature.net/2024/04/30/surveillance-et-hadopi-la-justice-europeenne-enterre-un-peu-plus-lanonymat-en-ligne/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment atteint 60% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

  • 3 mai 2024 : Apéro public dans nos locaux, 115 rue de Ménilmontant, 75020 Paris, à partir de 19h. Venez nous rencontrer !
  • 16 mai 2024 : Causerie mensuelle du groupe Technopolice Marseille, à partir de 19h au Manifesten, 59 Rue Adolphe Thiers, Marseille.
  • 18 mai 2024 : La Quadrature sera au Festival du livre et des cultures libres à l’espace autogéré des Tanneries, à Dijon. Plus d’infos ici : https://festivaldulivre.tanneries.org/.
  • 25 mai 2024 : Journées du logiciel libre à Lyon – Conférence « La vidéosurveillance algorithmique menace nos villes, contre-attaquons ! » à 13h. Plus d’infos sur la conférence et plus d’infos sur les JDLL.
  • Retrouvez tout l’agenda en ligne.

La Quadrature dans les médias

VSA et JO

Hadopi

Divers

Lettre d'information XMPP de février 2024

NdT — Ceci est une traduction de la lettre d’information publiée régulièrement par l’équipe de communication de la XSF, essayant de conserver les tournures de phrase et l’esprit de l’original. Elle est réalisée et publiée conjointement sur les sites XMPP.org, LinuxFr.org et JabberFR.org selon une procédure définie.

Bienvenue dans la lettre d’information XMPP, nous sommes ravis de vous retrouver ici ! Ce numéro couvre le mois de février 2024. Merci à tous nos lecteurs et aux contributeurs de cette lettre d'information !

Comme la présente lettre d’information, de nombreux projets et leurs efforts au sein de la communauté XMPP sont le résultat du travail bénévole de personnes. Si vous êtes satisfait des services et des logiciels que vous utilisez, pensez à dire merci ou à aider ces projets ! Vous souhaitez soutenir l’équipe de la lettre d’information ? Lisez la suite en bas de page.

    Sommaire

    Annonces de la XSF

    Bienvenue aux personnes ayant renouvelé leur adhésion et aux nouvelles adhésions du 1er trimestre 2024 !

    Si vous souhaitez rejoindre la XMPP Standards Foundation, postulez maintenant.

    XMPP et le Google Summer of Code 2024

    La XSF a été acceptée à nouveau comme organisation hôte du GSoC en 2024 ! Si cela vous intéresse, n'hésitez pas à nous contacter !

    Les idées de projet GSoC émanant d'organisations liées à XMPP sont les suivantes :

    Projets hébergés fiscalement par la XSF

    La XSF peut offrir une domiciliation fiscale pour les projets XMPP. Les candidatures sont à réaliser via Open Collective. Pour plus d'information, voir le billet de blog. Projets actuels pouvant être supportés:

    Événements XMPP

    • XMPP happy hour italienne [IT]: rencontre XMPP mensuelle italienne, chaque 3e lundi du mois à 19h00 (heure locale) (évenèment en ligne, avec partage vidéo et web en direct).

    Articles

    Nous sommes heureux d'annoncer le lancement de l'instance PeerTube XMPP-IT, une plateforme dédiée au partage et à la découverte de vidéos autour du protocole XMPP et ses applications. Les membres de la communauté XMPP sont encouragés à contribuer en créant et partageant leurs propres vidéos. Qu'il s'agisse de tutoriels, illustration de projets ou discussions sur des sujets XMPP, vos contributions sont bienvenues !

    JMP a fêté son 7e anniversaire ! Félicitations ! Découvrez la passerelle mobile-friendly vers les fournisseurs SIP pour passer des appels de votre mobile vers un téléphone fixe.

    jmp-sip-gateway

    Nouvelles des logiciels

    Clients et applications

    monocles chat est disponible sur Google Play. Elle apporte de nombreuses mises à jour comme une vue des commandes fonctionnelle et un meilleur support des applications WebXDC, mais aussi une première intégration moderne des autocollants.

    Serveurs

    • La version ejabberd 24.02 a été publiée, et elle prend en charge les protocoles TLS 1.3 et SASL2 avancés. Cette version apporte des améliorations de performance avec Bind 2 pour des temps de connexion plus rapides, ce qui est particulièrement crucial pour les utilisateurs de réseaux mobiles. La prise en charge de XEP-0424 : Message Retraction permet aux utilisateurs de gérer l'historique de leurs messages et de supprimer ce qu'ils ont posté par erreur.

    Bibliothèques et outils

    • GitLab XMPP Bot, un bot XMPP qui envoie des messages basés sur les hooks de GitLab a eu sa version 1.0.0. Ce bot est basé sur python-nbxmpp et il est actif dans le chat de support de Gajim.

    • go-xmpp 0.1.0 a été publié.

    • python-nbxmpp 4.5.4 a été publié, ce qui corrige quelques problèmes concernant les changements de sujet et l'analyse de la date.

    • Slixfeed est un bot d'information proposé en tant que composant client et service ; il peut gérer plusieurs chats simultanément et afficher des médias en ligne, ce qui, en plus d'être destiné principalement aux chats privés, le rend exceptionnellement utile pour les groupchats où les contenus visuels sont essentiels.

    • StropheJS 2.0.0 a été publié.

    • xmpp-rs s'est enrichi d'un Code de conduite et d'un guide de contribution. N'hésitez pas à venir dire boujour !

    Extensions et spécifications

    La XMPP Standards Foundation développe des extensions XMPP dans sa série de XEPs en plus des RFCs XMPP.

    Les développeurs et développeuses, et autres experts ou expertes en normes du monde entier collaborent à ces extensions, en développant de nouvelles spécifications pour les pratiques émergentes et en affinant les façons de faire existantes. Proposées par n’importe qui, les plus réussies finissent finales ou actives – selon leur type – tandis que les autres sont soigneusement archivées en tant qu’ajournées. Ce cycle de vie est décrit dans la XEP-0001, qui contient les définitions formelles et canoniques des types, états et processus. Pour en savoir plus sur le processus de normalisation. La communication autour des normes et des extensions se fait sur la liste de diffusion des normes (archive en ligne).

    Extensions proposées

    Le processus de développement d'une XEP commence par la rédaction d'une idée et sa soumission à l'Éditeur XMPP. Dans les deux semaines qui suivent, le Conseil décide d'accepter ou non cette proposition en tant que XEP expérimentale.

    • Pas de XEP proposée ce mois-ci.

    Nouvelles extensions

    • Pas de nouvelle XEP ce mois-ci.

    Extensions ajournées

    Si une XEP expérimentale n'est pas mise à jour pendant plus de douze mois, elle sera déplacée d'expérimentale à ajournée. Si une nouvelle mise à jour est effectuée, la XEP redeviendra expérimentale.

    • Aucune XEP ajournée ce mois-ci.

    Extensions rejetées

    • XEP-0360: Nonzas (are not Stanzas)

    Extensions mises-à-jour

    • Aucune XEP mise-à-jour ce mois-ci.

    Dernier appel

    Les derniers appels sont lancés une fois que tout le monde semble satisfait de l'état actuel d'une XEP. Une fois que le Conseil a décidé que la XEP semblait prête, l'Éditeur XMPP lance un dernier appel pour recueillir des commentaires. Les commentaires recueillis lors du dernier appel peuvent permettre d'améliorer la XEP avant de la renvoyer au Conseil pour qu'il la passe à l'état stable.

    • Pas de dernier appel ce mois-ci.

    Extensions stables

    • Aucune XEP n’est passée à stable ce mois-ci.

    Extensions dépréciées

    • Aucune XEP déclarée dépréciée ce mois-ci.

    Diffuser la nouvelle

    N'hésitez pas à partager les nouvelles sur d'autres réseaux :

    Consultez également notre Flux RSS !

    Vous recherchez des offres d'emploi ou souhaitez engager une consultante ou un consultant pour votre projet XMPP ? Visitez notre tableau des offres d'emploi XMPP.

    Contributeurs & traducteurs

    Il s’agit d’un effort communautaire, et nous aimerions remercier les traducteurs et traductrices pour leurs contributions. Les volontaires sont les bienvenus ! Les traductions de la lettre d’information XMPP seront publiées ici (avec un certain retard) :

    • anglais (original) : xmpp.org

      • contributeurs généraux : Adrien Bourmault (neox), Alexander "PapaTutuWawa", Arne, cal0pteryx, emus, Federico, Jonas Stein, Kris "poVoq", Licaon_Kter, Ludovic Bocquet, Mario Sabatino, melvo, MSavoritias (fae,ve), nicola, Simone Canaletti, XSF iTeam
    • français : jabberfr.org et linuxfr.org

      • traduction : Adrien Bourmault (neox), alkino, anubis, Arkem, Benoît Sibaud, mathieui, nyco, Pierre Jarillon, Ppjet6, Ysabeau
    • italien : notes.nicfab.eu

      • traduction : nicola

    Aidez-nous à créer la lettre d’information

    Cette lettre d’information XMPP est produite collaborativement par la communauté XMPP. La lettre d’information de chaque mois est rédigé dans ce simple pad. À la fin de chaque mois, le contenu du pad est fusionné dans le dépôt Github de la XSF. Nous sommes toujours heureux d’accueillir des contributeurs et contributrices. N’hésitez pas à vous joindre à la discussion dans notre salon public Comm-Team (MUC) et ainsi nous aider à soutenir cet effort communautaire. Vous avez un projet et vous voulez en parler ? Pensez à partager vos nouvelles ou vos événements ici, et à les promouvoir auprès d’un large public.

    Tâches régulières :

    • rassembler les nouvelles dans l'univers XMPP
    • bref résumé des nouvelles et évènements
    • résumé de la communication mensuelle des extensions (XEPs)
    • relecture du brouillon de lettre d'information
    • préparation d'infographies
    • traductions
    • communication via les réseaux sociaux

    Licence

    Cette lettre d’information est publiée sous la licence CC BY-SA.

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    RootDB - une application web de reporting, auto-hebergée

    Logo de RootDB
    Présentation rapide de RootDB, une application auto-hébergeable open-source (AGPLv3), permettant de générer des rapports à base de requêtes SQL.

    Dashboard

    Sommaire

    Genèse du projet

    Pour les besoins d'un client, il fallait que je génère rapidement des statistiques d'usage diverses et variées (à bases de tableaux et graphiques), à partir de plusieurs base de données relationnelles classiques et que j'intègre ces rapports dans un backoffice.

    Le premier réflexe fut de me tourner vers une solution que j'ai utilisée pendant une dizaine d'années auparavant et qui se nomme MyDBR. Cela répondait parfaitement à son besoin tout en étant abordable. MyDBR, bien maitrisé, permet de faire énormément de choses, mais l'interface est vraiment datée et l'accès aux fonctionnalités des bibliothèques graphiques se fait par l’intermédiaire de wrappers en SQL.

    J'ai cherché des alternatives, auto-hébergeables, simples à mettre en place, maintenues et avec la même logique pour la création de rapport mais je n'ai pas trouvé mon bonheur. Il y a, évidemment, pleins de solutions qui existent mais il y avait toujours quelque chose qui n'allait pas après essai, que ce soit dans la manière de générer des rapports ou bien les pré-requis, parfois compliqués, pour l'hébergement.

    D'ou l'idée de créer, avec un collègue, notre propre solution de reporting - parce que pourquoi pas, finalement.

    Open-source

    Ce projet n'était pas open-source à la base et nous pensions simplement vendre des licences d'utilisation.

    Sauf qu’aujourd’hui beaucoup de monde utilise le cloud, et ce dernier vient avec ses solutions intégrées de reporting, limitant de fait l'intérêt de ce genre de projet. Pour faire bref, je reste convaincu que tout le monde n'est pas sur le cloud et que ce genre de solution peut encore intéresser quelques personnes.
    À cause des doutes sur la pertinence même du projet, je n'ai jamais sérieusement cherché du financement, ce qui ne m'a jamais permis d'être à temps plein dessus. Nous avons donc mis du temps avant de produire quelque chose d'exploitable dans un environnement de production : un an et demi environ.
    À cela s'ajoute le fait que ce projet n'existerait pas sans toutes les briques open-source sur lesquelles il se base. Et comme c'est l'open-source qui me fait vivre depuis un certain nombre d'années, il me semblait finalement bien plus naturel de rendre ce projet open-source (licence AGPLv3) que d'essayer de le vendre en chiffrant le code source.

    RootDB ?

    Étant familier du SQL et du JavaScript, nous voulions avoir une solution qui ne mette pas de bâtons dans les roues du développeur, à savoir :

    • utiliser principalement le SQL pour la récupération et le traitement des données ;
    • avoir un accès intégral à la bibliothèque graphique choisie ;

    Ce choix de préférer un environnement de développement de rapport orienté développeur est assumé, d'où le nom du projet.

    Fonctionnalités

    Je ne vais pas vous présenter toutes les fonctionnalités car le site web principal et l'instance de démonstration les présentent déjà correctement. Je vais donc plutôt mettre en avant les spécificités du projet.

    Websocket

    Les requêtes SQL peuvent prendre du temps à tourner, surtout si les tables ne sont pas correctement optimisées. Par conséquent l'interface repose lourdement sur les websockets afin d'éviter les problèmes de timeout. Quand un rapport est exécuté, l'exécution des différentes requêtes est dispatchée de manière asynchrone et les vues affichent des résultats uniquement quand les données arrivent sur le websocket du rapport.
    D'une manière générale toute l'interface est rafraichie par websocket.

    Bibliothèques graphiques au choix

    Nous donnons accès à Chart.js ou D3.js, sans limitation, sans wrapper. Il est donc possible de se référer directement à la documentation officielle de ces deux bibliothèques.

    Onglets & Menu

    Nous aimons bien les menus. :)
    C'est simple, élégant et permet d'accéder à beaucoup d'options de manière claire.
    L'interface repose sur une barre de menu principale dynamique et une barre d'onglets dans lesquels s'affiche les différentes parties de l'application. Il est donc possible d'ouvrir plusieurs rapports (ou le même) dans le même onglet du navigateur web.

    Cache

    Il existe deux niveaux de cache :

    • un cache utilisateur, pratique pour cacher des résultats de manière temporaire afin de partager des résultats avec un autre utilisateur.
    • un cache système (jobs) ou il est possible de générer du cache de manière périodique. Nécessaire pour des rapports qui utilisent de très grosses tables qu'il n'est parfois pas possible d'optimiser.

    Paramètres en entrée

    Il est très facile de générer ses propres paramètres afin de filtrer les rapports, que ce soit sur une plage de date, une liste d'options sortie d'une base de données, des cases à cocher etc.

    Liens entre rapports

    Que ce soit avec Chart.js ou bien un tableau, vous pouvez créer des liens entre vos rapports ou bien sur le même rapport pour faire des rapports de type drill-down.

    Hébergement

    Côté API, RootDB est une application Laravel qui fonctionne sur du PHP en version 8.2.x (voir 8.3.x, mais pas encore bien testé) et utilise Memcached pour la gestion du cache.
    Le serveur de websocket est propulsé par Laravel Reverb.
    Côté Frontend, il s'agit d'une application React classique, en TypeScript, qui utilise PrimeReact pour la suite de composants prêt-à-l'emploi.

    Conclusion

    Concernant les fonctionnalités que nous aimerions mettre en place petit à petit :

    • une interface de configuration pour Chart.js - afin de, quand même, rendre plus simple la configuration des charts, tout en laissant la liberté au développeur de coder en javascript les fonctionnalités avancés ;
    • un nouveau type de connecteur pour supporter Microsoft SQL Server ;
    • une fonctionnalité d'auto-rafraichissement des rapports ;
    • l'import asynchrone de gros fichiers CSV ou Excel.

    Nous pouvons aider à l'utilisation, par l’intermédiaire :

    • d'un salon discord mais ce n'est pas forcément idéal pour ce genre de projet. Je suis donc entrain de regarder du côté de Matrix, éventuellement ;
    • un forum classique.

    Voilà, c'était une brève présentation de RootDB.
    C'est un projet qui n'a pas encore été testé par beaucoup de monde, d’où cette présentation pour le faire connaitre un peu plus.

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Difficile de trouver de la fibre optique au modem offerte par un FAI indépendant

    Par : Crobert
    5 mai 2024 à 15:36

    Bonjour,

    Vous pouvez maintenant avoir une connexion residentielle fibre optique au modem sans faire affaire avec Bell ou une de ses filiales. www.oricom.ca , un fournisseur Internet indépendant depuis 1995 offre maintenant le service.

    Dans les dernières années, plusieurs FAI qui offrent maintenant la fibre optique au modem ont été acheté par Bell sans avoir changé de nom. Donc vous faites peut-être affaire avec Bell sans le savoir.

    14 messages - 9 participant(e)s

    Lire le sujet en entier

    ❌
    ❌