Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Four Infosec Tools for Resistance this International Women’s Day 

While online violence is alarmingly common globally, women are often more likely to be the target of mass online attacks, nonconsensual leaks of sensitive information and content, and other forms of online violence. 

This International Women’s Day, visit EFF’s Surveillance Self-Defense (SSD) to learn how to defend yourself and your friends from surveillance. In addition to tutorials for installing and using security-friendly software, SSD walks you through concepts like making a security plan, the importance of strong passwords, and protecting metadata.

1. Make Your Own Security Plan

This IWD, learn what a security plan looks like and how you can build one. Trying to protect your online data—like pictures, private messages, or documents—from everything all the time is impractical and exhausting. But, have no fear! Security is a process, and through thoughtful planning, you can put together a plan that’s best for you. Security isn’t just about the tools you use or the software you download. It begins with understanding the unique threats you face and how you can counter those threats. 

2. Protect Yourself on Social Networks

Depending on your circumstances, you may need to protect yourself against the social network itself, against other users of the site, or both. Social networks are among the most popular websites on the internet. Facebook, TikTok, and Instagram each have over a billion users. Social networks were generally built on the idea of sharing posts, photographs, and personal information. They have also become forums for organizing and speaking. Any of these activities can rely on privacy and pseudonymity. Visit our SSD guide to learn how to protect yourself.

3. Tips for Attending Protests

Keep yourself, your devices, and your community safe while you make your voice heard. Now, more than ever, people must be able to hold those in power accountable and inspire others through the act of protest. Protecting your electronic devices and digital assets before, during, and after a protest is vital to keeping yourself and your information safe, as well as getting your message out. Theft, damage, confiscation, or forced deletion of media can disrupt your ability to publish your experiences, and those engaging in protest may be subject to search or arrest, or have their movements and associations surveilled. 

4. Communicate Securely with Signal or WhatsApp

Everything you say in a chat app should be private, viewable by only you and the person you're talking with. But that's not how all chats or DMs work. Most of those communication tools aren't end-to-end encrypted, and that means that the company who runs that software could view your chats, or hand over transcripts to law enforcement. That's why it's best to use a chat app like Signal any time you can. Signal uses end-to-end encryption, which means that nobody, not even Signal, can see the contents of your chats. Of course, you can't necessarily force everyone you know to use the communication tool of your choice, but thankfully other popular tools, like Apple's Messages, WhatsApp and more recently, Facebook's Messenger, all use end-to-end encryption too, as long as you're communicating with others on those same platforms. The more people who use these tools, even for innocuous conversations, the better.

On International Women’s Day and every day, stay safe out there! Surveillance self-defense can help.

This blog is part of our International Women’s Day series. Read other articles about the fight for gender justice and equitable digital rights for all.

  1. Four Reasons to Protect the Internet this International Women’s Day
  2. Four Voices You Should Hear this International Women’s Day
  3. Four Actions You Can Take To Protect Digital Rights this International Women’s Day

Celebrating 15 Years of Surveillance Self-Defense

On March 3rd, 2009, we launched Surveillance Self-Defense (SSD). At the time, we pitched it as, "an online how-to guide for protecting your private data against government spying." In the last decade hundreds of people have contributed to SSD, over 20 million people have read it, and the content has nearly doubled in length from 40,000 words to almost 80,000. SSD has served as inspiration for many other guides focused on keeping specific populations safe, and those guides have in turn affected how we've approached SSD. A lot has changed in the world over the last 15 years, and SSD has changed with it. 

The Year Is 2009

Let's take a minute to travel back in time to the initial announcement of SSD. Launched with the support of the Open Society Institute, and written entirely by just a few people, we detailed exactly what our intentions were with SSD at the start:

EFF created the Surveillance Self-Defense site to educate Americans about the law and technology of communications surveillance and computer searches and seizures, and to provide the information and tools necessary to keep their private data out of the government's hands… The Surveillance Self-Defense project offers citizens a legal and technical toolkit with tips on how to defend themselves in case the government attempts to search, seize, subpoena or spy on their most private data.

screenshot of SSD in 2009, with a red logo and a block of text

SSD's design when it first launched in 2009.

To put this further into context, it's worth looking at where we were in 2009. Avatar was the top grossing movie of the year. Barack Obama was in his first term as president in the U.S. In a then-novel approach, Iranians turned to Twitter to organize protests. The NSA has a long history of spying on Americans, but we hadn't gotten to Jewel v. NSA or the Snowden revelations yet. And while the iPhone had been around for two years, it hadn't seen its first big privacy controversy yet (that would come in December of that year, but it'd be another year still before we hit the "your apps are watching you" stage).

Most importantly, in 2009 it was more complicated to keep your data secure than it is today. HTTPS wasn't common, using Tor required more technical know-how than it does nowadays, encrypted IMs were the fastest way to communicate securely, and full-disk encryption wasn't a common feature on smartphones. Even for computers, disk encryption required special software and knowledge to implement (not to mention time, solid state drives were still extremely expensive in 2009, so most people still had spinning disk hard drives, which took ages to encrypt and usually slowed down your computer significantly).

And thus, SSD in 2009 focused heavily on law enforcement and government access with its advice. Not long after the launch in 2009, in the midst of the Iranian uprising, we launched the international version, which focused on the concerns of individuals struggling to preserve their right to free expression in authoritarian regimes.

And that's where SSD stood, mostly as-is, for about six years. 

The Redesigns

In 2014, we redesigned and relaunched SSD with support from the Ford Foundation. The relaunch had at least 80 people involved in the writing, reviewing, design, and translation process. With the relaunch, there was also a shift in the mission as the threats expanded from just the government, to corporate and personal risks as well. From the press release:

"Everyone has something to protect, whether it's from the government or stalkers or data-miners," said EFF International Director Danny O'Brien. "Surveillance Self-Defense will help you think through your personal risk factors and concerns—is it an authoritarian government you need to worry about, or an ex-spouse, or your employer?—and guide you to appropriate tools and practices based on your specific situation."

SSD screenshot from 2014, with a logo with two keys, crossed and a block of text

2014 proved to be an effective year for a major update. After the murders of Michael Brown and Eric Garner, protestors hit the streets across the U.S., which made our protest guide particularly useful. There were also major security vulnerabilities that year, like Heartbleed, which caused all sorts of security issues for website operators and their visitors, and Shellshock, which opened up everything from servers to cameras to bug exploits, ushering in what felt like an endless stream of software updates on everything with a computer chip in it. And of course, there was still fallout from the Snowden leaks in 2013.

In 2018 we did another redesign, and added a new logo for SSD that came along with EFF's new design. This is more or less the same design of the site today.

SSD's current design, with an infinity logo wrapped around a lock and key

SSD's current design, which further clarifies what sections a guide is in, and expands the security scenarios.

Perhaps the most notable difference between this iteration of SSD and the years before is the lack of detailed reasoning explaining the need for its existence on the front page. No longer was it necessary to explain why we all need to practice surveillance self-defense. Online surveillance had gone mainstream.

Shifting Language Over the Years

As the years passed and the site was redesigned, we also shifted how we talked about security. In 2009 we wrote about security with terms like, "adversaries," "defensive technology," "threat models," and "assets." These were all common cybersecurity terms at the time, but made security sound like a military exercise, which often disenfranchised the very people who needed help. For example, in the later part of the 2010s, we reworked the idea of "threat modeling," when we published Your Security Plan. This was meant to be less intimidating and more inclusive of the various types of risks that people face.

The advice in SSD has changed over the years, too. Take passwords as an example, where in 2009 we said, "Although we recommend memorizing your passwords, we recognize you probably won't." First off, rude! Second off, maybe that could fly with the lower number of accounts we all had back in 2009, but nowadays nobody is going to remember hundreds of passwords. And regardless, that seems pretty dang impossible when paired with the final bit of advice, "You should change passwords every week, every month, or every year — it all depends on the threat, the risk, and the value of the asset, traded against usability and convenience."

Moving onto 2015, we phrased this same sentiment much differently, "Reusing passwords is an exceptionally bad security practice, because if an attacker gets hold of one password, she will often try using that password on various accounts belonging to the same person… Avoiding password reuse is a valuable security precaution, but you won't be able to remember all your passwords if each one is different. Fortunately, there are software tools to help with this—a password manager."

Well, that's much more polite!

Since then, we've toned that down even more, "Reusing passwords is a dangerous security practice. If someone gets ahold of your password —whether that's from a data breach, or wherever else—they can often gain access to any other account you used that same password. The solution is to use unique passwords everywhere and take additional steps to secure your accounts when possible."

Security is an always evolving process, so too is how we talk about it. But the more people we bring on board, the better it is for everyone. How we talk about surveillance self-defense will assuredly continue to adapt in the future.

Shifting Language(s) Over the Years

Initially in 2009, SSD was only available in English, and soon after launch, in Bulgarian. In the 2014 re-launch, we added Arabic and Spanish. Then added French, Thai, Vietnamese, and Urdu in 2015. Later that year, we added a handful of Amharic translations, too. This was accomplished through a web of people in dozens of countries who volunteered to translate and review everything. Many of these translations were done for highly specific reasons. For example, we had a Google Policy Fellow, Endalk Chala, who was part of the Zone 9 bloggers in Ethiopia. He translated everything into Amharic as he was fighting for his colleagues and friends who were imprisoned in Ethiopia on terrorism charges.

By 2019, we were translating most of SSD into at least 10 languages: Amharic, Arabic, Spanish, French, Russian, Turkish, Vietnamese, Brazilian Portuguese, Thai, and Urdu (as well as additional, externally-hosted community translations in Indonesian Bahasa, Burmese, Traditional Chinese, Igbo, Khmer, Swahili, Yoruba, and Twi).

Currently, we're focusing on getting the entirety of SSD re-translated into seven languages, then focusing our efforts on translating specific guides into other languages. 

Always Updating

Since 2009, we've done our best to review and update the guides in SSD. This has included minor changes to respond to news events, depreciating guides completely when they're no longer applicable in modern security plans, and massive rewrites when technology has changed.

The original version of SSD was launched mostly as a static text (we even offered a printer-friendly version), though updates and revisions did occur, they were not publicly tracked as clearly as they are today. In its early years, SSD was able to provide useful guidance across a number of important events, like Occupy Wall Street, before the major site redesign in 2014, which helped it become more useful training activists, including for Ferguson and Standing Rock, amongst others. The ability to update SSD along with changing trends and needs has ensured it can always be useful as a resource.

That redesign also better facilitated the updates process. The site became easier to navigate and use, and easier to update. For example, in 2017 we took on a round of guide audits in response to concerns following the 2016 election. In 2019 we continued that process with around seven major updates to SSD, and in 2020, we did five. We don't have great stats for 2021 and 2022, but in 2023 we managed 14 major updates or new guides. We're hoping to have the majority of SSD reviewed and revamped by the end of this year, with a handful of expansions along the way.

Which brings us to the future of SSD. We will continue updating, adapting, and adding to SSD in the coming years. It is often impossible to know what will be needed, but rest assured we'll be there to answer that whenever we can. As mentioned above, this includes getting more translations underway, and continuing to ensure that everything is accurate and up-to-date so SSD can remain one of the best repositories of security information available online.

We hope you’ll join EFF in celebrating 15 years of SSD!

Privacy Isn't Dead. Far From It.

Par : Jason Kelley
13 février 2024 à 19:07

Welcome! 

The fact that you’re reading this means that you probably care deeply about the issue of privacy, which warms our hearts. Unfortunately, even though you care about privacy, or perhaps because you care so much about it, you may feel that there's not much you (or anyone) can really do to protect it, no matter how hard you try. Perhaps you think “privacy is dead.” 

We’ve all probably felt a little bit like you do at one time or another. At its worst, this feeling might be described as despair. Maybe it hits you because a new privacy law seems to be too little, too late. Or maybe you felt a kind of vertigo after reading a news story about a data breach or a company that was vacuuming up private data willy-nilly without consent. 

People are angry because they care about privacy, not because privacy is dead.

Even if you don’t have this feeling now, at some point you may have felt—or possibly will feel—that we’re past the point of no return when it comes to protecting our private lives from digital snooping. There are so many dangers out there—invasive governments, doorbell cameras, license plate readers, greedy data brokers, mismanaged companies that haven’t installed any security updates in a decade. The list goes on.

This feeling is sometimes called “privacy nihilism.” Those of us who care the most about privacy are probably more likely to get it, because we know how tough the fight is. 

We could go on about this feeling, because sometimes we at EFF have it, too. But the important thing to get across is that this feeling is valid, but it’s also not accurate. Here’s why.

You Aren’t Fighting for Privacy Alone

For starters, remember that none of us are fighting alone. EFF is one of dozens, if not hundreds,  of organizations that work to protect privacy.  EFF alone has over thirty-thousand dues-paying members who support that fight—not to mention hundreds of thousands of supporters subscribed to our email lists and social media feeds. Millions of people read EFF’s website each year, and tens of millions use the tools we’ve made, like Privacy Badger. Privacy is one of EFF’s biggest concerns, and as an organization we have grown by leaps and bounds over the last two decades because more and more people care. Some people say that Americans have given up on privacy. But if you look at actual facts—not just EFF membership, but survey results and votes cast on ballot initiatives—Americans overwhelmingly support new privacy protections. In general, the country has grown more concerned about how the government uses our data, and a large majority of people say that we need more data privacy protections. 

People are angry because they care about privacy, not because privacy is dead.

Some people also say that kids these days don’t care about their privacy, but the ones that we’ve met think about privacy a lot. What’s more, they are fighting as hard as anyone to stop privacy-invasive bills like the Kids Online Safety Act. In our experience, the next generation cares intensely about protecting privacy, and they’re likely to have even more tools to do so. 

Laws are Making Their Way Around the World

Strong privacy laws don’t cover every American—yet. But take a look at just one example to see how things are improving: the California Consumer Privacy Act of 2018 (CCPA). The CCPA isn’t perfect, but it did make a difference. The CCPA granted Californians a few basic rights when it comes to their relationship with businesses, like the right to know what information companies have about you, the right to delete that information, and the right to tell companies not to sell your information. 

This wasn’t a perfect law for a few reasons. Under the CCPA, consumers have to go company-by-company to opt out in order to protect their data. At EFF, we’d like to see privacy and protection as the default until consumers opt-in. Also, CCPA doesn’t allow individuals to sue if their data is mismanaged—only California’s Attorney General and the California Privacy Protection Agency can do it. And of course, the law only covers Californians. 

Remember that it takes time to change the system.

But this imperfect law is slowly getting better. Just this year California’s legislature passed the DELETE Act, which resolves one of those issues. The California Privacy Protection Agency now must create a deletion mechanism for data brokers that allows people to make their requests to every data broker with a single, verifiable consumer request. 

Pick a privacy-related topic, and chances are good that model bills are being introduced, or already exist as laws in some places, even if they don’t exist everywhere. The Illinois Biometric Information Privacy Act, for example, passed back in 2008, protects people from nonconsensual use of their biometrics for face recognition. We may not have comprehensive privacy laws yet in the US, but other parts of the world—like Europe—have more impactful, if imperfect, laws. We can have a nationwide comprehensive consumer data privacy law, and once those laws are on the books, they can be improved.  

We Know We’re Playing the Long Game

Remember that it takes time to change the system. Today we take many protections for granted, and often assume that things are only getting worse, not better. But many important rights are relatively new. For example, our Constitution didn’t always require police to get a warrant before wiretapping our phones. It took the Supreme Court four decades to get this right. (They were wrong in 1928 in Olmstead, then right in 1967 in Katz.)

Similarly, creating privacy protections in law and in technology is not a sprint. It is a marathon. The fight is long, and we know that. Below, we’ve got examples of the progress that we’ve already made, in law and elsewhere. 

Just because we don’t have some protective laws today doesn’t mean we can’t have them tomorrow. 

Privacy Protections Have Actually Increased Over the Years

The World Wide Web is Now Encrypted 

When the World Wide Web was created, most websites were unencrypted. Privacy laws aren’t the only way to create privacy protections, as the now nearly-entirely encrypted web shows:  another approach is to engineer in strong privacy protections from the start. 

The web has now largely switched from non-secure HTTP to the more secure HTTPS protocol. Before this happened, most web browsing was vulnerable to eavesdropping and content hijacking. HTTPS fixes most of these problems. That's why EFF, and many like-minded supporters, pushed for web sites to adopt HTTPS by default. As of 2021, about 90% of all web page visits use HTTPS. This switch happened in under a decade. This is a big win for encryption and security for everyone, and EFF's Certbot and HTTPS Everywhere are tools that made it happen, by offering an easy and free way to switch an existing HTTP site to HTTPS. (With a lot of help from Let’s Encrypt, started in 2013 by a group of determined researchers and technologists from EFF and the University of Michigan.) Today, it’s the default to implement HTTPS. 

Cell Phone Location Data Now Requires a Warrant

In 2018, the Supreme Court handed down a landmark opinion in Carpenter v. United States, ruling 5-4 that the Fourth Amendment protects cell phone location information. As a result, police must now get a warrant before obtaining this data. 

But where else this ruling applies is still being worked out. Perhaps the most significant part of the ruling is its explicit recognition that individuals can maintain an expectation of privacy in information that they provide to third parties. The Court termed that a “rare” case, but it’s clear that other invasive surveillance technologies, particularly those that can track individuals through physical space, are now ripe for challenge. Expect to see much more litigation on this subject from EFF and our friends.

Americans’ Outrage At Unconstitutional Mass Surveillance Made A Difference

In 2013, government contractor Edward Snowden shared evidence confirming, among other things, that the United States government had been conducting mass surveillance on a global scale, including surveillance of its own citizens’ telephone and internet use. Ten years later, there is definitely more work to be done regarding mass surveillance. But some things are undoubtedly better: some of the National Security Agency’s most egregiously illegal programs and authorities have shuttered or been forced to end. The Intelligence Community has started affirmatively releasing at least some important information, although EFF and others have still had to fight some long Freedom of Information Act (FOIA) battles.

Privacy Options Are So Much Better Today

Remember PGP and GPG? If you do, you know that generally, there are much easier ways to send end-to-end encrypted communications today than there used to be. It’s fantastic that people worked so hard to protect their privacy in the past, and it’s fantastic that they don’t have to work as hard now! (If you aren’t familiar with PGP or GPG, just trust us on this one.) 

Don’t give in to privacy nihilism. Instead, share and celebrate the ways we’re winning. 

Advice for protecting online privacy used to require epic how-to guides for complex tools; now, advice is usually just about what relatively simple tools or settings to use. People across the world have Signal and WhatsApp. The web is encrypted, and the Tor Browser lets people visit websites anonymously fairly easily. Password managers protect your passwords and your accounts; third-party cookie blockers like EFF’s Privacy Badger stop third-party tracking. There are even options now to turn off your Ad ID—the key that enables most third-party tracking on mobile devices—right on your phone. These tools and settings all push the needle forward.

We Are Winning The Privacy War, Not Losing It

Sometimes people respond to privacy dangers by comparing them to sci-fi dystopias. But be honest: most science fiction dystopias still scare the heck out of us because they are much, much more invasive of privacy than the world we live in. 

In an essay called “Stop Saying Privacy Is Dead,” Evan Selinger makes a necessary point: “As long as you have some meaningful say over when you are watched and can exert agency over how your data is processed, you will have some modicum of privacy.” 

Of course we want more than a modicum of privacy. But the point here is that many of us generally do get to make decisions about our privacy. Not all—of course. But we all recognize that there are different levels of privacy in different places, and that privacy protections aren’t equally good or bad no matter where we go. We have places we can go—online and off—that afford us more protections than others. And because of this, most of the people reading this still have deep private lives, and can choose, with varying amounts of effort, not to allow corporate or government surveillance into those lives. 

Worrying about every potential threat, and trying to protect yourself from each of them, all of the time, is a recipe for failure.

Privacy is a process, not a single thing. We are always negotiating what levels of privacy we have. We might not always have the upper hand, but we are often able to negotiate. This is why we still see some fictional dystopias and think, “Thank God that’s not my life.” As long as we can do this, we are winning. 

“Giving Up” On Privacy May Not Mean Much to You, But It Does to Many

Shrugging about the dangers of surveillance can seem reasonable when that surveillance isn’t very impactful on our lives. But for many, fighting for privacy isn't a choice, it is a means to survive. Privacy inequity is real; increasingly, money buys additional privacy protections. And if privacy is available for some, then it can exist for all. But we should not accept that some people will have privacy and others will not. This is why digital privacy legislation is digital rights legislation, and why EFF is opposed to data dividends and pay-for-privacy schemes.

Privacy increases for all of us when it increases for each of us. It is much easier for a repressive government to ban end-to-end encrypted messengers when only journalists and activists use them. It is easier to know who is an activist or a journalist when they are the only ones using privacy-protecting services or methods. As the number of people demanding privacy increases, the safer we all are. Sacrificing others because you don't feel the impact of surveillance is a fool's bargain. 

Time Heals Most Privacy Wounds

You may want to tell yourself: companies already know everything about me, so a privacy law a year from now won't help. That's incorrect, because companies are always searching for new data. Some pieces of information will never change, like our biometrics. But chances are you've changed in many ways over the years—whether that's as big as a major life event or as small as a change in your tastes in movies—but who you are today is not necessarily you'll be tomorrow.

As the source of that data, we should have more control over where it goes, and we’re slowly getting it. But that expiration date means that even if some of our information is already out there, it’s never going to be too late to shut off the faucet. So if we pass a privacy law next year, it’s not the case that every bit of information about you has already leaked, so it won’t do any good. It will.

What To Do When You Feel Like It’s Impossible

It can feel overwhelming to care about something that feels like it’s dying a death of a thousand cuts. But worrying about every potential threat, and trying to protect yourself from each of them, all of the time, is a recipe for failure. No one really needs to be vigilant about every threat at all times. That’s why our recommendation is to create a personalized security plan, rather than throwing your hands up or cowering in a corner. 

Once you’ve figured out what threats you should worry about, our advice is to stay involved. We are all occasionally skeptical that we can succeed, but taking action is a great way to get rid of that gnawing feeling that there’s nothing to be done. EFF regularly launches new projects that we hope will help you fight privacy nihilism. We’re in court many times a year fighting privacy violations. We create ways for like-minded, privacy-focused people to work together in their local advocacy groups, through the Electronic Frontier Alliance, our grassroots network of community and campus organizations fighting for digital rights. We even help you teach others to protect their own privacy. And of course every day is a good day for you to join us in telling government officials and companies that privacy matters. 

We know we can win because we’re creating the better future that we want to see every day, and it’s working. But we’re also building the plane while we’re flying it. Just as the death of privacy is not inevitable, neither is our success. It takes real work, and we hope you’ll help us do that work by joining us. Take action. Tell a friend. Download Privacy Badger. Become an EFF member. Gift an EFF membership to someone else.

Don’t give in to privacy nihilism. Instead, share and celebrate the ways we’re winning. 

Pourquoi faire de l’éducation populaire au numérique ?

Par : Framasoft
24 janvier 2024 à 10:28

Julie et Romain, les deux cofondateurices de l’Établi numérique, ont fait un travail très intéressant d’introspection sur le sens de leur activité, faire de l’éducation populaire au numérique. Nous sommes ravi⋅es de leur laisser la parole.

Dès nos premières discussions, avant-même la création juridique de la structure, nous savions ce que nous voulions faire : de « l’éducation populaire au numérique ». Pour nous, c’est la meilleure manière de décrire ce que nous faisons. Mais concrètement, qu’est-ce qu’on veut dire quand on parle d’éducation populaire au numérique et pourquoi pensons-nous que c’est fondamental en ce moment ?

L’explosion du numérique

Il y a vingt ans, quand, profitant du climat politique du 11 septembre 2001, la Loi sur la Sécurité Quotidienne introduit l’obligation pour les fournisseurs de service de chiffrement de fournir leurs algorithmes aux autorités, les réactions sont très limitées dans le champ de la société civile et inexistantes au niveau politique. La Quadrature du Net n’existe pas encore pour faire un travail de veille juridique et de vulgarisation des enjeux, et les organisations professionnelles de journalistes (par exemple) ne se sont pas encore saisies de ces questions. À cette époque, nous étions peu en dehors des spécialistes à nous intéresser aux questions de surveillance.

Deux décennies plus tard, L’Etabli numérique est régulièrement sollicité pour des ateliers et des formations sur l’intimité numérique, et les livres, newsletters et autres podcasts sur les libertés numériques fleurissent. Qu’est-ce qui a changé sur cette période ? Beaucoup de choses, mais en particulier un évènement majeur : le numérique est devenu une partie intégrante du quotidien de la quasi-totalité de la population en France. Aujourd’hui, plus de 80 % des personnes ont un smartphone et 83 % se connectent à Internet tous les jours ; en 2000, moins de 15 % de la population a un accès Internet. Il y a vingt ans, Internet a déjà commencé à transformer le monde, mais le réseau n’affecte qu’un petit nombre de secteurs, et impacte surtout la vie professionnelle des personnes concernées. Maintenant, impossible de ne pas être affecté⋅e d’une manière ou d’une autre par les transformations numériques en cours. Dans notre vie intime, dans nos interactions avec les administrations, au travail : le numérique est partout.

En 2001 donc, il était encore possible de ne pas être concerné⋅e par le numérique et ses impacts ; à l’époque, les expert⋅es et les spécialistes lié⋅es à l’industrie naissante de la tech monopolisaient le sujet, mais les enjeux étaient moindres. En 2023, le numérique affecte tout le monde ; il doit donc pouvoir être réfléchi, débattu et transformé par tout le monde. Faire de l’éducation populaire au numérique, c’est contribuer, modestement et avec nos moyens de petite structure, à la construction d’un espace démocratique de délibération autour du numérique.

Qu’on le veuille ou non, le numérique est là. Toute une infrastructure numérique faite de câbles, de machines et d’armoires à serveurs recouvre maintenant le globe entier. Plus encore, le numérique a transformé nos manières de vivre, de nous organiser et de nous déplacer d’une manière telle que tout retour en arrière soudain est impossible. Pour le meilleur et pour le pire, notre société est devenue profondément numérique.

Illustrations CC BY David Revoy

Un enjeu démocratique

En tant que citoyen⋅nes, nous n’avons (presque) pas été consulté⋅es tout au long de ce processus, mais c’est quand même à nous de faire l’inventaire et de déterminer ce que nous voulons faire de cette transformation. Le numérique est un sujet trop sérieux pour être laissé à des milliardaires, indépendamment de ce qu’on pense des milliardaires en question. Ce n’est pas d’un match de boxe entre Zuckerberg et Musk diffusé sur Twitch dont nous avons besoin, mais d’espaces de décisions où, à toutes les échelles, nous réfléchissons ensemble sur les communs numériques que nous souhaitons nourrir, renforcer ou réajuster.

Un des problèmes que nous avons à l’heure actuelle, c’est que le numérique est certes reconnu comme un enjeu de société, mais qu’il reste identifié comme un sujet technique malgré tout . Aujourd’hui encore, il faut être développeur⋅euse, chercheur⋅euse ou travailler dans la tech pour être légitime sur la question numérique. C’est l’industrie du numérique elle-même qui pose souvent les paramètres du débat sur les enjeux de la technologie, ce qui rend difficile toute réelle évolution. La Tech pense toujours pouvoir résoudre par plus de technologie les problèmes causés par la technologie, et nos dirigeant⋅es politiques sont souvent ravi⋅es de la suivre dans ce technosolutionisme naïf.

C’est là que l’éducation populaire intervient. Faire de l’éducation populaire au numérique, c’est fournir à chacun⋅e les clés de compréhension nécessaires pour pouvoir se positionner, mais c’est aussi déconstruire l’idée que la technologie est une question de spécialistes. Tout utilisateurice de la technologie a des retours à faire sur ce qui fonctionne ou pas, des idées de ce qu’il faut changer, des expériences à transmettre, bref une expertise. L’éducation populaire part d’une vérité simple : nous sommes tou⋅tes déjà expert⋅es du numérique, même si nous ne le sommes pas tou⋅tes à la manière d’un⋅e ingénieur⋅e. Plus encore, si on veut éviter de continuer à reproduire les problèmes systémiques du numérique tel qu’il est actuellement, cette expertise collective est indispensable.

L’objectif étant de permettre à tout un⋅e chacun⋅e de se saisir des enjeux du numérique, il est fondamental que les méthodes que nous utilisons invitent à la discussion, à la participation, à l’évolution. Participer à un atelier sur les impacts environnementaux du numérique, c’est déjà réfléchir à ce qu’on veut garder ou pas dans le monde numérique actuel, c’est déjà se confronter aux besoins et aux enjeux des autres, c’est rentrer dans une démarche de délibération autour du numérique. C’est pour cette raison que nous accordons une attention particulière aux méthodes pédagogiques dans les interventions que nous construisons. L’important, c’est que les participant⋅es à nos formations repartent équipé⋅es et confiant⋅es sur leur capacité à réfléchir et à prendre des décisions, pas que tout le monde soit d’accord à la fin, et encore moins que tout le monde finisse d’accord avec nous.

Sortir de la dystopie

En 2000, le numérique était une utopie qui allait nous libérer tou⋅tes des contraintes de notre quotidien et impulser une nouvelle ère de progrès social. Vingt ans plus tard, le numérique a réussi à s’imposer partout, mais a pris en chemin des traits clairement dystopiques : les réseaux sociaux ont parfois permis de coordonner des révoltes démocratiques, mais sont aussi un espace de discrimination ; le travail à distance fait émerger des nouvelles formes de travail plus riches, mais permet aussi un renforcement de l’intensité du travail  ; Internet donne accès à un savoir incroyable, mais permet aux rumeurs et à la désinformation de se propager toujours plus rapidement ; …

Faire de l’éducation populaire au numérique, c’est permettre à tou⋅tes de comprendre et de transformer cette réalité numérique complexe dans laquelle nous vivons maintenant. Sortir de la dystopie ne se fera pas par des débats de spécialistes, mais par l’intelligence collective.

Privacy Badger Puts You in Control of Widgets

The latest version of Privacy Badger 1 replaces embedded tweets with click-to-activate placeholders. This is part of Privacy Badger's widget replacement feature, where certain potentially useful widgets are blocked and then replaced with placeholders. This protects privacy by default while letting you restore the original widget whenever you want it or need it for the page to function.

Websites often include external elements such as social media buttons, comments sections, and video players. Although potentially useful, these “widgets” often track your behavior. The tracking happens regardless of whether you click on the widget. If you see a widget, the widget sees you back.

This is where Privacy Badger's widget replacement comes in. When blocking certain social buttons and other potentially useful widgets, Privacy Badger replaces them with click-to-activate placeholders. You will not be tracked by these replacements unless you explicitly choose to activate them.

A screenshot of Privacy Badger’s widget placeholder. The text inside the placeholder states that “Privacy Badger has replaced this X (Twitter) widget”. The words “this X (Twitter) widget” are a link. There are two buttons inside the placeholder, “Allow once” and “Always allow on this site.”

Privacy Badger’s placeholders tell you exactly what happened while putting you in control.

Changing the UI of a website is a bold move for a browser extension to do. That’s what Privacy Badger is all about though: making strong choices on behalf of user privacy and revealing how that privacy is betrayed by businesses online.

Privacy Badger isn’t the first software to replace embedded widgets with placeholders for privacy or security purposes. As early as 2004, users could install Flashblock, an extension that replaced embedded Adobe Flash plugin content, a notoriously insecure technology.

A screenshot of Flashblock’s Flash plugin placeholder.

Flashblock’s Flash plugin placeholders lacked user-friendly buttons but got the (Flash blocking) job done.

Other extensions and eventually, even browsers, followed Flashblock in offering similar plugin-blocking placeholders. The need to do this declined as plugin use dropped over time, but a new concern rose to prominence. Privacy was under attack as social media buttons started spreading everywhere.

This brings us to ShareMeNot. Developed in 2012 as a research tool to investigate how browser extensions might enforce privacy on behest of the user, ShareMeNot replaced social media “share” buttons with click-to-activate placeholders. In 2014, ShareMeNot became a part of Privacy Badger. While the emphasis has shifted away from social media buttons to interactive widgets like video players and comments sections, Privacy Badger continues to carry on ShareMeNot's legacy.

Unfortunately, widget replacement is not perfect. The placeholder’s buttons may not work sometimes, or the placeholder may appear in the wrong place or may fail to appear at all. We will keep fixing and improving widget replacement. You can help by letting us know when something isn’t working right.

A screenshot of Privacy Badger’s popup. Privacy Badger’s browser toolbar icon as well as the “Report broken site” button are highlighted.

To report problems, first click on Privacy Badger’s icon in your browser toolbar. Privacy Badger’s “popup” window will open. Then, click the Report broken site button in the popup.

Pro tip #1: Because our YouTube replacement is not quite ready to be enabled by default, embedded YouTube players are not yet blocked or replaced. If you like though, you can try our YouTube replacement now.

A screenshot of Privacy Badger’s options page with the Tracking Domains tab selected. The list of tracking domains was filtered for “youtube.com”; the slider for youtube.com was moved to the “Block entirely” position.

To opt in, visit Privacy Badger's options page, select the “Tracking Domains” tab, search for “youtube.com”, and move the toggle for youtube.com to the Block entirely position.

Pro tip #2: The most private way to activate a replaced widget is to use the this [YouTube] widget link (inside the Privacy Badger has replaced this [YouTube] widget text), when the link is available. Going through the link, as opposed to one of the Allow buttons, means the widget provider doesn't necessarily get to know what site you activated the widget on. You can also right-click the link to save the widget URL; no need to visit the link or to use browser developer tools.

A screenshot of Privacy Badger’s widget placeholder. The “this YouTube widget” link is highlighted.

Click the link to open the widget in a new tab.

Privacy tools should be measured not only by efficacy, but also ease of use. As we write in the FAQ, we want Privacy Badger to function well without any special knowledge or configuration by the user. Privacy should be made easy, rather than gatekept for “power users.” Everyone should be able to decide for themselves when and with whom they want to share information. Privacy Badger fights to restore this control, biting back at sneaky non-consensual surveillance.

To install Privacy Badger, visit privacybadger.org. Thank you for using Privacy Badger!

 

  • 1. Privacy Badger version 2023.12.1

Surveillance Self-Defense: 2023 Year in Review

26 décembre 2023 à 10:20

It's been a big year for Surveillance Self-Defense (SSD), our repository of self-help resources for helping better protect you and your friends from online spying. We've done a number of updates and tackled a few new emerging topics with blog posts.

Fighting for digital security and privacy rights is important, but sometimes we all just need to know what steps we can take to minimize spying, and when steps aren't possible, explaining how things work to help keep you safe. To do this, we break SSD into four sections:

  • Basics: A starter resource that includes overviews of how digital surveillance works.
  • Tool Guides: Step-by-step tutorials on using privacy and security tools.
  • Further Learning: Explainers about protecting your digital privacy.
  • Security Scenarios: Playlists of our resources for specific use cases, such as LGBTQ+ youth, journalists, activists, and more.

But not everything makes sense in SSD, so sometimes we also tackle security education issues with blogs, which tend to focus more on news events or new technology that may not have rolled out widely yet. Each has its place, and each saw a variety of new guidance this year.

Re-tooling Our SSD Tool Guides

Surveillance Self-Defense has provided expert guidance for security and privacy for 14 years. And in those years it has seen a number of revisions, expansions, and changes. We try to consistently audit and update SSD so it contains up to date information. Each guide has a "last reviewed" date so you can quickly see at the start when it last got an expert review.

This year we tackled a number of updates, and took the time to take a new approach with two of our most popular guides: Signal and WhatsApp. For these, we combined the once-separate Android and iPhone guides into one, making them easier to update (and translate) in the future.

We also updated many other guides this year with new information, screenshots, and advice:

SSD also received two new guides. The first was a new guide for choosing a password manager, one of the most important security tools, and one that can be overwhelming to research and start using. The second was a guide for using Tor on mobile devices, which is an increasingly useful place to use the privacy-protecting software.

Providing New Guidance and Responding to News

Part of security education is explaining new and old technologies, responding to news events, and laying out details of any technological quirks we find. For this, we tend to turn to our blog instead of SSD. But the core idea is the same: provide self-help guidance for navigating various security and privacy concerns.

We came up with guidance for passkeys, a new type of login that eliminates the need for passwords altogether. Passkeys can be confusing, both from a security perspective and from a basic usability perspective. We do think there's work that can be done to improve them, and like most security advice, the answer to the question of whether you should use them is "it depends." But for many people, if you’re not already using a password manager, passkeys will be a tremendous increase in security.

When it comes to quirks in apps, we took a look at what happens when you delete a replied-to message in encrypted messaging apps. There are all sorts of little oddities with end-to-end encrypted messaging apps that are worth being aware of. While they don't compromise the integrity of the messaging—your communications are safe from the companies that run them—they can sometimes act unexpectedly, like keeping a message you deleted around longer than you may realize if someone in the chat replied to it directly.

The DNA site 23andMe suffered a “credential stuffing” attack that resulted in 6.9 million user's data appearing on hacker forums. There were only a relatively small number of accounts actually compromised, but once in, the attacker was able to scrape information about other users using a feature known as DNA Relatives, which provided users with an expansive family tree. There's nothing you can do after this if your data was included, but we explained what happened, and the handful of steps you could take to better secure your account and make it more private in the future.

Google released its "Privacy Sandbox" feature, which, while improved from initial proposals back in 2019, still tracks your internet use for behavioral advertising by using your web browsing to define "topics" of interest, then queuing up ads based on those interests. The idea is that instead of the dozens of third-party cookies placed on websites by different advertisers and tracking companies, Google itself will track your interests in the browser itself, controlling even more of the advertising ecosystem than it already does. Our blog shows you how to disable it, if you choose to.

We also took a deep dive into an Android tablet meant for kids that turned out to be filled with sketchyware. The tablet was riddled with all sorts of software we didn't like, but we shared guidance for how to better secure an Android tablet—all steps worth taking before you hand over any Android tablet as a holiday gift.

After a hard fought battle pushing Apple to encrypt iCloud backups, the company actually took it a step further, allowing you to encrypt nearly everything in iCloud, including those backups, with a new feature they call Advanced Data Protection. Unfortunately, it's not the default setting, so you should enable it for yourself as soon as you can.

Similarly, Meta finally rolled out end-to-end encryption for Messenger, which is thankfully enabled by default, though there are some quirks with how backups work that we explain in this blog post.

EFF worked hard in 2023 to explain new consumer security technologies, provide guidance for tools, and help everyone communicate securely. There's plenty more work to be done next year, and we'll be here to explain what you can, how to do it, and how it works in 2024.

This blog is part of our Year in Review series. Read other articles about the fight for digital rights in 2023.

No Robots(.txt): How to Ask ChatGPT and Google Bard to Not Use Your Website for Training

12 décembre 2023 à 13:19

Both OpenAI and Google have released guidance for website owners who do not want the two companies using the content of their sites to train the company's large language models (LLMs). We've long been supporters of the right to scrape websites—the process of using a computer to load and read pages of a website for later analysis—as a tool for research, journalism, and archivers. We believe this practice is still lawful when collecting training data for generative AI, but the question of whether something should be illegal is different from whether it may be considered rude, gauche, or unpleasant. As norms continue to develop around what kinds of scraping and what uses of scraped data are considered acceptable, it is useful to have a tool for website operators to automatically signal their preference to crawlers. Asking OpenAI and Google (and anyone else who chooses to honor the preference) to not include scrapes of your site in its models is an easy process as long as you can access your site's file structure.

We've talked before about how these models use art for training, and the general idea and process is the same for text. Researchers have long used collections of data scraped from the internet for studies of censorship, malware, sociology, language, and other applications, including generative AI. Today, both academic and for-profit researchers collect training data for AI using bots that go out searching all over the web and “scrape up” or store the content of each site they come across. This might be used to create purely text-based tools, or a system might collect images that may be associated with certain text and try to glean connections between the words and the images during training. The end result, at least currently, is the chatbots we've seen in the form of Google Bard and ChatGPT.

It would ease many minds for other companies with similar AI products, like Anthropic, Amazon, and countless others, to announce that they'd respect similar requests.

If you do not want your website's content used for this training, you can ask the bots deployed by Google and Open AI to skip over your site. Keep in mind that this only applies to future scraping. If Google or OpenAI already have data from your site, they will not remove it. It also doesn't stop the countless other companies out there training their own LLMs, and doesn't affect anything you've posted elsewhere, like on social networks or forums. It also wouldn't stop models that are trained on large data sets of scraped websites that aren't affiliated with a specific company. For example, OpenAI's GPT-3 and Meta's LLaMa were both trained using data mostly collected from Common Crawl, an open source archive of large portions of the internet that is routinely used for important research. You can block Common Crawl, but doing so blocks the web crawler from using your data in all its data sets, many of which have nothing to do with AI.

There's no technical requirement that a bot obey your requests. Currently only Google and OpenAI who have announced that this is the way to opt-out, so other AI companies may not care about this at all, or may add their own directions for opting out. But it also doesn't block any other types of scraping that are used for research or for other means, so if you're generally in favor of scraping but uneasy with the use of your website content in a corporation's AI training set, this is one step you can take.

Before we get to the how, we need to explain what exactly you'll be editing to do this.

What's a Robots.txt?

In order to ask these companies not to scrape your site, you need to edit (or create) a file located on your website called "robots.txt." A robots.txt is a set of instructions for bots and web crawlers. Up until this point, it was mostly used to provide useful information for search engines as their bots scraped the web. If website owners want to ask a specific search engine or other bot to not scan their site, they can enter that in their robots.txt file. Bots can always choose to ignore this, but many crawling services respect the request.

This might all sound rather technical, but it's really nothing more than a small text file located in the root folder of your site, like "https://www.example.com/robots.txt." Anyone can see this file on any website. For example, here's The New York Times' robots.txt, which currently blocks both ChatGPT and Bard. 

If you run your own website, you should have some way to access the file structure of that site, either through your hosting provider's web portal or FTP. You may need to comb through your provider's documentation for help figuring out how to access this folder. In most cases, your site will already have a robots.txt created, even if it's blank, but if you do need to create a file, you can do so with any plain text editor. Google has guidance for doing so here.

EFF will not be using these flags because we believe scraping is a powerful tool for research and access to information.

What to Include In Your Robots.txt to Block ChatGPT and Google Bard

With all that out of the way, here's what to include in your site's robots.txt file if you do not want ChatGPT and Google to use the contents of your site to train their generative AI models. If you want to cover the entirety of your site, add these lines to your robots.txt file:

ChatGPT

User-agent: GPTBot

Disallow: /

Google Bard

User-agent: Google-Extended

Disallow: /

You can also narrow this down to block access to only certain folders on your site. For example, maybe you don't mind if most of the data on your site is used for training, but you have a blog that you use as a journal. You can opt out specific folders. For example, if the blog is located at yoursite.com/blog, you'd use this:

ChatGPT

User-agent: GPTBot

Disallow: /blog

Google Bard

User-agent: Google-Extended

Disallow: /blog

As mentioned above, we at EFF will not be using these flags because we believe scraping is a powerful tool for research and access to information; we want the information we’re providing to spread far and wide and to be represented in the outputs and answers provided by LLMs. Of course, individual website owners have different views for their blogs, portfolios, or whatever else you use your website for. We're in favor of means for people to express their preferences, and it would ease many minds for other companies with similar AI products, like Anthropic, Amazon, and countless others, announce that they'd respect similar requests.

Think Twice Before Giving Surveillance for the Holidays

7 décembre 2023 à 15:22

With the holidays upon us, it's easy to default to giving the tech gifts that retailers tend to push on us this time of year: smart speakers, video doorbells, bluetooth trackers, fitness trackers, and other connected gadgets are all very popular gifts. But before you give one, think twice about what you're opting that person into.

A number of these gifts raise red flags for us as privacy-conscious digital advocates. Ring cameras are one of the most obvious examples, but countless others over the years have made the security or privacy naughty list (and many of these same electronics directly clash with your right to repair).

One big problem with giving these sorts of gifts is that you're opting another person into a company's intrusive surveillance practice, likely without their full knowledge of what they're really signing up for.

For example, a smart speaker might seem like a fun stocking stuffer. But unless the giftee is tapped deeply into tech news, they likely don't know there's a chance for human review of any recordings. They also may not be aware that some of these speakers collect an enormous amount of data about how you use it, typically for advertising–though any connected device might have surprising uses to law enforcement, too.

There's also the problem of tech companies getting acquired like we've seen recently with Tile, iRobot, or Fitbit. The new business can suddenly change the dynamic of the privacy and security agreements that the user made with the old business when they started using one of those products.

And let's not forget about kids. Long subjected to surveillance from elves and their managers, electronics gifts for kids can come with all sorts of surprise issues, like the kid-focused tablet we found this year that was packed with malware and riskware. Kids’ smartwatches and a number of connected toys are also potential privacy hazards that may not be worth the risks if not set up carefully.

Of course, you don't have to avoid all technology purchases. There are plenty of products out there that aren't creepy, and a few that just need extra attention during set up to ensure they're as privacy-protecting as possible. 

What To Do Instead

While we don't endorse products, you don't have to start your search in a vacuum. One helpful place to start is Mozilla's Privacy Not Included gift guide, which provides a breakdown of the privacy practices and history of products in a number of popular gift categories. This way, instead of just buying any old smart-device at random because it's on sale, you at least have the context of what sort of data it might collect, how the company has behaved in the past, and what sorts of potential dangers to consider. U.S. PIRG also has guidance for shopping for kids, including details about what to look for in popular categories like smart toys and watches.

Finally, when shopping it's worth keeping in mind two last details. First, some “smart” devices can be used without their corresponding apps, which should be viewed as a benefit, because we've seen before that app-only gadgets can be bricked by a shift in company policies. Also, remember that not everything needs to be “smart” in the first place; often these features add little to the usability of the product.

Your job as a privacy-conscious gift-giver doesn't end at the checkout screen.

If you're more tech savvy than the person receiving the item, or you're helping set up a gadget for a child, there's no better gift than helping set it up as privately as possible. Take a few minutes after they've unboxed the item and walk through the set up process with them. Some options to look for: 

  • Enable two-factor authentication when available to help secure their new account.
  • If there are any social sharing settings—particularly popular with fitness trackers and game consoles—disable any unintended sharing that might end up on a public profile.
  • Look for any options to enable automatic updates. This is usually enabled by default these days, but it's always good to double-check.
  • If there's an app associated with the new device (and there often is), help them choose which permissions to allow, and which to deny. Keep an eye out for location data, in particular, especially if there's no logical reason for the app to need it. 
  • While you're at it, help them with other settings on their phone, and make sure to disable the phone’s advertising ID.
  • Speaking of advertising IDs, some devices have their own advertising settings, usually located somewhere like, Settings > Privacy > Ad Preferences. If there's an option to disable any ad tracking, take advantage of it. While you're in the settings, you may find other device-specific privacy or data usage settings. Take that opportunity to opt out of any tracking and collection when you can. This will be very device-dependent, but it's especially worth doing on anything you know tracks loads of data, like smart TVs
  • If you're helping set up a video or audio device, like a smart speaker or robot vacuum, poke around in the options to see if you can disable any sort of "human review" of recordings.

If during the setup process, you notice some gaps in their security hygiene, it might also be a great opportunity to help them set up other security measures, like setting up a password manager

Giving the gift of electronics shouldn’t come with so much homework, but until we have a comprehensive data privacy law, we'll likely have to contend with these sorts of set-up hoops. Until that day comes, we can all take the time to help those who need it.

How to Secure Your Kid's Android Device

4 décembre 2023 à 16:40

After finding risky software on an Android (Google’s mobile operating system) device marketed for kids, we wanted to put together some tips to help better secure your kid's Android device (and even your own). Despite the dangers that exist, there are many things that can be done to at least mitigate harm and assist parents and children. There are also safety tools that your child can use at their own discretion.

There's a handful of different tools, settings, and apps that can help better secure your kid’s device, depending on their needs. We've broken them down into four categories: Parental Monitoring, Security, Safety, and Privacy.

Note: If you do not see these settings in your Android device, it may be out of date or a heavily modified Android distribution. This is based on Android 14’s features.

Parental Monitoring

Google has a free app for parental controls called Family Link, which gives you tools to establish screen time limits, app installs, and more. There’s no need to install a third-party application. Family Link sometimes comes pre-installed with some devices marketed for children, but it is also available in the Google Play store for installation. This is helpful given that some third-party parental safety apps have been caught in the act of selling children’s data and involved in major data leaks. Also, having a discussion with your child about these controls can possibly provide something that technology can’t provide: trust and understanding.

Security

There are a few basic security steps you can take on both your own Google account and your child’s device to improve their security.

  • If you control your child's Google account with your own, you should lock down your own account as best as possible. Setting up two-factor authentication is a simple thing you can do to avoid malicious access to your child’s account via yours.
  • Encrypt their device with a passcode (if you have Android 6 or later).

Safety

You can also enable safety measures your child can use if they are traveling around with their device.

  • Safety Check allows a device user to automatically reach out to established emergency contacts if they feel like they are in an unsafe situation. If they do not mark themselves “safe” after the safety check duration ends, emergency location sharing with emergency contacts will commence. The safety check reason and duration (up to 24 hours) is set by the device user. 
  • Emergency SOS assists in triggering emergency actions like calling 911, sharing your location with your emergency contacts, and recording video.
  • If the "Unknown tracker alerts" setting is enabled, a notification will trigger on the user's device if there is an unknown AirTag moving with them (this feature only works with AirTags currently, but Google says will expand to other trackers in the future). Bluetooth is required to be turned on for this feature to function properly.

Privacy

There are some configurations you can also input to deter tracking of your child’s activities online by ad networks and data brokers.

  • Delete the device’s AD ID.
  • Install an even more overall privacy preserving browser like Firefox, DuckDuckGo, or Brave. While Chrome is the default on Android and has decent security measures, they do not allow web extensions on their mobile browser. Preventing the use of helpful extensions like Privacy Badger to help prevent ad tracking.
  • Review the privacy permissions on the device to ensure no apps are accessing important features like the camera, microphone, or location without your knowledge.

For more technically savvy parents, Pi-hole (a DNS software) is very useful to automatically block ad-related network requests. It blocked most shady requests on major ad lists from the malware we saw during our investigation on a kid’s tablet. The added benefit is you can configure many devices to one Pi-hole set up.

DuckDuckGo’s App Tracking protection is an alternative to using Pi-hole that doesn’t require as much technical overhead. However, since it looks at all network traffic coming from the device, it will ask to be set up as a VPN profile upon being enabled. Android forces any app that looks at traffic in this manner to be set up like a VPN and only allows one VPN connection at a time.

It can be a source of stress to set up a new device for your child. However, taking some time to set up privacy and security settings can help you and your child discuss technology from a more informed perspective for the both of you.

Introducing Badger Swarm: New Project Helps Privacy Badger Block Ever More Trackers

Today we are introducing Badger Swarm, a new tool for Privacy Badger that runs distributed Badger Sett scans in the cloud. Badger Swarm helps us continue updating and growing Privacy Badger’s tracker knowledge, as well as continue adding new ways of catching trackers. Thanks to continually expanding Badger Swarm-powered training, Privacy Badger comes packed with its largest blocklist yet.

A line chart showing the growth of blocked domains in Privacy Badger’s pre-trained list from late 2018 (about 300 domains blocked by default) through 2023 (over 2000 domains blocked by default). There is a sharp jump in January 2023, from under 1200 to over 1800 domains blocked by default.

We continue to update and grow Privacy Badger’s pre-trained list. Privacy Badger now comes with the largest blocklist yet, thanks to improved tracking detection and continually expanding training. Can you guess when we started using Badger Swarm?

Privacy Badger is defined by its automatic learning. As we write in the FAQ, Privacy Badger was born out of our desire for an extension that would automatically analyze and block any tracker that violated consent, and that would use algorithmic methods to decide what is and isn’t tracking. But when and where that learning happens has evolved over the years.

When we first created Privacy Badger, every Privacy Badger installation started with no tracker knowledge and learned to block trackers as you browsed. This meant that every Privacy Badger became stronger, smarter, and more bespoke over time. It also meant that all learning was siloed, and new Privacy Badgers didn’t block anything until they got to visit several websites. This made some people think their Privacy Badger extension wasn’t working.

In 2018, we rolled out Badger Sett, an automated training tool for Privacy Badger, to solve this problem. We run Badger Sett scans that use a real browser to visit the most popular sites on the web and produce Privacy Badger data. Thanks to Badger Sett, new Privacy Badgers knew to block the most common trackers from the start, which resolved confusion and improved privacy for new users.

In 2020, we updated Privacy Badger to no longer learn from your browsing by default, as local learning may make you more identifiable to websites. 1 In order to make this change, we expanded the scope of Badger Sett-powered remote learning. We then updated Privacy Badger to start receiving tracker list updates as part of extension updates. Training went from giving new installs a jump start to being the default source of Privacy Badger’s tracker knowledge.

Since Badger Sett automates a real browser, visiting a website takes a meaningful amount of time. That’s where Badger Swarm comes in. As the name suggests, Badger Swarm orchestrates a swarm of auto-driven Privacy Badgers to cover much more ground than a single badger could. On a more technical level, Badger Swarm converts a Badger Sett scan of X sites into N parallel Badger Sett scans of X/N sites. This makes medium scans complete as quickly as small scans, and large scans complete in a reasonable amount of time.

Badger Swarm also helps us produce new insights that lead to improved Privacy Badger protections. For example, Privacy Badger now blocks fingerprinters hosted by CDNs, a feature made possible by Badger Swarm-powered expanded scanning. 2

We are releasing Badger Swarm in hope of providing a helpful foundation to web researchers. Like Badger Sett, Badger Swarm is tailor-made for Privacy Badger. However, also like Badger Sett, we built Badger Swarm so it's simple to use and modify. To learn more about how Badger Swarm works, visit its repository on GitHub.

The world of online tracking isn't slowing down. The dangers caused by mass surveillance on the internet cannot be overstated. Privacy Badger continues to protect you from this pernicious industry, and thanks to Badger Swarm, Privacy Badger is stronger than ever.

To install Privacy Badger, visit privacybadger.org. Thank you for using Privacy Badger!

  • 1. You may want to opt back in to local learning if you regularly browse less popular websites. To do so, visit your Badger’s options page and mark the checkbox for learning to block new trackers from your browsing.
  • 2. As a compromise to avoid breaking websites, CDN domains are allowed to load without access to cookies. However, sometimes the same domain is used to serve both unobjectionable content and obnoxious fingerprinters that do not need cookies to track your browsing. Privacy Badger now blocks these fingerprinters.

Brussels,june 2023 : Diary of the second ECHO Network study visit

Par : Framasoft
18 octobre 2023 à 02:58

 

As a reminder, the participants in the ECHO Network exchange come from 7 different organisations in 5 European countries : Ceméa France, Ceméa Federzione Italia, Ceméa Belgium, Willi Eichler Academy (Germany), Solidar Foundation (European network), Centar Za Mirovne Studije (Croatia), Framasoft (France).

 

Report on the week in Brussels.

 

Cliquez ici pour lire l’article en français.

 

Brussels’ Grand Place under the sun

TLDR (too long, I didn’t read it) : It was just too much fun ! You can feel that the bonds between participants are getting stronger, and that the methods of popular/permanent/active/new education (place the term of your choice before education) are bearing fruit !

 

That week, from June 12 to 17, 2023, Brussels was bathed in sunshine.

A crosswalk in LGBT+ colors leading to parliament.

We were two Framasoft members : Fred and Booteille.

In ECHO Network meetings, Mondays and Fridays are dedicated to travel, since the various people are more or less far from the meeting place.

But our Belgian pals had planned a debate evening for Monday evening, so we had to arrive not too late.

Luckily, we both had trains that allowed us to arrive around noon, so we met up at the Gare du… Midi and set off together to explore the city center of the European capital in search of our hotel.

 

Smurf ceiling in Brussels. Comics are everywhere.

 

Once we’d packed up, we took a quick stroll to find a place to eat.

Brussels is a great city, where you can go from an upmarket district to a working-class one just by crossing the street. I’m sure that’s true elsewhere, but it struck us. Fred’s tip : if you want to be offered something to smoke, walk around with a guy who looks like Bob Marley.

After that, Fred wandered off while Booteille recuperated from his three nights of 3-4h in a row (he’d just come from another association’s AGM and a few parties).

So we met up directly at the DK workshop, a very nice association bar, where we were going to discuss what Framasoft is with a few dozen members of the public. The invitation had been extended by Tactic (which supports and hosts ethical digital services) and Neutrinet (a Belgian non-profit ISP) ; Tactic being one of the Belgian partners who co-organized some of the activities during our stay in Brussels.

The time, the people and the place were really nice. We were made to feel very welcome, and it was a pleasure to be with so many allies we didn’t know.

A journalist was at the party for a documentary he’s preparing on privacy. He wants to sell it to RTBF. He took video captures of the discussion.

Gerben, who works for NLnet, was there. NLNet is a foundation that funds a lot of digital projects that contribute to improving our society. PeerTube is one of these projects.

On the first evening, we had a meal downtown with the ECHO partners. For Booteille, who was bursting with fatigue, it was particularly difficult to start exchanging in English that evening.

 

On Tuesday, we kicked off the first day of activities at Maxima, a very nice third-party association.

Everyone had arrived, despite a few people’s transport problems. There were members of Solidar Foundation, CÉMÉA Italy, CÉMÉA France, Willi Eichler Akademy, La Ligue des Familles in Belgium, Tactic, Framasoft…

It’s important to note that the theme of the week was « active education practices to raise awareness of ethical tools ».

So we started by doing some activities to get us into the spirit of the week, to start building links between participants, based – as will be the case for almost all activities – on active/permanent/popular/new education methods ; choose your favorite term among these. While not everyone agreed on the name (and some didn’t necessarily mean the same thing as others), everyone validated their interest, and that’s the important thing !

Next, we got into groups to discuss what we thought active education and popular education were and were not. We had to draw our interpretations on panels. In a few years’ time, our work may be found again, and the world may mistake it for a painting by Leonardo da Vinci. Expect the foundations of what we call « art » to change after that. There will have been a before and an after. :)

After the small-group discussions, we watched a video on Joseph Jacotot, « Peut-on enseigner sans savoir ? » (Can we teach without knowing ?).

We then presented our panels and had a large-group discussion.

 

In the afternoon, we did an activity based on key digital figures : money, quantity of data, pollution, place the figures given opposite the right question. Not an easy task, even for geeks. Quite a few people made corrections to the figures given after the activity, as the cards were three or four years old. This highlighted the speed at which digital technology is evolving, which is quite staggering.

Then we had a meeting with people from Code du Numérique. An ultra-cool project. They are working to build coherent legislative proposals to put to elected representatives – particularly on issues of inclusion. These proposals are developed through workshops with a wide range of people, both those who are comfortable with digital technology and those who are not. You don’t like legal issues : go and talk to these people !

There are some great videos on their website, which we recommend !

We also suggested that they be interviewed on the Framablog, because we were so enthusiastic about it.

The day ended with a review of the activities carried out. As always with popular education, you get the impression that the hours have just flown by and that you haven’t made any effort, but when you look back you realise how rich the exchanges have been and how much work has been done.

We then went for a drink and a bite to eat with some of the group. And to answer the question on your lips, yes, some people had chips !

The next day, we had a date at another venue, the PianoFabriek, in Saint-Gilles.

We had a beautiful (dance) hall with an outdoor area.

In the morning, Cécile and Annie, from the Ligue des Familles, suggested « the hidden side of clicking » as a theme, where we would discuss the attention economy.

But before that, we played a little presentation game, where each pair had to find something in common that the others didn’t have. Contrary to what you might think, many people have been on roadtrips to Spain and would like to listen to opera.

Annie and Cécile then asked us to answer 12 yes or no questions. These 12 statements are designed to help identify an addiction (see an example here) and have been adapted for use with smartphones. For example : « I feel nervous or anxious if I’ve left my smartphone at home ».

Several people in the group were a little « shocked » by the results of their answers.

Answering two (2 !) of the statements with « yes » underlines addictive behaviour. Suffice it to say that the geeks have hit the roof.

 

 

 

In Belgium, Fred’s addiction to Speculoos is reawakening.

 

We then watched the Dopamine episode on Facebook, which many people were just discovering, and discussed it with our respective small groups.

The next activity was cognitive bias bingo. The names of several biases and their descriptions were posted around the room, and a randomly selected pair of us were asked to write down the name of the bias for each description on an index card.

After this activity, we discovered Ardoino’s grid in which we had to place, first on our own and then with our groups, solutions to the problems raised by digital technology.

Were these solutions of an individual, interpersonal, group, organizational or institutional nature ? Let’s think about it !

The aim was to highlight the fact that many impactful actions are not just individual matters (you know, peeing, showering, etc.).

We ended our activities at PianoFabriek with a moving debate.

Individually, we wrote answers to « For me, active pedagogy is… » and « For me, active pedagogy is not… » on sticky notes.

 

After which, Alain, from CÉMÉA Belgium (who co-hosted most of the week with Sarah, also from CÉMÉA Belgium), chose a few answers and had us move around the space to indicate « I agree » or « I disagree ».

Once positioned, we were able to speak up and discuss the reasons for our position. At any moment, we could change our position, physically showing the evolution of our thinking.

We really enjoyed this form of debate.

Incidentally, we haven’t noted it yet, but it’s important to know that we mainly exchanged ideas in English, and translated into English what people who spoke in French were saying. Most people seemed to understand enough English not to translate systematically from English into French, and would indicate when there was a need for translation in that direction.

The translation work was a considerable effort, but for the people in charge of the animation, it was even more exhausting. At the ECHO Network session in Paris, those able to express themselves in English had formed a group which spent the whole week exchanging in that language. In Brussels, this was not possible. European project, European constraints !

After the PianoFabriek, we joined members of EDRI and Technopolice Brussels for an exploratory walk in public spaces (notably the Gare du Midi) in search of CCTV cameras.

 

These two people helped us to better understand the thinking behind the installation of cameras : « Which locations with which lenses ? » In the Gare du Midi, for example, each door is necessarily equipped with a dedicated camera. There’s also a camera in front of every staircase leading up to the platforms, so that faces can be clearly identified. Not to mention the store, where a camera is also pointed… at the cashier’s hands !

We noticed that there are far more cameras in the poorer neighborhoods (including Molenbeek-Saint-Jean)  than in the richer ones. One fact that impressed us : a camera was located in front of a subway station in a working-class neighborhood. Residents didn’t like it, and it was damaged. Another camera was placed much further down the street, but it monitored the same subway exit. These cameras have an impressive zoom capability.

The cost of installing a camera is estimated at €20,000, and cities are installing hundreds of them, although their effectiveness in combating crime has not been proven in the slightest.

 

The premises of the Belgian Cyber Security Center are packed with surveillance cameras. No, nothing. All is well.

 

 

Ha, I think it’s time to ask this but… HOW IS IT THAT IN BRUSSELS YOU HAVE TO PAY FOR BOTTLED WATER IN ALL RESTAURANTS ! NO FREE TAP WATER ! JUST WATER ! RAAAAAAAAAAAAAAAAAAAAAAAAAAH ! LET’S BURN CAPITALISM !

 

 

 

A poster « Are you a communist ? Join us ! » we came across while wandering around Brussels.

Sorry for the outburst, it’s okay now.

For the last day, we were back at Maxima, where a number of digital, image (video) and radio players presented their projects to us, including RadioPanik, a free radio station (which makes fascinating impossible programs) and ZinTV, an organization close to social movements.

After the presentation of their projects, we had a large-group discussion on the difficulties of migrating to open-source solutions for certain structures.

During the day, we had to join either ZinTV to learn how to make video recordings, or RadioPanik to learn how to make radio.

We learned how an ultra-light portable radio transmitter works, or how to use OBS to broadcast live TV.

At the end of the day, there was a PeerTube presentation from someone who learned a little late that she had to do it, poor thing. Luckily, Booteille was on hand to answer any questions.

After that, the ECHO Network core group and I took stock of the week.

The results were really positive. The partners who didn’t really see the value of popular education methods during the first session in Paris are now convinced. The links between the different members and structures were further strengthened.

We had the feeling that we were really starting to form a body, a real group, and that we were all really moving in the same direction, which for a pan-European project like this is really motivating.

In the evening, before dinner, we attended a conference on Tyler Reigeluth‘s book, « The Intelligence of Cities, Critique of Endless Transparency ».

Before the conference, Booteille spoke on behalf of Framasoft alongside Morgane (co-organizer of the ECHO project, member of CÉMÉA France), Sarah (who was co-organizing the trip to Belgium) and Célo (member of Tactic and Neutrinet, who played an important part in organizing the activities), into the microphone of RadioPanik, which was broadcasting live.

We gave a brief presentation of our structures and the ECHO Network project.

The conference then got under way, and to be honest, we weren’t very good at it. Our ECHO Network accomplices, who had learned how to make radio and TV that very afternoon, were broadcasting the conference over the airwaves, and we couldn’t help but give them a helping hand. The PeerTube streaming of the rebroadcast had a problem, and Booteille had to get his hands dirty (Booteille’s note : In truth, they managed just fine without me, haha !).

Right after the conference, we went out to eat, drink and chat until late.

Antonio, our Croatian colleague (from Center for Peace Studies), hosted the evening. He’ll be part of the host team in Zagreb, and he’s quite a character !

 

Ce graffiti « Montrez-moi le budget » près de la Gare du Midi est la preuve indiscutable que pyg est passé à Bruxelles.

 

This « Show Me The Budget » graffiti near the Gare du Midi is indisputable proof that pyg has been to Brussels.

Bruxelles, juin 2023 : journal de bord de la deuxième visite d’études d’ECHO Network

Par : Framasoft
18 octobre 2023 à 02:56

Pour rappel, les participant⋅es à l’échange européen ECHO Network font partie de 7 organisations différentes dans 5 pays d’Europe : Ceméa France, Ceméa Federzione Italia, Ceméa Belgique, Willi Eichler Academy (Allemagne), Solidar Foundation (réseau européen), Centar Za Mirovne Studije (Croatie), Framasoft (France).

 

Compte-rendu de la semaine à Bruxelles.

 

Click here to read the article in English.

 

La Grand Place de Bruxelles sous le soleil

 

 

TLDR (trop long, j’pas lu) : C’était vraiment trop chouette ! On sent que les liens entre les participant·es se renforcent et que les méthodes d’éducation populaire/permanente/active/nouvelle (placez le terme de votre choix après éducation) portent leurs fruits !

 

Cette semaine-là, celle du 12 au 17 juin 2023, Bruxelles était écrasée de soleil.

Un passage piéton aux couleurs LGBT+ qui mène au parlement.

 

Nous étions deux membres de Framasoft à partir : Fred et Booteille.

Dans les rencontres ECHO Network, les lundis et les vendredis sont dédiés aux trajets, puisque les différentes personnes sont plus ou moins loin du lieu de rendez-vous.

Mais les potes Belges nous avaient prévu une soirée débat le lundi soir, il nous fallait donc arriver pas trop tard.

Par chance, nous avions tous deux des trains qui nous permettaient d’arriver aux alentours de midi, donc nous nous sommes retrouvés à la gare du… Midi et sommes allés, ensemble, explorer le centre-ville de la capitale européenne à la recherche de notre hôtel.

Plafond Schtroumpf dans Bruxelles. La BD est partout.

Une fois les affaires déposées, on s’est baladé vite fait pour trouver un coin où manger.

Bruxelles est une ville formidable, où on passe d’un quartier huppé à un quartier populaire en traversant la rue. Ça doit être vrai ailleurs, mais ça nous a frappés. Astuce de Fred : si vous voulez qu’on vous propose de quoi fumer, promenez-vous avec un type qui ressemble à Bob Marley.

Après quoi Fred s’est baladé pendant que Booteille récupérait de ses trois nuits de 3-4h d’affilée (il sortait de l’AG d’une autre association et de quelques soirées).

Nous nous sommes donc rejoints directement à l’atelier DK, un bar associatif très chouette, où nous allions discuter de ce qu’est Framasoft avec quelques dizaines de personnes du public. L’invitation avait été faite par Tactic (qui fait de l’accompagnement et de l’hébergement de services numériques éthiques) et Neutrinet (un FAI associatif belge) ; Tactic étant un des partenaires belges ayant co-organisé certaines activités du séjour bruxellois.

Le moment, le public et le lieu étaient vraiment sympathiques. Nous avons été super bien accueillis et ça faisait plaisir d’être avec autant d’allié·es que nous ne connaissions pas.

Un journaliste était présent à la soirée pour un documentaire qu’il prépare sur la vie privée. Il souhaite le vendre à RTBF. Il a pris des captures vidéos de la discussion.

Gerben, qui travaille pour NLnet, était venu. NLNet est une fondation qui finance pas mal de projets numériques qui contribuent à améliorer notre société. PeerTube est un de ces projets.

Le premier soir, on a fait un repas en centre-ville avec les partenaires d’ECHO. Pour Booteille, qui était explosé de fatigue, c’était particulièrement difficile de commencer à échanger en anglais dès ce soir là.

Mardi, on a démarré la première journée d’activités à Maxima, un tiers lieu associatif très chouette.

Tout le monde était arrivé, modulo les soucis de transports de quelques personnes. On comptait des membres de Solidar Foundation, Les CÉMÉA Italie, Les CÉMÉA France, la Willi Eichler Akademy, La Ligue des Familles en Belgique, Tactic, Framasoft…

Il est important de noter que la thématique de la semaine était « pratiques d’éducation active pour sensibiliser aux outils éthiques ».

Nous avons donc commencé par faire des activités permettant de nous mettre dans l’esprit de la semaine, de commencer à construire du lien entre les participant·es, en s’appuyant, comme ce sera le cas pour presque toutes les activités, sur des méthodes d’éducation active/permanente/populaire/nouvelle ; choisissez votre terme préféré parmi ceux-ci. Si tout le monde n’est pas raccord sur le nom (et que certains ne signifient pas forcément la même chose que d’autres), tout le monde valide leur intérêt, et c’est bien ça l’important !

Ensuite, nous nous sommes mis en groupe pour discuter de ce que nous pensons être ou ne pas être l’éducation active et l’éducation populaire. Nous devions dessiner sur des panneaux nos interprétations. Dans quelques années on risque de retrouver nos œuvres et le monde risque de le confondre avec une peinture de Léonard de Vinci. Attendez-vous à ce que les fondements de ce qu’on appelle « art » changent après ça. Il y aura eu un avant et un après. :)

Après les échanges en petits groupes, on a regardé une vidéo sur Joseph Jacotot « Peut-on enseigner sans savoir ? ».

Suite à quoi nous avons présenté nos panneaux et eu un échange en grand groupe.

L’après-midi, nous avons fait une activité autour des chiffres clés du numérique : pognon, quantité de données, pollution, placez les chiffres donnés en face de la bonne question. Pas évident, même pour des geeks. Pas mal de personnes ont apporté des corrections aux chiffres donnés après l’activité, car les fiches dataient d’il y a trois ou quatre ans. Ça a permis de souligner la vitesse à laquelle le numérique évolue, ce qui est assez effarant.

Ensuite, on a eu une rencontre avec des personnes du Code du Numérique. Un projet ultra-chouette. Iels travaillent à construire des propositions de loi cohérentes à proposer aux élu·es — notamment sur les questions d’inclusion. Ces propositions sont pensées à l’aide d’ateliers avec plein de gens, à l’aise avec le numérique ou non. Vous n’aimez pas les questions juridiques : allez discuter avec ces gens là !

Il y a des vidéos sur leur site web qui sont formidables, nous vous les recommandons !

Nous leur avons proposé une interview dans le Framablog, tellement ça nous a passionnés.

La journée s’est terminée après un bilan sur les activités réalisées. Comme toujours avec l’éducation populaire, on a l’impression que les heures ont coulé toutes seules et qu’on n’a pas fourni d’effort, mais quand on regarde dans le rétro on se rend compte de la richesse des échanges et de la quantité de boulot qui a été abattue.

Nous sommes ensuite allés boire un verre puis manger avec une partie du groupe. Et pour répondre à la question qui vous brûle les lèvres, oui, des personnes ont pris des frites !

Le lendemain, nous avions rendez-vous dans un autre lieu, le PianoFabriek, à Saint-Gilles.

Nous avions une très belle salle (de danse) avec un extérieur.

Le matin, Cécile et Annie, de la Ligue des Familles, nous ont proposé comme thématique « la face cachée du clic », où nous discuterons économie de l’attention.

Mais avant ça, nous avons fait un petit jeu de présentations où par binôme, nous devions trouver un point commun que les autres n’auraient pas. Figurez-vous que contrairement à ce que l’on pourrait penser, beaucoup de personnes ont fait des roadtrips en Espagne et aimeraient écouter de l’opéra.

Ensuite, Annie et Cécile nous ont fait répondre à 12 affirmations par oui ou par non. Ce sont douze affirmations qui permettent d’aider à identifier une addiction (un exemple ici) et qui ont été adaptées pour l’usage des smartphones. Par exemple : « Je me sens fébrile ou angoissé·e si j’ai oublié mon smartphone à la maison ».

Plusieurs personnes dans le groupe étaient un peu « choquées » par le résultat de leurs réponses.

En effet… Répondre à deux (2 !) des affirmations par « oui » souligne un comportement addictif. Autant vous dire que les geeks ont crevé le plafond.

 

En Belgique l’addiction de Fred pour les Spéculoos se réveille.

 

Ensuite, on a regardé l’épisode de Dopamine consacré à Facebook, que plusieurs personnes découvraient et nous en avons par la suite discuté avec nos petits groupes respectifs.

La prochaine activité était un bingo des biais cognitifs. Le nom de plusieurs biais et leur description étaient affichés sur l’ensemble de la salle et, avec un binôme choisi aléatoirement, nous devions, sur une fiche, indiquer le nom du biais pour chaque description proposée.

Après cette activité, nous avons découvert la grille d’Ardoino dans laquelle nous devions y placer, d’abord en solo puis avec nos groupes, les solutions aux problématiques soulevées par le numérique.

Est-ce que ces solutions relevaient de l’ordre de l’individuel, de l’interpersonnel, du groupe, de l’organisationnel ou des institutions ? À nous d’y réfléchir !

Le but était de souligner que beaucoup d’actions impactantes relèvent d’autres choses que de l’individuel. (Vous savez, le pipi, la douche, toussa toussa…)

On a terminé les activités au PianoFabriek avec un débat mouvant.

Individuellement, nous avons écrit sur des papillons repositionnables des réponses à « Pour moi, les pédagogies actives c’est… » et « Pour moi, les pédagogies actives ce n’est pas… ».

Après quoi, Alain, des CÉMÉA Belgique (qui a co-animé avec Sarah, des CÉMÉA Belgique aussi, la majeure partie de la semaine), a choisi quelques réponses et nous a fait nous déplacer dans l’espace pour indiquer « Je suis d’accord » ou « Je ne suis pas d’accord ».

Une fois positionnés, nous pouvions prendre la parole et échanger sur les raisons de notre positionnement. À tout moment, nous pouvions changer de position, montrant physiquement l’évolution de notre réflexion.

Nous avons beaucoup aimé cette forme de débat.

D’ailleurs, nous ne l’avons pas encore noté mais il est important de savoir que nous échangions principalement en anglais et traduisions, en anglais, les propos des personnes qui s’exprimaient en français. La plupart des gens semblaient comprendre suffisamment l’anglais pour ne pas traduire systématiquement de l’anglais vers le français et indiquaient quand il y a un besoin de traduction dans ce sens.

Le travail de traduction représentait mine de rien un effort considérable mais autant dire que pour les responsables de l’animation, c’était encore plus épuisant. Lors de la session ECHO Network à Paris les personnes capables de s’exprimer en anglais avaient formé un groupe qui avait passé la semaine entière à échanger dans cette langue. À Bruxelles ce n’était pas possible. À projet européen, contraintes européennes !

Après le PianoFabriek, nous avons rejoint des membres d’EDRI et de Technopolice Bruxelles, pour faire une ballade exploratoire dans l’espace public (et notamment la gare du Midi) à la recherche de caméras de vidéosurveillance.

Ces deux personnes nous ont permis de mieux comprendre la réflexion dans la pose des caméras : « Quels lieux avec quels objectifs ? » Dans la gare du Midi, par exemple, chaque porte a forcément une caméra dédiée. Une caméra est aussi placée devant chaque escalier montant aux quais de manière à pouvoir bien identifier les visages. Sans parler de la boutique où une caméra est aussi pointée… sur les mains du caissier !

Nous avons pu constater qu’il y a beaucoup plus de caméras dans les quartiers pauvres (notamment Molenbeek-Saint-Jean) que dans les riches. Un fait qui nous a impressionnés : une caméra était située devant la station de métro d’un quartier populaire. Les habitants n’ont pas apprécié et elle a été endommagée. Une autre caméra a été placée beaucoup plus loin dans la rue, mais elle surveille la même sortie de métro. On se rend compte que ces caméras ont une impressionnante capacité de zoom.

On estime à 20 000 € le prix de la pose d’une caméra, les villes en installent des centaines, et leur efficacité pour lutter contre la délinquance n’est absolument pas prouvée.

Les locaux du Centre pour la Cyber-Sécurité Belge sont truffés de caméras de surveillance. Non, rien. Tout va bien.

 

Ha, je crois que c’est le moment de le poser là mais… COMMENT CA SE FAIT QU’À BRUXELLES IELS FONT PAYER OBLIGATOIREMENT DE L’EAU EN BOUTEILLE DANS TOUS LES RESTAURANTS BORDAYL DE ZUT ! PAS POSSIBILITÉ D’AVOIR DE L’EAU DU ROBINET GRATUITEMENT ! DE L’EAU QUOI ! RAAAAAAAAAAAAAAAAAAAAAAAAH ! BRÛLONS LE CAPITALISME !

 

Une affiche « Es-tu communiste ? Rejoins-nous ! » rencontrée au hasard de nos pérégrinations dans Bruxelles

 

Pardon pour le coup de sang, ça va mieux.

Pour la dernière journée, nous étions de retour à Maxima, où des acteurices du numérique, de l’image (vidéo) et de la radio nous ont présenté leurs projets, notamment, RadioPanik, une radio libre (qui fait des émissions impossibles passionnantes) et ZinTV, une organisation proche des mouvements sociaux.

Après la présentation de leurs projets, nous avons échangé en grand groupe sur les difficultés de migrer vers des solutions libres pour certaines structures.

Durant la journée, nous devions nous joindre soit à ZinTV pour apprendre à faire de la captation vidéo, soit à RadioPanik pour apprendre à faire de la radio.

Nous avons appris comment fonctionne un émetteur radio portatif ultra-léger ou l’utilisation d’OBS pour diffuser de la télé en live.

À la fin de la journée, il y a eu une présentation de PeerTube d’une personne qui a appris un peu tard qu’elle devait la faire, la pauvre. Heureusement, Booteille l’a un peu assisté pour répondre aux questions.

Après ça, nous avons fait un bilan avec le groupe cœur d’ECHO Network, sur la semaine.

Le bilan était vraiment positif. Les partenaires qui ne voyaient pas trop l’intérêt des méthodes de l’éducation populaire lors de la première session parisienne sont désormais convaincu·es. Les liens entre les différent·es membres et différentes structures se sont encore renforcés.

Nous avons eu le sentiment que nous commencions à faire réellement corps, à faire réellement groupe, et que nous avancions vraiment toutes et tous dans la même direction, ce qui pour un projet pan-européen comme celui-ci est vraiment motivant.

Le soir, avant le repas, nous avons assisté à une conférence autour du livre de Tyler Reigeluth, « L’intelligence des villes, Critique d’une transparence sans fin ».

Avant la conférence, Booteille a parlé au nom de Framasoft aux côtés de Morgane (co-organisatrice du projet ECHO, membre des CÉMÉA France), Sarah (qui co-organisait le séjour en Belgique) et Célo (membre de Tactic et Neutrinet, qui a pris une part importante dans l’organisation des activités), dans le micro de RadioPanik qui diffusait en direct.

Nous y avons fait une brève présentation de nos structures et du projet ECHO Network.

Après quoi la conférence a commencé et pour être honnête nous n’avons pas été très bons élèves. Nos complices d’ECHO Network qui avaient appris à faire de la radio et de la télé l’après-midi même retransmettaient la conférence sur les ondes, et nous n’avons pas pu nous empêcher de leur donner un coup de pouce. Le streaming sur PeerTube de la retransmission a eu un souci et Booteille a dû mettre les mains dans le cambouis. (Note de Booteille : En vrai, iels s’en sortaient très bien sans moi, haha !)

Juste après la conférence nous sommes allés manger, boire et discuter jusqu’à une heure avancée.

Antonio, notre camarade croate (de Center for Peace Studies), a animé la soirée. Il fera partie de l’équipe accueillante à Zagreb, et c’est un sacré personnage !

 

Ce graffiti « Show Me The Budget » près de la Gare du Midi est la preuve indiscutable que pyg est passé à Bruxelles.

Métacartes, des communs pédagogiques pour accompagner les accompagnateurs de transition numérique

Par : metacartes
16 octobre 2023 à 13:10

Nous vous avons déjà parlé à plusieurs reprises du projet « Métacartes » que nous trouvons très pertinent pour aborder des sujets complexes de façon simple (et collective !).

Mélanie et Lilian, les créateur⋅ices de cette initiative (et des personnes fabuleuses par ailleurs), reviennent aujourd’hui nous partager un point d’étape important. Nous sommes ravi⋅es de leur laisser la parole.

Rappel des épisodes précédents

À tout point de vue, le modèle actuel du numérique est catastrophique (si vous en doutez lisez chaque semaine le fabuleux Khryspresso où la réalité dépasse souvent la fiction). Pourtant, même quand on est conscient qu’il faut changer de modèle, il est difficile de passer à l’action car c’est un problème complexe qui nécessite des changements à la fois individuels et collectifs.

Pour soutenir les professionnels qui accompagnent des collectifs dans des démarches vers un numérique plus éthique, ainsi que les formateur.ice.s et médiateur.ice.s numériques, nous avons conçu les Métacartes Numérique éthique : une boite à outils sous forme de cartes papier reliées à des fiches en ligne (rappel des épisodes précédents sur le Framablog ici, ici et ici).

 

Aperçu des cartes Numérique éthique

Aperçu des cartes Numérique éthique

Un outil d’animation participative et d’apprentissage coopératif

Les Métacartes ont été conçues pour offrir une multitude de possibilités :

  • structurer les échanges et les réflexions sur le numérique grâce à un outil de médiation synthétique qui tient dans la poche
  • apprendre et réfléchir au numérique en sortant la tête des écrans
  • faciliter l’échange et le partage des connaissances avec des publics de tous âges, à travers la manipulation d’un support physique
  • faciliter la coopération et l’apprentissage par les pairs (pas seulement via le formateur.ice),
  • mettre en action les individus et collectifs sur des projets concrets (pas juste du théorique),
  • mobiliser tous les styles d’apprentissage, visuels, auditifs, kinesthésiques, en utilisant le visuel, l’écoute, la manipulation et le mouvement (pas de journée complète en position assise).
  • consulter et proposer des ressources en lignes actualisées et enrichies régulièrement.
  • consulter et proposer des tutoriels complémentaires adaptés à des publics ou contextes particuliers

 

Fruit d’un travail de plus de deux ans en coopération ouverte avec un groupe d’acteur·ice·s du libre et de la société civile, cet outil constitue un commun pédagogique qui peut être personnalisé pour vos usages et enrichi par vos contributions.

Deux ans après, il s’est passé plein de choses : on vous raconte.

De nouveaux outils, complémentaires

Au fur et à mesure des retours et de nos propres usages, nous avons complété les cartes avec une série d’outils téléchargeables sur le site.

Un tableau récapitulatif des cartes Numérique Éthique

Pensé pour les animateur·ice·s et les formateur·ice·s, ce tableau offre une vue d’ensemble des cartes et de leur utilisation. Lors de la conception de vos séquences pédagogiques, vous serez guidé sur les cartes à choisir en fonction de votre objectif, les objectifs étant reliés aux différentes étapes du canevas “vous êtes ici” :

  • prendre conscience des enjeux
  • faire le point
  • définir ses critères
  • découvrir des alternatives
  • faire évoluer ses pratiques
  • évaluer
tableau récapitulatif des cartes numériques éthiques classées par objectifs

 tableau récapitulatif des cartes numériques éthiques classées par objectifs

 

Une base de données de ressources libres sur le thème du Numérique éthique

Lors de la conception des cartes Numérique éthique, nous avons collecté beaucoup de ressources et de contenus de grande qualité sur le sujet. Nous avons mis à jour et catégorisé cette base de ressources afin de vous aider à trouver des contenus pertinents pour enrichir vos ateliers ou vos formations.

base de données de ressources

base de données de ressources

 

Pour cela, vous pouvez filtrer les ressources par objectifs précédemment cités (prendre conscience des enjeux, faire le point,…) par l’un des critères du set (intimité numérique, accessibilité, transparences algorithme…).

tri des ressources par critères éthiques

tri des ressources par critères éthiques

 

Tableau récapitulatif des Usages et sous-usages Numérique Éthique

Dans Numérique éthique, nous avons un parti pris : rien ne sert de remplacer un outil non-éthique par un outil éthique si l’usage demeure problématique. Outils et usages sont intrinsèquement reliés, alors quitte à changer d’outil autant profiter de ce moment pour prendre du recul sur ses usages.

Les cartes ingrédients catégorie #usages, servent à cela : se poser des questions sur ses pratiques et ses besoins avant de tester et éventuellement d’adopter de nouveaux outils.

 

carte ingrédient usage audio et visio conference

Pour chaque usage, il y a plusieurs propositions de sous-usages plus précis et à chaque fois, un lien vers un outil ou un tutoriel.

proposition d’usages et d’outils

 

Si les cartes sont utiles pour travailler avec un groupe, ce tableau destiné lui aussi aux animateur·ice·s et les formateur·ice·s, offre un panorama complet de l’ensemble des propositions d’alternatives éthiques classées en 20 familles d’usages (correspondant aux 20 cartes INGRÉDIENTS #usages).

 

tableau récapitulatif de l’ensemble des usages et sous usages (et des outils).

 

Inspirés de la base d’alternative proposée initialement par Degooglisons Internet, nous l’avons enrichie pour montrer les nombreux usages et outils existants en proposant à chaque fois une alternative éthique.

Au total ce sont plus de 130 propositions d’usages et d’outils dans lesquelles vous pouvez piocher pour transformer vos usages personnels ou enrichir vos ateliers et formations.

Des remix et des tutos

Ce qui est chouette avec le libre, c’est que d’autres peuvent s’emparer de votre travail pour leur propre besoin et inventer de nouvelles choses ! Depuis la sortie des cartes, nous avons récolté plusieurs retours d’usages dans différents contextes et nous les avons postés dans la section mode d’emploi sous forme succincte afin de montrer d’autres usages possibles.

Formation de conseiller-es numériques – Julie Brillet

Une activité pour faire réfléchir de futurs conseillers numériques aux enjeux éthiques et leur faire découvrir des outils/usages plus éthiques.

Animation par des étudiants d’un atelier sur les « Questions éthiques autour du Web » – Stéphane Crozat :

L’objectif de cette activité est de faire animer des petits ateliers par des étudiant·e·s à propos de questions éthiques autour du numérique en général et du Web en particulier.

Animation d’un atelier « usages numériques et réflexivité des étudiant·e·s » – Gabriel Trouvé

Une amélioration de l’éthic-o-test expérimentée pour un Atelier usages numériques et réflexivité des étudiants : comment développer un esprit critique et porter les enjeux éthiques des usages numériques auprès des étudiant·e·s ?

Animation d’un atelier de sensibilisation au Numérique éthique dans un contexte de recherche en éducation et numérique – Mathieu Payn

Dans ce format simple, les participant·e·s sont amené·e·s à découvrir les cartes et à les utiliser pour débattre de leurs intérêts et priorités.

Animation d’un atelier “Outils collaboratifs et travail en équipe” pour des professionnels de l’action sociale et médico-sociale – Morgane Quilliou-Rioual

Dans cet atelier, des cartes recettes et ingrédients ont été utilisées pour faire prendre du recul sur les outils, les usages et les enjeux éthiques à des professionnels de l’action sociale et médico-sociale ayant des fonctions de coordination ou en passe de les avoir.

Des retours sur la méthode et la stratégie

Ce qui est intéressant c’est que dans la plupart de ces ressources, les auteur·ice·s partagent non seulement la recette (le déroulé), mais aussi une analyse réflexive sur ce qui a marché ou serait à améliorer. ce qui est au moins aussi intéressant que le déroulé.

Un commun pédagogique qui peut être enrichi

En concevant numérique éthique, nous avons essayé de le penser comme un commun pédagogique polyvalent, une base solide qui peut être enrichie et personnalisée selon les contextes.

Nous sommes très intéressés de voir comment les cartes sont utilisées dans différents contextes et nous aimerions beaucoup que demain il existe des recettes annexes adaptées à différents publics (enfants, ados, adultes, …) ou contextes (professionnels du numérique, de la médiation, de la formation, associations, centre sociaux, collectivités…)

Des formations pour cheminer (ou aider à cheminer) vers un Numérique éthique

5 ans après la sortie de Faire Ensemble et 2 ans après la sortie de Numérique Éthique, nous avons remis à plat notre offre de formations.

Formation et accompagnement à distance : Pour l’instant nous proposons un format unique de mini formation/accompagnement d’une heure. D’un temps de “simple décoinçage” à du temps de conseil sur un sujet très spécifique, ce format est polyvalent et s’adapte aux différents besoins. Nous sommes en train de réfléchir à proposer une offre d’accompagnement sur plusieurs mois.

Formations en présence : En tant que formateur.ice·s, nous avons à cœur de proposer des moments de formations qui développent le pouvoir d’agir des individus et des organisations, favorisent les actions concrètes et l’autonomisation, sans créer de dépendances. Nous souhaitons que nos formations, comme nos conceptions et animations d’évènements, contribuent à un changement positif en remettant du sens dans toutes vos actions.

En pratique, pour les formations, cela implique que :

  • l’apprentissage se fait aussi par les pairs (pas seulement via le formateur.ice),
  • nous pratiquons une mise en action sur du concret (pas juste théorique),
  • nous apprenons en manipulant un support physique qui permet l’échange et le partage des connaissances, à destination de tous les âges,
  • nous utilisons le visuel, et le mouvement (pas de journée complète en position assise) et cela mobilise tous les styles d’apprentissage, visuels auditifs, kinesthésiques.

Nous proposons maintenant deux formations en présence :

niveau 1 – Cheminer vers des outils et des usages numériques éthiques

niveau 2 – Accompagner des collectifs dans leur réflexion autour de l’éthique du numérique.

La première formation s’adresse à des collectifs souhaitant évoluer vers des pratiques plus éthiques en utilisant les cartes, tandis que la seconde s’adresse plus à des professionnels de la transition numérique qui souhaite mieux prendre en main les cartes pour les utiliser dans leurs accompagnements.

Et bien sur, les formations pourront aussi servir à co-créer des communs complémentaires 😉

Prochaines idées et envies

Nous sommes à l’écoute de la communauté, des besoins, mais nous faisons attention à ne pas tomber dans la démesure et dans la course en avant. Nous essayons donc prendre soin de la ressource, de nous, et faire les choses pas à pas, ce qui n’est pas toujours facile. Pour autant nous aimons partager nos envies, car elles peuvent résonner avec celles d’autres personnes.

Rendre les cartes interopérables avec le référentiel CRCN/PIX

Pix est le service public en ligne pour évaluer, développer, et certifier ses compétences numériques. Ce référentiel français pour l’évaluation des compétences numériques est lui-même basé sur le référentiel européen DigComp.

Notre outil pouvant être utilisé pour de la formation ou de la médiation numérique, nous sommes en train de réfléchir à une intégration entre ce référentiel et nos outils.

Rendre interopérable le référentiel PIX avec les Métacartes pourrait faciliter l’appropriation des Métacartes par les formateur·ice·s, mais aussi, peut-être, mettre plus de réflexion éthique dans les parcours proposés par PIX.

Traduire les contenus Numérique éthique en anglais

Nous avons présenté (à distance) les Métacartes Numérique éthique lors de LibrePlanet, la conférence annuelle de la Free Software Foundation. Le projet a suscité intérêt et plusieurs participants ont manifesté leur volonté de participer à une traduction en anglais du contenu des cartes si un jour nous allions dans ce sens. Faute de temps et soucieux de stabiliser nos travaux actuels, nous n’irons pas dans cette direction pour l’instant, mais l’idée reste et nous espérons pouvoir y travailler quand les conditions seront favorables.

Metacartes : a free/libre toolbox to chart the course to an ethical digital technology :

Concevoir des fresques éthiques du numérique

La fresque du numérique et les autres fresques ont eu beaucoup de succès ces dernières années. Pourtant si la méthode d’animation participative présente un certain intérêt, plusieurs choses nous ennuient/déplaisent. Malgré le nom fresque la dimension dessinée est minimaliste, l’atelier représente un “jeu fermé” (il y a un nombre limité de “bonnes réponses” détenues par les animateur·ice·s), la méthode n’est pas sous licence libre, le format consacre beaucoup de temps à la prise de conscience qui peut être très anxiogène et les solutions de petits gestes présentées occultent les enjeux systémiques et politiques et réduisent notre pouvoir d’agir. À la place nous proposons d’inventer une/des alter (anti ?) fresque(s) qui pourraient être animées/personnalisées/remixées sur le numérique éthique en général ou certains sujets plus ciblés.

L’occasion de travailler avec des copain.e.s et d’apprendre à mieux se connaître, coopération entre Mélanie et Lilian de Métacartes et Romain et Julie de L’établi numérique.

Nous avons ainsi testé notre premier prototype sur le thème de l’hébergement web éthique avec un premier atelier test animé par Romain et Lilian lors du camp CHATONS 2023.

Organiser des ateliers thématiques d’échanges de pratiques :

Nous aimerions organiser des ateliers d’échanges de pratiques (à distance) autour de Numérique éthique pour différents contextes (médiateurs, pour les enseignants, centre sociaux, pour les collectivités, pour les professionnels de l’action sociale, …) ou publics (enfants, ados, adultes, …). Ces ateliers pourraient servir à partager des pratiques, mais aussi les documenter pour enrichir la base de ressources communes.

Animer des discussions et réflexions sur les questions éthiques

Une autre de nos envies serait d’animer ou de contribuer à l’organisation de discussion sur les questions éthiques. Par exemple poser des questions comme « Le Libre est il éthique ? ». Le libre des origines répondait à un certain besoin éthique. Mais aujourd’hui où en est on ? et où veut-on aller ? Nous n’avons pas la réponse, mais nous avons des questions et nous pensons qu’il est extrêmement important de les explorer collectivement en utilisant un format participatif qui favorise l’expression de toustes.

Ou encore organiser le « procès de chatGPT » comme un prétexte pour créer des espaces de discussion sur les enjeux de l’IA, sujet sur lequel il serait essentiel de rendre intelligibles les enjeux pour avoir un vrai débat de société. Ça pourrait être un atelier d’échange basé sur des cartes ou bien une conférence gesticulée, peu importe, mais il est urgent d’avoir des discussions là-dessus car cette technologie va bouleverser nos sociétés et risque de faire beaucoup de dommages si nous ne nous posons pas de vraies questions sur son usage.

Se relier à d’autres acteur·ice·s

Enfin une envie que nous avons depuis le début et qui demeure essentielle pour nous : se relier avec les autres acteur·ice·s qui œuvrent pour plus d’éthique, rendre visibles les initiatives qui vont dans ce sens à la fois dans le monde du numérique (Res numérica, l’établi numérique, libérons nos ordis, l’april, les CHATONS) mais aussi dans d’autres domaines afin casser les silos et rompre la tragédie du LSD (l’isolement entre différentes cultures comme les libristes, les solidaristes,les durabilistes, les artistes … qui ont des problèmes et des solutions différents et complémentaires, mais communiquent peu entre eux).

Rêver et agir dans un archipel de communs

Tout cela fait beaucoup. Nous sommes une petite structure (deux personnes à temps partiel) et nous ne souhaitons pas grossir, car au-delà d’une certaine taille il y a le risque de perdre le sens.

Mais nous aimons rêver et nous pensons qu’en partageant nos envies cela peut donner envie à d’autres de s’y relier et d’avancer sur ces sujets, que ce soit avec nous ou bien simplement de leur coté. Car, comme Framasoft nous croyons beaucoup à l’idée d’archipelisation, une coopération qui se nourrit de la diversité et des différences.

 

What to Do If You're Concerned About the 23andMe Breach

20 octobre 2023 à 12:53

In early October, a bad actor claimed they were selling account details from the genetic testing service, 23andMe, which included alleged data of one million users of Ashkenazi Jewish descent and another 100,000 users of Chinese descent. By mid-October this expanded out to another four million more general accounts. The data includes display name, birth year, sex, and some details about genetic ancestry results, but no genetic data. There's nothing you can do if your data was already accessed, but it's a good time to reconsider how you're using the service to begin with. 

What Happened

In a blog post, 23andMe claims the bad actors accessed the accounts through "credential stuffing:" the practice of using one set of leaked usernames and passwords from a previous data breach on another website in hopes that people have reused passwords. 

Details about any specific accounts affected are still scant, but we do know some broad strokes. TechCrunch found the data may have been first leaked back in August when a bad actor posted on a hacking forum that they'd accessed 300 terabytes of stolen 23andMe user data. At the time, not much was made of the supposed breach, but then in early October a bad actor posted a data sample on a different forum claiming that the full set of data contained 1 million data points about people with Ashkenazi Jewish ancestry. In a statement to The Washington Post a 23andMe representative noted that this "would include people with even 1% Jewish ancestry." Soon after, another post claimed they had data on 100,000 Chinese users. Then, on October 18, yet another dataset showed up on the same forum that included four million users, with the poster claiming it included data from "the wealthiest people living in the U.S. and Western Europe on this list." 

23andMe suggests that the bad actors compiled the data from accounts using the optional "DNA Relatives" feature, which allows 23andMe users to automatically share data with others on the platform who they may be relatives with. 

Basically, it appears an attacker took username and password combinations from previous breaches and tried those combinations to see if they worked on 23andMe accounts. When logins worked, they scraped all the information they could, including all the shared data about relatives if both the relatives and the original account opted into the DNA Relatives feature.

That's all we know right now. 23andMe says it will continue updating its blog post here with new information as it has it.

Why It Matters

Genetic information is an important tool in testing for disease markers and researching family history, but there are no federal laws that clearly protect users of online genetic testing sites like 23andMe and Ancestry.com. The ability to research family history and disease risk shouldn’t carry the risk that our data will be accessible in data breaches, through scraped accounts, by law enforcement, insurers, or in other ways we can't foresee. 

It's still unclear if the data is deliberately targeting the Ashkenazi Jewish population or if it's a tasteless way to draw attention to the data sale, but the fact the data can be used to target ethnic groups is an unsettling use. 23andMe pitches "DNA Relatives" almost like a social network, and a fun way to find a second cousin or two. There are some privacy guardrails on using the feature, like the option to hide your full name, but with a potentially full family tree otherwise available an individual's privacy choices here may not be that protective. 

23andme is generally one of the better actors in this space. They require an individualized warrant for police access to their data, don't allow direct access to all data (unlike GEDmatch and FTDNA), and push back on overbroad warrants. But putting the burden on its customers to use unique passwords and to opt intoinstead of requiringaccount protection features like two-factor authentication is an unfortunate look for a company that handles sensitive data. 

Reusing passwords is a common practice, but instead of blaming its customers, 23andMe should be doing more to make its default protections stronger. Features like requiring two-factor authentication and frequent privacy check-up reminders, like those offered by most social networks these days, could go a long way to help users reconsider and better understand their privacy.

How to Best Protect Your Account

If your data is included in this stolen data set, there's not much you can do to get your data back, nor is there a way to search through it to see if your information is included. But you should log into your 23andMe account to make some changes to your security and privacy settings to protect against any issues in the future:

  • 23andMe is currently requiring all users to change their passwords. When you create your new one, be sure to use a unique password. A password manager can help make this easier. A password manager can also usually tell you if previously used passwords of yours have been found in a breach, but in either case you should create a unique password for different sites.
  • Enable two-factor authentication on your 23andMe account by following the directions here. This makes it so in order to log into your account, you'll need to provide not only your username and password, but also a second factor, in this case a code from an two-factor authentication app like Authy or Google Authenticator.
  • Change your display name in DNA Relatives so it's just your initials, or consider disabling this feature entirely if you don't use it. 

Taking these steps may not protect other unforeseen privacy invasions, but it can at least better protect it from the rest of the potential issues we know exist today.

How to Download and Delete Your Data

If this situation makes you uneasy with your data being on the platform, or you've already gotten out of it what you wanted, then you may want to delete your account. But before you do so, consider downloading the data for your own records. To download your data:

  1. Log into your 23andMe account and click your username, then "Settings." 
  2. Scroll down to the bottom where it says "23andMe Data" and click "View."
  3. Here, you'll find the option to download various parts of your 23andMe data. The most important ones to consider are:
    1. The "Reports Summary" includes details like the "Wellness Reports," "Ancestry Reports," and "Traits Reports."
    2. The "Ancestry Composition Raw Data" the company's interpretation of your raw genetic data.
    3. If you were using the DNA Relatives feature, the "Family Tree Data" includes all the information about your relatives. Based on the descriptions of the data we've seen, this sounds like the data the bad actors collected.
    4. You can also download the "Raw data," which is the uninterpreted version of your DNA. 

There are other types of data you can download on this page, though much of it will not be of use to you without special software. But there's no harm in downloading everything.

Once you have that data downloaded, follow the company's guide for deleting your account. The button to start the process is located on the bottom of the same account page where you downloaded data.

Our DNA contains our entire genetic makeup. It can reveal where our ancestors came from, who we are related to, our physical characteristics, and whether we are likely to get genetically determined diseases. This incident is an example of why this matters, and how certain features that may seem useful in the moment can be weaponized in novel ways. For more information about genetic privacy, see our Genetic Information Privacy legal overview, and other Health Privacy-related topics on our blog.

IA génératives : la fin des exercices rédactionnels à l’université ?

26 septembre 2023 à 01:42

Stéphane Crozat est membre de Framasoft, auteur de « Traces » et de « Les libres », et surtout, enseignant à l’Université de Technologie de Compiègne (UTC). Il nous livre ci-dessous une réflexion personnelle – initialement publiée sur son blog – au sujet de l’usage des LLM (ChatGPT ou autre) dans les travaux des étudiant⋅es.

IA génératives : la fin des exercices rédactionnels à l’université ?

visage de Stéphane CrozatEn décembre 2022 le magazine États-unien The Atlantic titre : « The College Essay Is Dead » ( Marche, 2022 [1] ). L’auteur de l’article, écrivain, attribue un B+ à une rédaction produite avec le LLM [2] GPT-3 dans le cadre du cours de Mike Sharples, enseignant en sciences humaines. J’ai moi même attribué la note de 14/15 à un exercice rédactionnel réalisé avec ChatpGPT en février 2023 à l’UTC ( Turcs mécaniques ou magie noire ? ). Une enseignante de philosophie lui a attribué une note de 11/20 au baccalauréat ( Lellouche, 2023 [3] ).

J’ai depuis observé plusieurs cas de « triche » avec des LLM à l’UTC en 2023.

Se pose donc la question de la réaction à court terme pour les enseignants concernant les exercices rédactionnels qui sont réalisés par les étudiants à distance.

Je parlerai de LLM

Je parlerai de LLM [2] dans cet article plutôt que de ChatGPT.

ChatGPT est un outil de l’entreprise OpenIA basé sur un LLM [2] à vocation de conversation généraliste (capable d’aborder n’importe quel sujet) et le premier à avoir introduit une rupture d’usage dans ce domaine. Le problème abordé ici concerne bien cette classe d’outils, mais pas seulement ceux d’OpenIA : des outils concurrents existent à présent (certains pourront devenir plus puissants), des outils plus spécialisés existent (pour la traduction par exemple), d’autres sont probablement amenés à voir le jour (orientés vers la production de textes universitaires, pourquoi pas ?).

On pourra lire, par exemple, Bortzmeyer, 2023 [4] ou Tiernan, 2020 [5] pour plus d’informations.

Je ne parlerai pas de…

Les LLM [2] ne génèrent pas que des textes à la demande, ils génèrent aussi de nombreuses opinions parmi les spécialistes et les usagers ; j’essaierai de me borner aux faits présents, à ce que l’on peut raisonnablement anticiper à court terme (sans faire de science-fiction) et à la seule question de l’évaluation en contexte pédagogique (mais je n’y arriverai pas totalement…).

Je ne parlerai donc pas :

  • des autres enjeux pédagogiques : quel est le rôle de l’université face au développement des LLM ? doit-on former à leurs usages ? les enseignants doivent-il utiliser des LLM eux-mêmes ? est-ce que ça a du sens d’apprendre à rédiger à l’ère des LLM ?
  • des enjeux technico-fonctionnels : qu’est-ce que les LLM ne savent pas faire aujourd’hui ? qu’est-ce qu’on pense qu’ils ne seront jamais capables de faire ?
  • des enjeux politiques et éthiques : est-ce un progrès ? est-ce qu’on peut arrêter le progrès ? que penser de la dépendance croissante aux entreprises de la tech États-uniennes ? du déploiement du capitalisme de surveillance ?
  • des enjeux socio-écologiques : à quoi ça sert ? quels humains ça remplace ? quel est l’impact environnemental des LLM ?
  • des enjeux philosophiques : les LLM sont-ils neutres ? est-ce que ça dépend comment on s’en sert ? ou bien l’automatisation introduite change-t-elle radicalement notre rapport au langage et à la raison ? compléter des textes en utilisant des fonctions statistiques, est-ce penser ? qu’est-ce que l’intelligence ?
  • des enjeux juridiques : est-ce que les LLM respectent le droit d’auteur ? un texte produit avec un LLM est-il une création originale ?

TL;DR

Cet article étant un peu long, cette page en propose un résumé (TL;DR signifiant : « Too Long ; Didn’t Read ») : Résumé du présent article.

Problématique et hypothèse

Problématique

Peut-on continuer à faire faire des exercices rédactionnels « à la maison » comme avant ?

Sans statuer sur la dimension de rupture des LLM — est-ce une nouvelle évolution liée au numérique qui percute le monde de la pédagogie, comme les moteurs de recherche ou Wikipédia avant elle, ou bien une révolution qui va changer radicalement les règles du jeu — il parait nécessaire de réinterroger nos pratiques : « sans sombrer dans le catastrophisme, il serait tout aussi idiot de ne pas envisager que nous sommes une nouvelle fois devant un changement absolument majeur de notre manière d’enseigner, de transmettre, et d’interagir dans un cadre éducatif, a fortiori lorsque celui-ci est asynchrone et/ou à distance. ( Ertzscheid, 2023 [6]) »

Hypothèse

L’automatisation permise par les LLM rend raisonnable une triche automatisée dont le rapport coût/bénéfice est beaucoup plus avantageux qu’une triche manuelle.

De nombreux modules universitaires comportent des exercices rédactionnels à réaliser chez soi. Ces travaux sont généralement évalués et cette évaluation compte pour la validation du module et donc in fine, pour l’attribution d’un diplôme.

  • Dans certains contextes, il n’y a pas d’évaluation en présentiel sans ordinateur et donc la totalité de la note peut bénéficier d’une « aide extérieure ».
  • Souvent à l’université la présence et/ou la participation effective des étudiants lors des cours et TD n’est pas elle-même évaluée, et parfois il n’y a pas d’examen classique, en conséquence un étudiant a la possibilité de valider un cours sans y assister en produisant des rendus écrits qualitatifs à domicile.

Cette situation pré-existe à l’arrivée des LLM, mais nous faisons l’hypothèse suivante :

  • sans LLM il reste un travail significatif pour se faire aider par un humain ou copier des contenus glanés sur le Web ;
  • sans LLM il reste un risque important d’une production de qualité insuffisante (l’humain qui a aidé ou fait à la place n’est pas assez compétent, les contenus Web copiés ont été mal sélectionnés, ou mal reformulés, etc.) ;
  • avec un LMM il est possible de produire un écrit standard sans aucun effort, pour exemple la copie de philo évaluée à 11 a été produite en 1,5 minute ( Lellouche, 2023 [3]).

Triche ?

J’utilise le terme de triche car si la consigne est de produire un texte original soi-même alors le faire produire par un tiers est de la triche. L’existence d’un moyen simple pour réaliser un exercice n’est pas en soi une autorisation à l’utiliser dans un contexte d’apprentissage. C’est similaire à ce qu’on peut trouver dans un contexte sportif par exemple, si vous faites une course à vélo, vous ne devez pas être aidé d’un moteur électrique.

LLM et moteurs de recherche : différence de degré ou de nature ?

J’écrivais en 2015 à propos de l’usage des moteurs de recherche ( Le syndrome de la Bibliothèque de Babel) : « La question intéressante qui se pose aux pédagogues n’est tant de savoir si l’élève va copier ou pas, s’il va « tricher ». La question est de savoir comment maintenir un travail d’élaboration d’une démarche et de production sensément originale et personnelle qui repose explicitement sur une recherche – donc une recherche sur le web – alors que la réponse à la question posée s’invite sur l’écran, formulée très exactement telle qu’attendue. C’est à peine une simplification en l’espèce de dire que la réponse a été jointe à la question, par celui même qui a posé cette question. »

Les LLM font sauter cette barrière : là où les moteurs de recherche permettaient une réponse facile à une question récurrente, les LLM permettent une réponse immédiate à une question originale.

L’évaluation de tout travail avec un ordinateur

Notons que le problème se pose pour tous les travaux rédactionnels avec ordinateur, même en présentiel ou en synchrone. En effet dès lors que l’on veut que nos exercices s’appuient sur un accès à un traitement de texte, des recherches Web ou d’autres outils numériques, alors ils ouvrent l’accès aux LLM.

Il existe des solutions humaines ou techniques de surveillance des examens pour ouvrir l’accès à certains outils seulement, mais d’une part elles posent des problèmes pratiques, éthiques et juridiques, et d’autre part les LLM s’introduisent progressivement au sein des autres outils, ainsi par exemple le moteur de recherche.

Les LLM et les étudiants

Les LLM sont utilisés par les étudiants

Lors de mes cours du semestre dernier (mars à juillet 2023), j’ai rencontré plusieurs cas d’usage de LLM.

  • Ces cas s’apparentent à de la triche.
  • Les étudiants n’ont pas facilement admis leur usage (allant dans certains cas jusqu’à nier des évidences).
  • Ce sont des cas d’usages stupides de la part des étudiants, car non nécessaires pour la validation du cours, sans intérêt du point de vue pédagogique, et facilement détectables.

On peut retenir les arguments principaux revendiqués par les étudiants :

  • Le gain de temps (même si je sais faire, « flemme » ou « retard »).
  • La nécessité de ne pas échouer et la peur d’être pénalisé sur le niveau d’expression écrite.
  • Le fait de ne pas être « sûr » de tricher (ce n’est pas explicitement interdit).

Des étudiants qui n’utilisent pas encore les LLM pour les exercices rédactionnels les utilisent plus facilement pour la traduction automatique.

UTC : Un premier étudiant utilise ChatGPT (IS03)

Au sein du cours de l’UTC IS03 («  Low-technicisation et numérique »), les étudiants doivent réaliser des notes de lecture sur la base d’articles scientifiques. Un étudiant étranger non-francophone utilise grossièrement un LLM (probablement ChatGPT) pour produire en une semaine le résumé de plusieurs dizaines de pages de lectures d’articles scientifiques difficiles et de rapports longs. J’avais donné une liste de plusieurs lectures possibles, mais n’attendais évidemment des notes que concernant un ou deux documents.

Il faut plusieurs minutes de discussion pour qu’il reconnaisse ne pas être l’auteur des notes. Mon premier argument étant sur le niveau de langue obtenue (aucune faute, très bonne expression…) l’étudiant commencera par reconnaître qu’il utilise des LLM pour corriger son français (on verra que cette « excuse » sera souvent mobilisée). Sur le volume de travail fournit, il reconnaît alors utiliser des LLM pour « résumer ».

In fine, il se justifiera en affirmant qu’il n’a pas utilisé ChatGPT mais d’autres outils (ce qui est très probablement faux, mais en l’espèce n’a pas beaucoup d’importance).

C’était un cas tout à fait « stupide », l’étudiant avait produit des notes sur près d’une dizaine de rapports et articles, sous-tendant plusieurs heures de lectures scientifiques et autant de résumés, et avait produit des énoncés sans aucune faute, tout cela en maîtrisant mal le français.

UTC : 6 cas identifiés lors de l’Api Libre Culture

Une Activité Pédagogique d’Intersemestre (Api) est un cours que les étudiants choisissent au lieu de partir en vacances, en général par intérêt, dont les conditions d’obtention sont faciles : les étudiants sont en mode stage pendant une semaine (ils ne suivent que l’Api) et leur présence régulière suffit en général pour valider le cours et obtenir les 2 crédits ECTS associés. Un devoir individuel était à réaliser sur machine pour clôturer l’Api Libre Culture de juillet 2023. Il consistait essentiellement en un retour personnel sur la semaine de formation.

Lors de ce devoir de fin d’Api, 6 étudiantes et étudiants (parmi 20 participants en tout) ont mobilisé de façon facilement visible un LLM (ChatGPT ou un autre). Pour 4 d’entre eux c’était un usage partiel (groupe 1), pour 2 d’entre eux un usage massif pour répondre à certaines questions (groupe 2). J’ai communiqué avec ces 6 personnes par mail.

3 des étudiants du groupe 1 ont avoué spontanément, en s’excusant, conscients donc d’avoir certainement transgressé les règles de l’examen. La 4e personne a reconnu les faits après que j’ai insisté (envoi d’un second mail en réponse à un premier mail de déni).

Pour les 2 étudiants du groupe 2 :

  • le premier n’a reconnu les faits qu’après plusieurs mails et que je lui aie montré l’historique d’un pad (traitement de texte en ligne) qui comportait un copie/coller évident de ChatGPT.
  • le second, étudiant étranger parlant très bien français, n’a jamais vraiment reconnu les faits, s’en tenant à un usage partiel « pour s’aider en français » (loin de ce que j’ai constaté).

À noter qu’aucun étudiant ne niait avoir utilisé un LLM, leur défense était un usage non déterminant pour s’aider à formuler des choses qu’ils avaient produites eux-mêmes.

Pour les deux étudiants du groupe 2, j’ai décidé de ne pas valider l’Api, ils n’ont donc pas eu les crédits qu’ils auraient eu facilement en me rendant un travail de leur fait, même de faible niveau. Ils n’ont pas contesté ma décision, l’un des deux précisera même : « d’autant plus que j’ai déjà les compétences du fait du cours suivi dans un semestre précédent ».

Un étudiant en Nouvelle-Zélande reconnaît utiliser ChatGPT

« In May, a student in New Zealand confessed to using AI to write their papers, justifying it as a tool like Grammarly or spell-check : “I have the knowledge, I have the lived experience, I’m a good student, I go to all the tutorials and I go to all the lectures and I read everything we have to read but I kind of felt I was being penalised because I don’t write eloquently and I didn’t feel that was right,” they told a student paper in Christchurch. They don’t feel like they’re cheating, because the student guidelines at their university state only that you’re not allowed to get somebody else to do your work for you. GPT-3 isn’t “somebody else”—it’s a program. » ( Marche, 2022 [1] )

On note les deux arguments principaux produits :

  • je l’utilise car je ne suis pas très fort à l’écrit et je ne trouve pas normal que cela ma pénalise ;
  • ce n’est pas clairement interdit à l’université.

J’ai interviewé des collégiens et lycéens

  • ChatGPT est déjà utilisé au collège et au lycée : surtout par les « mauvais » élèves (selon les bons élèves)…
  • …et par les bons élèves occasionnellement, mais pour une « bonne raison » : manque de temps, difficultés rencontrées, etc.
  • Des outils d’IA dédiés à la traduction sont plus largement utilisés, y compris par les bons élèves.
  • À l’école « l’échec c’est mal » donc le plus important est de rendre un bon devoir (voire un devoir parfait).

Interviews de 6 collégiens et lycéens à propos des LLM

Les LLM sont capables d’avoir de bonnes notes

A à un exercice rédactionnel à l’UTC

Cet article fait suite à «  Turcs mécaniques ou magie noire ? » un autre article écrit en janvier sur la base d’un test de ChatGPT à qui j’avais fait passer un de mes examens. Pour mémoire ChatGPT obtenait selon ma correction 14/15 à cet examen second, égalité donc avec les meilleurs étudiants du cours.

B+ à un exercice rédactionnel en Grande-Bretagne

En mai 2022, Mike Sharples utilise le LLM [2] GPT-3 pour produire une rédaction dans le cadre de son cours de pédagogie ( Sharples, 2022 [7] ). Il estime qu’un étudiant qui aurait produit ce résultat aurait validé son cours. Il en conclut que les LLM sont capables de produire des travaux rédactionnels du niveau attendu des étudiants et qu’il faut revoir nos façons d’évaluer (et même, selon lui, nos façons d’enseigner).

Le journaliste et écrivain qui rapport l’expérience dans The Antlantic attribue un B+ à la rédaction mise à disposition par Mike Sharples ( Marche, 2022 [1] ).

11 au bac de philo

ChatGPT s’est vu attribué la note de 11/20 par une correctrice (qui savait qu’elle corrigeait le produit d’une IA) au bac de philosophie 2023. Le protocole n’est pas rigoureux, mais le plus important, comme le note l’article de Numerama ( Lellouche, 2023 [3] ) c’est que le texte produit est loin d’être nul, alors même que le LLM n’est pas spécifiquement programmé pour cet exercice. Un « GPTphilo » aurait indubitablement obtenu une meilleure note, et la version 2024 aura progressé. Probablement pas assez pour être capable de réaliser de vraie productions de philosophe, mais certainement assez pour être capable de rendre caduque un tel exercice d’évaluation (s’il était réalisé à distance avec un ordinateur).

66 % de réussite dans le cadre d’une étude comparative

Farazouli et al. ( 2023 [8] ) ont mené un travail plus rigoureux pour évaluer dans quelle mesure ChatGPT est capable de réussir dans le cadre de travaux réalisés à la maison, et quelles conséquences cela a sur les pratiques d’évaluation. 22 enseignants ont eu à corriger 6 copies dont 3 étaient des copies ChatGPT et 3 des copies d’étudiants ayant préalablement obtenu les notes A, C et E (pour 4 de ces enseignants, ils n’avaient que 5 copies dont 2 écrites avec ChatGPT).

« ChatGPT achieved a high passing grade rate of more than 66 % in home examination questions in the fields of humanities, social sciences and law. »

Dont :

  • 1 travail noté A sans suspicion que c’était une copie ChatGPT ;
  • 4 rendus notés B, dont 1 seul était suspecté d’avoir été réalisé avec ChatGPT.

On observe des disparités assez importantes en fonction des domaines :

Les notes obtenues par ChatGPT ont été meilleures en philosophie et en sociologie et moins bonnes en droits et en éducation
F E D C B A
Philosophie 3 2 7 6 3 0
Droit 9 4 0 2 0 0
Sociologie 6 6 1 1 3 1
Éducation 5 2 0 1 0 0

Remarque

On observe une grande disparité dans les évaluations d’un même travail (humain ou ChatGPT) par des évaluateurs différents (de F à A), ce qui interroge sur le protocole suivi et/ou sur la nature même de l’évaluation.

Corriger c’était déjà chiant…

La plupart des enseignants s’accordent sur le fait que le plus ennuyeux dans leur métier est la correction des travaux étudiants. Savoir que l’on corrige potentiellement des travaux qui n’ont même pas été produits par les étudiants est tout à fait démobilisant…

« La question c’est celle d’une dilution exponentielle des heuristiques de preuve. Celle d’une loi de Brandolini dans laquelle toute production sémiotique, par ses conditions de production même (ces dernières étant par ailleurs souvent dissimulées ou indiscernables), poserait la question de l’énergie nécessaire à sa réfutation ou à l’établissement de ses propres heuristiques de preuve. » ( Ertzscheid, 2023 [6] ).

Il est coûteux pour un évaluateur de détecter du ChatGPT

Prenons un exemple, Devereaux ( 2023 [9] ) nous dit qu’il devrait être facile pour un évaluateur de savoir si une source existe ou non. Il prend cet exemple car ChatGPT produit des références bibliographiques imaginaires.

  1. C’est en effet possible, mais ce n’est pas « facile », au sens où si vous avez beaucoup de rédactions avec beaucoup de références à lire, cela demande un travail important et a priori inutile ; lors de la correction de l’exercice de ChatGPT ( Turcs mécaniques ou magie noire ?), je me suis moi-même « fait avoir » y compris avec un auteur que je connaissais très bien : je ne connaissais pas les ouvrages mentionnés, mais les titres et co-auteurs était crédibles (et l’auteur prolifique !).
  2. C’est aussi un bon exemple de limite conjoncturelle de l’outil, il paraît informatiquement assez facile de coupler un LLM avec des bases de données bibliographiques pour produire des références à des sources qui soient existantes. La détection ne supposera pas seulement de vérifier que la référence existe mais qu’on soit capable de dire à quel point elle est utilisée à propos. Le correcteur se retrouve alors plus proche d’une posture de révision d’article scientifique, ce qui suppose un travail beaucoup plus important, de plusieurs heures contre plusieurs minutes pour la correction d’un travail d’étudiant.

À quoi sert la rédaction à l’école ?

À quoi sert la rédaction à l’école ?

L’exercice rédactionnel est un moyen pour faire travailler un contenu, mais c’est surtout un moyen pour les étudiants d’apprendre à travailler leur raisonnement.

On peut penser que la généralisation de l’usage de LLM conduise à la perte de compétences à l’écrit, mais surtout à la perte de capacités de raisonnement, pour lesquelles l’écrit est un mode d’entraînement

Pourquoi faire écrire ?

Bret Devereaux ( 2023 [9] ) s’est posé la même question — à quoi sert un exercice rédactionnel ( « teaching essay ») — dans le même contexte de l’arrivée de ChatGPT ? Il propose trois fonctions pour cet exercice.

  1. L’exercice est un moyen pour travailler (chercher, lire, explorer, étudier…) un contenu tiers (histoire, idée…) : l’usage de ChatGPT rend l’exercice totalement inutile, mais on peut assez facilement imaginer d’autres façon de faire travailler le contenu.
  2. L’exercice est un moyen d’apprendre à faire des rédactions : l’usage de ChatGPT rend aussi l’exercice inutile, mais une part importante des étudiants n’aura plus à produire de rédaction en dehors de l’école.
  3. L’exercice est un moyen d’apprendre à mettre en forme des idées par écrit. Ici encore l’usage de ChatGPT rend l’exercice inutile, puisque bien entendu, le résultat final obtenu n’a aucune importance (le contenu sera détruit après usage), et que seul compte le processus suivi (analyse des idées, organisation…). On peut considérer que l’usage d’un LLM est ici plus dommageable en ce sens qu’apprendre à penser via l’exercice rédactionnel est un processus d’apprentissage assez fondamental.

Exemple

Un étudiant qui a utilisé ChatGPT pour un exercice rédactionnel à l’UTC m’a transmis un de ses exemples d’usage, pour me montrer qu’il n’avait pas « triché » puisque le contenu venait de lui.

Il a ainsi donné en entrée à ChatGPT le texte suivant : « Le droit d’auteur, est une licence qui protège les œuvres artistiques et intellectuelles, genre les bouquins, les musiques, les films ou les tableaux. Ça donne aux créateurs le pouvoir de décider comment on peut utiliser, copier ou diffuser leur travail, et ça leur assure d’être reconnus comme ceux qui l’ont créé. »

Si l’on demande une reformulation à ChatGPT on obtient : « Le droit d’auteur est une forme de protection légale qui s’applique aux œuvres artistiques et intellectuelles, telles que les livres, la musique, les films et les œuvres d’art. Il accorde aux créateurs le pouvoir de contrôler l’utilisation, la reproduction et la diffusion de leur travail, tout en garantissant qu’ils soient reconnus en tant que créateurs de ces œuvres. »

On observe une correction de style, mais aussi une correction de fond. Le droit d’auteur n’est pas une « licence » (cette phrase n’a pas de sens) comme l’écrit l’étudiant, mais bien « une forme de protection légale » . En outre le même texte écrit avec beaucoup de fautes ressortira parfaitement écrit en français (l’étudiant qui m’écrivait avait certainement déjà corrigé préalablement son texte car le mail qui l’accompagnait comportait beaucoup de fautes d’orthographe et de formulation).

Si ChatGPT peut l’écrire, ça ne sert à rien ?

Un argument que produit Bret Devereaux et pas mal d’autres commentateurs devant les résultats obtenus par ChatGPT est le suivant : si une machine y arrive c’est que l’exercice est sans intérêt. « If your essay prompt can be successfully answered using nothing but vague ChatGPT generated platitudes, it is a bad prompt » ( Devereaux, 2023 [9] ).

C’est discutable :

  • Cette assertion suppose que l’exercice n’avait pas de sens en soi, même s’il était pratiqué avec intérêt avant, et la preuve qui est donnée est qu’une machine peut le faire. On peut faire l’analogie avec le fait de s’entraîner à faire de la course à pied à l’ère de la voiture (des arts martiaux à l’ère du fusil, du jardinage à l’ère de l’agriculture industrielle, etc.), ce n’est pas parce qu’une machine peut réaliser une tâche qu’il est inutile pour un humain de s’entraîner à la réaliser.
  • Farazouli et al. ( 2023 [8]) relèvent que les qualités mise en avant par les évaluateurs après correction de copies produites par ChatGPT étaient notamment : la qualité du langage, la cohérence, et la créativité. Dans certains contextes les productions de ChatGPT ne sont donc pas évaluées comme médiocres.

Ce que ChatGPT ne fait pas bien

À l’inverse Farazouli et al. ( 2023 [8] ) ont identifié des lacunes dans l’argumentation, le manque de références au cours et au contraire la présence de contenus extérieurs au cours.

La faiblesse argumentative est peut-être un défaut intrinsèque au sens où la mécanique statistique des LLM ne serait pas capable de simuler certains raisonnements. En revanche on note que le manque de références au cours et la présence de références extérieures est discutable (ça peut rester un moyen de détecter, mais c’est un assez mauvais objectif en soi).

  • En premier cycle universitaire on ne souhaite pas en général cette relation étroite au cours (il existe plusieurs approches, et un étudiant qui ferait le travail par lui-même serait tout à fait dans son rôle).
  • En second cycle, cela peut être le cas lorsque le cours porte sur un domaine en lien avec la recherche de l’enseignant typiquement. Mais la recherche est en général publiée et le LLM peut tout à fait être entraîné sur ces données et donc « connaître » ce domaine.

À quoi servent les évaluations à l’école ?

L’évaluation joue un double rôle : l’évaluation formative sert à guider l’apprenant (elle a vocation à lui rendre service), tandis que l’évaluation sommative joue un rôle de certification (elle a vocation à rendre service à un tiers).

Or on est souvent en situation de confusion de ces deux fonctions et cela conduit l’apprenant à se comporter comme s’il était en situation d’évaluation sommative et à chercher à maximiser ses résultats.

On note en particulier :

  • la fonction de classement entre les élèves des notes ;
  • la confusion entre l’exercice rédactionnel comme moyen (c’est le processus qui compte) ou comme fin (c’est le résultat qui compte).

Certifier ou réguler ? (confusion des temps)

L’évaluation peut poursuivre trois fonctions ( Hadji, 1989 [10]) :

  • Certifier (évaluation sommative) afin de statuer sur les acquis, valider un module de cours, délivrer un diplôme ; cette évaluation se situe après la formation.
  • Réguler (évaluation formative) afin de guider l’apprenant dans son processus d’apprentissage ; cette évaluation se situe pendant la formation.
  • Orienter (évaluation diagnostique) afin d’aider à choisir les modalités d’étude les plus appropriées en fonction des intérêts, des aptitudes et de l’acquisition des pré-requis ; cette évaluation se situe avant la formation (et en cela l’évaluation diagnostique se distingue bien de l’évaluation sommative en ce qu’elle se place avant la formation du point de vue de l’évaluateur).

« L’évaluation survient souvent à un moment trop précoce par rapport au processus d’apprentissage en cours ( Astofi, 1992 [11]) ».

C’est un défaut du contrôle continu, arrivant tôt, dès le début du cours même, il nous place d’emblée en posture sommative. Celui qui ne sait pas encore faire est donc potentiellement stressé par l’évaluation dont il refuse ou minore la dimension formative.

Entraîner ou arbitrer ? (confusion des rôles)

« Les fonctions d’entraîneur et d’arbitre sont trop souvent confondues. C’est toujours celle d’entraîneur dont le poids est minoré. ( Astofi, 1992 [11]) »

« Il reste à articuler les deux logiques de l’évaluation, dont l’une exige la confiance alors que l’autre oppose évaluateur et évalué ( Perrenoud, 1997 [12]) ».

Cette confusion des temps entraîne une confusion des rôles : l’enseignant est toujours de fait un certificateur, celui qui permet la validation du cours, la poursuite des études, l’orientation…

Se faire confiance

La question de la confiance au sein de la relation apprenant-enseignant était également relevée par Farazouli et al. ( 2023 [8] ) qui insistait sur la dégradation potentielle introduite par les LLM :

« The presence of AI chatbots may prompt teachers to ask “who has written the text ?” and thereby question students’ authorship, potentially reinforcing mistrust at the core of teacher–student relationship »

Évaluation des compétences

Philippe Perrenoud ( 1997 [12]) défend une approche par compétences qui s’écarte d’une « comparaison entre les élèves » pour se diriger vers une comparaison entre « ce que l’élève a fait, et qu’il ferait s’il était plus compétent ». L’auteur souligne que ce système est moins simple et moins économique : « l’évaluation par les compétences ne peut qu’être complexe, personnalisée, imbriquée au travail de formation proprement dit ». Il faut, nous dit-il, renoncer à organiser un « examen de compétence en plaçant tous les concurrents sur la même ligne ».
Cet éloignement à la fonction de classement est intéressante à interroger. La fonction de classement des évaluations n’est pas, en général, revendiquée comme telle, mais elle persiste à travers les notes (A, B, C, D, E), la courbe de Gauss attendue de la répartition de ces notes, le taux de réussite, d’échec, de A. Ces notes ont également une fonction de classement pour l’accès à des semestres d’étude à l’étranger par exemple, ou pour des stages.

Il ne s’agit donc pas seulement de la fonction formative et de l’apprenant face à sa note.

La tâche n’est qu’un prétexte

« La tâche n’est qu’un prétexte », nous rappelle Philippe Meirieu ( Meirieu, 2004 [13]), pour s’exercer en situation d’apprentissage ou pour vérifier qu’on a acquis certaines habiletés.

Il est déterminant de différencier les deux situations :

  • dans le premier cas on peut travailler à apprendre avec l’apprenant sans se focaliser sur ce qu’on produit ;
  • dans le second, en revanche, cas l’énergie de l’apprenant est concentrée sur le résultat, il cherche à se conformer aux attentes de l’évaluation.

On oublie que la tâche n’est qu’un prétexte, le « livrable » qu’on demande est un outil et non un objectif, dans l’immense majorité des cas la dissertation ne sera pas lue pour ce qu’elle raconte, mais uniquement pour produire une évaluation. La résolution du problème de mathématique ou le compte-rendu d’expérience de chimie ne revêt aucun intérêt en soi, puisque, par construction, le lecteur connaît déjà la réponse. C’est à la fois une évidence et quelque chose que le processus évaluatif fait oublier, et in fine, c’est bien au résultat qui est produit que l’étudiant, comme souvent l’enseignant, prête attention, plutôt qu’au processus d’apprentissage.

Évaluation des moyens mis en œuvre et non d’un niveau atteint

À travers l’étude des travaux de Joseph Jacotot, Jacques Rancière ( 1987 [14]) propose que ce qui compte n’est pas ce qu’on apprend mais le fait qu’on apprenne et qu’on sache que l’on peut apprendre, avec sa propre intelligence. Le « maître ignorant » n’est pas celui qui transmet le savoir, il est celui qui provoque l’engagement de l’apprenant, qui s’assure qu’il y a engagement. Selon ce dispositif, la notion même d’évaluation sommative n’est pas possible, puisque le maître est ignorant de ce que l’élève apprend (Jacotot enseigne ainsi les mathématiques ou la musique dont il n’a pas la connaissance).

Cette approche pourrait inspirer à l’évaluation un rôle de suivi de l’engagement (présence, travail…) décorrélé de toute évaluation de résultat : présence et participation en cours et en TD. Notons que le système ECTS [15] est déjà basé sur une charge de travail requise (25 à 30 heures pour 1 crédit).

Remise en question de l’évaluation sommative

L’évaluation via des examens et des notes est un processus peu fiable, en témoignent les variations que l’on observe entre différents évaluateurs, et les variations dans le temps observées auprès d’un même évaluateur ( Hadji, 1989 [10]). On peut donc minorer l’importance de la fonction certifiante de certaines notes. Or les notes coûtent cher à produire par le temps et l’attention qu’elles exigent des enseignants et des apprenants.

On peut donc se poser la question du supprimer, ou diminuer, l’évaluation sommative. Cela pour une partie des enseignements au moins, quitte à garder des espaces sommatifs pour répondre à des nécessités de classement ou certification.

Qu’est-ce qu’on peut faire maintenant ?

  • Interdire l’usage des LLM par défaut dans le règlement des études (en sachant que ça va devenir difficile d’identifier quand ils sont mobilisés) ?
  • Utiliser des moyens techniques de détection de fraude (et entrer dans une « course à l’armement ») ?
  • Améliorer nos exercices rédactionnel pour « échapper aux LLM » tout en restant en veille sur ce qu’ils savent adresser de nouveau ?
  • Renoncer aux travaux rédactionnels évalués à la maison ?
  • Évaluer uniquement en fin de module, voire en dehors des modules et/ou procéder à des évaluations de compétence individuelles ?
  • Organiser des évaluations certifiantes en dehors des cours (évaluation de compétences, examens transversaux…) ?
  • Diminuer la pression sur les étudiants et modifier le contrat pédagogique passé avec eux ?
  • Simplifier la notation, ne conserver que les résultats admis ou non admis, pour évacuer toute idée de classement ?
  • Passer d’une obligation de résultat à une obligation de moyen, c’est à dire valider les cours sur la base de la présence ?
  • Ne plus du tout évaluer certains cours (en réfléchissant contextuellement à la fonction de l’évaluation sommative) ?

Interdire ChatGPT ?

« And that’s the thing : in a free market, a competitor cannot simply exclude a disruptive new technology. But in a classroom, we can absolutely do this thing ( Devereaux, 2023 [9]) »

C’est vrai, et le règlement des études peut intégrer cette interdiction a priori. Mais les LLM vont s’immiscer au sein de tous les outils numériques, a commencer par les moteurs de recherche, et cela va être difficile de maintenir l’usage d’outils numériques sans LLM.

mème classique : Bernie Sanders, un vieil homme face caméra sous le titre "les profs" dit : "je vous demande une fois encore de ne pas utiliser chatGPT"

Utiliser des moyens techniques de détection de fraude ?

Des systèmes de contrôle dans le contexte de l’évaluation à distance ou des logiciels anti-plagiat existent, mais :

  • cela pose des problèmes de surveillance et d’intrusion dans les machines des apprenants ;
  • cela suppose une « course à l’armement » entre les systèmes de détection et les systèmes de triche.

Il faut des résultats fiables pour être en mesure d’accuser un étudiant de fraude.

Adapter nos exercices et rester en veille ?

« Likewise, poorly designed assignments will be easier for students to cheat on, but that simply calls on all of us to be more careful and intentional with our assignment design ( Devereaux, 2023 [9]). »

Certains exercices pourront être en effet aménagés pour rendre plus difficile l’usage de LLM. On peut avoir une exigence argumentative plus élevée et/ou poser des questions plus complexes (en réfléchissant à pourquoi on ne le faisait pas avant, ce qui doit être modifié pour atteindre ce nouvel objectif, etc.). On peut augmenter le niveau d’exigence demandé (en réfléchissant au fait que cela puisse exclure des étudiants, au fait qu’il faille relâcher d’autres exercices par ailleurs…).

Mais pour certains exercices ce ne sera pas possible (thème et version en langue par exemple). Et de plus cela implique une logique de veille active entre la conception de ces exercices et l’évolution rapide des capacités des outils qui intégreront des LLM.

Renoncer aux travaux à la maison (ou à leur évaluation)

On peut décider de ne plus évaluer les travaux réalisés à la maison.

On peut alors imaginer plusieurs formes de substitution : retour aux devoirs sur table et sans ordinateur, passage à l’oral…

Évaluer en dehors des cours ?

On peut imaginer :

  • des évaluations certifiantes totalement en dehors des cours (sur le modèle du TOEIC ou du baccalauréat, par exemple pour les langues donc, pour l’expression française, pour des connaissances dans certains domaines, des compétences rédactionnelles…) ;
  • des évaluations certifiantes calées uniquement en fin d’UV (examen final de sortie de cours, avec éventuellement rattrapage, sans plus aucune note intermédiaire) ;
  • des évaluations de compétences individuelles (intéressantes pédagogiquement, mais coûteuses à organiser et demandant des compétences avancées de la part des évaluateurs).

Diminuer la pression sur les étudiants ?

Le contrat ECTS est très exigeant. 30 crédits par semestre c’est 750 à 900 heures attendues de travail en 16 semaines, vacances comprises, soit 45h à 55h par semaine. Plus la pression sur le temps est importante plus la tentation de tricher est grande.

On peut imaginer de renouer un contrat pédagogique d’un autre ordre avec les étudiants, fondé sur la confiance réciproque et la recherche de leur intérêt.

Simplifier la notation (pass or fail) ?

L’UTC a connu un système à 3 notes : « admis », « non admis » et « mention » (équivalent à A). Dans ce système, on prête moins d’attention à la fonction sommative des évaluations. Si un apprenant obtient une note suffisante à un premier examen par exemple, il sait qu’il validera le module et il n’a pas d’intérêt particulier à optimiser ses autres évaluations sommatives.

Sauf à viser un A, mais on peut aussi se passer du A : c’est le cas des Activité Pédagogiques d’Inter-semestre à l’UTC qui sont évaluées juste avec « reçu » ou « non reçu ».

Mème classique avec personnage dégoûté par "corriger des copies d'étudiant⋅es rédigées par des IA", le même ravi par "Demander à des IA de corriger des copies d'étudiant⋅es rédigées par des IA"

Passer d’une obligation de résultat à une obligation de moyen ?

De fait certains cours sont mobilisés pour la validation du diplôme, voire la sélection et le classement des étudiants, et d’autres comptent très peu pour cet objectif en pratique.

Certains cours pourraient donc être exclus du processus d’évaluation sommative (comme en formation professionnelle). On économiserait le temps de travail d’évaluation sommative qui pourrait être réinvesti ailleurs. Quelques étudiants en profiteraient certainement pour « passer au travers » de certains contenus, il faudrait pouvoir évaluer dans quelle mesure cela serait pire qu’aujourd’hui.

Renoncer à noter ? (pourquoi note-t-on ?)

Certains cours, sinon tous, pourraient donc échapper totalement à la notation.

À quelle fin évalue-t-on les étudiants dans une école qui a sélectionné à l’entrée comme l’UTC ?

  • Pour valider que les étudiants ont été « bien » sélectionnés ?
  • Pour les « forcer » à travailler ?
  • Pour faire « sérieux » ?
  • Pour répondre aux demandes d’organismes de certification du diplôme ?

 

réunion de conseil d'administration d'université — nous avons un grave problème : comment allons-nous évaluer les étudiants s'ils fraudent avec un LLM ? — on interdit tout sauf le stylo ? — on les punit ? — on arrête de noter ? Le jeune homme décontracté qui faisait cette dernière suggestion déclenche la fureur de l'animateur de la réunion, qui le passe par la fenêtre de l'immeuble.

Notes et références

[1] – Marche Stephen. 2022. The College Essay Is Dead. in The Atlantic. https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/

[2] – LLM (Large Language Model) : Les grands modèles de langage (ou LLM, pour « Large Language Model ») sont des mécanismes d’Intelligence Artificielle. Une de leurs applications les plus connues est la génération de textes ou d’images. L’ouverture au public de ChatGPT, en novembre 2022, a popularisé cette application. Chaque grande entreprise de l’informatique sort désormais son propre modèle, son propre LLM.

https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage/

[3] – Lellouche Nicolas. 2023. Oubliez Enthoven : ChatGPT a eu la moyenne au bac de philo et c’est ce qui compte, Oubliez Enthoven. in Numerama. https://www.numerama.com/tech/1415146-vous-navez-pas-besoin-de-neurone-pour-avoir-votre-bac-de-philo.html.

[4] – Bortzmeyer Stéphane. 2023. Que veut dire « libre » (ou « open source ») pour un grand modèle de langage ?. https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage/.

[5] – Tiernan Ray. 2020. Qu’est-ce que GPT-3 ? Tout ce que votre entreprise doit savoir sur le programme de langage d’IA d’OpenAIQu’est-ce que GPT-3 ?. https://www.zdnet.fr/pratique/qu-est-ce-que-gpt-3-tout-ce-que-votre-entreprise-doit-savoir-sur-le-programme-de-langage-d-ia-d-openai-39908563.htm.

[6] – Ertzscheid Olivier. 2023. GPT-3 : c’est toi le Chat.GPT-3. https://affordance.framasoft.org/2023/01/gpt-3-cest-toi-le-chat/.

[7] – Sharples Mike. 2022. New AI tools that can write student essays require educators to rethink teaching and assessment. https://blogs.lse.ac.uk/impactofsocialsciences/2022/05/17/new-ai-tools-that-can-write-student-essays-require-educators-to-rethink-teaching-and-assessment/.

[8] – Farazouli Alexandra, Cerratto-Pargman Teresa, Bolander-Laksov Klara, McGrath Cormac. 2023. Hello GPT ! Goodbye home examination ? An exploratory study of AI chatbots impact on university teachers’ assessment practicesHello GPT ! Goodbye home examination ?. in Assessment & Evaluation in Higher Education. vol.0 n°0 pp1-13.https://doi.org/10.1080/02602938.2023.2241676.

[9] – Devereaux Bret. 2023. Collections : On ChatGPTCollections. in A Collection of Unmitigated Pedantry. https://acoup.blog/2023/02/17/collections-on-chatgpt/.

[10] – Hadji C.. 1989. L’évaluation, règles du jeu : des intentions aux outils. ESF.

[11] – Astolfi Jean-Pierre. 1992. L’école pour apprendre : l’élève face aux savoirsL’école pour apprendre. ESF.

[12] – Perrenoud Philippe. 1997. Construire des compétences dès l’école. ESF.

[13] – Meirieu Philippe. 2004. Faire l’école, faire la classe : démocratie et pédagogieFaire l’école, faire la classe. ESF.

[14] – Rancière Jacques. 1987. Le maître ignorant : cinq leçons sur l’émancipation intellectuelleLe maître ignorant. Fayard.

[15] – ECTS (European Credit Transfer and accumulation System). Le système européen de transfert et d’accumulation de crédits a pour objectif de faciliter la comparaison des programmes d’études au sein des différents pays européens. Le système ECTS s’applique principalement à la formation universitaire. Il a remplacé le système des unités de valeur (UV) jusque-là utilisé en France. wikipedia.org

EFF And Other Experts Join in Pointing Out Pitfalls of Proposed EU Cyber-Resilience Act

Today we join a set of 56 experts from organizations such as Google, Panasonic, Citizen Lab, Trend Micro and many others in an open letter calling on the European Commission, European Parliament, and Spain’s Ministry of Economic Affairs and Digital Transformation to reconsider the obligatory vulnerability reporting mechanisms built into Article 11 of the EU’s proposed Cyber-Resilience Act (CRA). As we’ve pointed out before, this reporting obligation raises major cybersecurity concerns. Broadening the knowledge of unpatched vulnerabilities to a larger audience will increase the risk of exploitation, and software publishers being forced to report these vulnerabilities to government regulators introduces the possibility of governments adding it to their offensive arsenals. These aren’t just theoretical threats: vulnerabilities stored on Intelligence Community infrastructure have been breached by hackers before.

Technology companies and others who create, distribute, and patch software are in a tough position. The intention of the CRA is to protect the public from companies who shirk their responsibilities by leaving vulnerabilities unpatched and their customers open to attack. But companies and software publishers who do the right thing by treating security vulnerabilities as well-guarded secrets until a proper fix can be applied and deployed now face an obligation to disclose vulnerabilities to regulators within 24 hours of exploitation. This significantly increases the danger these vulnerabilities present to the public. As the letter points out, the CRA “already requires software publishers to mitigate vulnerabilities without delay” separate from the reporting obligation. The letter also points out that this reporting mechanism may interfere with the collaboration and trusted relationship between companies and security researchers who work with companies to produce a fix.

The letter suggests to either remove this requirement entirely or change the reporting obligation to be a 72-hour window after patches are made and deployed. It also calls on European law- and policy-makers to prohibit use of reported vulnerabilities “for intelligence, surveillance, or offensive purposes.” These changes would go a long way in ensuring security vulnerabilities discovered by software publishers don’t wind up being further exploited by falling into the wrong hands.

Separately, EFF (and others) have pointed out the dangers the CRA presents to open-source software developers by making them liable for vulnerabilities in their software if they so much as solicit donations for their efforts. The obligatory reporting mechanism and open-source liability clauses of the CRA must be changed or removed. Otherwise, software publishers and open-source developers who are doing a public service will fall under a burdensome and undue liability.

How To Turn Off Google’s “Privacy Sandbox” Ad Tracking—and Why You Should

28 septembre 2023 à 13:42

Google has rolled out "Privacy Sandbox," a Chrome feature first announced back in 2019 that, among other things, exchanges third-party cookies—the most common form of tracking technology—for what the company is now calling "Topics." Topics is a response to pushback against Google’s proposed Federated Learning of Cohorts (FLoC), which we called "a terrible idea" because it gave Google even more control over advertising in its browser while not truly protecting user privacy. While there have been some changes to how this works since 2019, Topics is still tracking your internet use for Google’s behavioral advertising.

If you use Chrome, you can disable this feature through a series of three confusing settings.

With the version of the Chrome browser released in September 2023, Google tracks your web browsing history and generates a list of advertising "topics" based on the web sites you visit. This works as you might expect. At launch there are almost 500 advertising categories—like "Student Loans & College Financing," "Parenting," or "Undergarments"—that you get dumped into based on whatever you're reading about online. A site that supports Privacy Sandbox will ask Chrome what sorts of things you're supposedly into, and then display an ad accordingly. 

The idea is that instead of the dozens of third-party cookies placed on websites by different advertisers and tracking companies, Google itself will track your interests in the browser itself, controlling even more of the advertising ecosystem than it already does. Google calls this “enhanced ad privacy,” perhaps leaning into the idea that starting in 2024 they plan to “phase out” the third-party cookies that many advertisers currently use to track people. But the company will still gobble up your browsing habits to serve you ads, preserving its bottom line in a world where competition on privacy is pushing it to phase out third-party cookies. 

Google plans to test Privacy Sandbox throughout 2024. Which means that for the next year or so, third-party cookies will continue to collect and share your data in Chrome.

The new Topics improves somewhat over the 2019 FLoC. It does not use the FLoC ID, a number that many worried would be used to fingerprint you. The ad-targeting topics are all public on GitHub, hopefully avoiding any clearly sensitive categories such as race, religion, or sexual orientation. Chrome's ad privacy controls, which we detail below, allow you to see what sorts of interest categories Chrome puts you in, and remove any topics you don't want to see ads for. There's also a simple means to opt out, which FLoC never really had during testing.

Other browsers, like Firefox and Safari, baked in privacy protections from third-party cookies in 2019 and 2020, respectively. Neither of those browsers has anything like Privacy Sandbox, which makes them better options if you'd prefer more privacy. 

Google referring to any of this as “privacy” is deceiving. Even if it's better than third-party cookies, the Privacy Sandbox is still tracking, it's just done by one company instead of dozens. Instead of waffling between different tracking methods, even with mild improvements, we should work towards a world without behavioral ads.

But if you're sticking to Chrome, you can at least turn these features off.

How to Disable Privacy Sandbox

Screenshot of Chrome browser with "enhanced ad privacy in Chrome" page Depending on when you last updated Chrome, you may have already received a pop-up asking you to agree to “Enhanced ad privacy in Chrome.” If you just clicked the big blue button that said “Got it” to make the pop-up go away, you opted yourself in. But you can still get back to the opt out page easily enough by clicking the Three-dot icon (⋮) > Settings > Privacy & Security > Ad Privacy page. Here you'll find this screen with three different settings:

  • Ad topics: This is the fundamental component of Privacy Sandbox that generates a list of your interests based on the websites you visit. If you leave this enabled, you'll eventually get a list of all your interests, which are used for ads, as well as the ability to block individual topics. The topics roll over every four weeks (up from weekly in the FLOCs proposal) and random ones will be thrown in for good measure. You can disable this entirely by setting the toggle to "Off."
  • Site-suggested ads: This confusingly named toggle is what allows advertisers to do what’s called "remarketing" or "retargeting," also known as “after I buy a sofa, every website on the internet advertises that same sofa to me.” With this feature, site one gives information to your Chrome instance (like “this person loves sofas”) and site two, which runs ads, can interact with Chrome such that a sofa ad will be shown, even without site two learning that you love sofas. Disable this by setting the toggle to "Off."
  • Ad measurement: This allows advertisers to track ad performance by storing data in your browser that's then shared with other sites. For example, if you see an ad for a pair of shoes, the site would get information about the time of day, whether the ad was clicked, and where it was displayed. Disable this by setting the toggle to "Off."

If you're on Chrome, Firefox, Edge, or Opera, you should also take your privacy protections a step further with our own Privacy Badger, a browser extension that blocks third-party trackers that use cookies, fingerprinting, and other sneaky methods. On Chrome, Privacy Badger also disables the Topics API by default.

New Privacy Badger Prevents Google From Mangling More of Your Links and Invading Your Privacy

We released a new version of Privacy Badger 1 that updates how we fight “link tracking” across a number of Google products. With this update Privacy Badger removes tracking from links in Google Docs, Gmail, Google Maps, and Google Images results. Privacy Badger now also removes tracking from links added after scrolling through Google Search results.

Link tracking is a creepy surveillance tactic that allows a company to follow you whenever you click on a link to leave its website. As we wrote in our original announcement of Google link tracking protection, Google uses different techniques in different browsers. The techniques also vary across Google products. One common link tracking approach surreptitiously redirects the outgoing request through the tracker’s own servers. There is virtually no benefit 2 for you when this happens. The added complexity mostly just helps Google learn more about your browsing.

It's been a few years since our original release of Google link tracking protection. Things have changed in the meantime. For example, Google Search now dynamically adds results as you scroll the page ("infinite scroll" has mostly replaced distinct pages of results). Google Hangouts no longer exists! This made it a good time for us to update Privacy Badger’s first party tracking protections.

Privacy Badger’s extension popup window showing that link tracking protection is active for the currently visited site.

You can always check to see what Privacy Badger has done on the site you’re currently on by clicking on Privacy Badger’s icon in your browser toolbar. Whenever link tracking protection is active, you will see that reflected in Privacy Badger’s popup window.

We'll get into the technical explanation about how this all works below, but the TL;DR is that this is just one way that Privacy Badger continues to create a less tracking- and tracker-riddled internet experience.

More Details

This update is an overhaul of how Google link tracking removal works. Trying to get it all done inside a “content script” (a script we inject into Google pages) was becoming increasingly untenable. Privacy Badger wasn’t catching all cases of tracking and was breaking page functionality. Patching to catch the missed tracking with the content script was becoming unreasonably complex and likely to break more functionality.

Going forward, Privacy Badger will still attempt to replace tracking URLs on pages with the content script, but will no longer try to prevent links from triggering tracking beacon requests. Instead, it will block all such requests in the network layer.

Often the link destination is replaced with a redirect URL in response to interaction with the link. Sometimes Privacy Badger catches this mutation in the content script and fixes the link in time. Sometimes the page uses a more complicated approach to covertly open a redirect URL at the last moment, which isn’t caught in the content script. Privacy Badger works around these cases by redirecting the redirect to where you actually want to go in the network layer.

Google’s Manifest V3 (MV3) removes the ability to redirect requests using the flexible webRequest API that Privacy Badger uses now. MV3 replaces blocking webRequest with the limited by design Declarative Net Request (DNR) API. Unfortunately, this means that MV3 extensions are not able to properly fix redirects at the network layer at this time. We would like to see this important functionality gap resolved before MV3 becomes mandatory for all extensions.

Privacy Badger still attempts to remove tracking URLs with the content script so that you can always see and copy to clipboard the links you actually want, as opposed to mangled links you don’t. For example, without this feature, you may expect to copy “https://example.com”, but you will instead get something like “https://www.google.com/url?q=https://example.com/&sa=D&source=editors&ust=1692976254645783&usg=AOvVaw1LT4QOoXXIaYDB0ntz57cf”.

To learn more about this update, and to see a breakdown of the different kinds of Google link tracking, visit the pull request on GitHub.

Let us know if you have any feedback through email, or, if you have a GitHub account, through our GitHub issue tracker.

To install Privacy Badger, visit privacybadger.org. Thank you for using Privacy Badger!

  • 1. Privacy Badger version 2023.9.12
  • 2. No benefit outside of removing the referrer information, which can be accomplished without resorting to obnoxious redirects.

Bifurquer avec le Collège européen de Cluny

7 septembre 2023 à 09:23

Changer de voie professionnelle pour être plus en phase avec ses valeurs, ça se prépare : le Master of Advanced Studies « Innovation territoriale », organisé conjointement par le Collège européen de Cluny et la prestigieuse Université de Bologne, recrute sa promo 2023-2024 jusqu’au 29 septembre.

Framasoft y anime le module « Se connecter sans exclure » ­dans le cadre de l’UPLOAD1

On y parle culture libre et re-décentralisation d’Internet, bien sûr, mais aussi impact social et environnemental du numérique.

Nous profitons de cette rentrée pour donner un coup de projecteur sur ce post-master riche en promesses qui s’inscrit dans la perspective de bifurcation sociale et environnementale que Framasoft s’efforce d’accompagner.
Il vous reste 3 semaines pour embarquer dans ce chouette train.

logo de établissement : un C jaune comme Cluny au centre de la représentation stylisée de l'abbaye. Texte : Collège européen de Cluny, démocraties locales & innovation

Bonjour Jean-Luc, pourrais-tu d’abord te présenter et nous dire par quelle trajectoire tu en es venu à proposer une formation aussi originale.

photo de Jean-Luc Puech, bras croisés, souriantProfessionnellement, ma formation d’ingénieur m’a conduit vers les domaines de l’énergie et de l’environnement, puis de l’enseignement supérieur. En parallèle, je me suis engagé en citoyen dans l’action publique locale, avec un mandat de maire et trois mandats de président de communauté de communes en milieu rural à Cluny, dans le sud de la Bourgogne.
De cette double expérience, j’ai acquis la conviction que les modes de vie ne changeront que si l’action publique locale invente de nouvelles solidarités, de nouveaux services aux habitants. Et pour cela, la formation des acteurs est indispensable et urgente. Il faut sortir de l’hyper-spécialisation et du prêt-à-penser.

Ah oui en somme, tu as toi-même parcouru plusieurs voies… et c’est ainsi que le Collège européen de Cluny a ouvert sous ta direction un post-master que tu définis comme une formation « pour les bifurqueuses et bifurqueurs ».

Oui, cette formation qui est portée par un établissement à statut associatif, ce qui lui donne une large liberté d’inventer, est ouverte à toutes les personnes titulaires d’un diplôme de niveau master (ou disposant d’une expérience professionnelle équivalente), qui veulent donner un autre sens à leur parcours professionnel : sortir du carcan du monde d’avant, regarder en face les défis du changement climatique, de l’effondrement de la biodiversité, du creusement des inégalités territoriales et sociales, pour contribuer à tracer des chemins d’avenir par l’intelligence collective.

Voilà des perspectives et de nobles objectifs mais qui pourraient sembler un peu idéalistes… Pour donner des exemples concrets, peux-tu parler de personnes qui ont bénéficié de la formation l’année dernière, et dire dans quoi elles se sont engagées ensuite ?

Dans la première promotion, nous avons eu à la fois des profils de personnes qui venaient d’obtenir leur master et souhaitaient ouvrir leurs horizons, et d’autres qui après quelques années d’activité professionnelle décevante, souhaitaient se réorienter vers l’action publique à l’échelle des territoires.
Ainsi par exemple, Arnaud n’en pouvait plus de servir une société de services informatiques, le Master of advanced studies lui a permis de devenir développeur de projets d’énergie renouvelable en collectivité locale, Mathilde, juriste de l’environnement se consacre désormais à un pôle territorial d’économie circulaire. Clément, kiné, préfère travailler à l’issue de sa nouvelle formation sur la mobilité douce en milieu rural plutôt que de réparer les dégâts de modes de vie déséquilibrés.

Ça pourrait bien donner des idées aux lectrices et lecteurs du Framablog… Mais pour le contenu de la formation, quels sont les cours et ateliers qui sont proposés ?
La formation est structurée en deux types de modules, organisés chacun sur deux jours et demi par semaine :

  • Des modules qui portent sur des enjeux sectoriels :
    • se nourrir local,
    • se déplacer bas-carbone,
    • gérer l’énergie et le climat,
    • habiter l’existant, vivre avec le vivant,
    • se connecter sans exclure, etc.
  • Des modules méthodologiques :
    • mobiliser l’intelligence collective,
    • mobiliser le design pour l’innovation publique,
    • agir en citoyen local, régional, national, européen et global face à l’anthropocène, etc.

Dans ces modules, on alterne analyse théorique, expérimentation sur le terrain et rencontre avec des acteurs locaux.

groupe d'étudiants et étudiantes autour d'une table blanche ovale, photo prise au Collège européen de Cluny

Ah donc les participants et participantes font aussi l’expérience du terrain avec des projets ou stages ?

Oui, la formation comporte une période de conduite de projet territorial innovant, en collectivité, en association ou en entreprise, comme travailler avec les ados d’un territoire à l’évolution de leurs pratiques de mobilité, animer un collectif d’artisans et d’artistes dans la revitalisation d’une friche hospitalière pour en faire un lieu de partage de compétences, accompagner une intercommunalité dans la valorisation de ses ressources en bois local, etc.

Par ailleurs, la formation est en partenariat avec l’Université de Bologne, qu’est-ce que ça signifie au juste ?

Eh bien, le diplôme obtenu est un diplôme de l’université de Bologne et du Collège européen de Cluny. Le premier mois de formation (en novembre) a lieu à l’université de Bologne, sur son campus situé à Ravenne‎. Les cours y sont donnés en anglais par des professeurs de l’Université de Bologne. La suite de la formation, de décembre à mars a lieu à Cluny, sur le campus Arts et Métiers, au sein de l’ancienne abbaye, par des enseignants-chercheurs et des acteurs des territoires français. Le projet d’innovation en immersion professionnelle se déroule de mars à juillet.
logo de l'université de Bologne. dans un cachet rond : alma mater studiorum, A.D. 1088 avec au centre une gravure médiévale. reprise du texte latéralement + "Università di Bologna"

Les frais de scolarité sont assez importants, mais vous vous démenez pour proposer des solutions à celles et ceux qui ont peu de moyens, dans une démarche d’ouverture et d’inclusion.

Les droits de scolarité sont de 5000 € pour le diplôme conjoint avec l’Université de Bologne. Mais d’une part nous avons organisé une souscription populaire : des dons de citoyens permettent de donner un coup de pouce aux personnes qui auraient du mal à boucler le budget, d’autre part l’organisation du cursus à raison de 2,5 jours par semaine sur 6 mois est compatible avec une activité à temps partiel. Et le Collège européen est en contact avec les employeurs locaux, qui recherchent des équipiers : secteur sanitaire et social, artisanat, hospitalité, mobilité. Ces activités peuvent être elles-mêmes une riche expérience contribuant à la réflexion sur la nécessité de changer les modes de vie et les services.

Pour finir, quelle formule magique tu proposerais pour convaincre quelqu’un de s’inscrire dès cette promo ? « Il y a urgence » ? « Engagez-vous » ?

mmmh, disons :

N’attends pas le monde d’après, donne-toi les moyens de participer à son invention !

 

personnage à droite un peu prétentieux : "j'ai bifurqué, j'étais chez Total, mais l'énergie c'est mort. Je me suis inscrit en master "IA et finance internationale", c'est pas évident hein, mais faut bien sauver sa gueule." deuxième personnage, une femme souriante : " ah moi aussi j'ai bifurqué, je suis le post-master de Cluny, on se forme à innover autrement : intégrer les enjeux sociaux et environnementaux à l'échelle du territoire… faut bien essayer de sauver le monde !

~~~~~~

  • En savoir plus ? Tous les détails nécessaires figurent dans la plaquette de l’établissement
  • … et Framasoft dans tout ça ?
Se connecter sans exclure, un module animé par Framasoft.
Le développement rapide du numérique (médias sociaux, services en ligne, intelligence artificielle…) ouvre des opportunités, mais il génère également des situations douloureuses (exclusion, dépendance, prolétarisation…). Il pose également des questions environnementales complexes, loin de la promesse originelle de la dématérialisation.
Le cours permet de questionner les principales conséquences économiques, sociales et environnementales de l’usage du numérique, à partir de constats actuels et de projections à court et moyen terme. On se penche sur des questions éthiques (accès à l’administration, illettrisme numérique, vie privée, croissance exponentielle…) en partageant des exemples (politiques publiques, initiatives citoyennes, recherches et formations…) pour anticiper et surmonter les risques qui accompagnent la révolution numérique.–> Le détail du module
❌
❌