Dernières actualités : données personnelles

CNIL

Design trompeur : les résultats de l’audit du Global Privacy Enforcement Network

En mai dernier, 26 autorités de protection des données dans le monde, rassemblées au sein du Global Privacy Enforcement Network (GPEN – réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE) ont examiné 1 010 sites web et applications mobiles dans le cadre d’une opération conjointe : le GPEN Sweep. Cet audit, auquel la CNIL a collaboré, a révélé que ces derniers avaient largement recours à des mécanismes de conception trompeuse (dark pattern en anglais), entravant ainsi la capacité des utilisateurs à prendre des décisions éclairées en matière de protection de la vie privée.

Ces mécanismes utilisent des fonctionnalités qui incitent les utilisateurs à choisir des options qui pourraient se traduire par la collecte de données personnelles supplémentaires. Ils peuvent également les contraindre à passer par de nombreuses étapes pour trouver la politique de confidentialité, se déconnecter, supprimer leur compte ou encore faire en sorte que des messages guides s’affichent à répétition pour que, frustrés, les utilisateurs décident finalement de fournir plus de données personnelles qu’ils ne l’auraient souhaité.

Cette année, l’audit, dit également « ratissage » du GPEN, a eu lieu du 29 janvier au 2 février 2024. Pour la première fois, il a été coordonné avec l’International Consumer Protection and Enforcement Network (ICPEN – réseau international de protection et d’application des droits des consommateurs), composé d’autorités de protection des consommateurs.
La CNIL vous expose sa méthodologie ainsi que les résultats observés dans l’article ci-dessous.

Disponible sur: CNIL.fr

La Quadrature du Net

La Quadrature du Net dénonce l’essor du contrôle algorithmique chez France Travail

Selon l’association, « France Travail multiplie les expérimentations de profilage algorithmique des chômeurs, visant à évaluer leur honnêteté, attractivité et état de confiance. Cette pratique, partagée avec la CAF, s’inscrit dans un processus de numérisation forcée du service public de l’emploi. La Quadrature estime que l’automatisation via une myriade d’algorithmes contribue à une déshumanisation de l’accompagnement social.

« Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion » […] Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social. »

Disponible sur: laquadrature.net
Ce résumé est susceptible d’avoir été réalisé de manière automatisée.

NOYB – None of your business

(Préliminaire)  WIN : Meta arrête les projets d’IA dans l’UE

En réaction aux 11 plaintes de noyb , la DPC (autorité irlandaise) a annoncé, vendredi en fin d’après-midi, que Meta s’est engagé auprès du DPC à ne pas traiter les données des utilisateurs de l’UE/EEE pour des « techniques d’intelligence artificielle » non définies. Auparavant, Meta soutenait qu’elle avait un « intérêt légitime » à le faire, en informant seulement (certains) utilisateurs du changement et en permettant simplement un « opt-out » (trompeur et compliqué).

NOYB note qu’alors que la DPC avait initialement approuvé l’introduction de Meta AI dans l’UE/EEE, il semble que d’autres régulateurs aient fait marche arrière au cours des derniers jours, ce qui a conduit la DPC à faire volte-face dans son avis sur Meta. La DPC a annoncé ce qui suit : « La DPC salue la décision de Meta de mettre en pause ses projets d’entraînement de son grand modèle linguistique à l’aide de contenus publics partagés par des adultes sur Facebook et Instagram dans l’UE/EEE. Cette décision fait suite à un engagement intensif entre le DPC et Meta. Le DPC, en coopération avec les autres autorités de protection des données de l’UE, continuera à dialoguer avec Meta sur cette question. »

Jusqu’à présent, il n’y a pas de contexte ou d’informations supplémentaires sur la nature de cet engagement ou sur les raisons pour lesquelles laDPC a changé d’avis.

Disponible sur: noyb.eu

CNIL

[Rediffusion Webinaire] Le partage de données par API : les recommandations de la CNIL

La CNIL se positionne sur les bonnes pratiques pour le partage sécurisé de données par voie d’API. Lors de ce webinaire, différents sujets seront abordés tels que le périmètre de la recommandation, les principales sources de risques liées aux API ainsi que les bonnes pratiques applicables à chaque cas.

Disponible sur: CNIL.fr

HAAS Avocats

CEPD/Cookies : Consentir ou payer, il faut choisir !

Par Haas Avocats

Le 17 avril 2024, le Comité européen de la protection des données (CEPD) a rendu un avis particulièrement attendu sur le nouveau
modèle du « consentir ou payer », développé par les plateformes en ligne afin de
monétiser l’accès à leurs services.

Disponible sur: haas-avocats.com

HAAS Avocats

Référentiel de la CNIL : Quel statut des différents acteurs de l’IA ?

Par Haas Avocats

Le déploiement des systèmes d’IA traitant des données personnelles fait intervenir plusieurs catégories d’acteurs soumis aujourd’hui à la réglementation sur la protection des données et demain à aux nouvelles contraintes juridiques dédiées à l’intelligence artificielle.

Disponible sur: haas-avocats.com

CNIL

La CNIL publie son cahier air 2023 « IA et libre-arbitre : sommes-nous des moutons numériques ? »

Dans le cadre de sa mission éthique, la CNIL publie son cahier air2023 afin de partager et de poursuivre les réflexions menées à l’occasion de l’évènement, organisé fin 2023, sur l’influence de l’intelligence artificielle sur nos choix. Il reprend les contributions des intervenants sous la forme d’entretiens et de témoignages.

Disponible sur: CNIL.fr

Silicon.fr

La CNIL face aux spécificités des IA : selon Silicon, un degré d’incertitude imprègne les premières recommandations de la CNIL sur le développement des systèmes d’IA.

Dans le processus de mise en conformité des IA avec le RGPD, quelle part d’incertitude faut-il accepter ? La question peut se poser à la lecture des recommandations que la CNIL vient de publier. Ces recommandations se répartissent pour le moment en 7 fiches. L’une d’entre elles est relative à la protection des données dans la conception des systèmes d’IA. Elle traite notamment du principe de minimisation. C’est-à-dire l’usage de données « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités […] ».

Disponible sur: Silicon.fr

CNIL

Données personnelles et IA : l’apport des normes ISO/IEC 27701 et 42001

La norme internationale ISO/IEC 27701 décrit la gouvernance et les mesures de sécurité à mettre en place pour les traitements de données personnelles. La norme ISO/IEC 42001 est, quant à elle, destinée aux organismes qui fournissent ou utilisent des systèmes d’IA. 

Disponible sur: CNIL.fr

HAAS Avocats

IA garante de la cybersécurité

Par Haas Avocats

Il est commun de dire que de nombreuses analyses ont donné crédit à l’IA de faciliter et même de renforcer les différents hacks existants avant son développement.

Force est de constater que l’IA en plus de l’attaque, peut renforcer la défense cyber d’un organisme.

Disponible sur: haas-avocats.com

Retour en haut