La confidentialité reste un problème avec plusieurs applications de santé pour femmes
Avec des millions d'utilisatrices à travers le monde, le marché des applications de santé féminine devrait dépasser les 18 milliards de dollars d'ici 2031. Pourtant, ces applications font partie des moins fiables. Elles collectent des données sur les cycles menstruels, la vie sexuelle et le statut de grossesse des utilisatrices, ainsi que des informations telles que les numéros de téléphone et les adresses électroniques. Ces dernières années, certaines de ces applications ont été épinglées pour violation de la vie privée.
Un certain nombre de pratiques problématiques persistent, ont rapporté des chercheurs en mai lors de la Conférence sur les facteurs humains dans les systèmes informatiques à Honolulu.
L'équipe a évalué les politiques de confidentialité et les caractéristiques de gestion des données de 20 des applications de santé féminine les plus populaires sur le Google Play Store aux États-Unis et au Royaume-Uni. Ils ont découvert des cas de collecte secrète de données sensibles, des incohérences dans les politiques de confidentialité et les fonctionnalités liées à la confidentialité des applications, des mécanismes de suppression des données défectueux et plus encore.
Les chercheurs ont également constaté que les applications associaient souvent les données des utilisatrices à leurs recherches sur le web, mettant en péril l'anonymat des utilisatrices. Certaines applications exigeaient qu'une utilisatrice indique si elle avait fait une fausse couche ou un avortement pour pouvoir utiliser une fonctionnalité de suppression de données. Il s'agit là d'un exemple de pratiques abusives, qui visent à pousser l'utilisateur à divulguer des informations privées, comme le soulignent les auteurs de l'étude.
Lisa Mekioussa Malki, coauteur de l'étude et chercheuse en informatique à l'University College London, a parlé à Science News des implications en matière de confidentialité et de sécurité des résultats obtenus. Cet entretien a été modifié pour plus de clarté et de concision.
SN: Les applications de santé et de fertilité féminines suscitent des inquiétudes en matière de confidentialité. Mais dans votre étude, vous soulignez que les données collectées par ces applications pourraient également avoir des répercussions sur la sécurité physique.
Malki: Il est une chose de considérer la confidentialité comme une protection des données en tant qu'actif d'un point de vue organisationnel, mais je pense qu'il faut aller plus loin. Nous devons prendre en considération les personnes qui utilisent ces applications, et les implications de la fuite de ces données. Il y a évidemment la question clé de la criminalisation [de l'avortement dans les États-Unis post-Roe], mais il y a aussi beaucoup d'autres problèmes qui pourraient découler de la fuite de données sur la santé reproductive.
Par exemple, si le statut de grossesse de quelqu'un est divulgué sans son consentement, cela pourrait conduire à de la discrimination sur le lieu de travail. Des travaux antérieurs ont exploré les problèmes de harcèlement et de violence entre partenaires intimes. Dans les communautés où l'avortement est stigmatisé, et où les questions liées à la santé des femmes et à la santé reproductive sont stigmatisées, le partage de ces informations pourrait causer de réels préjudices aux personnes au sein de leur communauté.
SN: Les applications disent souvent : "Nous ne vendons pas vos données". Mais les informations que nous introduisons sont toujours disponibles pour les annonceurs et autres. Cela semble rendre très difficile pour les utilisatrices de comprendre à quoi elles consentent lorsqu'elles utilisent ces applications.
Malki: Ces applications collectent beaucoup de points de données différentes des utilisatrices, et seule une petite partie est fournie directement. Évidemment, il y a des informations qu'une utilisatrice entre quand elle s'inscrit, y compris ses données de santé. Il y a certaines limitations [par la loi, en fonction de votre localisation] sur le partage et la commercialisation de ces données. Cependant, dans quelques applications, la politique de confidentialité stipule explicitement que des éléments comme le trimestre de grossesse de l'utilisateur pourraient être partagés avec des annonceurs tiers.
Mais il y a aussi beaucoup de données que les applications collectent à partir du dispositif de l'utilisateur : adresse IP et informations sur l'utilisation de l'application - comme les articles qu'elle clique, les pages qu'elle accède, etc. Et en fait, on peut découvrir des informations assez sensibles sur la vie de quelqu'un. Ces données sont, selon la politique de confidentialité, destinées à être partagées en particulier avec les entreprises d'analyse.
C'est assez inquiétant car il n'y a pas beaucoup de transparence sur les types exacts de données comportementales qui sont partagées. Cela pourrait simplement être "Oh, l'utilisatrice s'est connectée". Mais cela pourrait aussi être "Elle a ouvert un article sur la contraception ou la grossesse". Et cela pourrait être utilisé pour créer des inférences sur les utilisatrices et des prédictions qui sont en réalité assez sensibles. Il n'est absolument pas raisonnable de s'attendre à ce que l'utilisateur ait une compréhension parfaitement étanche simplement en lisant une politique de confidentialité.
SN: Quels conseils donnez-vous aux femmes et aux autres personnes qui utilisent ces applications de santé mobiles?
Malki: Un problème clé que nous avons identifié est que beaucoup de gens, lorsqu'ils ont vu un article de presse effrayant [au sujet des violations de données], ont immédiatement supprimé les applications. Cela ne protège pas nécessairement les données des utilisateurs. Les développeurs gardent souvent des sauvegardes sur leurs propres serveurs.
Donc, un conseil serait de chercher une fonctionnalité de suppression de données ou de compte dans l'application, ou même de contacter directement les développeurs. Si vous vivez en Europe en particulier, vous pouvez contacter les développeurs et invoquer votre droit à l'oubli.
SN: Et que peuvent faire les développeurs pour concevoir des applications plus éthiques?
Malki: A lot of time, particularly when the app development team is quite small and perhaps limited in resources, data privacy is a compliance issue rather than a humanistic and user experience issue. So I think a shift in understanding is needed — who the users are, what potential risks they could be facing, what needs they have — and building that into the design process from the beginning.
We’ve developed this groundwork for understanding and identifying the characteristics of privacy policies. So what researchers and developers, even auditors and compliance people, can do in the future is use that framework to automate the analysis of a larger set of privacy policies on a large scale. Our codebook provides a framework for doing that.