Texte d’opinion rédigé par Jean Robillard, professeur à l’Université TÉLUQ
Dans l’édition du 31 mars dernier du Devoir, Bartha Maria Knoppers et Michael Beauvais posaient la question de savoir qui avait peur du partage des données. Certainement pas les auteurs, qui concluaient : « L’heure est au partage non seulement des données, mais également des idées qui nous aideront à surmonter la présente crise et jetteront également les bases d’une société plus solidaire une fois la pandémie terminée. » Va pour les idées. Les bonnes comme les moins bonnes. Mais ce qu’il reste à comprendre, toutefois, au lu de leur texte, c’est la nature exacte des données dont ils promeuvent le partage, à partir de principes juridiques inscrits dans des lois applicables, selon les auteurs, dans le contexte de l’actuelle pandémie : « Lors d’une pandémie et d’une crise sanitaire mondiale comme celle que nous vivons, la réponse à cette question devrait être affirmative puisqu’un tel partage des données individuelles servira le bien public. Les virus et autres agents pathogènes ne connaissent pas de frontières, et les données sanitaires ne devraient pas non plus en connaître. » Entre les données individuelles et les données cliniques, anonymisées, intégrées aux modèles et aux simulations, il y a une nette différence.
Or, j’aimerais alléguer que le problème de l’accès aux données individuelles est mal défini si on le contraste avec l’idée de la peur : si le problème n’est essentiellement que celui de l’équilibre entre les droits individuels et le bien public, puisque c’est de cela qu’il est surtout question dans le texte cité, alors nul besoin d’en faire l’analyse sous cet angle. L’angle qui convient est tout autre, il relève de l’éthique.
Il est évident que plus les chercheurs en santé auront en main des données cliniques valables, plus ils pourront éventuellement approfondir leurs analyses et idéalement en tirer des conclusions pouvant mener à l’amélioration des diagnostics, à la mise au point de traitements appropriés ou de la prophylaxie la mieux adaptée, etc. Mais la valeur de telles données est nécessairement déterminée par leurs qualités intrinsèques et tout protocole scientifique avéré se doit d’en caractériser rigoureusement la structure, en les soumettant à l’analyse des modèles au sein desquels le poids des variables est soupesé. La recherche de données répondant aux critères de qualité ainsi définis est alors établie en identifiant les moyens grâce auxquels elles seront recueillies puis traitées, analysées, reformulées. Je ne souhaite pas donner ici un cours 101 de méthodologie scientifique, seulement rappeler les liens étroits entre ces différents aspects de la recherche dans les sciences. Et ce pour en arriver à ceci qui, me semble-t-il, est généralement oublié par celles et ceux qui, comme les auteurs cités plus haut, font la promotion de l’accès aux « données » : toutes les données ne sont pas utiles à la recherche, et c’est d’ailleurs l’un des principaux enjeux de celle-ci que de faire le ménage parmi toutes les données brutes qui peuvent au premier regard apparaître comme valables. Le risque est grand qu’en donnant un accès libre aux « données » sans en préciser les caractères, sans cliver entre données valables et données non valables, sans établir les règles de méthode qui seront appliquées à toutes les étapes du processus, le risque est grand d’agrandir le déséquilibre entre les droits individuels et les organismes ou institutions qui cumulent et conservent ces données.
Alors que les lois encadrent de plus en plus mal que bien l’usage des données personnelles, les gouvernements ayant tardé à mettre à jour les droits et les mécanismes de protection des informations personnelles tandis qu’ils laissaient les opérateurs de l’internet et les analystes des données massives utiliser des algorithmes de plus en plus puissants, le droit de regard et de maîtrise sur ces instruments a été laissé sous la supervision directe de ceux-là mêmes qui les conçoivent et les utilisent (l’exemple des données récemment colligées et modélisées par Google est à ce titre frappant ). L’équilibre entre les droits individuels au respect et à la protection des informations personnelles sensibles et leur appropriation est dans l’état actuel des choses rompu en grande partie avec la complicité des législateurs qui, il faut le préciser, se laissent bien souvent charmer par le discours des promoteurs du « Big Data » et de l’IA qui dépeignent depuis maintenant plus de soixante-dix ans un avenir formidablement lumineux et assurément meilleur grâce aux calculs effectués par des machines.
Je ne suis pourtant pas un défenseur d’une quelconque théorie du complot. Je laisse aux illuminés de ce monde le faux privilège de leurs divagations. La technologie, l’intelligence artificielle (qui n’a d’ailleurs de véritablement intelligent que l’exagération communiquée par la formule de sa désignation) sont des outils qui peuvent certainement servir de justes causes. Mais ce sont des outils dont les usages requièrent d’être mieux encadrés, à commencer par la mise en œuvre d’une réflexion sur les questions de morale et d’éthique les concernant, dont la première, quant à moi, est la suivante : peut-on assigner une finalité morale réelle et concrète à ces outils? Et la seconde : si la réponse à la première question est positive, alors la finalité morale de ces outils coïncide-t-elle avec la finalité promue dans le discours techno-scientifique qui la prend pour objet? Sinon, comment concilier la finalité qui leur est actuellement attribuée par ses promoteurs à l’idée première d’un bien général défini hors des cadres de ce discours promotionnel? Autres questions : la technologie jouit-elle d’un statut tel qu’elle s’en trouve dispensée de toute contrainte morale et éthique? Puisqu’elle est le produit de l’action et du travail humains en contexte socio-historique, comment une telle neutralité axiologique peut-elle être justifiée?
C’est dans ce contexte qu’il faut recentrer le débat sur l’extraction et le traitement des données individuelles. La pandémie, aussi grave puisse-t-elle être, aussi dramatique que puissent être ses conséquences, ne peut être posée comme prétexte à des actions qui pourraient encore davantage contribuer au déséquilibre dont il a été brièvement question ici. De plus, si des données devaient être glanées, de quelque manière que ce soit, sans le consentement des personnes directement ou indirectement affectées, cela contreviendrait à une règle éthique à laquelle tout chercheur, toute chercheuse se soumet obligatoirement et qui a trait non seulement au respect de l’anonymat des participants à une recherche, mais aussi à leur consentement éclairé d’y participer et à la protection, justement, des informations sensibles les concernant individuellement.
Nulle personne sensée ne craindra le partage d’idée ou de données utiles, car ce n’est pas de crainte dont il s’agit. Il ne s’agit même pas de savoir s’il faut partager ou non : il s’agit d’appropriation et d’usages multiples sans supervision en l’absence d’un cadre éthique clairement et sciemment mesuré. Le résultat juridique devra suivre, comme il se doit. Cela demande du temps, la précipitation n’est jamais bonne conseillère.
Crédits photo : Jean Robillard