Le RGPD ne marque pas la fin des logiciels d’entreprise…

L’Union européenne (UE) propose la toute première loi relative à l’Intelligence artificielle (IA), sous la forme d’un cadre législatif visant à harmoniser les règles en matière d’intelligence artificielle, ce qui, selon elle, permettrait de faire face aux risques en découlant…

Nous n’en sommes qu’aux balbutiements. Mais le message est fort, Bruxelles affirmant que l’UE doit « agir comme un seul homme » pour exploiter les « nombreuses possibilités et relever les défis de l’IA sur le long terme ». Son but : promouvoir le développement de l’IA et gérer les « risques élevés potentiels » qu’elle voit pour la sécurité et les droits fondamentaux.

En tant que fervent supporter de l’IA travaillant avec des organisations européennes publiques et privées cherchant à optimiser la valeur de l’IA, j’ai une opinion bien arrêtée sur cette évolution. J’attribue beaucoup de mérite à l’idée générale – mais je comprends aussi que certains puissent y voir un frein au progrès. De toute façon, pour être franc ; nous n’avons jamais vu de réglementation à laquelle les entreprises n’aient trouvé aucun inconvénient.

Tout d’abord, je pense que la meilleure comparaison à cette loi est celle du Règlement Général sur la Protection des Données (RGPD) ; ainsi, comme le RGPD s’est vite imposé non seulement comme le cadre de référence européenne, mais aussi, à bien des égards, mondial, pour les données, il en serait de même pour l’IA.

L’importance grandissante d’une IA totalement responsable

Il est urgent d’investir dans ce que nous appelons une IA responsable. C’est une question de confiance. À l’heure actuelle, l’IA ne jouit pas d’une grande confiance auprès du grand public qui ne comprend pas vraiment ce qu’elle fait et la voit comme une boîte noire qui semble faire des choses intéressantes. C’est un peu effrayant pour les gens et je le constate tous les jours dans le cadre de mon travail. Certains exemples montrent que l’IA peut être discriminatoire, et désavantager certains profils dans la vie réelle, par exemple dans le domaine du recrutement.

Un autre problème se situe du point de vue des ventes, dans la mesure où le secteur des technologies doit mieux expliquer les différentes étapes franchies pour améliorer ses chances d’acceptation et d’adoption.

Sur le plan business, les organisations voient clairement le potentiel de l’IA, qui leur permet de mieux connaître les clients, de baisser les coûts, de mettre en place de nouvelles méthodes de travail innovantes, mais elles ne font pas toujours confiance aux recommandations de leurs data scientists, parce qu’il n’y a aucune obligation à expliquer ce que fait l’IA.

C’est là que la réglementation de l’UE pourrait intervenir, et la donnée est une nouvelle fois au cœur du problème, comme pour le RGPD. Vous ne cherchez pas à savoir quel usage est fait de vos données dans un cadre commercial, par exemple, dans les bases de données marketing de votre opérateur télécom qui veut éviter que vous changiez d’opérateur, ou de votre banque qui va vous proposer de nouveaux produits. En revanche, vous vous préoccupez de l’utilisation de vos données personnelles dans une application beaucoup plus sensible, alimentée par l’IA, par exemple pour décider si vous avez droit à certains types de soins médicaux, de couverture d’assurance ou de crédit.

C’est le défi que doit relever l’Europe ; où les données vont-elles être stockées, quel usage en feront les fournisseurs d’IA ou de cloud computing à l’avenir et comment faire pour qu’ils les suppriment ? En fin de compte, le véritable problème est celui de la vie privée, et c’est en cela qu’une extension du RGPD pourrait être vraiment utile. Avec le RGPD, nous essayons d’assurer la confidentialité de nos propres données. Là où nous pouvons remercier la Commission européenne, c’est que si nous pouvions convenir d’une utilisation et d’un contrôle appropriés des données personnelles dans les futures applications contenant de l’IA, cela résoudrait le principal problème de l’IA, à savoir les soupçons de mauvaise utilisation des données personnelles.

Aborder la question de la confidentialité de l’IA de manière responsable pourrait en fait développer le marché de l’IA et du Machine Learning, et la communauté de l’IA s’en réjouirait. Nous serions soulagés de savoir que des moyens sont mis en place pour garantir que l’IA est utilisée pour améliorer le monde et non pour en révéler les pires aspects. Mais il faudra probablement un effort de coopération au sein de la communauté, y compris entre les entreprises et les fournisseurs, pour identifier les modèles les moins fiables ou les ensembles de données qui pourraient être discriminatoires. En les signalant et en veillant à ce que ces ensembles de données et ces modèles ne soient pas utilisés, nous pourrions améliorer considérablement la confiance dans l’IA et encourager l’adoption d’une IA responsable, ce qui serait bénéfique pour tous.

Le prix à payer pour gagner la confiance

Mais un RGPD de l’IA ne pourrait-il pas freiner l’innovation ? La question est cruciale. Cela rendra-t-il plus compliqué le développement d’applications à base d’IA parce que vos modèles d’IA et vos données seront réglementés ? Après tout, il faudra respecter des obligations de conformité. L’impact sera-t-il faible ou élevé ? Et comment mesurer cet impact ? Mais si c’est le prix à payer pour que les organisations déploient des systèmes intelligents extrêmement utiles plus facilement et de manière plus sûre, cela permettra d’accroître la confiance, et l’IA sera bientôt plus largement acceptée comme un apport à haute valeur ajoutée, à la fois pour le commerce et notre société.

Dans mon entreprise, nous estimons qu’une bonne gouvernance est vraiment importante. Nous apportons également un soin tout particulier à documenter tout ce que nous faisons et nous faisons en sorte d’interpréter et d’expliquer la gouvernance de nos modèles de données. Et grâce à cela, nous espérons que les entreprises vont investir dans l’IA explicable – une IA transparente qui utilise les données clients de manière sécurisée et facilement justifiable – parce que c’est bénéfique, à la fois pour leurs clients, la société et elles-mêmes.

Dans l’ensemble, nous saluons l’initiative de l’Union européenne, et nous pensons que l’ensemble du secteur devrait l’accueillir favorablement. Désormais, nous devons nous assurer que notre voix d’expert soit entendue, dès maintenant, et pas trop tard. Quoi qu’il en soit, je pense que cela a rendu visible la différence entre la relative confusion et le manque de confiance actuels et une IA véritablement explicable. Et c’est une bonne chose.

A propos de l’auteur

Mark Bakker : Responsable Benelux de H2O.ai. Pour lui, un cadre législatif pour réglementer l’intelligence artificielle serait bon pour le secteur – mais également, et surtout, pour la société au sens large.


Lire l’article sur le site Source

Ajouter un commentaire

Les champs requis sont indiqués *