Cependant, cette idée ne prend pas en compte le fonctionnement complexe de l’intelligence artificielle, qui repose sur des liens statistiques bien éloignés du raisonnement humain. Les IA de deep learning sont souvent incapables d’expliquer comment elles parviennent à leurs résultats. Cette absence de transparence, ou « d’explicabilité », les transforme en véritables « boîtes noires ».
L’IA pour révolutionner la santé
L’avenir de l’IA en santé vise à devenir un outil de plus en plus complexe, en exploitant toujours plus de données. Il ne s’agira plus seulement de poser un diagnostic pour une pathologie, mais de réaliser de véritables bilans complets, mêlant imagerie, biologie médicale, et sans doute des objets connectés de santé (comme l’ECG via l’Apple Watch). Jean-Emmanuel Bibault, cancérologue à l’hôpital Georges Pompidou, prédit que, très bientôt, la médecine sera incapable de comprendre les diagnostics fournis par l’IA.
Certaines IA sont déjà capables de détecter des cancers du sein ou du pancréas plusieurs années avant leur apparition potentielle. Imaginez la réaction d’un patient à qui l’on annonce qu’une IA estime qu’il a 85 % de chances de développer un cancer mortel dans les deux ans, sans que la médecine ne puisse expliquer comment l’IA est parvenue à ce diagnostic.
Tout comme les mécaniciens qui branchent un ordinateur pour diagnostiquer les pannes, les médecins risquent de perdre leur rôle central dans le diagnostic. C’est inévitable, car l’IA est déjà meilleure dans ce domaine. Comme le souligne Jean-Emmanuel Bibault, l’IA diagnostique à partir de tableaux cliniques avec un taux de réussite de 87 %, tandis que les médecins atteignent seulement 65 %.
Une IA spécialisée, DrOracle, a même obtenu une note de 97/100 à l’examen de sortie de la faculté de médecine aux États-Unis (contre 75 pour ChatGPT-4). Un score impressionnant, d’autant plus qu’il suffit d’environ 70 % pour réussir cet examen.
Des efforts sont en cours pour améliorer la transparence des IA. Des chercheurs travaillent sur des techniques d’explicabilité, visant à rendre les décisions des IA plus compréhensibles pour les humains. Ces approches combinent souvent le deep learning avec des systèmes experts, ces derniers fonctionnant sur des règles de causalité définies par la science. Cependant, ces solutions contraignent souvent le potentiel de l’IA.
Dans le domaine médical, les IA seront rigoureusement contrôlées par la recherche et les médecins eux-mêmes. Mais qu’en sera-t-il des banques refusant un prêt, des recruteurs écartant un candidat, ou des écoles rejetant une inscription ? Feront-ils autant d’efforts pour contrôler leurs IA ? Dans un contexte de quête de productivité permanent, rien n’est moins sûr.
Nos droits face à l’IA
Suite à l’application du RGPD (Règlement Général sur la Protection des Données), réglementation européenne visant à protéger les données personnelles des citoyens de l’UE entrée en vigueur en mai 2018, la présidente du principal syndicat patronal d’Italie avait énoncé ironiquement « L’Amérique innove, la Chine copie, l’Europe réglemente ».
Sous l’impulsion de son commissaire européen Thierry Breton (ancien ministre de l’Économie sous Jacques Chirac) l’UE a encore illustré ce nouvel adage en étant les premiers à réglementer l’IA, démontrant une certaine réactivité et une compréhension des enjeux de l’IA dans l’avenir.
L’IA Act pour gérer les risques
L’IA Act entrée en vigueur en août 2024, définit 5 niveaux de risque : minimal, limité, usage général, élevé et inacceptable. Les IA de risque minimal comprennent des technologies telles que les filtres anti-spam, les assistants vocaux comme Alexa et Siri, les recommandations de produits, et la traduction automatique. Ces outils, considérés comme peu dangereux, ne sont soumis à aucune obligation réglementaire particulière.
Cependant, les IA classées comme limitées, telles que les chatbots, les filtres de contenu sur les réseaux sociaux et les recommandations de contenu (Netflix, presse…), doivent désormais être transparentes sur leur fonctionnement et l’utilisation des données qu’elles traitent.
Les IA à usage général, qui incluent des assistants virtuels avancés comme ChatGPT et des plateformes d’analyse prédictive, sont soumises à des exigences plus strictes. Ces systèmes doivent mettre en place une gestion rigoureuse des risques tout au long de leur cycle de vie, garantir la qualité et la représentativité des données utilisées, et fournir une documentation technique détaillée. La transparence est fondamentale : les utilisateurs doivent savoir qu’ils interagissent avec une IA. De plus, la surveillance humaine doit être intégrée pour permettre une supervision appropriée, tandis que les niveaux de précision, de robustesse et de cybersécurité doivent être maintenus à un niveau élevé pour éviter les erreurs et les piratages.
Les IA de risque élevé, utilisées dans des secteurs sensibles tels que la santé, l’éducation, le recrutement, la gestion d’infrastructures critiques (électrique…), le maintien de l’ordre et la justice, sont soumises à des obligations similaires mais encore plus strictes. Ces systèmes doivent respecter des normes rigoureuses pour garantir leur sécurité et leur équité. La reconnaissance faciale pour la surveillance entre également dans cette catégorie, soulignant la nécessité de réguler des technologies potentiellement intrusives.
Enfin, le niveau de risque inacceptable interdit les IA impliquées dans la manipulation subliminale (publicités, réseaux sociaux, jeux…), la notation sociale, et la surveillance biométrique en temps réel (reconnaissance faciale, mais possiblement aussi tatouage), à quelques exceptions près, comme les enquêtes sur les enlèvements ou les menaces terroristes. Ces restrictions visent à prévenir une surveillance de masse non régulée et à protéger les libertés individuelles.
Défis de la régulation en Europe
Cette législation s’inscrit dans une tendance mondiale de plus en plus marquée à encadrer les technologies émergentes. Aux États-Unis, les débats sur la régulation de l’IA prennent de l’ampleur, mais le pays adopte une approche plus axée sur l’innovation.
L’IA Act pourrait bien devenir un modèle pour d’autres régions du monde cherchant à réguler l’IA de manière équilibrée. C’est est un premier pas important, mais il ne peut pas répondre à toutes les questions posées par l’essor de l’intelligence artificielle.
La rapidité des avancées technologiques exige une régulation adaptable et évolutive. Car l’IA Act entraîne une instabilité juridique, qui pourrait freiner le développement de l’IA sur le continent. Apple a retardé le lancement en Europe de son produit Apple Intelligence, et Meta a reporté la sortie de la dernière version de son modèle open-source LLama.
Les esprits positifs voient dans cette situation une opportunité pour des entreprises européennes comme Mistral AI. Néanmoins, la question demeure : pourront-elles suivre le rythme des innovations tout en respectant des règles strictes que leurs concurrents étrangers ne sont pas tenus de suivre ?
La réponse à cette question déterminera peut-être l’avenir de l’IA en Europe.
Extrait du livre Manuel de Survie à l’IA d’Edouard Fillias et Alexandre Villeneuve, aux Editions Ellipses.