L’explicabilité de l’intelligence artificielle

“La fin justifie les moyens”. À travers Le Prince, Machiavel nous partage une réflexion pour le peu déroutante: pour le bien d’un intérêt général, le prince ne pourrait se cantonner à des actions purement morales, car celles-ci limiteraient les nôtres. Près de cinq cents ans plus tard, cette réflexion n’en demeure pas moins immuable : l’éthique devrait-elle rythmer notre quotidien ?

À mesure que nous entrons dans une nouvelle forme d’économie fondée sur la production et l’exploitation de masses considérables de données, seuls des processus informatiques seraient capables de traiter et valoriser congrûment cette «matière première» digitale. Car si les prouesses de l’intelligence artificielle s’enchaînent à un rythme effréné et permettent de mettre en exergue des résultats d’une précision inégalable, ces derniers n’en apparaissent pas moins abstrus. On parle alors de “boîtes noires” : connaissant pourtant les données initiales et celles qui sortent sous forme de résultats, les procédés de dénouement n’en semblent pas moins intelligibles.

Mais une meilleure explicabilité de ces procédés nous est-elle nécessaire ? N’utilisons-nous pas quotidiennement des outils dont les mécanismes d’action nous sont parfaitement inconnus ? Finalement, une explication n’est peut-être pas si utile tant que le système fonctionne. L’une des motivations principales de ce besoin de transparence est une appréhension des machines, ainsi qu’un manque de confiance inhérent à un scepticisme globalisé sur ce domaine.

Cependant, l’interprétabilité des données nous incombe lorsqu’elles se mêlent à des décisions médicales ou judiciaires ; imaginons qu’une IA condamne une personne à une peine de vingt ans de prison, mais que vous soyez dans l’incapacité la plus totale de fournir la moindre explication. Gênant non ?

Pour qu’une IA soit transparente, il est impératif d’expliquer le cheminement qui l’a conduit à prendre une décision et ainsi comprendre quelles données sont exploitées et de quelles façons. Cela permettrait dans le cas d’une base de données biaisée ou discriminante, de remédier plus facilement au problème. C’est sur cette idée qu’est basée la rétro-ingénierie : déconstruire les raisonnements d’une machine. Nous faut-il donc éconduire les sceptiques ou vivons-nous le prélude d’une nouvelle approche de l’IA?

Yasmine TLILI de l’équipe SorBotic

Pour aller plus loin :

Cathy O’Neil Algorithmes : La bombe à retardement

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *