P O I N T D E V U E Intelligence artificielle Eric BARBRY Pour une régulation partagée L es acteurs qui interviennent dans le domaine de l'intelligence artificielle sont de plus en plus nombreux à rédiger des chartes éthiques. Eric Barbry, avocat au barreau de Paris, nous en explique les raisons. Sylvie Rozenfeld : SAP s'est engagé à respecter une série de règles dans ses recherches en intelligence artificielle (IA) « pour éviter un bouleversement technologique qui reléguerait d'un clic l'intelligence humaine au second plan ». Google s'est doté de 7 grands principes pour faire bon usage de l'intelligence artificielle. Thales a rédigé une charte « Ethique et transformation numérique » qui intègre l'intelligence artificielle. Microsoft a identifié 6 principes éthiques permettant de guider le développement et l'utilisation de l'intelligence artificielle « en plaçant l'individu au centre de tout ce que nous entreprenons ». De plus en plus d'entreprises du numérique publient leur charte ou leurs règles éthiques sur l'intelligence artificielle. Et d'après une étude réalisée par l'Ascel portant sur 100 entreprises, 30 % ont déjà rédigé des chartes d'usage dont 16 % sur l'usage de l'algorithme. Et près de 40 % qui n'en disposent pas encore comptent en mettre une en place. Comment interprétez-vous ce phénomène qui s'est développé en 2018 ? Eric Barbry : Il s'agit d'une volonté des entreprises de ne pas se voir imposer une régulation trop contraignante, de prendre les devants et de proposer des règles comportementales de transparence et d'éthique, sur un modèle de soft law. EXPERTISES MARS 2019 105