Le chien de garde de l’internet chinois, l’Administration du cyberespace de Chine (CAC), a récemment publié un projet de proposition de réglementation. Il vise à gérer la façon dont les entreprises technologiques utilisent les algorithmes lorsqu’elles fournissent des services aux consommateurs.
La proposition de loi stipule que les entreprises doivent utiliser les algorithmes pour « diffuser activement une énergie positive ». Selon la proposition, les entreprises doivent soumettre leurs algorithmes à l’approbation du gouvernement ; sous peine de se voir infliger une amende et de voir leur service interrompu.
L’Administration du cyberespace de Chine a peur de l’IA
C’est une idée incroyablement mauvaise et même dangereuse. C’est ce qui arrive lorsque des personnes qui ne comprennent pas l’IA essaient de la réglementer. Un peu comme pour les cryptomonnaies et la blockchain …
Au lieu de favoriser l’innovation, les gouvernements considèrent l’IA à travers le prisme de la peur qui leur est propre. Ils tentent de réduire les dommages qui les inquiètent le plus. Ainsi, les régulateurs occidentaux se concentrent sur des craintes telles que la violation de la vie privée ; tandis que les régulateurs chinois sont parfaitement d’accord pour collecter des données privées sur leurs citoyens mais s’inquiètent de la capacité de l’IA à influencer les gens d’une manière jugée indésirable par le gouvernement.
Si la loi chinoise est adoptée, elle créera un long processus bureaucratique. Un processus qui fera qu’aucune petite entreprise ou startup ne pourra survivre ou même entrer sur le marché.
Dès que vous permettez aux régulateurs gouvernementaux d’être les arbitres finaux de ce que les technologies émergentes peuvent ou ne peuvent pas faire, vous étranglez l’innovation. Les seules personnes qui profiteront d’une telle loi sont les grandes entreprises qui peuvent investir dans des activités bureaucratiques improductives ; grâce à leurs énormes réserves de liquidités et les mauvais acteurs. Ils ignoreront les régulateurs et feront ce qu’ils veulent. Les startups à court d’argent qui souhaitent respecter la loi seront les plus désavantagées par cette approche.
L’Administration du cyberespace de Chine n’est pas la seule à faire cela
La Chine n’est pas la seule à adopter une approche bureaucratique de l’IA. En avril, l’Union Européenne a publié un projet de loi sur l’intelligence artificielle.
Ce dernier interdirait purement et simplement certaines pratiques d’IA. Ainsi, il exigerait que les applications d’IA jugées « à haut risque » répondent à des exigences strictes en matière de gouvernance des données et de gestion des risques.
Il s’agit notamment d’exigences en matière de test, de formation et de validation des algorithmes, de surveillance humaine ; ainsi que de respect des normes de précision, de robustesse et de cybersécurité.
Les entreprises devront prouver que leurs systèmes d’IA sont conformes à ces exigences avant de les mettre sur le marché européen. Imposer des exigences en matière d’algorithmes ou demander aux entreprises de justifier leurs approches peut sembler moins onéreux que l’interdiction pure et simple des technologies. La réalité est que, dans les deux cas, les startups n’ont pas les ressources nécessaires pour participer à des processus aussi lents ; et aussi bureaucratiques. Les petites entreprises seront évincées de l’arène alors qu’elles sont les plus susceptibles de créer de véritables innovations dans cet espace.
La mort de l’innovation pour les petites entreprises
Imaginez un monde où les jeunes entreprises devraient obtenir des brevets sur leur technologie avant de créer leur logiciel. Seule la moitié environ des brevets américains sont approuvés. Ce qui n’est pas terrible. Mais il faut environ deux ans pour que l’approbation soit accordée.
Les algorithmes sont plus difficiles à examiner que les brevets ; en particulier les algorithmes d’apprentissage profond que très peu d’experts comprennent. Si l’on se base sur les longs délais de l’office des brevets, on peut supposer que les processus d’approbation des algorithmes sont susceptibles de prendre plus de deux ans.
Ce n’est tout simplement pas assez rapide. Une technologie dans un espace qui évolue rapidement comme l’IA serait déjà dépassée au moment où elle serait approuvée. Toute approche impliquant la préapprobation des algorithmes par les régulateurs étranglerait l’innovation dans ce domaine.
Il existe une autre raison pour laquelle une telle législation serait plus onéreuse pour les petites entreprises. Pour les startups qui dépendent des investissements en capital-risque, les cycles de financement habituels durent 18 mois. Ce qui signifie que les investisseurs s’attendent à voir des résultats tangibles de leur investissement en moins de 18 mois.
Les approches d’investissement actuelles ne permettent donc pas d’attendre des années pour faire approuver des algorithmes avant de lancer un produit. Bien que certains VCs puissent adopter une approche d’investissement différente. Une approche similaire aux investissements médicaux par exemple. De nombreux entrepreneurs se détourneraient simplement de l’IA et poursuivraient d’autres opportunités.
Les États-Unis optent pour une autre approche
Les États-Unis sont dans une position unique pour mettre en place les bonnes directives en matière d’IA. Alors que la Chine et l’Union européenne définissent des directives de plus en plus strictes interdisant certains types d’IA, les États-Unis ont la possibilité d’établir des directives éthiques sans entraver l’innovation.
La seule approche appropriée pour réglementer l’IA consiste à définir clairement nos objectifs sociétaux dès le départ. Mais aussi à tenir les entreprises responsables si elles ne respectent pas ces objectifs.
Par exemple, les USA n’obligent pas toutes les entreprises à se soumettre aux inspections de l’Occupational Safety and Health Administration (OSHA) avant de pouvoir exercer leurs activités. Cependant, les attentes en matière de sécurité du travail sont inscrites dans la loi et les contrevenants sont poursuivis.
Si les entreprises trouvent des approches alternatives pour assurer la sécurité de leurs employés, elles ne sont pas pénalisées tant que les objectifs sociétaux sont atteints.
Donner aux régulateurs gouvernementaux le pouvoir de limiter de larges catégories de technologies n’est pas l’approche qui a construit l’internet ou le smartphone.