IdéesIdéesIdées, Tribune




Les compromis de la réglementation de l’IA

Un homme d'affaires allemand m'a récemment expliqué que le problème des régulateurs européens est qu'ils sont trop effrayés par les…

Un homme d’affaires allemand m’a récemment expliqué que le problème des régulateurs européens est qu’ils sont trop effrayés par les risques de perte. « Dans tout nouveau secteur d’activité innovant, ils surréglementent et étouffent tout potentiel de croissance. » En revanche, selon lui, les Américains se soucient davantage du potentiel de croissance et attendent donc d’en savoir plus sur les conséquences avant de réglementer. « Il n’est pas surprenant que les États-Unis soient beaucoup plus présents dans les secteurs innovants. »

 

L’IA en est un bon exemple. L’Union européenne a promulgué la première réglementation globale au monde sur l’IA en août 2024, établissant des garanties contre les risques tels que la discrimination, la désinformation, les violations de la vie privée et les systèmes d’IA susceptibles de mettre en danger la vie humaine ou de menacer la stabilité sociale. La loi attribue également aux systèmes d’IA différents niveaux de risque, avec des traitements différents pour chacun d’entre eux. Alors que les systèmes de notation sociale pilotés par l’IA sont purement et simplement interdits, les systèmes à plus haut risque sont fortement réglementés et supervisés, avec une liste d’amendes en cas de non-conformité.

LA SUITE APRÈS LA PUBLICITÉ



 

L’Europe est toutefois peu présente dans le secteur florissant de l’IA, surtout par rapport aux États-Unis ou à la Chine. Les leaders de l’IA générative sont des entreprises américaines telles qu’OpenAI, Anthropic et Google ; aucune entreprise européenne n’est à la hauteur. Un écart aussi flagrant semble parler de lui-même. Pour l’instant, le plan d’action sur l’IA de l’administration Trump, qui vise à limiter la bureaucratie et la réglementation en matière d’IA, semble être la meilleure approche.

 

Le problème de la méthode européenne est qu’elle fait peser sur les entreprises naissantes les coûts de la conformité réglementaire avant que le potentiel de la technologie ne soit clairement établi. Un chatbot mensonger ou discriminatoire n’est certainement pas souhaitable, mais il doit y avoir une certaine tolérance pour de telles erreurs dans les premières étapes du développement d’un système.

 

Lorsque les développeurs peuvent explorer plus librement les possibilités positives d’un système, ils ont également le temps (et éventuellement les ressources, générées par des lancements réussis mais sujets à des erreurs) de trouver des moyens rentables de résoudre les problèmes qui nuisent à la fiabilité du système. Exiger la quasi-perfection dès le départ ne protège pas tant la société qu’elle n’étouffe le processus d’essai et d’erreur qui permet de réaliser des percées.

 

Des erreurs, telles que la discrimination raciale, peuvent être extrêmement nocives, surtout si elles sont commises par des chatbots qui interagissent avec des millions de personnes. Conscients de ce risque, certains régulateurs n’autorisent les nouveaux produits à être testés que dans des environnements étroitement contrôlés. Les innovateurs peuvent expérimenter avec un groupe limité d’utilisateurs, toujours sous l’œil vigilant de l’autorité de régulation. Cette approche « bac à sable » permet d’éviter que les effets néfastes ne se répercutent sur le grand public, ce qui est la principale préoccupation de l’Europe.

 

Les bacs à sable peuvent cependant aussi limiter ce qui peut bien se passer. Les essais menés auprès de petits groupes restreints ne permettent pas de saisir les avantages des effets de réseau, qui font que les produits prennent de la valeur à mesure qu’ils sont utilisés par un plus grand nombre de personnes. Ils ne peuvent pas non plus révéler les percées inattendues qui se produisent lorsque les « mauvaises » personnes adoptent un produit (par exemple, la pornographie en ligne a été à l’origine des premières innovations en matière de technologie web). En résumé, les essais en bac à sable permettent d’éviter les catastrophes, mais ils risquent aussi d’étouffer la découverte. Ils sont meilleurs que les interdictions pures et simples, mais ils peuvent encore conduire les innovateurs à enterrer trop d’idées prometteuses avant qu’elles ne puissent être mises à l’échelle.

 

Quels sont donc les coûts de l’approche américaine du laissez-faire ? Le plus évident est que le système peut exploser à cause de produits malhonnêtes, comme cela s’est produit avec les subprimes – des titres adossés à des prêts hypothécaires à risque – avant la crise financière mondiale de 2008. Aujourd’hui, on entend des craintes similaires au sujet de l’IA générative et de l’industrie des cryptomonnaies (l’implosion de FTX étant citée comme un signal d’alarme précoce).

 

Historiquement, les États-Unis, avec leurs poches fiscales profondes, ont été plus disposés à prendre de tels risques, tandis que l’UE fragmentée a été plus prudente. Cependant, avec le rétrécissement de la marge de manœuvre budgétaire des États-Unis, une nouvelle réflexion est peut-être à l’ordre du jour.

 

Toutefois, même si les États-Unis veulent réglementer davantage, les autorités peuvent-elles vraiment y parvenir ? La méthode américaine consiste à attendre qu’un secteur soit suffisamment important pour avoir de l’importance. D’ici là, le secteur sera cependant devenu suffisamment puissant pour façonner toutes les règles destinées à le contrôler. Prenons le cas de la crypto-monnaie : riche en liquidités, armée de lobbyistes et concentrée sur ses intérêts, elle s’est révélée capable de faire basculer les politiciens – et l’opinion publique – en sa faveur. Il en résulte invariablement une sous-réglementation, même lorsque les risques pour le public sont flagrants.

 

En revanche, l’Europe, qui a une aversion pour le risque, intervient tôt, lorsqu’un secteur innovant est encore petit et que sa voix est à peine audible. À ce stade, ce sont les opérateurs historiques – les banques menacées par les cryptomonnaies, par exemple – qui dominent le débat. Leur influence pousse l’aiguille vers une prudence excessive et des règles lourdes. Les États-Unis ont tendance à réglementer trop peu et trop tard, tandis que l’Europe le fait trop et trop tôt. Ni l’un ni l’autre ne parviennent à un équilibre parfait.

 

Même s’il y a des raisons pour que chaque camp se rapproche de l’autre, il convient de souligner que la réglementation ne s’arrête pas aux frontières nationales. En fait, le monde peut bénéficier d’approches quelque peu différentes. Les chatbots américains peuvent prospérer dans un environnement relativement peu réglementé, en expérimentant et en se développant rapidement. Lorsqu’ils cherchent à s’implanter dans le monde entier, ils se heurtent toutefois aux normes plus strictes de l’Europe. Avec des ressources suffisantes et des incitations fortes, ils trouveront des moyens créatifs et peu coûteux de se mettre en conformité, et ces stratégies de réduction des risques pourraient finir par revenir aux États-Unis, laissant au monde une innovation plus importante et plus sûre.

 

C’est en tout cas le scénario idéal. La réalité sera probablement plus désordonnée. Les entreprises américaines pourraient causer des dommages à l’échelle mondiale avant que les régulateurs européens ne les rattrapent. L’Europe pourrait continuer à décourager l’innovation avant qu’elle ne commence, laissant le monde avec trop peu de choses. Cependant, le plus grand danger est peut-être que les régulateurs de part et d’autre de l’Atlantique exportent leurs propres règles, obligeant l’autre à s’aligner. Le monde pourrait être mieux servi si les régulateurs américains et européens continuaient à voir les réglementations différemment.

 

Raghuram G. Rajan, ancien gouverneur de la Reserve Bank of India et économiste en chef du Fonds monétaire international, est professeur de finance à la Booth School of Business de l’université de Chicago et coauteur (avec Rohit Lamba) de Breaking the Mold : India’s Untraveled Path to Prosperity (Princeton University Press, mai 2024).

 

Project Syndicate, 2025.
www.project-syndicate.org