La Corée du Sud dégaine avant tout le monde, et pas qu’un peu
La Corée du Sud vient de faire un truc très rare dans la tech : agir vite, très vite, mais avec un texte de loi complet. Depuis le 22 janvier 2026, l’AI Basic Act est officiellement en vigueur. Séoul se présente comme le premier pays à appliquer une loi-cadre globale sur l’intelligence artificielle, couvrant à la fois le public et le privé.
Le message est clair : le pays veut jouer dans le top 3 mondial des puissances IA. Et tant qu’à faire, passer devant l’Union européenne, dont l’AI Act doit entrer en vigueur à partir du 2 août 2026. Pendant que Bruxelles finit de calibrer ses curseurs, Séoul a déjà appuyé sur le bouton On.
L’idée n’est pas uniquement de réguler pour réguler. La loi s’appelle officiellement la Loi fondamentale pour le développement de l’IA et l’établissement d’une base de fiabilité. Oui, c’est long, mais ça dit tout : accélérer, tout en évitant que l’IA ne transforme Internet en musée du faux.
Une loi IA qui mélange carotte et bâton, sans faire semblant
L’AI Basic Act regroupe 19 propositions qui étaient auparavant dispersées. Objectif : un cadre unifié qui couvre tout le cycle de vie de l’IA, depuis la recherche jusqu’aux usages concrets, en passant par les données, la sécurité et la gouvernance.
Ce qui frappe, c’est l’équilibre revendiqué :
- Stimuler l’écosystème IA : soutien aux start-ups, formations, pôles d’innovation, infrastructures
- Encadrer les risques : obligations de transparence, supervision humaine, lutte contre les deepfakes
Autrement dit, la Corée du Sud veut une IA fiable, mais elle veut aussi une IA qui shippe. Le tout sans attendre un hypothétique consensus international.
IA à impact élevé : là où l’humain doit rester dans la boucle
La loi introduit une notion clé pour le SEO et pour les juristes : l’IA à impact élevé (high-impact AI).
On parle ici des systèmes capables d’affecter la vie ou la sécurité des personnes : santé, transport, énergie, finance, et autres domaines où un bug ne se règle pas avec un simple refresh.
Dans ces cas, la supervision humaine devient obligatoire. L’objectif est de limiter les scénarios où une décision critique serait prise de manière opaque, automatique, et irréversible.
Cette approche ressemble à ce qu’on retrouve dans d’autres cadres de régulation de l’intelligence artificielle, mais avec une volonté d’application immédiate, ce qui change tout pour les entreprises.
Contenus générés par IA : étiquetage, filigranes et chasse aux deepfakes
Là où la loi sud-coréenne se montre très concrète, c’est sur l’IA générative.
Principe : tout contenu généré par IA pouvant être confondu avec du réel doit être signalé.
Les moyens évoqués :
- étiquetage clair
- filigrane intégré dans le texte, l’image ou la vidéo
Pour les contenus jugés plus anodins, un marquage invisible via métadonnées peut suffire.
Et il y a une nuance importante : les usages strictement personnels ou non commerciaux sont exclus. C’est une manière de ne pas transformer chaque génération d’image pour un anniversaire en mini dossier de conformité.
Mais le vrai sujet derrière cette partie, c’est la guerre aux deepfakes et à la désinformation. La loi fait peser une responsabilité accrue sur les développeurs et fournisseurs d’IA : ils doivent prendre des mesures pour prévenir et corriger les dérives créées par leurs systèmes.
Enquête et sanctions : une régulation, mais pas une guillotine
Le gouvernement se donne un pouvoir d’enquête et de sanction en cas de manquement grave, notamment si une entreprise laisse son système produire ou diffuser des contenus trompeurs sans contrôle.
Cela dit, la philosophie affichée est plutôt “pro compliance” :
- pas de poursuites pénales prévues
- approche graduée avec mises en demeure
- amendes en dernier recours
Le plafond annoncé est de 30 millions de wons (environ 20 000 euros). À l’échelle européenne, c’est presque le prix d’un bon recrutement sur 6 mois, pas une amende “game over”. Comparé à l’UE et ses pourcentages sur le chiffre d’affaires mondial, Séoul est clairement sur une logique de démarrage contrôlé.
Les géants étrangers dans le viseur : représentant local obligatoire
Autre point intéressant et très politique : les grands acteurs étrangers de l’IA qui ont une forte activité en Corée doivent désigner un représentant local légalement responsable.
Le critère :
- chiffre d’affaires mondial supérieur à 1 000 milliards de wons
- ou plus d’un million d’utilisateurs locaux
Dans les faits, le texte vise surtout les très gros, et les noms cités dans le débat sont Google et OpenAI.
L’idée rappelle le RGPD : éviter que les plateformes opèrent dans le pays tout en restant juridiquement intouchables. C’est un signal fort : “vous avez des utilisateurs ici, vous avez aussi des obligations ici”.
Frontier AI : une régulation basée sur des seuils techniques
La Corée du Sud anticipe aussi l’arrivée d’une IA de haute performance (frontier AI). Plutôt que de classer uniquement par secteurs à risque, le pays introduit une définition basée sur des seuils techniques, notamment un volume de calcul d’entraînement dépassant un certain niveau.
Ce choix est malin :
- il prépare un cadre pour les modèles très puissants
- il évite de sur réguler les modèles actuels si les seuils sont hauts
Séoul affirme d’ailleurs qu’aucun modèle actuel ne franchit encore ces critères. C’est donc un filet de sécurité déployé avant l’acrobatie.
Start-ups IA : “on veut bien être responsables, mais on veut aussi survivre”
C’est là que l’histoire devient croustillante. Malgré un an entre la promulgation et l’application, les start-ups sud-coréennes alertent.
Une enquête de Startup Alliance indique :
- seule une start-up IA sur 50 se sent prête côté conformité
- environ la moitié ne comprend pas bien les obligations
Le problème n’est pas seulement la régulation. C’est le combo : obligations nouvelles + texte jugé flou + ressources limitées.
Quand une start-up est en phase d’expérimentation, la conformité peut devenir un second produit à construire. Et ce produit là ne génère pas de revenus, sauf si vous vendez des audits, ce qui est rarement le rêve initial.
Les craintes citées :
- coûts administratifs et techniques trop élevés
- incertitude juridique, donc innovation ralentie
- prudence excessive par peur de dépasser une ligne invisible
L’inquiétude sous-jacente : pendant que les jeunes pousses coréennes apprennent à naviguer la loi, des concurrents étrangers pourraient itérer plus vite dans des environnements réglementaires plus souples.
Une période de grâce d’un an, et une stratégie “on vous aide d’abord”
Pour calmer le jeu, les autorités ont prévu un atterrissage progressif.
Mesures annoncées :
- création d’un AI Act Support Desk pour aider les entreprises à évaluer leur statut et se mettre en conformité
- période de grâce d’au moins un an : pas d’amendes administratives jusqu’en 2027
- priorité à la pédagogie, aux consultations et à des guidelines
Le gouvernement peut même prolonger ce moratoire selon l’état du secteur.
Le discours politique est : accompagner plutôt que punir, sans renoncer à encadrer les effets secondaires anticipés de l’intelligence artificielle.
Une feuille de route industrielle pour rester dans la course mondiale
L’autre partie, souvent moins commentée mais décisive, c’est le volet stratégie.
L’AI Basic Act prévoit :
- un Conseil présidentiel de stratégie nationale IA
- un futur Institut de la sécurité de l’IA pour évaluer les systèmes et la fiabilité
- des investissements en R&D et infrastructures de données
- des programmes de formation et d’internationalisation
- un plan de promotion présenté tous les trois ans
C’est une approche holistique : réguler, oui, mais aussi muscler l’écosystème. Sans ce second volet, la loi aurait toutes les chances de devenir un frein. Avec lui, elle peut aussi devenir un avantage compétitif, à condition que l’exécution suive.
Ce que ça change pour le reste du monde
Même si vous ne vendez rien en Corée du Sud, cette loi est un signal global.
- Elle montre qu’une régulation IA peut entrer en application rapidement.
- Elle pose une doctrine sur l’étiquetage des contenus générés par IA.
- Elle donne un aperçu d’un modèle alternatif à l’UE : moins punitif, plus progressif, mais très structuré.
Pour les entreprises IA, la leçon est simple : la conformité n’est plus un sujet “plus tard”. Elle devient un sujet produit, juridique, technique, et parfois marketing.
Et pour les start-ups, la grande question devient : comment rester rapides tout en devenant fiables, sans transformer chaque sprint en marathon administratif. Pas facile, mais au moins, une chose est sûre : en 2026, l’IA n’est plus juste une course à la performance. C’est aussi une course à la confiance.
