Page 1 sur 1

La gouvernement crée l'INESIA, un bouclier national pour sécuriser la France face à l'IA

Posté : sam. 1 févr. 2025 08:30
par chtimi054
Le gouvernement crée l'INESIA, un bouclier national pour sécuriser la France face à l'IA

La France vient de se doter d'un Institut national dédié à la sécurité de l'IA (INESIA). À l'initiative du gouvernement, le dispositif vise à encadrer et sécuriser le développement de l'intelligence artificielle dans l'hexagone.
Image
La France accélère sur la surveillance de l'IA © Microsoft Designer, pour Clubic
La ministre déléguée chargée de l'Intelligence artificielle et du Numérique, Clara Chappaz, vient d'annoncer ce vendredi la création d'un nouvel institut national qui espère positionner la France parmi les leaders mondiaux de l'IA. L'INESIA, on peut l'appeler ainsi, verra le jour dans le prolongement de la Déclaration de Séoul, signée en mai 2024 par onze pays majeurs. Cette structure assez inédite, présentée à quelques jours du grand sommet de l'IA qui se tiendra à Paris, rassemblera les plus grands acteurs français de l'évaluation et de la sécurité de l'intelligence artificielle.

Un institut pour fédérer les experts français de l'IA

Sans créer de nouvelle structure juridique, l'INESIA ambitionne de devenir un hub d'expertise unique en son genre. Sa mission principale ? Analyser les risques systémiques liés à l'IA dans le domaine de la sécurité nationale, tout en accompagnant la mise en place des futures régulations. Les chercheurs et ingénieurs mobilisés travailleront également sur l'évaluation des performances et de la fiabilité des modèles d'IA.

L'INESIA sera piloté conjointement par le secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE). Cette gouvernance partagée est censée retranscrire l'ambition du projet, qui est de garantir la sécurité nationale, tout en accompagnant le développement économique. L'institut fédérera notamment l'ANSSI, l'Inria, le Laboratoire National de Métrologie et d'Essais et le PEReN.

Il devrait donner un peu plus d'épaisseur à la stratégie française de développement responsable de l'IA. L'État français considère en effet la confiance comme le socle fondamental de l'adoption de cette technologie. Un point particulièrement crucial pour certains secteurs sensibles comme la médecine, l'éducation ou l'industrie, où l'utilisation de l'IA doit être strictement encadrée.

Une ambition internationale pour l'intelligence artificielle française

L'INESIA ne fait pas cavalier seul. L'institut s'intègre dans un réseau international d'AI Safety Institutes, aux côtés d'organisations similaires au Canada, en Corée du Sud, aux États-Unis, au Japon, au Kenya et à Singapour. Cette collaboration internationale permettra de promouvoir une vision commune de l'IA. La France la souhaite sûre, inclusive et digne de confiance.

La création de l'INESIA deviendra-t-elle le témoin de l'ambition française de jouer un rôle majeur dans la gouvernance mondiale de l'IA ? En structurant sa recherche autour de l'évaluation et de la sécurité, la France se donne en tout cas les moyens, sur le papier du moins, de peser dans les débats internationaux. L'institut travaillera notamment en étroite collaboration avec l'AI Office de la Commission européenne.

La structure pourrait représenter une étape décisive dans la stratégie française en matière d'IA. C'est peut-être bien en conjuguant l'innovation et la sécurité, la recherche et la régulation que l'INESIA incarnera une approche équilibrée du développement de l'intelligence artificielle. Un positionnement qui pourrait faire école à l'international, alors que de nombreux pays cherchent encore leur voie dans l'encadrement de cette technologie.

merci à CLUBIC

Re: La gouvernement crée l'INESIA, un bouclier national pour sécuriser la France face à l'IA

Posté : sam. 1 févr. 2025 10:39
par MyPOV
Il y a entre les lignes,
Cette collaboration internationale permettra de promouvoir une vision commune de l'IA. La France la souhaite sûre, inclusive et digne de confiance.
A mes yeux, le mot "inclusive" est un marqueur de l'intention en désignant l'objectif de surveillance. Que veut dire inclusif ? Qu'est-ce qui l'est et qui ne l'est pas tout en n'étant pas dans le champ politique ? Je pense que ça n'a rien à faire dans une vraie démarche de sécurité.
Sa mission principale ? Analyser les risques systémiques liés à l'IA dans le domaine de la sécurité nationale, tout en accompagnant la mise en place des futures régulations. Les chercheurs et ingénieurs mobilisés travailleront également sur l'évaluation des performances et de la fiabilité des modèles d'IA.

L'INESIA sera piloté conjointement par le secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE). Cette gouvernance partagée est censée retranscrire l'ambition du projet, qui est de garantir la sécurité nationale, tout en accompagnant le développement économique. L'institut fédérera notamment l'ANSSI, l'Inria, le Laboratoire National de Métrologie et d'Essais et le PEReN.

Il devrait donner un peu plus d'épaisseur à la stratégie française de développement responsable de l'IA. L'État français considère en effet la confiance comme le socle fondamental de l'adoption de cette technologie. Un point particulièrement crucial pour certains secteurs sensibles comme la médecine, l'éducation ou l'industrie, où l'utilisation de l'IA doit être strictement encadrée.
Dans la France d'aujourd'hui, les mots comme "régulation", "responsable", "inclusif" et tout le reste, désignent de la surveillance de masse et de la censure, maintenant par IA. Ça reste dans la droite ligne de la France depuis 2017, leader de cette démarche dans l'UE ; la preuve en est l'organisation de cet événement.

Peut-être qu'en complètement, il y aura une vraie mission de sécurité.