Intelligence artificielle

Temps de lecture : 2 min.
Publié le 27 Mar. 2025
Derrière des effets d’annonces de la part de gouvernements qui indiquent vouloir une intelligence artificielle « éthique et durable », ce sommet a surtout été l’occasion de dérouler le tapis rouge aux géants de la tech, dans un contexte où certains de ses acteurs les plus proéminents (Meta, Google, Elon Musk…) se rangent derrière l’extrême droite, et mettent tout en œuvre pour la faire progresser.

IA : pas sans nous !

Pour construire une intelligence artificielle qui soit durable et qui respecte les droits des travailleur·ses, la France doit porter une stratégie industrielle qui aille en ce sens.

D’abord en protégeant des entreprises comme Atos, qui entre autres gère les supercalculateurs, machines sur lesquelles le fonctionnement de toute IA repose ; ensuite, en construisant un cadre multilatéral solide et qui encadrera l’intelligence artificielle, de sa conception jusqu’à ses impacts sur l’environnement, nos démocraties, et nos métiers.

Car si les États signataires de la déclaration finale du Sommet sur l’IA souhaitent vraiment une intelligence artificielle éthique, durable et inclusive, cela ne pourra pas se faire en dehors des instances internationales.

C’est pourquoi la CGT porte dans sa contribution au Sommet le fait que des travaux soient lancés rapidement dans le cadre de l’Organisation des nations unies, et notamment de l’Organisation internationale du travail. 

Une convention doit pouvoir entrer en vigueur rapidement afin de protéger les droits des travailleur·ses et de leurs représentant·es au niveau mondial. La CES prône aussi l’entrée dans le droit européen d’une directive sur les systèmes d’IA au travail, avec le soutien de ses affiliés français.

Sur le même thème

Actualité

Services publics : déni et variable cachée du sommet sur l'IA ?

Lire la suite
Actualité

L’IA au travail : tout savoir sur ses droits en 16 questions

Lire la suite
Actualité

Sommet sur l’IA : des effets d’annonces mais aucun cadre réglementaire

Lire la suite