Le danger de l’algorithme n’est pas qu’il nous vole notre travail, mais qu’il nous vole notre humanité. Le véritable enjeu n’est pas la puissance technique, mais le pouvoir d’influence que ceux qui gouvernent les données exercent sur la construction de la réalité sociale, sur les imaginaires collectifs et sur les solutions qui deviennent pensables, légitimes, inévitables. Un domaine où ce mécanisme est particulièrement évident est celui des politiques sociales, et de manière encore plus nette le lien entre migration et sécurité. La société civile est peut-être le seul véritable antidote à cette dérive, mais à une condition : grandir en conscience et en compétence.
Le débat public sur l’usage des données et des algorithmes est étonnamment pauvre, surtout si on le compare à la puissance réelle que ces outils exercent. On continue à tout réduire à la question, désormais presque rituelle, de l’Intelligence artificielle qui « vole le travail », comme si le problème n’était que professionnel et comme s’il suffisait d’en réguler les effets secondaires. C’est une simplification commode, mais profondément trompeuse. Le véritable enjeu n’est pas la puissance technique, mais le pouvoir d’influence que ceux qui gouvernent les données exercent sur la construction de la réalité sociale, sur les imaginaires collectifs et sur les solutions qui deviennent pensables, légitimes, inévitables. Un domaine où ce mécanisme est particulièrement évident est celui des politiques sociales, et de manière encore plus nette du lien entre migration et sécurité. Ici, nous ne sommes pas seulement face au risque des fausses nouvelles, mais à la production systématique de véritables fake truth : des récits cohérents, soutenus par des tableaux de bord, des indicateurs, des cartes et des modèles prédictifs qui finissent par apparaître comme objectifs, scientifiques, indiscutables. C’est dans cet espace que l’usage des données et des technologies devient explosif, car il ne se limite pas à décrire le monde, mais il le construit.
Le cas de Palantir Technologies est emblématique. L’utilisation de ses plateformes par les gouvernements, en particulier aux États-Unis pour le contrôle des frontières et des politiques migratoires, montre clairement que la technologie n’est jamais neutre. Les outils qui agrègent, croisent et visualisent d’énormes quantités de données n’incorporent pas seulement une logique d’efficacité, mais aussi une vision précise du monde. Des phénomènes sociaux complexes sont traduits en problèmes d’ordre public ; les personnes deviennent des profils de risque ; les migrations se transforment en flux à intercepter, bloquer, repousser. Dans ce processus, la dimension politique, sociale et humanitaire est progressivement vidée de sa substance, absorbée par une grammaire technique qui semble aller de soi.
Le point crucial est que ces technologies ne se limitent pas à soutenir les décisions, mais se proposent de rééduquer les institutions. Elles habituent les administrations et les décideurs à lire la réalité à travers des catégories prédéfinies, des métriques et des scores. Elles restreignent le champ des alternatives, en poussant vers des solutions préfabriquées, souvent sécuritaires, apparemment inévitables. Ainsi, la technique devient un puissant instrument pour réduire la complexité et vider de sa substance le rôle pensant et politique des communautés : ce qui est un choix de valeur est présenté comme une nécessité objective, ce qui est controversé est présenté comme neutre, ce qui est conflictuel est présenté comme inefficace. C’est ici que se joue une partie qui va bien au-delà des normes juridiques.
Le risque est que l’influence des responsables des grandes entreprises technologiques, de plus en plus souvent passés des grandes entreprises à des rôles stratégiques dans l’appareil public, finisse par redessiner l’espace même du social, en en redéfinissant les priorités, les significations et les frontières. Le résultat est un affaiblissement du rôle des communautés, de la délibération démocratique, de la capacité collective d’imaginer des réponses différentes. C’est précisément dans cet espace que le tiers secteur et la société civile ne peuvent plus se permettre d’être marginaux. L’idée d’impuissance, selon laquelle ces questions seraient trop grandes, trop globales, trop techniques pour être affrontées, fait elle-même partie du problème. La société civile est peut-être le seul véritable antidote à cette dérive, mais à une condition : grandir en conscience et en compétence. Sortir des débats instrumentalisés et se repositionner comme un acteur capable de lire de manière critique l’usage des données, d’en démonter les récits implicites, de proposer des visions alternatives fondées sur les droits, les relations et les contextes. Dans chaque pays, cela devrait devenir un axe central du débat public. Non pas pour diaboliser la technologie, mais pour la soustraire à l’aura d’inévitabilité qui l’entoure. Les données et les algorithmes construisent des mondes possibles : décider quels mondes nous voulons habiter est une question profondément politique et collective. Sans un réveil culturel et sans un investissement sérieux dans les compétences critiques du tiers secteur et de l’économie sociale, le risque est que le périmètre du sens et de la valeur soit progressivement réécrit en « langage technique », en perdant humanité et capacité de transformation.
Voir, Il pericolo dell’algoritmo non è che ci rubi il lavoro, ma che ci rubi l’umanità
Photo de Markus Spiske sur Unsplash
Laisser un commentaire