59 liens privés
Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser.
la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXᵉ siècle comme l’hygiène publique, le développement des services publics ou la justice économique.
L’imposture est immense. Le court-circuit proposé est une négation pure et simple de ce que sont profondément les apprentissages : des chemins, des processus faits de compréhension, de conceptualisation, de prise de conscience, de « procéduralisation »17. En prétendant nous faire gagner du temps, les usages actuellement majoritaires et promus des IA nous privent du chemin, nous privent donc de la possibilité réelle d’apprendre, d’accéder à toute forme d’autonomie au sens kantien du terme. De même qu’un usage fréquent du GPS fragilise la capacité à se repérer dans l’espace, l’usage fréquent des IA génératives ne peut que fragiliser notre capacité à nous orienter dans la pensée18. C’est assez précisément ce que démontre une récente étude, pourtant menée par des chercheurs travaillant pour Microsoft, concluant que l’usage de l’IA « peut inhiber la capacité critique d’engagement avec toute tâche et peut avoir pour potentiel conséquence à se trop se reposer sur l’outil ainsi qu’à diminuer les compétences de résolution de problème »19.
Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation. Après avoir révélé que l’algorithme utilisé par la CAF visait tout particulièrement les plus précaires, nous démontrons, via la publication de son code1, que l’Assurance Maladie utilise un algorithme similaire ciblant directement les femmes en situation de précarité.
L'objectif de ce site est de partager des clés de compréhension sur ce qu'est l'IA aujourd'hui, des enjeux que ce domaine du numérique pose à nos sociétés et enfin des questions à se poser pour déterminer si tel outil est digne de notre confiance.
Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.
Que nous vend-on exactement?
OpenAI a publié un « Guide de l’étudiant pour écrire avec ChatGPT ». Dans ce billet, je passe en revue leurs conseils et je propose quelques contre-arguments, d’un point de vue d’enseignant-chercheur. Après avoir abordé chacune des 12 suggestions d’OpenAI, je conclus en évoquant rapidement les aspects éthiques, cognitives et environnementaux que tout étudiant devrait considérer avant de décider d’utiliser ou non ChatGPT. (Version anglaise : A Student’s Guide to Not Writing with ChatGPT)
ChatGPT, donc, bavarde. Il bavarde de façon probabiliste, sur la base de ce qu’il a entendu (son corpus d’entraînement — c’est l’idée du « perroquet stochastique ») et sur la base des instructions qu’il a reçues ensuite pour éviter de dire des choses qui pourraient déranger.
faute d'ortho à l'antépénultième §
du danger de penser l'IA comme un outil universel.
Recensement des algorithmes sous forme de fiche. On retrouve une fiche par algorithme
Ce qui caractérise ChatGPT, nous l’avons vu, c’est qu’il se fout de ce qu’il raconte : il communique pour communiquer. Je crois qu’il y a lieu de s’inquiéter des effets d’un tel média sur nos sociétés. Comme le dénonçait notamment Norbert Wiener, lorsqu’il n’y a de communication que pour elle-même, elle n’a plus de valeur« Rôle de l’intellectuel et du savant », 2014 [1954].
.
En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous surveillance algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.