59 liens privés
Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser.
la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXᵉ siècle comme l’hygiène publique, le développement des services publics ou la justice économique.
Comprendre ce qu’est le Doge et ce qu’il fait n’est pas si simple. Piratage ? Coup d’Etat ? Subversion ? Corruption ? Changement de régime ? Incompétence ?… L’Amérique est assurément en train de remplacer sa démocratie par un monstre.
Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez dans un article scientifique ou sur des sites web en lien quelconque avec une quelconque administration étatsunienne, vous vaudront, à votre article, à votre site, et donc, aussi, à vous-même, d’être « flaggé », d’être « signalé » et, ensuite, possiblement, « retiré ».
Il semble que nous n’ayons finalement rien appris, rien retenu et, surtout, rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que, malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, rien de tout cela, semble-t-il, n’a été suffisant.
« Ceci est un livre pour les personnes qui veulent détruire les Big Tech.
Ce n'est pas un livre pour les personnes qui veulent dompter les Big Tech. Il est impossible de les réformer.
Ce n'est pas non plus un livre pour les personnes qui veulent se débarrasser des technologies à proprement parler. Les technologies ne posent pas de problème en soi. Arrêtons de réfléchir à ce que font les technologies. Réfléchissons plutôt à qui elles le font et pour qui elles le font.
C'est un livre qui s'intéresse à ce que les Big Tech craignent le plus : une technologie qui serait dans les mains et au service des personnes qui l'utilisent. »
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.
Le gouvernement a doté France Travail d'une gigantesque base de données personnelles qui regroupe les informations médicales, financières et sociales de ses allocataires. La CNIL s'inquiète des risques potentiels de cette centralisation massive.
publi-reportage !
Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation. Après avoir révélé que l’algorithme utilisé par la CAF visait tout particulièrement les plus précaires, nous démontrons, via la publication de son code1, que l’Assurance Maladie utilise un algorithme similaire ciblant directement les femmes en situation de précarité.
L'objectif de ce site est de partager des clés de compréhension sur ce qu'est l'IA aujourd'hui, des enjeux que ce domaine du numérique pose à nos sociétés et enfin des questions à se poser pour déterminer si tel outil est digne de notre confiance.
Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.
ChatGPT, donc, bavarde. Il bavarde de façon probabiliste, sur la base de ce qu’il a entendu (son corpus d’entraînement — c’est l’idée du « perroquet stochastique ») et sur la base des instructions qu’il a reçues ensuite pour éviter de dire des choses qui pourraient déranger.
faute d'ortho à l'antépénultième §
du danger de penser l'IA comme un outil universel.
Comment parvenir à faire ensemble ? Comment réussir collectivement à déployer un projet, tant d’un point de vue relationnel qu’opérationnel ? Comment éviter de tomber dans les nombreux pièges qui jalonnent le parcours d’un groupe ? Cet ouvrage pratique, issu des séminaires de l'Université du Nous et enrichi par le partage de nos expériences, apporte, à travers des éclairages philosophiques et des outils pédagogiques, des éléments de réponse à ces enjeux et des solutions pour un « mieux-vivre » collectif.
Cette page a pour objet de lister des sources et ressources anarchistes suivant la liste de valeurs et principes que j’ai réalisée pour ⤷ mon affiche dédiée au sujet et de préciser certaines des lignes de la cartographie en expliquant les termes et les significations. La page suivra le même principe de catégories.
Recensement des algorithmes sous forme de fiche. On retrouve une fiche par algorithme