59 liens privés
Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources,
Trouver rss
Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser.
la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXᵉ siècle comme l’hygiène publique, le développement des services publics ou la justice économique.
Comprendre ce qu’est le Doge et ce qu’il fait n’est pas si simple. Piratage ? Coup d’Etat ? Subversion ? Corruption ? Changement de régime ? Incompétence ?… L’Amérique est assurément en train de remplacer sa démocratie par un monstre.
Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez dans un article scientifique ou sur des sites web en lien quelconque avec une quelconque administration étatsunienne, vous vaudront, à votre article, à votre site, et donc, aussi, à vous-même, d’être « flaggé », d’être « signalé » et, ensuite, possiblement, « retiré ».
Il semble que nous n’ayons finalement rien appris, rien retenu et, surtout, rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que, malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, rien de tout cela, semble-t-il, n’a été suffisant.
« Ceci est un livre pour les personnes qui veulent détruire les Big Tech.
Ce n'est pas un livre pour les personnes qui veulent dompter les Big Tech. Il est impossible de les réformer.
Ce n'est pas non plus un livre pour les personnes qui veulent se débarrasser des technologies à proprement parler. Les technologies ne posent pas de problème en soi. Arrêtons de réfléchir à ce que font les technologies. Réfléchissons plutôt à qui elles le font et pour qui elles le font.
C'est un livre qui s'intéresse à ce que les Big Tech craignent le plus : une technologie qui serait dans les mains et au service des personnes qui l'utilisent. »
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.
Le gouvernement a doté France Travail d'une gigantesque base de données personnelles qui regroupe les informations médicales, financières et sociales de ses allocataires. La CNIL s'inquiète des risques potentiels de cette centralisation massive.
publi-reportage !
Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation. Après avoir révélé que l’algorithme utilisé par la CAF visait tout particulièrement les plus précaires, nous démontrons, via la publication de son code1, que l’Assurance Maladie utilise un algorithme similaire ciblant directement les femmes en situation de précarité.