Avec l’apparition des géants numériques, et plus encore depuis leur main-mise sur l’intelligence artificielle générative, les critiques pleuvent sur une informatique au service des seuls enjeux économiques, risquant de laisser un nombre toujours plus important d’humains sur le carreau.
Si cette situation s’inscrit résolument dans une évolution de l’informatique, celle-ci reste traversée par des visions opposées. D’un côté, une exploitation de l’informatique au service d’abord des intérêts commerciaux. De l’autre, une informatique visant prioritairement des logiciels bien pensés, sûrs et efficaces.
Comprendre comment et pourquoi la première prend progressivement le pas sur la seconde explique la situation actuelle. Mais cela permet aussi d’entrevoir comment s’adapter à cette tendance.
Les irréductibles hackers
Dès l’origine de l’informatique, des collectifs se constituent avec l’ambition de mettre les ordinateurs directement entre les mains des utilisateurs. Au tournant des années 1960, des étudiants reçoivent un accès aux ordinateurs des laboratoires universitaires américains1 dont ils deviennent rapidement les maîtres incontestés, partageant leurs idées et le code source de leurs programmes informatiques [1].
C’est la naissance de la culture hacker à laquelle j’avais consacrée un de mes premiers billets. Cette culture, qui continue à se développer depuis, bien que devenue minoritaire aujourd’hui, s’oppose à la main-mise des grandes entreprises sur l’informatique.
Critiquant sans relâche les logiciels commerciaux, souvent mal conçus et généralement faiblement sécurisés, cette culture tente depuis ses débuts de faire émerger une informatique transparente et servant l’intérêt général. On la retrouve notamment au cœur des collectifs autour des logiciels libres et open source.
Elle ne constitue pour autant pas un réel mouvement politique, et encore moins une quelconque prise de conscience sociale, la plupart de ses membres provenant d’une bourgeoisie de type occidental. Elle s’inscrit plutôt dans une exigence éthique visant à produire les meilleurs logiciels possibles.
Des innovations informatique essentiellement publiques
Comme je l’ai déjà évoqué, le développement d’internet doit beaucoup à la culture hacker. La diffusion des premiers outils de communication individuelle et collective découle de sa pratique de partage des programmes [2]. Il en est de même du Web2. Et l’encyclopédie en ligne collective Wikipédia est évidemment un prolongement des principes des logiciels libres et open source, pour ne citer qu’un exemple.
La culture hacker infuse également les travaux informatiques les plus importants, y compris en intelligence artificielle, au sein des universités et centres de recherches grâce à de nombreux financements publics (notamment aux États-Unis). Si une partie de ces financements proviennent du Pentagone3, les équipes de recherche baignent dans le climat protestataire de la fin des années 1960 [3].
Norbert Wiener qui développa la cybernétique, une inspiration évidente pour les fondateurs de l’intelligence artificielle (IA), incarne la position la plus politique en s’interdisant de publier tout résultat récupérable par l’armée [4]. Il ne cessera pas non plus de mettre en garde contre l’utilisation des machines contre les humains.
Dès ses débuts, des personnalités de premier plan défendent une informatique au service de l’humain. Joseph C. R. Licklider, qui joue un rôle important dans l’émergence d’internet, ambitionne une symbiose homme-machine pour permettre à l’humain de se concentrer sur les tâches les plus importantes [5]. Douglas C. Engelbart, le père des interfaces graphiques, travaille à la même époque à des machine qui «augmentent l’intellect humain» [6].
La marchandisation de l’informatique
Les grandes entreprises technologiques d’alors, IBM en tête, perçoivent très vite la manne financière potentielle de ce nouveau «business»4. Sans tomber dans la caricature, cette industrie nouvelle privilégie la conquête de marchés souvent au détriment de la qualité des solutions informatiques déployées. Elles s’opposent donc dès le début à l’éthique de la culture hacker.
Pour contrer l’idée de partage des programmes informatiques, elles mobilisent la propriété intellectuelle. Pour contrer les critiques quant à la piètre qualité de leurs logiciels, démontrée par la facilité avec laquelle on peut pénétrer dans les systèmes informatiques, elles multiplient les procès en exigeant des peines de prison. C’est de ce travail de sape qu’émerge l’image du hacker comme criminel informatique qui perdure jusqu’à nos jours [7].
La naissance de l’informatique personnelle au tournant des années 1980 voit l’émergence de nouveaux acteurs, notamment Microsoft et Apple. Pourtant en partie issus de la culture hacker, ils auront tendance à s’aligner sur les positions de l’industrie informatique existante en s’appropriant les mêmes discours et attitudes.
Parallèlement, alors qu’internet est initialement financé par le public et que toute activité commerciale y est proscrite, l’État américain s’en désengage progressivement au début des années 1990 et en confie la gestion au secteur privé5 [2]. Cette mutation s’achève le 30 avril 1995. Désormais, c’est le marché qui guidera le développement d’internet.
Les créations d’entreprises spécialisées dans l’internet se multiplient : en 1994 Amazon, en 1998 Google et PayPal, et en 2004 Facebook. Moins de 10 ans auront été nécessaires pour voir apparaître les géants du numérique qui dominent aujourd’hui l’économie, et influencent des pans entiers de nos vies.
Le mythe entrepreneurial
J’ai suggéré par le passé que le succès d’Apple découlait plus des recherches publiques que de Steve Jobs, son charismatique co-fondateur. Il en est de même de la plupart des entreprises technologiques.
Pourtant, trop souvent, l’explication avancée est un soi-disant génie des créateurs et créatrices6. On omet l’ensemble des circonstances favorables (accès à des recherches ou à des capitaux, arrivée sur un marché vierge sans acteurs historiques, aides gouvernementales, etc.) pour présenter les réussites commerciales comme issues ex nihilo, réussites d’une seule personne «hors du commun», et maintenir ainsi ce que le chercheur Anthony Galluzzo appelle le «mythe de l’entrepreneur» [8].
En réalité, comme je l’ai déjà dénoncé, on assiste dans le domaine technologique à une privatisation partielle de biens qui sont au départ communs. La population finance, à travers l’impôt, des recherches et des infrastructures publiques sur lesquelles s’appuient ensuite des «entrepreneurs et entrepreneuses» pour créer leurs projets commerciaux privés.
Leurs supposées qualités exceptionnelles servent en partie à nous faire accepter ce processus d’accaparement et à justifier ensuite certaines réussites indécentes7. Warren Buffett, que l’on peut difficilement qualifier de gauchiste, a plusieurs fois reconnu qu’il avait eu de la chance et que sa réussite devait beaucoup au fait d’être né au bon moment et au bon endroit, tordant ainsi le cou au succès spontané.
L’intelligence artificielle confisquée
La culture hacker ne se limite pas au domaine universitaire ; des clubs de personnes passionnées par l’informatique contribuèrent tout autant à la construction de ses valeurs8. Mais les équipes de recherche imprégnées de ces pratiques jouent un rôle primordial dans la création des technologies informatiques.
L’IA n’échappe pas à la règle. Fondée par des universitaires à Dartmouth en 1956, ses principales contributions proviennent des laboratoires financés par le public (raisonnement symbolique, réseaux de neurones artificiels, génération automatique de textes, etc.). Mais tout change au tournant des années 2000 avec une double évolution.
Premièrement, l’avènement du Web 2.0 qui permet désormais aux internautes lambda de publier des contenus en ligne (blogs, réseaux sociaux en ligne, forums de discussion, etc.). Subitement, internet donne accès à des quantités phénoménales de données numériques. En 2008, Google annonce qu’il y a au moins 1000 milliards de documents en ligne [9]9.
Deuxièmement, une explosion de la puissance informatique qui passe d’abord par la production d’ordinateurs plus performants, notamment en développant des processeurs spécialisés, puis par leur regroupement dans des grappes de serveurs. Certaines organisations disposent alors d’immenses capacités computationnelles.
Ces deux transformations nous propulsent dans l’ère des mégadonnées («big data»). On assiste à une révolution (au sens premier du terme) en IA. Il s’agit désormais d’exploiter ces masses de données pour détecter des corrélations plutôt que d’essayer de comprendre des causes [10].
On ne cherche par exemple plus les causes d’une maladie, mais on exploite plutôt des millards d’exemples pour trouver des corrélations entre certaines données (tel le génome) et l’apparition de cette maladie.
Les systèmes basés sur l’IA deviennent désormais des «boîtes noires» : on leur fournit des données en entrée (telle une image), ils produisent un résultat à la sortie (comme une étiquette, par exemple «chien» ou «chat»), mais aucune explication n’existe concernant le lien entre les deux. L’IA générative n’est que la dernière incarnation de cette approche qui domine aujourd’hui le champ de l’IA.
Outre les questionnements éthiques et épistémologiques, ce changement de paradigme induit un autre bouleversement : la recherche en IA se déplace du monde académique vers les entreprises. En effet, disposer des grappes de serveurs indispensables pour l’analyse de telles quantités de données est un luxe que seules des entreprises dotées de capitaux importants peuvent généralement se permettre.
Un milieu universitaire partiellement entravé dans sa capacité de projection
Les universités publiques, supposées garantes d’une recherche scientifique au service de l’intérêt général, se retrouvent souvent reléguées à l’arrière-plan de la recherche informatique, emprisonnées dans une double logique.
D’une part, le fameux «publier ou périr». Parti d’une volonté de «mesurer les performances» des chercheureuses, elle-même découlant des nouvelles politiques publiques visant à aligner le fonctionnement des services publics sur celui des entreprises privées, on débouche sur une stupide obsession de la publication dans les seules revues universitaires anglo-saxonnes10.
Les équipes de recherche se retrouvent dès lors souvent poussées à se concentrer sur des sujets ultraspécialisés, voire à développer des stratégies de publication pour «faire du chiffre» (comme découper une recherche en différents articles).
En informatique, hormis pour les plus grosses équipes qui disposent d’une taille suffisante, cet état de choses n’incite guère les autres à s’investir sur des développements «concrets», synonymes de recherches difficiles à valoriser à court terme, ou à s’ouvrir à des problématiques citoyennes rarement publiables dans des revues spécialisées.
D’autre part, toujours à l’affût de financements privés pour compenser leur manque de moyens, les universités poussent fréquemment, en particulier dans les domaines technologiques, à valoriser les recherches ayant des impacts concrets immédiats. Une tendance qui complique considérablement l’indépendance des équipes, ce que j’avais déjà critiqué dans un billet précédent.
Les équipes qui s’attaquent à des problématiques applicables directement se voient souvent embarquées dans des démarches commerciales, soit par une collaboration avec les grandes entreprises qui disposent des données et des ressources computationnelles nécessaires, soit en créant une spin-off (avec l’objectif d’une revente à un des géants du secteur). Dès lors, ces recherches ne servent que rarement l’intérêt général.
Pour une informatique au service de l’intérêt général
La culture hacker reste vivace. Les logiciels libres et open source continuent à fleurir, nous offrant des possibilités toujours plus importantes. On trouve aussi nombre de solutions logicielles ouvertes disponibles en IA, même si on manque encore de modèles réellement ouverts11.
En parallèle, la programmation se simplifie. Des langages de programmation nouveaux demandent moins de compétences pointues, et des bibliothèques logicielles mettent des algorithmes complexes à la portée de tous et toutes. Une facilité encore accrue par des aides automatisées qui s’intègrent dans les environnements de développement.
Pour autant, on ne peut pas faire reposer l’indispensable changement de cap de l’informatique seulement sur des initiatives individuelles. Au contraire, celles-ci doivent pouvoir s’adosser à une véritable politique étatique.
Les universités publiques doivent disposer de moyens supplémentaires pour rester un pôle de recherches critiques et d’innovations technologiques en dehors des contraintes du marché. Elles doivent aussi repenser leur rôle et favoriser l’implication concrète des chercheureuses dans nos sociétés en valorisant aussi ce type d’activités dans leur évaluation.
Il me semble aussi urgent de proposer à nos jeunes une réelle éducation informatique, seule voie pour prendre leur destin technologique en main. Celle-ci ne peut se limiter à une initiation à tel ou tel logiciel de bureautique ou à apprendre à taper deux mots-clés dans un moteur de recherche. Elle doit aborder les fondements techniques sous-jacents, ce qui suppose notamment une introduction à la programmation. Un tel programme exige de véritables spécialistes12.
Cela n’est toutefois pas suffisant. Le déploiement généralisé de l’IA générative suppose non seulement de comprendre la technologie, mais aussi d’être capable d’en interpréter les résultats. Une solide formation générale (linguistique, histoire, philosophie, mathématiques, etc.) s’avère pour cela indispensable, ce que les Anciens appelaient une éducation aux arts libéraux. Une ambition qui ne dépasse malheureusement jamais le stade des discours. Mais ceci est une autre histoire…
Références
[1] Steven Levy, Hackers. Heroes of the Computer Revolution, Penguin Books, 1993.
[2] Pascal Francq, Internet: Tome 1, La construction d’un mythe, Éditions Modulaires Européennes, 2011.
[3] Roy Rosenzweig, «Wizards, Bureaucrats, Warriors, and Hackers: Writing the History of the Internet», The American Historical Review, 103(5), pp.1530‑1552, 1998,
[4] Vivien Garcia, Que faire de l’intelligence artificielle ?Petite histoire critique de la raison artificielle, Rivages, 2024.
[5] Joseph C. R Licklider, «Man-Computer Symbiosis», IRE Transactions on Human Factors in Electronics, 1(1), pp. 4‑11, 1960.
[6] Douglas C. Engelbart, Augmenting Human Intellect: A Conceptual Framework, AFOSR-3233, Stanford Research Institute, 1962.
[7] Douglas Thomas, Hacker Culture, University of Minnesota Press, 2002.
[8] Anthony Galluzzo, Le mythe de l’entrepreneur: Défaire l’imaginaire de la Silicon Valley, Zones, 2023.
[9] Jesse Alper & Nissan Hajaj, «We Knew the Web Was Big…», The Official Google Blog, 2008.
[10] Viktor Mayer-Schönberger & Kenneth Cukier, Big data: A Revolution that Will Transform how We Live, Work, and Think, John Murray, 2013.
Notes
- Les ordinateurs étant prioritairement alloués au personnel du laboratoire, les étudiants ne peuvent y accéder qu’en dehors des heures de travail, principalement durant la nuit. Une habitude de travailler en horaires décalés qui fut longtemps une habitude répandue dans la profession. ↩︎
- Le Web permet le partage de documents entre des émetteurs et des émettrices, les fameux sites Web (comme ce blog), et des destinataires (tels les internautes qui lisent ce blog). La première catégorie utilise des serveurs qui hébergent les documents, la seconde des navigateurs qui permettent de les télécharger et de les afficher. Ces logiciels sont libres depuis le début. ↩︎
- En 1957 est créé le DARPA, une agence américaine visant à soutenir des projets de recherche pouvant contribuer à des applications militaires. Ses financements permettent de poser les bases de l’IA, d’internet, des interfaces graphiques ou encore du temps partagé en informatique. ↩︎
- Notons néanmoins que la perspicacité des entreprises est loin d’être infaillible. À titre d’exemple, le géant des télécommunications AT&T refuse dans un premier temps, sur les conseils d’une société de consultance, l’offre du gouvernement américain de gérer le premier réseau internet, estimant qu’il n’y avait là aucun potentiel commercial. ↩︎
- En pratique, les États interviennent parfois encore en finançant l’accès aux infrastructures dans le secteur éducatif et culturel (écoles, universités, bibliothèques, etc.). ↩︎
- Le simple fait qu’il s’agisse principalement d’hommes blancs démontre que d’autres éléments sont à l’œuvre que simplement un supposé talent. ↩︎
- Je ne nie évidemment pas un certain mérite individuel de celles et ceux qui fondent des entreprises utiles. Je souligne simplement l’importance prédominante du contexte et des opportunités rendues possible par une société donnée et produites collectivement. ↩︎
- Parmi les clubs légendaires, citons notamment le Homebrew Computer Club dans la Silicon Valley ou encore le Chaos Computer Club en Allemagne toujours en activité. ↩︎
- Non seulement l’indexation de Google s’est arrêtée à ce nombre-là, mais elle s’est limitée aux seules pages publiques alors qu’il existe de grandes quantités de documents privés (pensons simplement aux sites Web de journaux qui demandent un abonnement pour y accéder). ↩︎
- Qui dit mesures, dit base de données. Or les principales bases de données de publications sur lesquelles se fondent les universités pour effectuer ces mesures n’indexent que les revues scientifiques anglo-saxonnes «de qualité» (donc pas de journaux francophones ni de livres). ↩︎
- Un modèle «réellement ouvert» suppose non seulement la publication de tous ses paramètres, mais également celle de son corpus d’apprentissage ainsi que celle de tous les prétraitements appliqués à celui-ci. ↩︎
- Dans les rares écoles où une introduction à l’informatique est proposée, on assiste habituellement, par mesures d’économie, à la reconversion d’enseignants et d’enseignantes d’autres matières, parfois après une simple «formation» de quelques jours. De tels choix politiques privent les élèves d’une réelle compréhension des limites techniques et des enjeux éthiques et sociétaux posés par l’informatique. ↩︎