L’usage des machines

Des multiples outils IA qui ont l’ambition d’intégrer des logiques de travail et des usages socio-numériques dans leur fonctionnement technique, ceux qui exploitent des données textuelles et vidéos ou images disponibles sur l’Internet ont la capacité de fabrication d’un monde hybridé fait d’images réelles, de textes humains et d’images virtuelles ou de textes non humains, artificiels ou asociaux. Si l’on s’intéresse à la question centrale des usages dans les domaines des Sciences de l’Information, de la Communication et de la Cognition (SICC), de la Philosophie du Travail et des Techniques et de la Psychologie Sociale, il est possible de déterminer trois grands domaines d’applicabilité et de réflexivité des technologies de type open-AI, pour et dans la société des vivants ; la délégation du pouvoir et de la capacité à générer des signes-symboles aux machines à lire et à voir de type IA, la substitution de tâches pénibles et sans valeur ajoutée réelle et la facilitation puissante (du terme économique « Facilities management ») des activités qui font perdre du temps et mobilisent des efforts physiques, cognitifs et symboliques. Ces trois lignes d’interaction avec la machine à lire indiquent la potentielle activité économique pure d’outils très divers et embarqués dans des tâches de copilotage des interactivités industrielles ; objets manufacturés, robots programmés, machines-outils, écosystème informatique … C’est tout un environnement de développement possible pour des outils IA embarqués à l’intérieur de formes de travail qui sont fatalement modifiées par l’exécution de programmes de développement d’un potentiel technologique supérieur d’action, d’intelligence et de transformation d’un milieu vivant. La forme sociale hybride ici est importante ; la mixité de tâches humaines, avec des tâches ou des exécutrices-machines qui par et avec l’expertise encore humaine du travail décident des directions pour l’activité économique et sociale.

Étant donné que le résultat produit par une machine de type Chat-GPT basée sur un LLM (Large-Language-Model) n’a aucune autorité d’aucune sorte mais est la production d’une exploitation statistique et vectorielle d’un gisement de données humaines présentes sur l’Internet, la capacité technologique ne peut rien produire de valeur ajoutée réelle sans l’intervention humaine sous la forme d’un cadrage réussi de l’interactivité technique et de l’interaction sociale ; il est par conséquent toujours nécessaire de mettre l’humain dans la boucle des décisions et le gain d’efficacité et d’autonomie bien que réel ne peut pas empêcher ou ne se fait réellement qu’avec l’exercice de l’expertise humaine. Les prophètes de malheurs comme les technos solutionnistes ont une fâcheuse tendance à substantiver l’IA comme forme ou sujet technologique doté d’un pouvoir de nuisance presque métaphysique ou d’une capacité magique et mystifiante à résoudre ou à définir tous les problèmes rencontrés par les sociétés des vivants.

Ce qui est philosophiquement pertinent ici est l’interrogation fondamentale sur les frontières anthropologiques, techniques et économiques qui découpent les domaines d’activités des IA pilotables ; l’exploitation d’un gisement de données fait que ces données représentent des ressources symboliques et matérielles, qui comme toutes autres ressources ou créations humaines et vivantes doivent faire l’objet de protection juridique et de considération intellectuelle ; de même, qu’un dessin d’artistes représentant une forêt encore bien réelle fait le lien entre l’exercice d’une capacité neurocognitive, d’un sujet de l’interaction représentable – « la forêt » et d’une représentation culturelle d’un paysage donné passivement, de même ce lien-là issu de la libre créativité de l’artiste et de l’accueil ou du bouleversement des sens de la Nature – ne peut pas ou ne doit pas être perdu dès lors qu’il est reproduit mécaniquement par une technologie de génération automatique d’images basées en données sources sur ce dessin parmi des milliards d’autres dessins. Ici le potentiel de dégradation d’un écosystème de créativité par la réinjection quasiment sans fins, des résultats des machines à lire et à voir à l’intérieur même de la forme de représentation de plus en plus mixée, hybridée, de la Nature et de la Société des vivants, souligne la forte possibilité d’une progressive perte d’originalités ou de rareté dans la création vivante.

Or, la rareté – ou l’information rare – est la valeur première et fondatrice des systèmes d’information réellement utiles aux vivants ; une valeur nouvelle, presque incomparable et rare, injectée dans un écosystème d’information, de cognitions situées et de communication a la capacité de faire bouger la dynamique interactionnelle prise dans le moteur d’activités régulières de l’écosystème. Et les cybernéticiens de l’âge de l’IA auront le choix entre le contrôle, l’adaptation à tout prix des formes d’intelligences sociales par la neutralisation de la rareté dangereuse ou la promotion des risques et des matrices de décisions qui vont permettre une capacité de création de futurs nouveaux, c’est à dire de futurs possibles qui sortent d’une prédétermination naturelle des formes de vie de la langue, des animaux, des agents-ressources (forêts, rivières, montagnes, déserts, fleuves, océans, nuages …) et de l’humain.

Cette prédétermination correspond assez bien à cette sorte de sophisme que le philosophe britannique G.E. Moore (1873-1958) avait dénoncé en son temps – ce « sophisme naturaliste » qui fait du concept de bonté comme indéfinissable, autre chose que lui-même, ou réduit un prédicat pur et un objet simple, inanalysable, ou faisant l’objet d’un jugement synthétique ; le « bon », à un prédicat d’ordre psychologique, relatif à une détermination extrinsèque (ce qui est naturel est bon, ce qui est utile est bon, ce qui est plaisant est bon etc.) – Ici ce qui est visée par notre commentaire est l’inexorabilité d’une tendance sociétale qui tend à forcer vers l’adaptation dite naturelle et justifiée parce que naturelle, toutes les tentatives philosophiques ou socio-économiques de sortir de modes de vie ultra-calibrés par un techno-capitalisme traditionnel basé sur la civilisation thermo-industrielle et la rupture des limites planétaires. Discréditer les tenants des bifurcations courageuses et indispensables doit s’entendre comme adaptation forcée, techno-solutions mirifiques, consommation effrénée et dénuée de sens du plaisir et l’IA peut en faire partie dès lors que les outils IA ne sont pas réfléchis par des usages sociaux réels et bénéfiques dans la forme sociale des activités et du travail vivant qui engageant des corps, des ressources, des agents naturels qui transforment un milieu de gestes et d’organismes vivants, imposent une psychologie politique et une gouvernance.

Gouverner les machines depuis des axes de réflexions philosophiques qui puisent aux ressources intellectuelles initiales d’un champ de savoirs historiquement situés, aux premières tentatives issues de la cybernétique des années 1950 (impulsées par les travaux du mathématicien américain Norbert Wiener (1894-1964), parce qu’il est d’abord et avant tout question d’usages sociaux des êtres vivants – de contrôle des écosystèmes apprenants – et que la complexité inouïe des machines à lire et à voir, ne peut pour des raisons de mystification du procédé technique, – « vous n’y comprendrez rien, laissez-nous décider en leur nom » – empêcher la réflexion sur l’usage et la gouvernance politique et économique des IA génératives. L’énorme puissance de calcul grammatical et la consommation d’énergie très élevée des fameux datacenters posent là aussi la question du contrôle, de la gouvernance et des usages sociaux des IA réellement bénéfiques à la bifurcation de nos modèles sociaux économiques vers plus de sobriété, plus de pauvreté et d’humilité dans nos relations sociales et naturelles. Car une machine à lire comme une machine à voir sont des machines de haute précision ; elles doivent correspondre à l’applicabilité d’un programme qui décide de produire un résultat conforme par une comparaison statistique incroyablement complexe et insaisissable par l’intelligence humaine,- et qui interroge la spécificité de l’intelligence humaine ainsi que sa mesure réelle – mais ce qui peut être dit, ici est que si l’IA est en capacité de travailler sur et avec des scénarios de sortie d’un modèle de vie qui n’a plus rien de réellement possible dans le monde du changement climatique et de la crise énergétique alors la forme hybride de vie, qui accueille les activités et les passivités des vivants, les machines gouvernées, les agents naturels est la forme de vie qui relie ensemble la vie naturelle, les transformations de soi, la libre créativité et la société des vivants.

Fragments d’un monde détruit – 134

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *