Au-delà de la technologie : La cybernétique et le miroir humain
Cet article a été écrit par Josep Forest
Josep Forest
Josep Forest est cofondateur d'Opsis Vision Technologies et professeur associé à l'Université de Gérone (groupe VICOROB). Spécialisé en vision 3D et en robotique, il allie recherche et enseignement dans les domaines des technologies de traitement visuel et des systèmes numériques.
En 1948, Norbert Wiener a défini la cybernétique comme l'étude scientifique du contrôle et de la communication chez l'animal et la machine. À l'époque, cette définition semblait tracer un pont théorique entre deux mondes séparés. Aujourd'hui, cependant, ce pont n'existe plus. Les deux mondes n'en font plus qu'un. La frontière entre le biologique et le synthétique s'estompe à une vitesse que nous avons du mal à suivre.
De l'"ordinateur" aux "wearables"
Si nous regardons en arrière, dans les années 1970, la relation de l'être humain avec l'informatique était distante. La machine était une entité étrangère, un objet massif occupant des pièces entières et nécessitant des protocoles complexes pour interagir avec elle. C'était une technologie nouvelle, distante et étrangère à la personne.
Si nous regardons en arrière, dans les années 1970, la relation de l'être humain avec l'informatique était distante.
Aujourd'hui, la réalité est radicalement différente. Nous n'"utilisons" plus la technologie au sens traditionnel du terme, mais nous coexistons avec elle en symbiose. Le dispositif mobile n'est plus un outil, mais une extension de notre corps. Du foyer connecté à la voiture autonome, en passant par la montre qui surveille constamment notre rythme cardiaque, l'environnement numérique n'est plus optionnel.
Tout cela n'est que l'évolution naturelle de l'humanité, qui, contrairement aux autres espèces — condamnées à une adaptation biologique lente ou à l'extinction face aux changements environnementaux —, a maîtrisé la construction de niche (fonction qu'une espèce développe dans un écosystème donné). Nous n'attendons pas que notre corps change pour survivre, mais nous transformons la planète pour la rendre habitable (Niche Construction: The Neglected Process in Evolution - Odling-Smee, Laland & Feldman).
Des jeux vidéo à l'IA
Comment avons-nous atteint ce saut vertigineux en moins d'une génération ? La transition des simples machines à calculer aux robots qui sautent, dansent et apprennent n'a pas été un chemin linéaire ni totalement planifié. Au cœur de cette révolution, nous trouvons ce que l'on pourrait appeler un "accident de l'histoire".
Ce qui servait autrefois à déplacer des personnages dans un environnement virtuel entraîne maintenant les réseaux neuronaux qui gèrent le monde réel.
La carte graphique (GPU), une pièce matérielle conçue à l'origine pour la tâche récréative de rendre les jeux vidéo et de peindre des pixels en temps réel, s'est avérée avoir l'architecture parfaite pour le calcul neuronal massif. Cette puissance graphique a été le catalyseur qui a permis de passer des jeux vidéo à l'entraînement de modèles complexes d'intelligence artificielle. Ce qui servait autrefois à déplacer des personnages dans un environnement virtuel entraîne maintenant les réseaux neuronaux qui gèrent le monde réel.
Le passé devient présent en un "flash"
Ce progrès est le fruit d'une chaîne d'innovations silencieuses qui a connecté des décennies de recherche. Voici quelques dates et données clés qui résonnent :
- IA et Fondements : Des théories d'Alan Turing en 1950 à la naissance officielle du terme avec John McCarthy en 1956.
- Robotique : Un concept baptisé par Isaac Asimov (1941) qui a pris forme physique avec l'Unimate, le premier robot industriel, en 1954.
- Vision Artificielle : Initiée avec la thèse de Larry Roberts (1963) et le célèbre "Summer Vision Project" de Seymour Papert en 1966.
Tous ces sauts se sont produits de manière désynchronisée jusqu'à ce qu'"aujourd'hui" ils convergent, nous propulsant dans une nouvelle ère.
Chaque saut a ouvert la porte au suivant : le joystick a inspiré l'interaction, le GPU a fourni la puissance, les réseaux neuronaux ont créé le "cerveau numérique" et la robotique humanoïde lui a donné un corps pour appliquer l'intelligence apprise. Tous ces sauts se sont produits de manière désynchronisée jusqu'à ce qu'"aujourd'hui" ils convergent, nous propulsant dans une nouvelle ère.
Changement de focus
Nous sommes arrivés à un point où la symétrie n'est plus une métaphore. Nous avons créé des machines qui voient, bougent et interagissent comme nous. Les robots actuels reconnaissent les visages, interprètent les gestes et naviguent dans les espaces humains avec une précision qui dépasse souvent la nôtre.
La question n'est plus technique, mais profondément philosophique.
Cette capacité nous oblige à déplacer notre attention de la technologie vers l'éthique. Si une machine peut voir, sentir, apprendre et agir comme un être humain, quelle est la différence qui compte vraiment ? La question n'est plus technique, mais profondément philosophique. Où plaçons-nous la limite ? Pouvez-nous en placer une ?
Au-delà de la philosophie...
Selon les données de l'Agence Internationale de l'Énergie, la consommation électrique directement attribuable à une forme d'IA est actuellement de 1,5 % au niveau mondial. Bien que ce pourcentage puisse sembler faible, il correspond à 415 TWh (térawattheures) par an. Cela représente plus que la consommation électrique totale de pays entiers comme l'Argentine ou la Suède.
Les données montrent également que la consommation liée à l'IA augmente de 20 % à 30 % par an, et cette augmentation n'est pas linéaire ; il est très probable que cette consommation suive une relation exponentielle.
Les données montrent également que la consommation liée à l'IA augmente de 20 % à 30 % par an, et cette augmentation n'est pas linéaire ; il est très probable que cette consommation suive une relation exponentielle.
Évidemment, cette croissance est un facteur limitant que nous rencontrerons bien avant que l'humanité ne décide de la limitation ou de la régulation effective des limites de l'IA. Atteignons-nous la paradoxe que Hampton Fancher et David Peoples ont brillamment illustrée dans Blade Runner ? Ou la réalité énergétique de la planète sera-t-elle un facteur plus pragmatique qui autorégulera le déploiement massif de l'IA sous toutes ses formes ?
Et si nous regardons vers l'avenir de l'informatique, qui semble être quantique, résoudra-t-elle le problème énergétique grâce à une augmentation de plusieurs ordres de grandeur de l'efficacité computationnelle ? Pas à moyen terme, mais quand elle arrivera, peut-être aurons-nous suffisamment évolué pour mieux comprendre le nouveau paradigme... ou pas.
Conclusions : Un avenir à décider
Pour conclure, nous devons garder à l'esprit trois idées fondamentales :
- L'intégration est totale : La fusion entre les humains et la technologie n'est pas une promesse d'avenir, c'est notre présent quotidien.
- La chaîne est puissante mais organique : Il n'y a pas eu de planification centrale. Chaque innovation a débloqué la suivante de manière presque accidentelle.
- La responsabilité nous incombe : La technologie n'a pas la capacité de décider de ses propres limites. C'est une tâche qui nous revient en tant que société.
La réponse que nous apportons aujourd'hui à la question des limites de la machine finira par définir à quoi ressemblera le monde de demain.